Chips & Salsa

articoli e appunti da franco carlini

  • fc

Archive for agosto 2006

Dov’è finito il giornale? L’«edicola» del futuro

Posted by franco carlini su 30 agosto, 2006

di Andrea Rocco, IL MANIFESTO

Quotidiani La carta stampata cerca una via d’uscita
Il calo di copie in tutto il mondo sembra ormai irreversibile. I «modelli» di rilancio passano dal quotidiano iper-localizzato a quello totalmente commerciale. Il «rapporto speciale» di The Economist e le vie d’uscita possibili

Che cosa si fa quando le vendite calano e gli inserzionisti spariscono? Nella grande confusione che si è creata sotto il cielo dei media stampati dopo l’affermazione di Internet la corsa ad inventarsi dei «nuovi modelli di business», più che dei nuovi modelli di giornali e riviste, è stata piuttosto affannosa. Il «rapporto speciale» pubblicato da The Economist questa settimana delinea i contorni della crisi, a livello planetario, della carta stampata. I dati sono chiari. In America la stessa associazione di categoria, la Newspaper Association of America (Naa, che però tende a dipingere ad uso degli inserzionisti un quadro molto roseo) parla di un calo di percentuale di lettori sulla popolazione totale nell’ordine del 7% in sette anni, con una forte accentuazione del calo nelle fasce di età più giovani.
Un quarto della pubblicità sui quotidiani stampati è destinata a spostarsi sul web entro 10 anni. La fetta della torta pubblicitaria a livello globale che conquistano i quotidiani era del 36% nel 1995, è di circa il 30% oggi e scenderà al 25% tra dieci anni (in Italia, grazie allo strapotere del duopolio tv siamo già a cifre molto più basse). Stesso discorso per i periodici. La pubblicità sulle riviste dirette al consumatore (non quelle professionali di settore) crescerà quest’anno negli Usa del 3% contro un aumento della pubblicità su Internet del 27% con un investimento totale di 14.5 miliardi di dollari, per la prima volta nella storia superiore a quello per le pagine di pubblicità sulle riviste.
Le vie di uscita dalla crisi tentate dagli editori di giornali e riviste sono molte. La più ovvia, e la prima tentata, è stata quella della creazione di edizioni online delle pubblicazioni cartacee.
Prima come imitazioni abbastanza piatte, poi con idee e impostazioni un po’ più innovative, con diversi modelli di pricing, dal «tutto gratis» al tutto a pagamento (modello Wall Street Journal), passando per vendita di articoli di archivio, special reports ecc. E le edizioni online hanno cominciato a fare quattrini per gli editori.
L’Economist ricorda come La Repubblica abbia raggiunto il milione di visitatori e abbia registrato quest’anno un aumento del 70% negli introiti pubblicitari online. E ancora la Naa esalta l’aumento del 35% della pubblicità sui siti web dei quotidiani, ma altri osservano come questo «boom» sia abbastanza marginale rispetto alle perdite complessive di fatturato pubblicitario e come gli inserzionisti stessi chiedano multipli di lettori web (dieci, ma anche 20 o 100) per compensare la perdita di un lettore print che dedica alla lettura più tempo e più attenzione.
Si ricorre allora ad altre strade, ad altri «modelli». Come quello di utilizzare il marchio, il brand della testata per fare tutt’altro. Un po’ come i nostri maggiori quotidiani che tendono a diventare appendici (a volte non volute) per vendere libri, enciclopedie, Dvd, collezioni musicali, all’estero si usa la edizione online per vendere un po’ di tutto. In Scandinavia il quotidiano Aftonbladet ha lanciato un club per dimagrire che ha raggiunto i 54.000 soci paganti e l’inglese Daily Telegraph vende online ogni sorta di prodotto e servizio (e queste vendite rappresentano un terzo dei profitti dell’editore). Per le riviste i percorsi sono simili. Dai rispettivi siti si vendono con gran successo le melodie per suonerie di cellulari. Ma sono anche nate sotto-testate (è il caso di OfficePirates.com per Time) molto mirate a segmenti di lettori di particolare interesse per gli sponsor, che diventano partner della pubblicazione (in questo caso le auto Dodge e il rum Bacardi).
C’è poi chi percorre altre strade, come quelle della vendita selettiva di contenuti giornalistici o para-giornalistici via web. Due casi di successo: quello della rivista per chi corre Runner’s World che ha visto 23.000 lettori scaricare un podcast di consigli per allenarsi alle maratone di Boston e New York. Gratis per i lettori, ma riccamente pagati alla rivista da due sponsor.
L’altro è Epicurius.com, sito «gastronomico» del gruppo Condé Nast, che consente l’invio di ricette dal sito al cellulare, con la lista degli ingredienti da leggere mentre si fa la spesa. Gratis anche qui, grazie allo sponsor American Express. Si capisce che questi siano solo tentativi, esperimenti, forse non cambio di strategia.
Ma quando queste sembrano delinearsi non vanno nel senso della maggior qualità, come suggerisce qualcuno degli intervistati da The Economist, ma verso, come visto, la totale commercializzazione del giornale oppure verso la iper-localizzazione del quotidiano.
Tra le poche testate che sembrano aver successo (e tra le poche nuove che nascono) sono quelle iper-localistiche, una pagina di notizie nazionali, una di internazionali e le altre a raccontare di feste di laurea, balli di debuttanti e gattini impigliati sugli alberi. E che peraltro non si capisce come si potranno difendere, in prospettiva, da siti e blog locali.
L’impressione generale è che modelli di business credibili non si vedano all’orizzonte su nessuno dei due lati dell’Atlantico. E che quelli tentati scontino una valutazione della crisi ben al di sotto della sua dimensione e profondità.

Pubblicità

Posted in giornalismo, media | 1 Comment »

I media della «nonmarket economy»

Posted by franco carlini su 30 agosto, 2006

di Franco Carlini

Data di oggi: 2043 L’eclissi della carta stampata e le ricette per salvare i giornali. Ma c’è un solo rimedio, la rivoluzione dei media Nuova comunicazione Un miliardo di persone prende la parola sulla Rete e si scambia informazioni diverse da quelle dei media tradizionali


Che l’ultima copia di quotidiano di carta verrà stampata nel lontano 2043 è una bella battuta, ma solo quello. Ed è una battuta consolatoria e ingannevole, con la quale i gruppi editoriali e i giornalisti più tradizionali (anche quelli che si vantano di essere in Internet da decenni) si vogliono autoconvincere che c’è ancora tempo per rimediare, che il mondo dell’informazione non è davanti a un abisso e che alla fin fine si arriverà a un felice aggiustamento, dove i vecchi media non scompaiono, ma si adattano e convivono con i nuovi, ognuno trovando il meglio del suo linguaggio e del suo pubblico di elezione. Non è successo così per giornali e cinema di fronte alla radio e per la radio di fronte alla televisione? Perché non dovrebbe capitare lo stesso, virtuosamente, anche per questi old media di fronte all’Internet?
È un punto di vista che sembra realistico e gradualistico, peccato che non sia affatto convincente, né dal punto di vista teorico, né da quello delle osservazioni empiriche. Intanto perché la crisi dei media tradizionali, nel rapporto con il loro pubblico e con il loro mercato è già ben profonda, solo che la si voglia vedere. Per i quotidiani sta nel numero di copie vendute in costante discesa, ovunque e per ogni tipo di giornale; per le case musicali nella parallela caduta di vendite dei supporti tradizionali, Cd e persino Dvd; per le tv nella crescente disaffezione del pubblico giovane e di quello professionale. I numeri sono chiari e coerenti nel tempo, da tempo.
Ma la causa qual è? Molto dipende dalla scarsa qualità di questi prodotti, dalle politiche predatorie dei prezzi, dalla scelta dei grandi media di avere come unici riferimenti i poteri (politico-economici) e gli inserzionisti. Il che produce distacco dalla vita delle persone, prodotti di minimo comun denominatore, scarsa credibilità e pensiero (quasi) unico.
Ma non solo di questo si tratta: in questa scena già di crisi, è dilagata, da 15 anni a questa parte, la rete Internet o meglio l’economia delle reti. E con essa ha preso spazio, credibilità ed efficacia anche economica un modello radicalmente diverso. Tutto il secolo ventesimo è stato dominato dal prodigioso dispiegarsi dell’economia industriale dei media le cui caratteristiche erano (e sono): 1) grandi capitali necessari per produrre informazione e conoscenza (stamperie, reti televisive, circuiti di distribuzione); 2) disseminazione dal centro verso la periferia, a scala di massa, dove ogni copia in più ha un costo aggiuntivo minimo o nullo; 3) fornitura di «prodotti finali» insieme completi e chiusi: un telefilm o un libro in questo senso non sono diversi da un paio di scarpe, si vendono e si comprano «così come sono». In questo modello informazione e conoscenza vengono prodotte, distribuite e consumate con le stesse caratteristiche industriali di ogni altra merce, anche se invece, per loro natura, sono un bene diverso dalle automobili, se non altro perché il possesso di un’idea non ne preclude l’uso e la circolazione da parte di altri, mentre una bibita o la bevo io o la bevi tu. E poi la conoscenza, anche quando firmata da un autore, è sempre un prodotto sociale. Per esempio molte delle cose qui scritte sono state dette molto bene e meglio da molti economisti dei media. E tutti, quando esprimiamo idee, lo facciamo innalzandoci «sulle spalle dei giganti» che ci hanno preceduto, come Newton ebbe a riconoscere con saggia modestia. E non solo dei giganti, ma dell’insieme di suggestioni, parole, conversazioni dei simili che ci circondano. Tutta la cultura, anche quella alta, è sempre anche folk.
Ma soprattutto, grazie alle tecnologie elettroniche, sono cambiate le condizioni materiali di produzione e fruizione. Sia chiaro la tecnologia non determina la rivoluzioni e che le stesse tecnologie dei media possono essere usate diversamente per favorire le democrazia o per deprimerla in un regime. Ma il nuovo che ci è arrivato addosso ha abbassato di molti fattori le barriere all’ingresso, rendendo possibile (abilitando) circa un miliardo di persone, quanti sono gli utilizzatori dell’Internet al mondo, a prendere la parola per i fini e interessi i più diversi. Insomma si è generato un felice incontro tra il desiderio delle persone a dire la loro in pubblico (un desiderio che caratterizza da sempre la nostra specie) con la possibilità di farlo facilmente e a costi pressoché nulli. Milioni di persone lo fanno, a prescindere e anche in contrasto critico con i contenuti informativi dei media tradizionali. Spesso di quelli fanno a meno e agisco o con modelli di condivisione delle conoscenze che spesso non sono quelli industriali e nemmeno di mercato. È una «nonmarket economy», come la chiama lo studioso americano Yochai Benkler. Non soppianta quella esistente, di stato e mercato, ma la obbliga a rifare i conti con se stessa, che si tratti di produzione di software, come di musica o di agende politiche. La sua caratteristica dominante è di portare in pubblico sia le chiacchiere da bar che le notizie scomode, sia i diari adolescenziali che le malefatte delle corporations. E di farlo in maniera più completa, globale e credibile, dei media storici, perché l’interesse di chi lo fa non è solo utilitaristico, ma sociale. Se le foto di Abu Graib o del Libano bombardato sono più su YouTube che sul Corriere, questo esalta la credibilità della rete e (fortunatamente) deprime quella dei Panebianco sostenitori della tortura.

Posted in giornalismo, media | Leave a Comment »

Business – Testate in vendita

Posted by franco carlini su 30 agosto, 2006

di Andrea Rocco

Mentre si moltiplicano i segnali di una crisi epocale di quotidiani e riviste, negli Usa si è aperta negli ultimi mesi una corsa all’acquisto (e alla vendita) di proprietà nei media stampati che sembrerebbe contraddire l’atmosfera «da Titanic» che viene descritta in molti articoli. Il colosso Tribune Co., proprietario di 2 dei maggiori quotidiani statunitensi, il Chicago Tribune e il Los Angeles Times sarebbe in procinto di vendere il giornale californiano che aveva acquistato dalla famiglia Chandler nel 2000, con la prospettiva di realizzare quelle mitiche «sinergie» soprattutto sul piano della raccolta pubblicitaria. Per il Times si sono fatti avanti una serie di potenziali acquirenti, dal magnate dell’immobiliare Eli Broad al finanziere Peter Ueberroth a David Geffen, industriale discografico di successo e socio di Steven Spielberg e Jeffrey Katzenberg nella società di produzione cinematografica DreamWorks. Il Tribune vuole vendere, a pezzi il suo impero di giornali e Tv locali: nel solo mese di agosto ha venduto due stazioni Tv ad Atlanta e ad Albany (Ny). La stessa cosa ha fatto la seconda catena di quotidiani d’America, la Knight-Ridder, proprietaria di 32 quotidiani tra cui il San Jose Mercury News, il Philadelphia Inquirer e il Miami Herald, che ha venduto al gruppo McClatchy . Quest’ultimo ha immediatamente spezzettato il pacchetto e venduto 12 quotidiani ad altrettanti acquirenti. «Sembra che stiamo assistendo – ha notato la Columbia Journalism Review – all’inizio di una de-centralizzazione del giornalismo americano». E’ un fenomeno all’apparenza bizzarro, nei periodi di crisi di solito si marcia verso la concentrazione. Ed è strano che questa voglia di svendere avviene per proprietà, quelle dei quotidiani Usa, che sono tuttora profittevoli e con margini nettamente superiori a quelli di altri settori. Fanno profitti ora, dicono gli analisti di Wall Street, ma non hanno prospettive di crescita futura. E questo spiega perché se da un lato ci sono svendite e spezzatini, dall’altro si verificano grandi movimenti, e alleanze, sul piano degli «asset» Internet. E’ di qualche giorno fa la notizia dell’accordo raggiunto dai tre maggiori gruppi editoriali Usa, Tribune, McClatchy e Gannett per la comproprietà e la gestione di due grandi siti che raccolgono «piccola pubblicità», CareerBuilder.com ShopLocal.com e di Topix.net, portale di «notizie locali per il mondo».

Posted in giornalismo, media | Leave a Comment »

editoriale Chips / Mai più soli

Posted by franco carlini su 10 agosto, 2006

di Franco Carlini

Ci stanno ripetendo alla noia che è finita l’era del personal computer, che questo oggetto, dopo 25 anni è già vecchio e bell’andato. Nulla di più falso, così come sarebbe falso sostenere che è finita l’era delle ferrovie, dell’auto o dell’elettricità. Ma un’altra cosa è vera: che questa «fine» supposta  coincide semmai con la sua piena affermazione, che ha reso insieme ovvia e universale quella tecnologia e che ha posto le premesse per il suo superamento – o meglio migrazione – in altri oggetti. Del resto il dato commerciale ci conferma che non si tratta di una «fine», essendo più di 200 milioni i Pc venduti ogni anno, con tassi di crescita elevati sia nei paesi ricchi (un mercato di sostituzione) che in quelli emergenti

Il Pc dunque c’è per restare, fa parte del panorama di lavoro e di vita di miliardi di persone e, oltre a tutto, continua a migliorare in velocità di elaborazione, grazie a quella «Legge di Moore» che fin dal 1965 segnala empiricamente un raddoppio della potenza di calcolo ogni 18 mesi. Per di più a prezzi calanti.

L’ubiquità dei chip programmabili, che ormai stanno nelle lavatrici come nelle auto, nei cellulari come nei bancomat, ha comunque reso il Pc meno centrale. Anche perché, a differenza di 25 anni fa, nessuno di questi processori è oramai immaginabile solitario: essi prendono senso e vita, solo se collegati in una qualche rete, ad altri cugini e fratelli lontani. Si va dunque realizzando la profezia, allora propagandistica, lanciata dieci anni fa dalla californiana Sun Microsystems: “il computer è la rete”. Questo significa che alcune prestazioni fondamentali dei computer, come il deposito di file in memoria possono essere delegate a dei server lontani: i documenti sono sempre i miei, ma li metto in un altro magazzino, che non so nemmeno dove sia né m’importa, dato che la rete ne garantisce l’accessibilità sempre, con qualsiasi apparato terminale. E non è tutto qui: anche delle attività di elaborazione (ovvero dei programmi di scrittura, di lavorazione delle tabelle e delle immagini) sono offerte da servizi web remoti: spesso ancora rudimentali, ma assolutamente dilaganti. Una volta che diventino robusti ciò significherà poter fare a meno di computer costosi e rigonfi di potenza. Qualcuno sdegnato sostiene che è un ritorno ai terminali stupidi, ma si tratterà semmai di punti di accesso alle conoscenze e alle risorse globali di rete. Insomma, sta cominciando tutta un’altra storia.

Posted in Chips, computer | Leave a Comment »

Psychedelic Computing

Posted by franco carlini su 10 agosto, 2006

 

di Franco Carlini

Il personal computer diventò famoso 25 anni fa, grazie alla Ibm, ma le sue radici culturali e tecniche sono nelle culture alternative e libertarie degli anni ’60. In California ovviamente, luogo di viaggi, di movimenti e di generosi tecnohippies

A ben pensarci è davvero curioso: il computer e la rete Internet si svilupparono negli stessi anni e negli stessi luoghi. Gli anni sono la fine dei mitici ’60, il luogo è la California, anzi la Bay Area di San Francisco dove esplodono felicemente le culture alternative, pacifiste e libertarie. Uno dei più noti giornalisti dell’epoca digitale, John Markoff, del New York Times, ha ricostruito quegli anni e qui personaggi in un libro pubblicato l’anno scorso: «What the Dormouse Said: How the 60s Counterculture Shaped the Personal Computer». La tesi è che sia sbagliato narrare le origini del personal computare cominciando solo dagli anni ’70, e cioè dal garage della Apple, oppure dalle ricerche del laboratori della Xerox a Palo Alto. Le idee che generarono il personal computer e l’internet sono invece il prodotto del decennio precedente e in particolare della cultura alternativa di quei giovani. Altri testi hanno già raccontato questa storia e tra tutti, vecchio ma attualissimo, quello di Steven Levy, «Hackers. Gli eroi della rivoluzione informatica» (edizioni Shake).

La prima cosa singolare è il passaggio della frontiera digitale dalla Costa dell’Est a quella dell’Ovest, ovvero dal Mit di Boston a quella che oggi è chiamata Silicon Valley. All’Est c’erano le grandi corporation dell’informatica, Ibm prima di tutte, e le nuove imprese dei mini computer, nella Route 128, un mondo ingegneristico e ordinato, serio e metodico. Ma all’Ovest zampillavano idee nuove e persino stravaganti.

Ce lo ricorda un articolo pubblicato nel 1995 da Time. «We Owe It All To The Hippies» ossia «Dobbiamo tutto agli Hippies» (http://technohippie.com/archives/stewartbrand.html). L’autore, Stewart Brand, è uno dei protagonisti e diceva: «Dimenticate le proteste contro la guerra, Woodstock e i capelli lunghi. La vera eredità della generazione degli anni ’60 è la rivoluzione del computer». Brand fu il fondatore nel 1968 di una generosa pubblicazione, una sorta di annuario del mondo, il Whole Earth Catalog. Lo scopo era di fornire strumenti di accesso, sì che il lettore «possa trovare la sua ispirazione, forgiare il suo ambiente e condividere le sue avventure con chiunque altro sia interessato». Un catalogo appunto, una zibaldone cartaceo, molto curato ma molto selettivo, una sorta di motore di ricerca cartaceo. Più tardi, nel 1985, avrebbe aperto a Sausalito, lì di fronte a San Francisco, la prima e tuttora esistente comunità virtuale online, The Well. Il web con le sue pagine ipertestuali e colorate non c’era ancora ma l’internet sì.

E come dimenticare il laboratorio per la crescita dell’intelligenza umana (Augmentation Research Center) creato da Doug Engelbart a metà degli anni ’60 presso lo Sri, Stanford Research Institute? L’idea era già quella di un personal computer e di una rete globale di ipertesti, navigabile agevolmente con delle interfacce grafiche a alta risoluzione. Da ex radarista della seconda guerra mondiale, Doug era abituato ad apprezzare le informazioni sul monitor e la possibilità di interagire con esse. E infatti fu lui, già nel 1968, a realizzare il primo oggetto di puntamento di immagini sullo schermo: uno scatolino di legno di pino con quattro rotelle; ognuna collegata a una resistenza variabile, trasformavano il movimento sul tavolo in azione del cursore sullo schermo. Era il mouse.

Ma un ricordo speciale va obbligatoriamente a un personaggio tra i meno noti (per lui non c’è nemmeno una voce dedicata sull’enciclopedia Wikipedia). Si chiamava Fred Moore e a lui, militante pacifista, si devono le prime proteste contro il reclutamento obbligatorio nelle università. Stiamo parlando del 1959, a Berkeley, dove condusse un solitario e clamoroso sciopero della fame davanti alla Sproul Hall, l’edificio centrale dell’università. Lì, quattro anni dopo, sarebbe scoppiato il Free Speech Movement guidato dallo studente Mario Savio e con la giovanissima Joan Baez che cantava con loro. Nel 1969 ci sarebbero stati i sit in contro la guerra del Vietnam e nel 2003 le grandi proteste contro la guerra in Iraq. Ma cosa c’entra Fred Moore con i computer?

Moore tornerà a San Francisco una quindicina di anni dopo, quando l’eccitazione per i primi microcomputer è all’apice. Sarà allora uno dei fondatori dell’Homebrew Computer Club, gruppo di appassionati e di libertari che erano insieme amanti dei bit e un po’ anarchici e populisti, nel senso che pensavano che democrazia e pace si sarebbero sviluppati diffondendo la cultura digitale e i computer tra il popolo. Condivisione delle idee e delle passioni, per questo Moore lavorava, anticipando lo sharing oggi così diffuso nell’internet. Il successo anche economico avrebbe premiato molti di loro, come Wozniach e Jobs della Apple il quale peraltro, anche di recente, nulla ha rinnegato del suo viaggio in India e nemmeno dell’esperienza psichedelica a base di Lsd, sua e di una generazione. Moore comunque non era uomo del business: Inquieto riprese a girare per il mondo, realizzò anche un modello di stufa ecologica destinata all’Africa. Se ne andò troppo giovane nel 1977 in un incidente stradale.

 

Posted in Chips, computer | Leave a Comment »

c’era una volta / I mini di Boston

Posted by franco carlini su 10 agosto, 2006

 

Pdp è una sigla famosa e si riferisce agli storici minicomputer che, negli anni ’60, ben prima dei personal, diedero una robusta scossa all’informatica. Mini anche se si trattava di macchine da calcolo di tutto rispetto e di costi abbastanza elevati, dell’ordine delle decine o centinaia di milioni.

Se i personal videro la luce in California, i mini, invece, nacquero nella costa dell’Est, con una fuoriuscita di tecnici e ricercatori dal Massachusetts Institute of Technology, capitanata da Ken Olsen, ingegnere sognatore, appassionato della tecnica e della sua perfezione. Giusto il tempo di andare pochi chilometri più in là, per acquistare una vecchia filanda sulla Route 128, la strada che fa un bel cerchio attorno a Boston. Nasceva così la Digital Equipment Corporation, familiarmente Dec.

Come più tardi avverrà per i personal computer, anche per i mini il salto fu prima concettuale che tecnico. L’idea di Olsen era che oramai si potesse «tirare fuori» i computer dai centri di calcolo (off limits per i non addetti) e portarli vicino a chi li usa: nelle fabbriche, nei laboratori, negli uffici.

Per farlo occorreva che la macchina potesse essere accessibile senza la mediazione di un operatore specializzato. Niente più schede perforate come canale  di ingresso e di uscita, ma un monitor e una tastiera. E componenti elettronici più robusti, non bisognosi di aria condizionata, tolleranti delle polveri. I mini furono un enorme successo, sia quelli della Digital che quelli dei suoi imitatori. Dilagarono specialmente nei laboratori, dove esisteva comunque un personale scientifico in grado di maneggiarli e di gestirli in autonomia. Divennero anzi lo strumento di ricerca per eccellenza. Altrettanto bene furono accolti nelle fabbriche e nelle officine anche perché Olsen, con la sua maniacale ricerca della perfezione tecnica, aveva realizzato macchine davvero robuste e versatili. Furono  il cuore informatico della gran parte dei sistemi di automazione di fabbrica. Olsen venne rimpiazzato come Ceo nel 1992 e nel 1998 la sua azienda venne ceduta alla Compaq, specializzata in personal computer di fascia alta. Questa, a sua volta, venne assorbita dalla Hewlett Packard nel 2002. Un ciclo glorioso era definitivamente chiuso e delle aziende di allora resta solo la californiana Sun Microsystems, oggi proiettata specialmente sul software, in versione Open Source (l’architettura Java).

Posted in Chips, computer | Leave a Comment »

ieri e oggi / da Kilo a Giga

Posted by franco carlini su 10 agosto, 2006

Come è cambiata la microelettronica negli ultimi 25 anni? Basta confrontare le caratteristiche tecniche del Pc Ibm originale (chiamato Ibm 5150) con un modello analogo di oggi, per esempio un  Lenovo. Questa è l’azienda cinese cui la Ibm ha ceduto la sua produzione di personal computer nel dicembre 2004. I modelli di punta sono i portatili chiamati Thinkpad, ma il confronto è stato fatto con un più economico Pc da scrivania (desktop), modello 300J.

Processore centrale: si è passati da un Intel 8088, con  una velocità di 9 MegaHertz a un Amd da 1,8 GigaHertz. Il guadagno in prestazioni è di 200 volte. La potenza di un computer non dipende solo da questo valore, ma esso è comunque un buon indicatore. Gli hertz indicano quante operazioni  elementari il processore svolge in un secondo. Il prefisso mega sta per milioni, e giga per miliardi.

La memoria di lavoro (Ram) era di 512 kilobyte nel 1981  e ora è di 256 megabyte; il guadagno dunque è di 500 volte, necessario perché i programmi di oggi sono molto più voraci di Ram.

La memoria di massa del Pc Ibm era fornita inizialmente da uno o due floppy disk da 5 pollici e un quarto, per una capacità totale di 320 kilobyte, e senza hard disk. La dotazione di un Lenovo di oggi è di 80 gigabyte. Il  guadagno in questo caso è mostruoso: 25 mila volte.

Naturalmente i personal computer di oggi hanno molte altre raffinatezze: porte per le connessioni con varie periferiche, modem per internet, lettore di Cd/Dvd eccetera.

Il monitor dei primi Ibm era a caratteri e non  grafico; ospitava dunque 25 righe da 80 caratteri alfanumerici, colorati in verde. I monitor di oggi si misurano in pixel, punti elementari di immagine) e nelle configurazioni più frequenti offrono 1280 x 1024 pixel, sufficienti per una buona grafica.

Prezzo: il Pc del 1981 venne venduto a 1500 dollari, che aggiustati per l’inflazione sarebbero 3500 dollari di oggi. Il Lenovo 300 di oggi costa 350 dollari, cui ne vanno aggiunti altri 250 circa per un buon monitor a cristalli liquidi. Il questo caso il risparmio è di quasi sei volte. Ovviamente i prezzi dei portatili sono più elevati, dato che comportano un maggiore sforzo di ingegnerizzazione, ma sono proprio essi, i laptop, i modelli oggi più venduti, anche quando li si usi soltanto in casa, senza mai muoverli. Sempre nel caso dei Lenovo (ma i prezzi delle altre marche come Toshiba o Acer sono analoghi), si oscilla tra un minimo di 600 dollari e un massimo di 1500.

Posted in Chips, computer | Leave a Comment »

sogni di libertà / Mac SuperBowl 1984

Posted by franco carlini su 10 agosto, 2006

Nacque nel 1984 il secondo e più famoso computer della Apple: il MacIntosh. Esattamente il 22 gennaio, con un spot leggendario proiettato durante il terzo quarto del SuperBowl XVIII. L’agenzia creativa era la Chiat/Day e Ridley Scott il regista che vi portò con se molto del suo  Blade Runner. Esplicito fu il richiamo al romanzo «1984» di Gorge Orwell. Il computer sarebbe divenuto una megamacchina capace di controllare tutta la società? Quell’incubo autoritario che lo scrittore americano aveva narrato in anticipo si stava avverando? Proprio per niente, diceva lo spot della Apple. Certo il rischio del Grande Fratello c’era, ed era rappresentato dal mainframe, dalla cultura e dal modello Ibm. Ma l’orrore si poteva battere grazie alla Apple, nell’occasione impersonata da una splendida bionda in short che, sfuggendo ai poliziotti, infrangeva il monitor di Big Brother.  Sogno di libertà individuale e di autonomia. Così chiudeva lo spot: «Il 24 gennaio, Apple Computer introdurrà il Macintosh. E vedrete perché il 1984 non sarà come il 1984».  Un commercial da culto, premiato e citato infinite volte e per fortuna che c’è la rete, dove ognuno di noi lo può rivedere e apprezzare:

http://www.apple-history.com/movies/1984.mov

Il Macintosh, il cui nome derivava da una varietà di mele californiane, si ispirava a idee e ricerche fatte altrove, sempre in California. Era dalla metà degli anni ’70 che i più intelligenti tra i giovani progettisti del Parc, il centro di ricerche della Xerox a Palo Alto, avevano elaborato una nuova idea di interfaccia tra uomo e macchina: si chiamava programmazione per oggetti,  Small Talk  era il linguaggio. Su una macchina della Xerox, lo Star, c’era già tutto quello che in seguito  la Apple avrebbe proposto: il monitor, organizzato e pensato come una scrivania elettronica su cui disporre dei fascicoli altrettanto elettronici, da aprire e chiudere e su cui scrivere o leggere; c’erano anche dei graziosi simboli grafici (icone) per indicare gli strumenti di lavoro (i programmi) a disposizione dell’utente e c’era un puntatore luminoso mosso da una scatolina con sferetta (il mouse), in modo da rendere superfluo, per molte operazioni, l’uso della tastiera. Tutto ciò oggi sembra ovvio, ma tale non era, dato che fino ad allora per interagire con i computer si dovevano immettere dei comandi a caratteri, su schermi a bassa definizione e senza grafica.

Posted in Chips, computer | Leave a Comment »

Business personali

Posted by franco carlini su 10 agosto, 2006

Agosto 1981: Ibm, monopolista dell’informatica, recluta Charlot per lanciare il suo Personal Computer, destinato a destabilizzare il suo stesso business fatto di grandi computer proprietari. Da quel ‘giocattolo’ macque un mercato completamente nuovo, di cui avrebbe beneficiato soprattutto la Microsoft di Bill Gates.

Il personal computer targato Ibm venne presentato al mondo nel 1981 e, con mossa ardita, per la pubblicità venne utilizzata l’immagine di Charlot con bombetta e bastoncino, quasi a voler segnalare che si trattava di cosa allegra e sbarazzina. Divenne subito il PC per definizione, anche se i personal, spesso chiamati anche microcomputer, esistevano già da un certo numero di anni. All’improvviso risultò chiaro a tutti che non più di un gadget elettronico si trattava, buono per gli amatori e gli hobbisti, ma di un oggetto rispettabile e potenzialmente assai lucroso. Doveva essere per forza così se un gigante un po’ sonnolento come Big Blue (il soprannome americano della Ibm) aveva deciso di scendere in campo con un suo prodotto.

Probabilmente nemmeno la International Business Machines era del tutto consapevole di che cosa stava mettendo in moto: forse si trattò soltanto della consueta mossa del monopolista che mal sopporta di non essere presente in tutti i segmenti del mercato. O forse era intuizione lungimirante. La Ibm, infatti, era per tradizione un gigante a ciclo completo: produceva tutto, dai chips di silicio ai più grandi computer, senza trascurare i monitor, i dischi di memoria, le stampanti e quant’altro compone il «portafoglio prodotti» dell’informatica.

A sua volta l’industria dei computer era ben affermata: nata dallo sforzo bellico americano, già passata attraverso tre generazioni di tecnologie (le valvole , i transistor e i circuiti a stato solido), aveva generato fatturati enormi e prodotto giganti a scala multinazionale come l’Ibm, appunto, ma anche Burroughs, Unilever, Ncr, Cdc, Honeywell. Dall’insieme delle loro iniziali, queste cinque corporations venivano chiamate BUNCH, ed erano le storiche rivali di Big Blue, di cui contrastavano sempre più a fatica il quasi monopolio. Alla fine degli anni ’80, di tutti quei nomi non uno rimaneva nel mercato dei computer.

C’era stato, è vero, un altro scrollone in precedenza, la nascita dei minicomputer, ma i suoi effetti non erano stati così dirompenti. I mini dimostrarono che era possibile passare a macchine più piccole e compatte rispetto ai grandi mainframes, ma restavano tuttavia computer specialistici, che solo dei veri tecnici informatici potevano usare. Aprivano la strada verso l’informatica decentrata, rispetto a quella gerarchica e centralizzata, ma non la spalancavano del tutto.

Con il 1981, invece, fu tutt’altra storia: nasceva e si sviluppava  un nuovo settore industriale. Entravano nell’agone piccole aziende dai nomi nuovi e irriverenti, letteralmente esplose dal niente. E il fenomeno cessò ben presto di riguardare la mitica Silicon Valley, in California, o la Route 128 che, attorno a Boston, raccoglieva e trasformava in prodotti le migliori idee del Massachusetts Institute of Technology: l’industria dei personal computer diveniva rapidamente mondiale. Le barriere d’ingresso in quel settore industriale di colpo si erano abbassate e permettevano a chiunque avesse un po’ di capitale di rischio e un’idea sufficientemente buona, di provarci, sovente con successo.

Come era stato possibile? Tutta colpa (o merito) della violazione della tradizione da parte della Ibm. La quale, avendo deciso di avere un suo personal computer e di averlo presto, aveva affidato il compito a un gruppo di progetto distaccato in una sede decentrata, a Boca Raton, Florida. E qui si verificò la trasgressione: anziché fabbricarsi tutto in casa, il gruppo di progettisti decise che, questa volta, i due componenti di base di ogni microcomputer, cioè il processore centrale e il sistema operativo,  sarebbero stati comprati fuori, da chi già li aveva e li commercializzava. Il vantaggio della fabbricazione in casa sta nel fatto di poter contare su oggetti brevettati e «proprietari»: soltanto il progettista li detiene e chi vuole quelle prestazioni deve per forza acquistare da lui.

Era stato proprio grazie a quel sistema che Ibm aveva sconfitto i rivali, tenendo letteralmente inchiodati ai suoi prodotti i suoi clienti (grandi aziende, grandi banche, tutti quanti avessero bisogno di tanta potenza di calcolo). Si trattava di  un predominio conquistato duramente, dove alla eccellenza tecnica si accompagnavano tattiche commerciali assai spregiudicate come sconti violentissimi su ogni prodotto che fosse minacciato dai concorrenti, fino a portarli al fallimento, e invece prezzi gonfiatissimi, con lussuosi sovraprofitti, quando il cliente era infine incatenato e non poteva più fare a meno di Big Blue. Per quelle pratiche una lunghissima causa antitrust si protrasse inutilmente per 14 anni e alla fine venne chiusa con un «non luogo a procedere» dal presidente Ronald Reagan. Non era un venduto all’Ibm, ma semplicemente aveva deciso che ciò che era buono per lei era buono anche per l’America (un principio già inaugurato per la General Motors).

Nel caso dei personal computer, la strada proprietaria venne abbandonata, un po’ per fretta e un po’ perché non erano pronte le competenze in casa. Ma utilizzare dei componenti comprati sul mercato, vuol dire mettersi sulla strada dei «sistemi aperti», che altri possono legittimamente copiare. Così, per il microprocessore centrale, che è un po’ il cuore di un computer, c’era da scegliere tra Zilog, Motorola (fornitore di Apple computer) e Intel. Fu quest’ultima la preferita.

Quanto al sistema operativo, il software di base che tutto controlla, c’erano solo due piccole aziende in grado di metterne a punto uno in fretta e furia: la Digital Research e la Microsoft. Abbastanza casualmente l’accordo venne fatto con la Microsoft, che da allora avrebbe goduto di una posizione invidiabile.

In nessuno dei due casi la Ibm chiese l’esclusiva e questo significò che, da quel momento in poi, chiunque potè comprare lo stesso processore della Intel e lo stesso software di base della Microsoft e dedicarsi liberamente alla produzione di cloni cioè di computer essenzialmente uguali al Pc Ibm.

Nasceva qui un circolo insieme virtuoso e terribile: il marchio Ibm dava credibilità al personal computer e ciò stimolava altri produttori a realizzarne delle copie; la clonatura allargava il mercato e invitava tutti i produttori di schede, accessori e programmi, a inventarne sempre di nuovi e di più furbi; così il Pc diveniva un oggetto ancora migliore e più appetibile.

Soprattutto, la grande disponibilità di programmi software, per fare le cose più diverse, rese sempre più interessante l’industria dei personal. E la concorrenza accesissima contribuiva ad abbassare i prezzi, anno dopo anno, a tutto vantaggio dei clienti, ma anche erodendo il margine di guadagno dei costruttori.

Era iniziato il micidiale downsizing che, alla lettera, vuol dire «riduzione delle dimensioni». Per qualche anno il Pc venne ancora percepito, nelle grandi organizzazioni, in parte come un elemento di disturbo, in parte come un giocattolo: le cose serie si potevano fare solo sulle grandi macchine, i mainframes e i minicomputers. E in fondo, allora, era abbastanza vero. Ma chi ragionava così sottovalutava il fascino che il personal esercitava sui suoi utilizzatori: la possibilità di disporne pienamente e di farsi addirittura dei programmi in proprio, senza dipendere dagli uomini in camice bianco del centro di calcolo.

I critici del Pc, infine, continuavano erroneamente a considerarlo una monade (un computer solitario, stand alone), destinato al lavoro personale (appunto) e basta. Non riuscivano a immaginare la possibilità di realizzare dei sistemi informativi aziendali comp’leti, ma decentrati e diffusi basati sui Pc. Il modello dominante era infatti quello di un grande computer al centro di tutto: molto potente, per carità, ma geloso della sua potenza. A esso venivano collegati decine di terminali (un monitor e una tastiera) che però non erano altro che estensioni lontane di quel cervello là al centro. Ma tutti i programmi, tutti i dati, tutte le memorie e tutta la capacità di calcolo restavano confinate nelle sale climatizzate del centro di calcolo aziendale.

Da un certo punto in poi risultò invece chiaro che molte delle attività svolte alla vecchia maniera potevano essere fatte anche con i Pc, e persino meglio. I quali Pc, oltre a tutto, potevano essere collegati in reti locali (Lan, Local area network) e quindi rompere il reciproco isolamento.

Intanto la loro potenza di calcolo aumentava a dismisura: i personal più cresciutelli presero il nome di workstation e vennero utilizzati per attività molto professionali: per esempio per disegnare e progettare con il computer (Cad,  computer aided design), o semplicemente, per produrre meglio e per collaudare rapidamente i nuovi software.

Infine, e proprio a proposito del software: non avendo alle spalle l’enorme patrimonio preesistente dei mainframes, i programmisti dei Pc poterono sbizzarrirsi nelle soluzioni più avanzate e, specialmente, più facili da usare. Così, da un certo punto in poi, mentre cadevano le differenze di potenza, i personal ebbero dalla loro parte un vantaggio in più: gradevolezza e facilità.

Posted in Chips, computer | Leave a Comment »

Hardware, software e comunicazione

Posted by franco carlini su 10 agosto, 2006

La grande svolta del personal computer è consistita nel mettere a portata di tutti le virtù dei suoi fratelli maggiori, nel portare sul tavolo un oggetto facile da usare che incarnava i sogni di Alan Turing, di Norbert Wiener, di von Neumann: ovvero una macchina programmabile. Non una macchina meccanica per scopi specifici come fare buchi nelle strade o spianare, ma una macchina general purpouse, capace di fare di tutto  purché le si fornisca il programma adeguato.

Tale salto verso le masse avvenne alla fine degli anni ’70  perché solo allora furono disponibili dei dei chips di silicio che inglobavano in un’unica piastrina tutti i componenti centrali dei computer, in precedenza realizzati con valvole, e poi con transistor, resistenze e condensatori. Attorno a quel processore centrale (Cpu) bastava mettere attorno un po’ di memoria e delle unità periferiche di ingresso e uscita, essenzialmente una tastiera da macchina da scrivere e uno schermo tipo televisione.

Questa era la ferramenta, la materia dura, l’hardware. Ma per animarlo servono appunto dei programmi. Intanto un bel sistema operativo, e cioè un software di base capace di gestire tutte le operazioni elementari della macchina, senza che l’utente debba curarsi, per esempio, di dove scrivere sul disco di memoria (salvare) un suo documento. Operazioni di routine che tutti i sistemi operativi svolgono per conto nostro. Il primo sistema operativo del Pc Ibm fu il Dos della Microsoft, sostituito poi da Windows; quest’ultimo si ispirava a quello degli Apple Macintosh, usando finestre, mouse e un’interfaccia grafica. Dall’anno prossimo Windows verrà sostituito da un nuovo sistema, chiamato Vista, mentre cresce nel mondo l’uso di software di base alternativi, soprattutto di Linux.

E’ al di sopra del sistema operativo che «girano» i programmi applicativi: per scrivere, far di conto, archiviare, disegnare, ascoltare o produrre musica. Di tutto appunto. Sono programmi gratuiti o a pagamento. Alcuni di essi sono dei grandi produttori di software come Microsoft, altri sono stati ideati da piccole aziende o da singoli artigiani del software. Altri ancora un utente esperto può realizzarli in proprio, usando uno dei diversi linguaggi di programmazione esistenti. Se oggi è possibile trovare un programma già pronto praticamente per ogni bisogno, non era così negli anni ’80 e per questo molti si cimentarono direttamente nel realizzarli in Basic, Fortran, linguaggio C, eccetera. In questo senso sperimentarono dal vivo quella conquista di libertà che lo spot della Apple prometteva: farlo da soli, secondo i propri gusti. Non fu una rivoluzione da poco.

Si capisce dunque che se rivoluzione fu (il termine effettivamente è un po’ abusato), certo fu soprattutto sociale: resa possibile dalla tecnica, ma con effetti sconvolgenti su industrie consolidate e sui modi di operare delle persone. Sociale e comunicativa, a ben riflettere: nato come macchina da calcolo (calcolatore), il computer diventando personale si faceva anche soprattutto strumento linguistico e tale è sempre più divenuto.

Posted in Chips, computer | Leave a Comment »