Chips & Salsa

articoli e appunti da franco carlini

  • fc

Archive for 5 ottobre 2006

editoriale / Da Palmisano a Nicolais

Posted by franco carlini su 5 ottobre, 2006

di Franco Carlini

La settimana scorsa la Ibm ha preso una decisione impensabile pochi anni fa: renderà accessibili sull’internet le proprie proposte di registrazione di brevetti. Di solito le domande vengono depositate riservatamente e l’Ufficio brevetti le rende note solo dopo 18 mesi. La casa americana nel 2005 ne ha depositati 2.900, un record, e con la sua mossa si apre alla discussione e anche alle critiche dei concorrenti. E’ un rischio che ha deciso di correre seguendo la nuova filosofia del Ceo Sam Palmisano, convinto che la conoscenza sia un fatto collettivo e che nessuno possa pretendere di produrla da solo. Sono le stesse riflessioni che il ministro delle Riforme e innovazioni nella pubblica amministrazione, Luigi Nicolais, ha proposto lunedì scorso a Genova, nel corso di un convegno sull’innovazione. La quale, ha detto, nasce solo come processo di «integrazione delle conoscenze». Infatti sono finiti i tempi in cui le grandi firme come l’At&t o la stessa Ibm si facevano tutto in casa, dalle idee ai processori, magari nei leggendari laboratori di Murray Hills, New Jersey. Oggi la conoscenza viene prodotta ovunque, e la capacità degli innovatori sta nel saperla trovare (essere informati, dunque) e nel saperla integrare nei propri progetti. Certo le tecnologie elettroniche aiutano, dato che sono lì apposta per far circolare le idee in maniera facile e istantanea, ma sono anche una buona occasione per gli amministratori pubblici, purché, aggiunge Nicolais «abbiamo l’umiltà di sapere che dobbiamo reingegnerizzare tutti i processi». In altre parole ripensare procedure e regole della macchina amministrativa, renderla più fluida e specialmente capace di misurare se stessa. Solo allora sarà possibile premiare seriamente i migliori.
Dallo stesso ministero nel frattempo, è partita un’iniziativa di rete: alla fine di ottobre infatti si svolge ad Atene una sessione delle Nazioni Unite, dedicata alla governance di Internet, la quale ruota attorno a 4 temi di enorme portata: libertà di espressione, sicurezza, rispetto delle diversità e accesso per tutti. In Italia se ne occupa, all’interno del ministero, la sottosegretaria Beatrice Magnolfi con una commissione (gratuita) presieduta da Stefano Rodotà. Questa a sua volta fa appello a tutti i cittadini interessati perché depositino le loro proposte. Lo si può fare all’indirizzo http://www.funzionepubblica.it/consultazione.htm.

Posted in Chips, innovazione | Leave a Comment »

Un Terzo Luogo, anzi molti

Posted by franco carlini su 5 ottobre, 2006

di Sarah Tobias


L’evoluzione impetuosa delle «comunità virtuali», sempre più specialistiche
Le chiamavano comunità virtuali, oggi sono social networks. A metà tra casa e scuola, raccogliendo milioni di abitanti, soprattutto giovani


Provate a immaginare un luogo che abbia queste sei caratteristiche: 1) offre un territorio neutrale; 2) lo status sociale non è importante; 3) la principale attività che vi si svolge è la conversazione; 4) l’accesso è facile e gradevole, e c’è un certo numero di frequentatori regolari; 5) il clima è di basso profilo, senza eccessi vistosi; 6) ci si sente a casa. Però questo luogo non è la vostra casa né il posto di lavoro, è un Terzo Luogo. Così lo chiamò nel 1989 il professor Ray Oldenburg, allora alla University of West Florida, tratteggiandone le caratteristiche in un libro divenuto un classico, «The Great Good Place».
Di fronte a una descrizione del genere il pensiero corre ai bar e alle osterie (non a tutti i bar, né a tutte le vinerie) e infatti la catena di caffè americana Starbucks nelle sue attività di marketing, si autodefinisce the third place, volendo indicare che è un altro luogo da frequentarsi tra casa e lavoro, una «casa lontana da casa», dove stare tranquilli, soli o in compagnia. In molti casi dotati anche di connessione internet. Sull’onda di questa terzietà si è diffusa anche un’altra espressione, il «Terzo Schermo», dove il primo è quello della televisione, il secondo il monitor del computer e il terzo quello dei telefoni cellulari.
Jason Fry, commentatore di tecnologia al quotidiano americano The Wall Street Journal, ha di recente cercato di adattare agli spazi della rete la teoria di Oldenburg sui terzi luoghi e l’idea è interessante perché sfugge alla dicotomia un po’ manichea tra la vita reale e quella virtuale che si svolge sull’internet e che ebbe il suo capolavoro letterario nel romanzo Snow Crash di Neal Stevenson. Era il 1992, e lo scrittore post-cyberpunk raccontava un «Metaverso» dove persone vere agiscono e interagiscono e il reale e il virtuale si influenzano. L’idea che si va sviluppando è che tra i due mondi non ci sia separazione totale, né completa fusione, ma qualcosa di misto, invece. Ma sul fatto che essi interagiscano non c’è dubbio. Per esempio scrivendo questo articolo l’autrice ha fatto tre search a Google e Wikipedia (per verificare l’università del professore e controllare la data di pubblicazione di Snow Crash). Nel frattempo è arrivata la newsletter del giornale preferito, il Los Angeles Times, con la notizia abbastanza disastrosa che il governatore Schwarzenegger è robustamente in testa nei sondaggi per le elezioni di novembre. Intanto un amico, collegato in Instant messaging, si è accorto che eravamo in linea e ci ha augurato buona domenica. Tutto questo ci ricorda che per molte attività le reti sono completamente integrate nella vita quotidiana, la influenzano e ne sono influenzate, in meglio o in peggio. Per esempio abbiamo imparato a tenere la tazza del tè lontana dalla tastiera, da quando il gatto rovesciò l’una sull’altra.
Fin qua tutto normale, come è stato normale «salvare» questo articolo in lavorazione, trasferirlo a infrarossi su di un cellulare che opera anche come un computer e portarselo alla spiaggia per correggerlo. Ci sembrano grandi novità, ma lo sono sempre meno e comunque della loro importanza ci accorgiamo quando per qualche disgrazia Google mail si blocca (succede sempre più di rado, ma succede) o quando, peggio ancora, la compagnia telefonica ha un guasto e ci si trova boccheggianti senza connessione.
Ma anche in rete, questa è la tesi, c’è ormai un Terzo Posto, anzi molti. Un tempo li chiamavamo Comunità virtuali (Rheingold, The Virtual Community, 2000), oggi si chiamano soprattutto Blogosfera e Social Networks. Comunità assai labili, effettivamente, dove è raro trovare quella stretta intimità e comunanza di spiriti della leggendaria The Well di Sausalito (www.well.com). Anche l’aggettivo «sociale» è ingannevole: non significa che siano reti socialmente impegnate, ma soltanto che si autocoinfigurano per effetto dei legami di conoscenza (in questo senso sociali) che i suoi frequentatori hanno, attivano e alimentano, anche attraverso le tecnologie digitali.
Raccolgono però milioni di abitanti, che si aggregano per gruppi di amici, spesso locali, e per temi di interesse. Se la più nota rete sociale è MySpace, acquistata l’anno scorso da Murdoch, tuttavia essa è ormai così piena, così caotica, che altre ne vanno nascendo, più verticali (per temi) o per aree geografiche, o ancora, spontaneamente, per demografia. Prendete Piczo.com. I suoi server sono a San Francisco (c’era da scommetterci), ma la sua popolazione è fatta di ragazzi e soprattutto ragazze canadesi. Ognuno/a ha il suo profilo, le sue foto, c’è una colonna sonora sempre attiva, le faccette sono inevitabilmente giovanissime e tanto multiculturali. Lo stesso per Facebook, nato per gli studenti dei college, ma oggi pronto al grande salto vero il grande pubblico. Stiamo parlando di terzi luoghi che raccolgono circa 10-15 milioni di visitatori unici al mese. La tendenza è dirompente, non può essere considerata giovanilistica e sarà il caso di esplorarli meglio.
sar.tobias@gmail.com

Posted in Chips, web | Leave a Comment »

letture / Introvabile Snow Crash

Posted by franco carlini su 5 ottobre, 2006

Il romanzo di Neal Stephenson (www.nealstephenson.com) venne pubblicato nel 1992, quando il web ancora non c’era o stava muovendo i primi passi, ma l’Internet c’era eccome. Il titolo si riferisce a quel particolare effetto neve sul monitor che colpiva talora i macintosh della Apple quando andavano in crash. Di recente l’autore ha scritto anche un saggio sul movimento Open Source e di critica al software proprietario, intitolato «in principio era la linea di comando», che poi era il C:> con cui si interagiva, a comandi letterali, nei computer prima del macintosh. Il saggio lo si legge liberamente sul sito Cryptonomicon, dedicato al racconto omonimo dello stesso Stephenson (www.cryptonomicon.com/beginning.html).
Snow Crash descrive un mondo anarco-capitalista, dove lo stato americano praticamente più non esiste e il territorio è governato, anche militarmente, dalle corporation. Due i personaggi centrali, Hiro, fattorino per CosaNostra Pizza, e Y. T. (Yours Truly) una skater-koriere per la compagnia RadiKS. Ma accanto e intrecciato con il mondo reale, c’è il metaverso, rete mondiale in fibra ottica, con terminali ovunque, dove si può entrare e agire utilizzando i propri avatar, figure digitali tridimensionali. Lo scontro avviene contro la droga nel mondo reale e contro un potente virus informatico nel metaverso. Il periodo è l’inizio del XXI secolo, ovvero i giorni nostri, dove di fibre cominciamo a essere dotati, e di computer anche. La mafia delle corporation continua a prosperare e magari fa soldi come contractor in Iraq.
Purtroppo il libro a suo tempo ottimamente tradotto da Paola Bertante per la milanese Shake edizioni, non esiste più in italiano. Dato che i fondatori della Shake, Gomma e Valvola, oggi lavorano alla casa editrice Feltrinelli non potrebbero proporne una riedizione? E’ invece disponibile in lingua inglese su Amazon.com. Non ne esistono edizioni scaricabili in rete.

Posted in Chips, web | Leave a Comment »

creativi di rete / Da ipertesti a ipervideo

Posted by franco carlini su 5 ottobre, 2006

Il colonnello Robert Henderson, delle Special Forces americane è stato mandato nel 2005 a Kandahar, in Afganistan, per una missione speciale, nome in codice Onyx. E «The Onyx project» si chiama il film che racconta quella storia di fantasia ma che non vedremo mai nelle sale perché esiste solo in Dvd e per essere gustato chiede un personal computer abbastanza potente. La trama c’è, il finale (non rivelato) anche, ma tra l’inizio e la fine della narrazione i percorsi possono essere praticamente infiniti, a seconda delle scelte di navigazione degli spettatori-navigatori. In altre parole questo iper-film è l’analogo di quei romanzi ipertestuali dove ogni pagina contiene diverse possibili diramazioni. The Onyx project è stato realizzato con 200 mila dollari dal regista Larry Atlas e dal socio Douglas Smith, avendo ricevuto scettiche risposte e zero dollari da molti produttori di Hollywood.
Ma non è l’unica sperimentazione in corso: un giovane danese, Andreas Haugstrup Pedersen (www.solitude.dk), ha sviluppato un sistema per realizzare da soli i propri link visuali. Si tratta di questo: un software speciale permette di identificare (marcare) un singolo oggetto in movimento in una scena, per esempio un personaggio, o un’auto, e di collegare ad esso un link che lo seguirà negli spostamenti, di modo che chi vede la scena possa cliccarvi sopra e così saltare a un altro segmento visivo, non necessariamente dello stesso filmato. In altre parole i cultori dei video, i gestori dei blog video, detti anche vlog, potranno creare iperlegami tra diversi filmati, consentendo di passare dall’uno all’altro, alla stessa maniera che nel web si salta da un testo a un altro su altri siti.
La tendenza è appena agli inizi, ma visto il peso crescente dei video sulla rete internet, uno sviluppo in questa direzione è del tutto probabile. E ovviamente apre dei nuovi problemi, che già YouTube il più grande portale di video liberi, sta conoscendo: i soliti diritti di proprietà intellettuale sugli spezzoni che «appartengono» ad altri ma che è bello rilavorare e mixare. Altre cause legali in vista.

Posted in Chips, web | Leave a Comment »

giornalisti / Salvata la Betulla

Posted by franco carlini su 5 ottobre, 2006

Nel primo giorno di sciopero, molti giornalisti italiani hanno appreso di essere stati sconfitti. Glielo annunciava una e-mail di Franco Abruzzo, presidente dell’ordine dei giornalisti della Lombardia dove sta scritto che «Serventi Longhi & C, hanno la colpa di aver portato i giornalisti italiani alla sconfitta sul rinnovo del contratto». Abruzzo si è molto adontato perché il sindacato aveva definito «scandalosa e ridicola la sospensione per 12 mesi di un giornalista reo confesso di aver collaborato (retribuito) con il Sismi». Il caso è quello di Renato Farina, vice direttore di Libero, il quale ha ammesso di essere stato a busta paga (lui li chiamava rimborsi) con il Sismi, in particolare con quell’ufficio di manipolazione guidato dal leggendario mister Pompa – ancora in servizio anche lui, come il manifesto ha rivelato nei giorni scorsi. Con una votazione di 4 a 4 il consiglio dell’ordine ha deciso di sospendere il collega Betulla per 12 mesi, anziché infliggergli la radiazione, come la gravità del suo comportamento richiedeva. «Il Consiglio ha valutato sia la personalità di Farina (incensurato sul piano deontologico) sia il prezzo devastante che lo stesso ha già pagato sul piano dell’immagine e della credibilità dopo l’esplosione dello scandalo». Curiosa teoria: i giornalisti dell’Ordine deprecano che i colleghi abbiano fatto il loro mestiere, narrando le segrete cose del Sismi, di Farina e di Libero e giudicano tale informazione «devastante». Nemmeno l’avvocato Ghedini oserebbe tanto. Sul gruppo di discussione «Senza Bavaglio», l’inviato del Corriere Massimo Alberizzi chiede a Franco Abruzzo: «cosa devo fare per essere radiato? devo ammazzare il mio direttore Paolo Mieli? Come faccio ora a spiegare ai miei colleghi stranieri che faccio parte (anzi sono costretto a fare parte) di un’organizzazione che annovera tra i suoi membri spie dichiarate?»

Posted in Chips, giornalismo | Leave a Comment »

Prendi i clic e scappa

Posted by franco carlini su 5 ottobre, 2006

di Constance Fells
La crescita dell’advertising online rischia di crollare sotto il peso delle truffe operate da piccoli siti fasulli che riescono a farsi pagare dai motori per i clic che convogliano verso gli inserzionisti

Dilaga la pubblicità internet, segnalando negli Stati Uniti una crescita del 37 per cento nella prima metà dell’anno e arrivando dunque a 7,0 miliardi di dollari. Ci sono i banner, rettangoli colorati da cliccare per saltare sul sito dell’inserzionista, ci sono gli interstiziali, pagine che si inseriscono tra un clic e l’altro, obbligandovi a vedere una pubblicità non voluta. Ci sono le finestre a pop-up, che si aprono senza che l’abbiate chiesto e ci sono delle animazioni colorate che in maniera ancora più implacabile si sovrappongono alle pagine, impedendone la lettura. In tutti questi casi la pubblicità conferma la sua vocazione a imporsi invadente.
Ma il settore della pubblicità online che più sta guadagnando è un altro. Sono quegli «avvisi» che tengono conto del contesto di lettura dell’utente e sono fatte di sole tre righe di testo con un link, senza tanti frizzi. Si provi per esempio a battere nel motore di ricerca Google la sigla «dvd». In risposta Google vi fornirà nella colonna grande i suoi risultati, ordinati secondo il suo criterio di rilevanza, ma in quella di destra, più stretta e separata, proporrà dei «collegamenti sponsorizzati», del tipo: «Comprare DVD / Molti articoli – prezzi bassi. Shopping online facile e sicuro / http://www.eBay.it» e altri dello stesso genere. Se voi cliccate su uno di questi, verrete trasportati al sito relativo e per ogni clic ricevuto l’inserzionista pagherà una qualche somma, concordata in precedenza con Google, Yahoo! o altri siti. Lo si chiama Ppc, ovvero pay per click.
La differenza è sostanziale: nei giornali e nelle tv l’inserzionista paga in base alla tiratura o all’audience ma non può essere certo che i potenziali clienti abbiano davvero guardato quella pagina colorata o quello spot, e meno che mai che ne siano discese emozioni o voglia di saperne di più. Il clic in arrivo attraverso un altro sito (Click-through) è meglio perché dice all’inserzionista che qualcuno è effettivamente andato sul suo sito. Lui stesso poi, con i suoi software, verificherà quanto a lungo c’è stato e anche se si è trasformato in un acquirente. Memorizzando i suoi dati si potrà anche verificare se quella persona nei giorni successivi è tornata spontaneamente in visita.
La seconda differenza è che questo «cliccare attraverso» è più efficace perché sul web, a differenza che davanti alla televisione, le persone spesso ci vanno per cercare qualcosa, per esempio informazioni di viaggio o di prodotto. Dunque quel potenziale cliente non ha bisogno di essere disturbato, e semmai è contento se qualcuno gli segnala i venditori di Dvd o di pentole.
Tutto bene allora? Proprio per niente, a leggere il voluminoso dossier con cui Business Week, rivista economica americana tra le più influenti, ha scavato in quel fenomeno inquietante (www.businessweek.com/magazine/content/06_40/b4003001.htm), di cui gli addetti ai lavori parlano almeno da due anni, ma per lo più in maniera imbarazzata. Si chiama «Frode dei clic» (click fraud), e sfrutta proprio il meccanismo del pay per click. Lo fa in questo modo: un’azienda affida a Google o altri la sua pubblicità, ma, per accrescere la sua visibilità, eventualmente accetta che essa venga smistata (parcheggiata) anche in altri siti «affiliati» a Google. Se il clic arriva da uno di questi, Google dividerà con il sito affiliato che ha generato la cliccata il compenso che riceve dall’inserzionista. Può trattarsi di pochi centesimi di dollaro o anche di diversi dollari, ma quello che conta sono i volumi.
I siti affiliati di primo livello sono autorizzati a loro volta a disseminare le pubblicità in altri siti figli, in una catena in cui tutti guadagnano qualcosa in percentuale e a pagare è sempre l’inserzionista. Sarebbe un meccanismo virtuoso, una piramide dove tutti contribuiscono alle cliccate, ma succede che i gestori di alcuni di questi siti reclutino un certo numero di amici e conoscenti, o anche di sconosciuti, perché vadano sul loro sito e lì clicchino le pubblicità. Anche questi amici verranno ripagati qualche centesimo e per questa attività è stata inventata la sigla PTR, ossia «pay to read», pagato per leggere (ma soprattutto per cliccare, ovvero Ptc). Esistono siti appositi che reclutano i cliccatori e alcuni di loro riescono a guadagnare alcune centinaia di dollari al mese. Altri usano dei software che cliccano da soli e in automatico sui siti indicati e questi vengono chiamati clickbot, robot da clic. I grandi motori di ricerca assicurano che stanno tenendo sotto controllo il fenomeno e di aver attivato degli speciali software per scoprire le truffe.
I più pessimisti valutano tuttavia che anche il 30 per cento del traffico di clic sia fasullo, altri lo stimano attorno al 10, ma in ogni caso il fenomeno è vistoso e la guerra tra guardie e ladri continua. Potrebbe derivarne anche il crollo di questo mercato e alcuni inserzionisti ormai chiedono di pagare solo se il cliccatore ha comprato qualcosa e non già per uno che clicca, sta lì pochi secondi e poi se ne va via.

Posted in cellulari, pubblicità | Leave a Comment »

Innovazione / Professori contro Bersani

Posted by franco carlini su 5 ottobre, 2006

di Franco Carlini

L’abusata parola innovazione compare 14 milioni di volte sul motore di ricerca Google (e 207 milioni di volte se si cerca «innovation», in inglese). Nicola Rossi, già consigliere economico del governo D’Alema, oggi deputato Ds, pensa che essa « nasca dove vuole nascere e che sia mal riposta la speranza che in questo o quell’ufficio ministeriale si possa stabilire in anticipo dove e come essa debba manifestarsi». Rossi dice di avere apprezzato assai lo spirito e l’obbiettivo di fondo del documento sull’innovazione presentato il 22 settembre dal ministro Bersani, testo convenzionalmente chiamato «Industria 2015», ma subito dopo gli elogi rituali e nel più limpido spirito del Partito comunista di una volta, scarica le sue palle incatenate: farraginosità e discrezionalità delle procedure, poco applicabile concretamente, sconfinata fiducia nell’azione dell’operatore pubblico. In definitiva «poco o per nulla capace di incidere sulla distanza fra l’industria italiana e i suoi concorrenti». Insomma, Bersani bocciato e con lui tutte le velleità di politica industriale.
Altri commentatori, specialmente allocati nel giornale della Confindustria, hanno preso di mira un bersaglio francese per colpire in Italia Prodi e il suo supposto dirigismo. Oggetto della polemica il cosiddetto piano formulato da Jean-Luis Beffa, manager della St. Gobain, con cui il governo francese intende innovare con metodologia dal basso in alto, e cioè scovando le eccellenze e facilitandone l’aggregazione.
La discussione, vecchia quanto il capitalismo, sul ruolo dello stato nell’economia è stata il sottofondo della vicenda Telecom Italia ed è il cuore del pamphlet «Goodbye Europa», scritto da . due professori universitari, Alberto Alesina e Francesco Giavazzi. A differenza di altri polemisti da strapazzo essi non sostengono che si debba fare come l’America, di cui ricordano limiti e difetti, ma solo che qualcosa di sano andrebbe importato utilmente perché il vecchio continente sta perdendo il treno per mancanza di concorrenza e per eccesso di protezioni. E’ una tesi che ha molti sostenitori anche nel centro sinistra, ma questo volumetto, costruito a partire da alcuni saggi dei due professori, già pubblicati su riviste economiche, è a tal punto ricco di imperfezioni e informazioni sbagliate che rischia di risultare poco utile.
Qualche esempio: a pagina 117 si sostiene che l’industria europea è andata avanti con una ricerca di imitazione, inseguendo le invenzioni altrui, specie americane. E citano ad esempio i Tgv, treni a grande velocità francesi, e l’Airbus, che «utilizzano tecnologie relativamente vecchie». Chissà chi glie l’ha raccontato: certamente non quelli della Boeing che semmai sono stati costretti a inseguire l’elevata informatizzazione dell’Airbus europeo.
A pagina 108 riscrivono un po’ di storia dell’informatica, sostenendo che «fu la minaccia rappresentata dal successo della Apple a convincere la multinazionale americana (Ibm) ad accelerare i tempi dell’introduzione del personal computer (..) se il governo statunitense avesse sovvenzionato la Ibm, il pc Ibm sarebbe arrivato molti anni dopo». Le cose non andarono così, come abbiamo ricordato nell’agosto scorso, festeggiano i 35 anni del personal Ibm: il colosso dell’informatica non valutava il computer Apple una cosa seria, né un concorrente, e sviluppò il suo come un oggetto laterale, affidandolo a un gruppo di ricercatori distaccato. Non era mosso dalla concorrenza ma dalla volontà di avere in casa ogni «pezzo» dell’informatica, dai chip alle stampanti. E quanto agli aiuti dello stato all’industria dei computer, se non furono mai diretti, certamente furono generosi nelle commesse e negli acquisti, tutelando e rafforzando il monopolio.
A pagina 105 si sostiene che i telefoni cellulari sono il frutto di ricerche «il cui costo è stato sostenuto in gran parte dalle spese militari (Usa; ndr)». Peccato che nella telefonia mobile gli Stati Uniti abbiano segnato un ritardo clamoroso rispetto alla vecchia Europa, la quale ha conquistato una posizione leader, di tecnologia e di mercato, soprattutto grazie alla saggia decisione di sviluppare una politica industriale comune, che generò lo standard Gsm.
Guai agli aiuti statali dicono i due autori, ma certe eccezioni gli vanno bene. E’ il caso delle linee aeree low cost, Ryanair in particolare (a pagina 126). Questo vettore viene incentivato da alcuni enti locali che si caricano delle spese di marketing e le girano alle linea aree, sotto forma di sconti o versamenti diretti. In questo modo questi governi certamente allargano il fatturato del loro territorio, raccogliendo milioni di passeggeri che consumano localmente, ma si tratta, fuor di dubbio, di un finanziamento occulto e anticoncorrenziale. Statalista, diciamolo pure, nonché interventista e protettivo. Perché quello sì e la rete fissa no? E’ uno di quei tipici casi in cui un governo sceglie il vincitore, «pick the winner» come certamente direbbero gli amici americani dei due professori.
(1. continua)

Posted in Chips, innovazione | Leave a Comment »

Articoli scientifici da pubblicare: aperti, proprietari o misti?

Posted by franco carlini su 5 ottobre, 2006

di Alessandro Delfanti


I risultati della ricerca scientifica, bene comune pagato dai contribuenti, deve essere leggibile da tutti e in rete, ma anche così i costi ci sono e la coperta risulta sempre troppo stretta per le biblioteche universitarie

Chi ha detto che l’open access è una mania da smanettoni libertari? Negli Usa il «Federal Research Public Access Act» è stato scritto dal senatore repubblicano John Cornyn e da Joseph Lieberman, il democratico più a destra che ci sia, recentemente sconfitto alle primarie nel Connecticut.
In fondo la questione sollevata è semplice: perché i risultati delle ricerche degli enti pubblici, cioè quelle pagate da tutti i cittadini, non dovrebbero essere liberamente accessibili a tutti, ma solo a chi si abbona alle costose riviste scientifiche? I due senatori, insomma, vorrebbero obbligare i grandi enti di ricerca a mettere tutti gli articoli scientifici su archivi open dopo sei mesi dalla pubblicazione su rivista, rendendoli così consultabili gratuitamente a chiunque disponga di una connessione internet.
Niente di rivoluzionario, dato che i primi sei mesi sono il periodo di maggior interesse scientifico di una pubblicazione, e visto che nell’ultimo anno sia il Research Council britannico che la Commissione Europea si sono espressi a favore della pubblicazione open access delle ricerche finanziate con denaro pubblico.
Del resto un’indagine internazionale ha rivelato che nel 2005 il 29% dei ricercatori aveva pubblicato in forma open, contro il 18% del 2004. Sempre negli Stati Uniti i National Institutes of Health hanno già una politica simile, anche se su base volontaria (http://publicaccess.nih.gov/).
Nel coro quasi unanime dei favorevoli alla proposta, tra cui tantissimi , ma non gli editori delle riviste scientifiche a pagamento, pochi giorni fa è emersa una voce discordante: una decina di istituzioni di pubblicazione scientifica no-profit si sono dichiarate contrarie e hanno scritto una lettera aperta ai due senatori.
Gli aderenti alla DC Principles Coalition ritengono che questo provvedimento possa «forzare alcuni giornali a passare a un modello di pubblicazione che richiede agli autori di pagare per le loro pubblicazioni attraverso i fondi federali, diminuendo i fondi utilizzabili per la ricerca» (http://www.dcprinciples.org/LiebermanLetter.pdf). In effetti il punto è proprio questo: chi paga l’open access?
In gioco ci sono diverse variabili, non solo gli interessi economici degli editori. Per esempio, se internet permette di pubblicare una rivista on line a costi irrisori, restano comunque i costi della peer review, il processo di verifica dell’attendibilità e dell’interesse scientifico di un articolo. Proprio su di esso che si fonda l’autorevolezza di una rivista. Quindi, se i lettori non pagano, devono essere gli autori a sobbarcarsi la spesa.
Le riviste open access già esistenti come Public Library of Science (Plos) o BioMedCentral chiedono agli autori un contributo che copre le spese editoriali e di revisione: recentemente hanno aumentato i prezzi, che ora variano dai 1500 ai 2500 dollari per articolo, ma, secondo dati pubblicati in giugno da Nature, entrambi i gruppi editoriali hanno un bilancio in rosso.
Da alcuni mesi però anche gli storici Proceedings of the National Academy of Science permettono agli autori di scegliere la forma di pubblicazione del loro paper, chiedendo 1000 dollari a chi opta per l’open access. Circa il 19% decide di pagare, e il risultato è che i loro lavori raddoppiano le probabilità di essere citati in bibliografia dai colleghi.
In effetti, anche se in un modello open access il costo della pubblicazione gravasse sui finanziamenti del progetto di ricerca, si tratterebbe mediamente dell’uno o del due per cento dei fondi totali. E comunque la pubblicazione open access su internet servirebbe anche per risparmiare le cifre elevatissime che le università spendono per gli abbonamenti alle riviste e anche quelli sono soldi tolti alla ricerca, che oggi soffre anche la scarsa circolazione dei dati scientifici.
Con il sistema attuale, per esempio, molte università non riescono a sostenere i costi degli abbonamenti, e stanno impoverendo rapidamente le loro biblioteche. Uno studio sulle biblioteche scientifiche commissionato nel marzo di quest’anno da Aplsp, un’associazione di editori, ha rivelato che il prezzo delle riviste è stato sino ad ora molto più importante della concorrenza degli archivi open access nella scelta di disdire un abbonamento, ma prvede che già nei prossimi cinque anni gli archivi potrebbero diventare la causa principale dell’abbandono delle riviste classiche (http://www.alpsp.org/publications/libraryreport-summary.pdf).
Un interessante laboratorio per l’open access è, già oggi, la comunità dei fisici. Per loro i due modelli – riviste tradizionali e archivi open – convivono da tempo: da anni quasi il 100% degli articoli viene pubblicato senza spese su arXiv – un archivio ad accesso libero che ogni fisico consulta quotidianamente – prima di essere sottoposto alla peer review e stampato sulle riviste di settore, le quali però continuano a garantire autorevolezza e riconoscimento accademico, e che almeno per ora non hanno subito ripercussioni negative.

Posted in Chips | Leave a Comment »