Chips & Salsa

articoli e appunti da franco carlini

  • fc

Archive for aprile 2007

Giornali senza giornalisti

Posted by franco carlini su 26 aprile, 2007

editoriale

 

Franco Carlini

Dunque anche MySpace, il grande portale «sociale», ha cominciato offre un servizio di notizie automatiche, come Google News. L’espediente tecnico è abbastanza semplice: il software pesca nella rete le ultime notizie, tra molte fonti giornalistiche, le classifica per categoria e le ripropone pari pari sul sito, con il debito link. Il vantaggio è di aggregare in un unico luogo migliaia di notizie, senza utilizzare nemmeno un giornalista, dato che fa tutto il computer. Il valore giornalistico non c’è, ma semmai resta a monte, nelle testate di partenza. In questo caso la rete viene usata solo come una condotta trasmissiva con cui accorpare e insieme diffondere materiali nati prevalentemente per la carta. Efficiente, ma senz’anima, perché discende dallo stile della testata, fatta di scelte editoriali e di tradizione. Roberto Briglia, direttore dei periodici Mondadori, nei giorni scorsi, lo ha detto con chiarezza ai suoi giornalisti: «più che i contenuti conta il brand». Vale per Grazia come per il manifesto.
Tuttavia il modello di Google News senza dubbio dovrebbe piacere alla parte più sciocca degli editori italiani: nessun giornalista, solo software; nessuna assenza per malattia, per maternità, per ferie. Soprattutto nessuno sciopero. Lunedì scorso, convocati dal ministro del lavoro Damiano, gli editori italici hanno negato persino la possibilità di stendere un calendario di incontri con giornalisti, dopo un’assenza di contratto che dura da 787 giorni. La speranza era che dopo lo sciopero durissimo della Repubblica, conclusosi con l’avvio di rapporti editore-sindacato più decenti, anche l’ineffabile ambasciatore che porta pena, Boris Biancheri, presidente della Fieg, aprisse qualche spiraglio. Così non è stato.
Parliamo di testate che quotidianamente inneggiano al libero mercato: tutte scatenate nel chiedere al governo di tenere le mani lontane da Telecom, dalle autostrade, di andarsene pure dalle ferrovie, possibilmente di privatizzare la Rai. Se il sottosegretario con delega per l’editoria, Ricardo Franco Levi, volesse prenderli sul serio dovrebbe varare una riforma dell’editoria dove agli editori privati non vada alcun aiuto di stato. Il nostro consiglio è che lo faccia.

Posted in Chips, giornalismo | 1 Comment »

Disse il contatore alla centrale

Posted by franco carlini su 26 aprile, 2007

Banda sempre più larga e tecnologie wireless favoriscono il dialogo tra le macchine

 

M2M o machine-to-machine. Un peer-to-peer senza umani di mezzo, se non in veste di controllori e utilizzatori del flusso di dati. Praticamente infinita la lista delle applicazioni possibili, dalle più utili alle più futili

Patrizia Feletig

La caldaia si arresta: parte una segnalazione di allarme via Sms o Gprs all’assistenza tecnica. Dopo un’ora non si è presentato nessuno, ma il guasto è riparato. A distanza. Come se si trovasse sul posto, il tecnico si è collegato via web al pannello di controllo. Ha controllato lo stato della temperatura, la pressione, il livello, consultato lo storico di funzionamento, esaminato una riproduzione dello schema dell’impianto e rimosso l’anomalia. Poco dopo sul suo Pda compare una segnalazione da un altro impianto. Questa volta, dopo la telediagnosi, il tecnico istruisce la squadra che si recherà sul posto, con l’esatta determinazione del problema in corso e con il dettaglio dei ricambi necessari. Intanto, i dati del pronto intervento sono esportati verso il sistema informativo aziendale per la fatturazione automatica. La telegestione del riscaldamento che può portare fino a risparmi del 30% nei costi di manutenzione, è una delle tante nel settore M2M. L’acronimo sta per comunicazione Machine-to-Machine e indica l’infrastruttura hardware e software che permettere alle macchine di dialogare con altre macchine.
La diffusione progressiva delle tecnologie senza fili (Gsm,Gprs, Umts, WLan, Bluethooth), associata alla sempre maggiore disponibilità di banda e l’evoluzione al ribasso dei costi delle connessioni mobili, facilitano la lievitazione del mercato M2M aprendo a un numero esponenziale (e fantasioso) di applicazioni. Dai distributori automatici ai sistemi di lettura a distanza, dal trasporto e logistica al monitoraggio della salute, dalla sicurezza alla domotica. Come la famosa casa intelligente – di cui si favoleggia da anni – con lavatrici in grado di decidere il ciclo di lavaggio interpretando i tag elettronici degli indumenti. In attesa dell’avvento dell’«Internet delle Cose» la comunicazione tra gli oggetti cresce con tassi del 20-30% all’anno. Il carattere innovativo del M2M non deriva tanto dalle tecnologie, quanto dalla visione di far comunicare le macchine autonomamente via rete mobile, fra loro e/o con i centri di controllo.
I sensori installati su distributori automatici, contatori, bancomat, colonnine Sos autostradali, percepiscono l’ambiente circostante e reagiscono a eventuali cambiamenti. Il valore aggiunto sta nella trasformazione di questi dati grezzi rilevati in informazioni utili per le operazioni di misurazione, contabilizzo, controllo e manutenzione. Si accerta così il livello di riempimento di un distributore. Si vigila sulla conservazione dei prodotti durante la catena del freddo. Si conteggiano i chilometri percorsi da una vettura per attuare, ad esempio, polizze assicurative modulari basate sul principio Pay as you drive. Associando i moduli M2M con sistemi satellitare si localizza un container in viaggio, soprattutto se contiene merci preziose, tossiche o infiammabili. Si rilevano e controllano sull’arco della giornata i valori di pressione sanguigna di un paziente che non è necessario mantenere ricoverato in ospedale.
Nel rapporto presentato 2 anni fa dall’International Telecommunication Union, agenzia delle Nazioni unite, si stimava che nei prossimi anni il numero di utenti non-umani che genera e riceve traffico wireless sarà superiore di almeno 20 volte al numero di persone abbonate. In Europa, tra contatori di acqua, gas e elettricità, veicoli, centraline d’allarme e distributori automatici si contano oltre 600 milioni di potenziali connessioni M2M mobili. Negli Stati Uniti, alla fine del 2006, secondo gli analisti di Berg Insight, raggiungevano circa i 9 milioni.
L’Italia vanta numeri interessanti sia in termini di unità di moduli installati (oltre 600 mila nel 2005 secondo le anticipazioni del rapporto che verrà presentato a Milano al M2M Forum 2007 di fine mese) che di società operanti nel settore. La terza a livello europeo, Telit, è proprio un’azienda di origine italiana il cui capitale, dopo essere passato sotto il controllo di un fondo d’investimento inglese, ritorna in mani nazionali grazie all’operazione di management buy out messa a segno da Franco Bernabé e l’amministratore delegato della società Oozi Cats.
Non sono solo i capitali a muoversi, ma in controtendenza con il fenomeno di off shoring industriale, Telit riporta in Italia, a Vimercate, il 70 % della produzione dei moduli M2M – sviluppati nei suoi centri di ricerca di Trieste, Cagliari e Seoul. L’obiettivo è trasferire entro un anno anche il rimanente 30% dalla Corea.

Posted in Chips, innovazione, tlc | Leave a Comment »

Internet delle cose

Posted by franco carlini su 26 aprile, 2007

 

Lo spazio degli indirizzi

«Internet delle cose» è un’espressione suggestiva che compare fin dal 2005 in un rapporto dell’Unione Internazionale delle Comunicazioni (Itu). Si intende con questa miliardi di oggetti, ognuno dotato di un suo processore e di una capacità di comunicare con gli altri: senza fili, di solito a corto o cortissimo raggio. E’ la comunicazione «da macchina a macchina» di cui nell’articolo di Feletig sopra. Molte le architetture tecniche possibili, ma la più ambiziosa suona così: ognuno di questi oggetti autonomi sia dotato di un suo indirizzo Internet e tutti i messaggi tra le cose usino il protocollo di trasmissione a pacchetti, tipico della rete; chiari i vantaggi di standardizzazione e di universalità. C’è un problema però: oggi gli indirizzi Internet disponibili sono in numero limitato, «soltanto» poco più di 4 miliardi, ovvero meno degli abitanti del mondo, figuriamoci delle cose. Questo perché sono fatti secondo un codice, chiamato IPv4 composto di un totale di 32 bit (4 numeri di 8 bit, ognuno dei quale vale al massimo 256). Ma da molti anni, ormai un altro standard esiste, chiamato IPv6, che usa 128 bit invece di 32; in questo modo si possono generare 2 alla 128esima potenza indirizzi diversi, una quantità sconvolgente, che corrisponderebbe a un migliaio di indirizzo per ogni metro quadrato del pianeta, con il che ogni problema di scarsità numerica sarebbe risolto. Se finora l’IPv6 non è stato adottato è per problemi di costi; si tratterebbe infatti di modificare e riprogrammare tutti i computer di rete. Prima o poi sarà obbligatorio farlo, ma per ora gli unici a darsi da fare sono soprattutto i militari Usa e si capisce perché: non solo hanno pingui bilanci, ma soprattutto lavorano da tempo alla totale informatizzazione del campo di battaglia, fatto di sensori ovunque, di macchine che si parlano (e uccidono).

Posted in Chips, web | 1 Comment »

Televisione sul monte Athos

Posted by franco carlini su 26 aprile, 2007

media invadenti

 

f. c.

Charles Eugène de Foucauld è un beato della chiesa dal 2005. E’ più noto per aver fondato i Piccoli Fratelli e le Piccole Sorelle e per il suo apostolato in Marocco e in Algeria dove viveva. Venne assassinato per futili motivi da dei ribelli nel dicembre 1916, sulla soglia del suo eremo. Nella prima parte della sua vita era stato militare e assai irregolare nella condotta, fino alla conversione. L’incontro con il Cristo avveniva nel silenzio estremo, nel «deserto». I tuareg lo apprezzava e lo chiamavano «fratello Carlo di Gesù». Un’esperienza mistica, in mezzo ai poveri che non pretendeva di convertire, ma cui donò una traduzione in lingua tuareg del Vangelo e una versione del catechismo. Qualcosa di abbastanza diversa dal popolarissimo monte Athos, dove i turisti sono ben accolti, i liquori anche, Internet pure, ma la televisione no, e specialmente le donne sono tenute fuori, come ha giustamente fatto notare in diretta una giornalista del Tg1. Il Piccolo Fratello difficilmente avrebbe accolto un tipo come Fausto Bertinotti che arriva dall’Italia con un aereo privato, con l’addetto stampa e la televisione al seguito, se non altro perché l’esperienza personalissima della meditazione è fatta di contatto diretto con la parola di Dio e per sua natura rifugge dalla spettacolarizzazione. Si fa e non si dice, e poco vale la spiegazione dell’ufficio stampa che quei filmati serviranno a futura memoria della Camera dei Deputati. Persino il presidente Irene Pivetti, prima maniera, aveva un altro stile. Che la religione esibita o l’ispirazione mistica siano oggi parte della costruzione del proprio personal brand non deve stupire, purtroppo.

Posted in Chips, media | 1 Comment »

elezioni Mouse e pasticcini

Posted by franco carlini su 26 aprile, 2007

carola frediani

Dove cercare un politico in campagna elettorale? In mezzo alla comunità, se si vogliono ottenere dei risultati. «Quando scoppiò la rivoluzione industriale, i candidati hanno imparato in fretta che dovevano stare ai cancelli delle fabbriche. Perché? Perché lì stavano i lavoratori, alle cinque del mattino, quando suonava la sirena. Si fa campagna dove sta la comunità». A parlare è Joe Trippi, che di comunità – online – se n’intende. L’ex-consulente internet di Howard Dean di quattro anni fa, che diceva di aver chiuso con la politica, è tornato in campo a fianco di John Edwardse per il terzo candidato democratico è una buona notizia. L’obiettivo lucidamente inquadrato da Trippi è quello inseguito da quasi tutti i candidati, anche se qualcuno sbaglia la mira. Ecco perché tutti gli aspiranti alla Casa Bianca affollano siti come MySpace, quando non creano dei propri spazi di social networking, come nel caso di Barack Obama. (MyBarackObama.com). Il vantaggio di fare politica online consiste anche nel fatto che cittadini un tempo esclusi o lasciati ai margini dell’attività politica possono più facilmente dare il loro contributo. Come nel caso delle madri di famiglia che hanno lanciato Families for Obama, sfruttando gli strumenti di comunicazione di rete e le proprie abitazioni come luogo di ritrovo. E’ la politica del mouse e dei pasticcini, insomma, e potrebbe rivelare una sua efficacia. «Probabilmente non avrei potuto farlo se non ci fosse stato l’internet. Ho tre figli», ha dichiarato Ruthi David, una delle organizzatrici del network. L’adesione dei candidati repubblicani e democratici al mondo online, e alle sue regole non scritte, rimane tuttavia discontinua. E’ il caso di Rudy Giuliani, che avrebbe creato un profilo su MySpace in modalità «privata». Ma per un candidato che si trovi su un social network, «la privacy non è un’opzione».

Posted in Chips | Leave a Comment »

La grande ricchezza delle reti cooperanti

Posted by franco carlini su 26 aprile, 2007

intervista

 

Intervista a Yochai Benkler. In alternativa alla contrapposizione classica tra «stato» e «mercato», indica i comportamenti che si sviluppano nella Rete

Raffaele Mastrolonardo

Stato e mercato non sono più soli. I due grandi rivali del Novecento hanno trovato in questo inizio di millennio dei nuovi enigmatici avversari. Sono milioni di individui interconnessi grazie alle nuove tecnologie che operano oltre il governo e fuori dall’impresa lasciando perplesso più di un economista. Non agiscono per motivazioni esclusivamente pecuniarie, eppure sono capaci di dare vita a nuovi business (si pensi al software open source). Sono mossi per lo più da passione, eppure in grado di offrire beni e servizi a milioni di persone (per esempio, Wikipedia). Non posseggono rotative, televisioni e studi di posa, ma stanno trasformando il mondo dei media (accade con i blog e varie forme di giornalismo dal basso). Fino a poco tempo fa, nessuno si era preso la briga di dare una spiegazione teorica soddisfacente a questa «terza via», che non ha niente a che fare con Tony Blair, ma è caratterizzata dalla cooperazione diffusa. Mancava uno sguardo d’insieme che analizzasse in modo rigoroso le ricadute economiche, sociali e culturali dell’azione di queste masse.
A colmare la lacuna ci ha pensato Yochai Benkler, giurista della Yale University con libro di 500 pagine intitolato The wealth of networks (La ricchezza della Rete). Un tomo ricco di argomenti filosofici, economici e giuridici dove i cooperanti digitali diventano i protagonisti dell’economia dell’informazione a rete. Un nuovo paradigma rispetto ai modelli industriali del ‘900, che non si appoggia sulla proprietà, né su prezzi indicati da cartellini e nemmeno su collettivizzazioni di sorta. Si fonda, invece, su una strategia antica a cui la rivoluzione digitale sembra aver dato nuova linfa: i commons, beni comuni che tutti possono sfruttare ma su cui nessuno può reclamare un diritto esclusivo (come accade, per esempio, nel caso dei parchi pubblici). «E’ dieci anni che cerco di dimostrare che modelli di produzione non fondati sul mercato e basati sui commons sono l’alternativa allo stato e al mercato», racconta Benkler che, in vista della pubblicazione dell’edizione italiana del libro (v. box), ha accettato di parlare con il manifesto della sua fatica.

Quali sono i fattori che hanno portato alla nascita dell’economia dell’informazione a rete?
Il passaggio critico è l’emersione di Pc connessi l’uno all’altro. Per la prima volta dalla rivoluzione industriale il capitale fisico necessario per agire in modo efficace nei settori fondamentali delle economie più avanzate – e l’informazione è ormai centrale nell’economia globale – è distribuito tra la popolazione. Questo fatto crea una nuova realtà economica. Ieri i produttori di auto o le compagnie petrolifere non dovevano preoccuparsi di volontari che avrebbero potuto riunirsi nel weekend e competere con loro: i costi per mettere in piedi una linea di produzione erano semplicemente troppo alti. Oggi, Microsoft, le grandi reti televisive e Hollywood sono costretti a preoccuparsi di questi dilettanti della domenica che, cooperando, grazie a computer connessi a Internet, creano alternative ai loro prodotti.
In molti però continuano a chiedersi che cosa spinge gli individui a creare un video su YouTube, a contribuire allo sviluppo di software open source, o anche solo a tenere un blog. E siccome non trovano una risposta soddisfacente, concludono che, alla lunga, il modello non è sostenibile. E’ bene chiarire che le mie argomentazioni non si fondano su una visione utopistica di esseri umani particolarmente altruisti. Le persone sono animate da differenti motivazioni. Lo stesso individuo, nell’arco di una giornata, può essere egoista e altruista, motivato dalla passione e dal denaro. Questo dato di fatto non cambia in Rete. Semplicemente, esistono delle piattaforme in grado di strutturare gli sforzi cooperativi in modo da consentire alla gente di contribuire quando gli venga più comodo a qualcosa che considera significativo. Insomma, permettono a un miliardo di persone di essere altruisti, socialmente responsabili, generosi o anche solo appassionati di una cosa a costi molto bassi e solo per il tempo che desiderano. Non c’è bisogno di supporre alcun cambiamento della natura umana.

La Ricchezza della Rete non descrive solo un nuovo paradigma economico. E’ anche e soprattutto un tentativo di fornire argomenti per dimostrare che i cambiamenti in atto sono buoni e vanno pertanto sostenuti. Quali sono gli aspetti più positivi che l’economia dell’informazione in Rete porta ai singoli esseri umani?
Man mano che l’economia dell’informazione pervade sempre più aree della nostra vita, la capacità di partecipare alla sua produzione aumenta il raggio delle possibilità a disposizione dei singoli individui. Le persone trovano nuovi modi di lavorare, le organizzazioni si riorganizzano su modelli più orizzontali e cooperativi, i consumatori sono assoldati come co-creatori di esperienze dalle aziende con cui interagiscono. Non bisogna esagerare l’importanza di questi cambiamenti, ovviamente; lo sfruttamento continua ad esistere e i mercati continuano a provare a manipolare i consumatori. Ma possiamo dire che, nel complesso, un numero maggiore di persone si trova, e più frequentemente, in relazioni e situazioni che ha scelto e non subìto, e sulle quali ha più controllo rispetto a quanto ne avessero nell’economia industriale. Le persone in sostanza hanno maggiore autonomia.

Detto della sfera individuale, quali influssi ha il nuovo paradigma sul sistema dei media e quindi sulla sfera pubblica delle democrazie avanzate?
I mass media hanno avuto un ruolo determinante nella formazione delle democrazie contemporanee. Esiste però una lunga tradizione di critica dei mass media che sottolinea la loro dipendenza dal supporto economico delle aziende e il loro carattere elitario. Quando i media sono concentrati, solo poche migliaia di persone a fronte di una popolazione di milioni, possono partecipare alla creazione del discorso pubblico. Ciò a cui abbiamo assistito negli ultimi anni, invece, è la nascita di una sfera pubblica connessa in rete (si pensi al citizen journalism o ai blog) in cui a chiunque è possibile far sentire la propria voce e i propri punti di vista in piccole comunità di interesse. Lo studio empirico della struttura dei link mostra che questa possibilità di parlare a pochi può avere ripercussioni significative. Quando la gente solleva questioni che altri considerano importanti, grazie alle segnalazioni, queste osservazioni possono giungere fino ai siti più visitati e diventare parte della sera pubblica più ampia.

Vuol dire che la sfera pubblica sta diventando più democratica?
Vuol dire che stiamo assistendo a un cambiamento del modo in cui si detta l’agenda del dibattito pubblico. La fonte di ciò che è messo in agenda non è più solo un piccolo numero di opinion maker professionisti che decidono sulla base di quello ritengono possa essere interessante per una grande maggioranza di persone. Ma condividono questo potere con molti piccoli gruppi assai impegnati su determinati argomenti. C’è un allargamento delle voci che possono influenzare la discussione pubblica.

Nonostante la diffusione delle tecnologie e i vantaggi che lei illustra, non c’è garanzia che l’economia dell’informazione a rete continui a espandersi. Lei afferma che scelte politiche e tecnologiche possono sempre frenare il processo, soprattutto perché c’è chi ha interesse a che questo avvenga. Chi sono i nemici del cambiamento?
Tutti coloro che detenevano posizioni di dominio nell’economia dell’informazione del ventesimo secolo. In testa, Hollywood e le case discografiche che stanno cercando di imporre nuovi e più alti livelli di protezione. Queste aziende hanno ottimizzato i loro modelli di business per un ambiente controllato in cui i consumatori stanno al proprio posto e ricevono passivamente quel che esce fuori dalle loro linee di produzione; e ora reagiscono al nuovo ambiente. Lo sforzo più pericoloso che stanno portando avanti è convincere le aziende informatiche a produrre computer fidati (trusted computing) il cui hardware sia configurato in modo tale da chiedere il permesso per poter fare girare un determinato software o riprodurre quella canzone. Il trusted computing colpisce il cuore dell’economia dell’informazione in rete, vale a dire, il personal computer connesso a Internet.

E i big delle telecomunicazioni, quale atteggiamento hanno nei confronti dell’economia dell’informazione a rete?
Anche loro, seppur più ambiguamente, possono rappresentare un pericolo. Il loro attuale obiettivo è estrarre più valore dai loro network cercando di costruire reti più controllabili. Spesso la scusa è quella della sicurezza, più frequentemente parlano di garanzia della «qualità del servizio». La realtà è uno sforzo da parte dei provider per cambiare l’architettura della Rete, ispezionare i contenuti e trattarli in modo differente a seconda che siano a pagamento o meno. Se questo sforzo avesse successo, avremmo un’architettura che lascia molto meno spazio alla creatività umana espressa al di fuori delle logiche di mercato.

Tra i nemici dell’economia dell’informazione a rete lei ci mette anche i governi.
Negli ultimi dieci anni, per lo più, i governi hanno avuto un ruolo distruttivo. Talvolta male informati, spesso sotto la pressione degli ex monopolisti, hanno imposto leggi sui brevetti e sul copyrght eccessivamente rigide danneggiando la forza creativa dell’economia dell’informazione a rete con le loro pretese di regolamentazione. Le maggiori conquiste sono avvenute nonostante i governi. Si pensi alle architetture peer 2 peer che gli stati hanno giudicato solo sotto la lente restrittiva del file sharing e hanno provato a fermare. E’ solo grazie alle azioni sociali degli individui, alle start up e all’innovazione tecnologica che oggi vediamo gli effetti di quello che chiamiamo Web 2.0. Nonostante i paletti governativi.

Vuol dire che i soggetti pubblici possano avere solo un impatto negativo?
La prima cosa che i governi dovrebbero fare per l’economia dell’informazione a rete è deregolamentare: fare un passo indietro sulle leggi sul copyright e sui i brevetti, sui DRM e consentire maggiore flessibilità nel sistema internazionale di proprietà intellettuale. Ma c’è spazio anche per un’agenda propositiva. Negli anni ’90 la risposta di molti partiti di sinistra alla caduta del muro di Berlino fu di adottare soluzioni di mercato per qualsiasi cosa. La crescita della produzione sociale e della cooperazione, nel frattempo, hanno aperto una nuova direzione per le politiche. Oggi i governi, invece di ragionare all’interno di un paradigma binario stato/mercato possono mettere in atto politiche per promuovere la cooperazione sociale.
raffaele@totem.to

Posted in Chips, economia, Social Networks | Leave a Comment »

Confindustria contro l’informatica pubblica

Posted by franco carlini su 26 aprile, 2007

Interessi in conflitto

 

Una critica cieca «Il pubblico» non funziona meglio se lo si affida ai «privati». Anzi… La complessità dei problemi informatici sfugge alle facili soluzioni «ideologiche» che si limitano a santificare le virtù del «libero mercato». Non mancano gli esempi

Agostino Giustiniani

Un convegno nazionale della Confindustria ha messo sotto esame l’informatica nella pubblica amministrazione. L’interesse dell’associazione di categoria Aitech-Assinform è alto perché il «famigerato» Stato, di questi tempi, è quello che più spende in tecnologie informatiche, mentre i privati stanno tenendo stretti i cordoni degli investimenti. Lo si può capire del resto: enti centrali e locali partivano da una situazione di arretratezza, che è obbligatorio colmare. C’è però un dato percentuale che fa molto arrabbiare gli industriali dell’informatica: è quel 48 per cento di investimenti captive, o in house, che dir si voglia: specialmente le regioni affidano le commesse direttamente a loro società regionali, senza bisogno di gare, e in questo modo gli imprenditori privati restano a bocca asciutta. Questo è anche uno dei cavalli di battaglia della ministra agli affari regionali Lanzillotta che da tempo vuole smantellare tale riserve, nell’informatica come in altre prestazioni locali.
La critica della Confindustria, per quanto interessata (è leggibile sul sito http://www.assinform.it) contiene un elemento di verità: alcune delle società informatiche regionali offrono prestazioni non eccellenti, a costi alti e con tempi di realizzazione lunghi. E’ uno di quei casi in cui l’inefficienza del pubblico inciterebbe a dire «facciamo fare tutto ai privati, che lavorano meglio». Alcune poi, con abili operazioni, sono riuscite a sfuggire alle maglie del decreto Bersani che imponeva loro di operare solo per l’ente proprietario (la Regione) e non anche per comuni, provincie, Asl varie. Tuttavia non è necessariamente vero il contrario, e cioè che facendo delle belle gare tra privati il risultato sia automaticamente migliore. A spingere verso soluzioni pubbliche c’è poi un elemento di fondo, anche storico: l’affidamento di progetti e servizi all’imprenditoria privata si è spesso tradotto in un intrappolamento dell’ente locale a quel singolo fornitore: poiché era quest’ultimo ad aver realizzato il sistema, era anche l’unico in grado di farne la manutenzione e i miglioramenti, e così quella gara vinta in una singola occasione si traduceva in una rendita eterna, da cui era difficile sfuggire anche quando le prestazioni si facevano scadenti o troppo esose.
Non solo: le gare separate per servizi analoghi si sono sovente tradotte in uno spreco di risorse pubbliche perché diversi comuni o regioni acquistavano lo stesso software applicativo, pagandolo ogni volta. E’ come se ogni divisione della Fiat acquistasse separatamente lo stesso programma, ogni volta attivando un nuovo contratto con il fornitore. Già nella legislatura precedente invece (ministro Stanca), lo stato centrale ha spinto con una certa convinzione per il «riuso» del software, premiando le amministrazioni che creavano progetti pensati fin dall’inizio per essere «passati» ad altre.
Il secondo elemento che Aitech-Assinform non evidenzia, è il peso crescente del software Open Source nelle amministrazioni. Se ne usa sempre di più, per esempio Open Office al posto di Microsoft Office, con risparmi significativi e con compatibilità pressoché piena. Ma il software a sorgente aperta trascina con sé anche un altro problema: a parte i pacchetti già pronti, in molti casi c’è un discreto lavoro da fare per adattarlo alle proprie esigenze. E’ un terreno relativamente nuovo, che richiede competenze interne alle amministrazioni, sia di progetto che di programmazione vera e propria. Un esempio poco noto è quello della Polizia di Stato che usa, in casa, tutta la filiera open disponibile: Apache, MySql, php, e aderisce alla licenza Creative Commons.
C’è infine la diatriba tra front-office (sportelli verso i cittadini e le imprese) e back-office (il retrobottega dove le pratiche vengono svolte). La Confindustria lamenta che le amministrazioni si siano dedicate solo al secondo aspetto anziché al primo. Pochi mesi fa la critica avanzata era l’opposto: avete fatto troppi siti web senza adeguare il retrobottega ai nuovi servizi promessi. Di fatto la situazione è questa: molti portali pubblici sono stati aperti; non tutti sono adeguati, ma qualcosa è stato realizzato. Tuttavia quasi mai si è colta questa occasione per riorganizzare non tanto i computer, ma i processi interni che devono erogare il servizio. E non si tratta di una questione tecnologica, quanto organizzativa: se non si migliorano i flussi di lavoro, l’introduzione dell’informatica introduce solo ulteriori costi, perpetuando e aggravando le inefficienze.

Posted in Chips, politica | Leave a Comment »

capitalismo 3.0

Posted by franco carlini su 19 aprile, 2007

Sarah Tobias

Immaginate che il sistema operativo del vostro computer cominci a cancellare le memorie su cui lui stesso lavora: presto il vostro Pc farà un disastroso crash. Bene, anzi male: questa è la condizione in cui si trova il pianeta, nella fase del Capitalismo 2.0, per effetto dei contemporanei fallimenti del mercato e dello stato. Il primo perché interessato solo al profitto a breve, il secondo perché preso in ostaggio dalle corporation. «E’ un problema di sistema, non di leader diversi». A scrivere così è un businessmen di idee liberali, Peter Barnes nel suo libro intitolato «Capitalismo 3.0. Una guida al recupero dei beni comuni». Californiano, già giornalista, ha fondato nel 1982 un’azienda chiamata Working Assets che opera nella telefonia mobile e nelle carte di credito e che devolve automaticamente l’un per cento del suo fatturato (non dei profitti!) a progetti per un mondo migliore. Il Capitalismo 1.0 era quello della scarsità. La versione 2.0, secondo Barnes, inizia dopo la seconda guerra mondiale ed è all’insegna dell’abbondanza: le corporation non hanno il problema di trovare le risorse, ma solo quello di trovare dei compratori. Tutto ciò è insostenibile e Barnes non è certo il primo a scriverlo. Di nuovo nel suo saggio c’è l’uso intenso di metafore di origine informatica, che sono molto efficaci nel farsi capire dai colleghi di business hi-tech, e c’è la categorizzazione delle diverse fasi del capitalismo, del quale egli non immagina un superamento rivoluzionario, ma certamente un upgrade, che chiama appunto 3.0, com’è di moda nel mondo del software. Solo che non è una miglioria da poco; si tratterebbe infatti di riconoscere una buona volta che i «commons» come aria, acqua, frequenze dell’etere, reti sociali, culture e tutte quelle cose essenziali per il benessere del benessere umano, sono un settore distinto dell’economia. Essi possono essere «proprietarizzati», ma non «privatizzati». Il che si potrebbe fare, Barnes suggerisce, creando forme specifiche di istituzioni, titolari delle proprietà comune, come trust o fondazioni. Proposta moderata, ma non modesta, dato che comporterebbe uno stravolgimento dei mercati, specialmente finanziari.

Posted in Chips, economia, politica | 2 Comments »

L’evoluzione di Papa Ratzinger

Posted by franco carlini su 19 aprile, 2007

Incitamento alla critica, pronti

Da «Gesù di Nazareth» a «Creazione ed evoluzione», i due libri di papa Ratzinger
Scienza e fede, l’incontro di Castelgandolfo del settembre 2006 organizzato dal Vaticano raccolto in una pubblicazione. La linea del pontefice sull’evoluzione e la sua critica alla teoria dell’evoluzione

Franco Carlini

Il papa Ratzinger, presentando il suo libro «Gesù di Nazareth», ha precisato che è una sua ricerca personale e che dunque tutti potranno criticarla. Si spera che l’invito valga, a maggior ragione, per un altro volume da lui firmato, appena pubblicato in Germania dall’editore Sankt Ulrich Verlag, con il titolo «Creazione ed evoluzione» (Schoepfung und Evolution). Questo testo è il frutto dell’incontro di scienziati e teologi che si tenne a Castel Gandolfo nel settembre 2006. In precedenza il papa aveva sostituito il gesuita americano George Coyne, dal ruolo di astronomo capo vaticano, alcuni dissero perché troppo conciliante con il pensiero di Darwin.
Ecco allora le linee di Ratzinger sull’evoluzione che sono assai critiche, ma non di rottura. Di per sé ribadiscono la posizione dei predecessori, spesso classificata come «evoluzione teistica»: all’origine della creazione c’è Dio, che operò attraverso i meccanismi dell’evoluzione. Non si diede certamente da fare per progettare ogni animale o pianta, ma innescò il processo, finalistico e razionale, della vita.
Tuttavia Ratzinger si spinge un po’ più in là, con due argomenti, l’unico di critica generale alla scienza e l’altro all’evoluzione. Il primo dice: «La scienza ha aperto tante nuove strade alla ragione, portandoci verso nuovi approfondimenti. Ma nell’entusiasmo per la portata delle sue scoperte, la scienza tende a allontanarci da quelle dimensioni della stessa ragione di cui abbiamo ancora bisogno. I suoi risultati portano a domande che vanno oltre il canone metodologico e che non possono avere risposta al suo interno». In altre parole la scienza, cui viene tributato un doveroso omaggio, non può essere autosufficiente. Ha bisogno di un prima (la creazione) e di un dopo (una spiegazione ai perché della vita). Fin qua nulla di grave, dato che solo i non-scienziati considerano la scienza la spiegazione di tutto e le attribuiscono infallibilità. Al contrario la scienza vera è sempre in discussione, si considera provvisoria, sa benissimo di fornire solo spiegazioni al «come» e non si pone nemmeno la domanda dei fini o del senso ultimo; non intende rispondere ai «perché». Sa di non poterlo fare e non lo vuole fare. Dopo di che, singoli scienziati troveranno nelle religioni le risposte esistenziali che cercano come persone, mentre altri accetteranno di non averne. Dunque Ratzinger semplicemente rivendica alla religione una razionalità superiore, tuttavia rassicurandoci le scienze vanno bene, purché accettino di essere illuminate da una razionalità più vasta e «vera».
Il secondo argomento invece è una critica specifica alla teoria dell’evoluzione e dice che essa non è completamente provabile «perché mutazioni che si sviluppino attraverso centinaia di migliaia di anni non possono essere riprodotte in laboratorio». Questo vorrebbe essere un colpo basso: le leggi della fisica si possono verificare in laboratorio e la forza della ricerca è la riproducibilità degli esperimenti; invece con l’evoluzione l’esperimento è unico e non ripetibile, dato che non possiamo riavvolgere il film, cambiare le condizioni sperimentali e vedere come un grado di temperatura in meno avrebbe mutato la vita sulla terra milioni di anni fa. Dunque sarebbe una scienza così così, più narrazione che leggi di natura, una critica analoga a quella di alcuni post moderni. Tanto più, aggiunge il papa, che questo percorso evolutivo sembra «scegliere poche mutazioni positive basandosi su basse probabilità». Scienza imperfetta, allora, che tuttavia può diventarlo solo che si assuma che quelle basse probabilità non sia state scelte dal caso cieco, ma da una razionalità, ovviamente divina. Con grande cautela la chiesa cattolica si è finora tenuta lontana, ufficialmente, dal creazionismo e dalle teorie del progetto intelligente, in Usa sventolate contro Darwin, ma di fatto piega sempre di più in tale direzione, sia pure senza osare dirlo.
In verità il papa e i suoi collaboratori forse dovrebbero studiare di più perché il carattere di scienza storica dell’evoluzione è da tempo accettato pressocché da tutti e la sua storicità non ne inficia la robustezza scientifica. Infatti le prove paleontologiche, e ormai anche del Dna, sono coerenti e oltre a tutto l’evoluzione è pur sempre all’opera: ogni anno i ricercatori scoprono rapidi adattamenti per mutazioni e interazione con gli ambienti mutati. Non capita solo nei laboratori dato che persino i leggendari fringuelli delle Galapagos, che tanto diedero da pensare a Darwin, hanno avuto di recente veloci evoluzioni di specie.

Posted in Chips, scienza | 6 Comments »

La Francia come modello

Posted by franco carlini su 19 aprile, 2007

 

carola frediani

I consulenti americani della comunicazione politica stanno studiando le presidenziali francesi, in particolare il modo in cui i candidati utilizzano l’internet – e prendono appunti. A cominciare dai siti dei due contendenti favoriti: quello di Nicholas Sarkozy, ricchissimo di video, interattivo, con le risposte ai quesiti degli utenti; e quello di Ségolène Royal, più attento alle esigenze di partecipazione, di mobilitazione online. «Sotto diversi aspetti il sito di Sarkozy è più avanzato della maggior parte dei siti politici americani, soprattutto nell’uso del video», ha commentato su Cnet-News l’americano Mike Murphy, consulente per la campagna presidenziale repubblicana, che tra i suoi clienti annovera il governatore della California Arnold Schwarzenegger e il senatore John McCain. David Mercer, stratega democratico al servizio di Hillary Clinton, guarda invece a Ségolène Royal. «Quel che più mi ha ispirato nella campagna della candidata francese è stato l’utilizzo di internet come di una rete», orientata alla partecipazione e ad organizzare il sostegno dal basso. Ségolande, appunto, una mappa geolocalizzata dei blog e dei siti che sostengono la candidata socialista. Negli Usa i sostenitori di MoveOn.org, il popolare sito della sinistra militante, ha appena eletto Barack Obama suo candidato di riferimento. In seconda posizione nel sondaggio online c’è John Edwards, che vede così premiato il coraggio con cui ha ammesso di essere pentito del proprio voto per la guerra, oltre naturalmente all’intenso attivismo web. Al contrario, la favorita del fronte democratico, Hillary Clinton, scivola solo in quinta posizione nella classifica dei favoriti.
Il sondaggio è stato raccolto dopo aver analizzato gli interventi di sette candidati sul tema Iraq.

Posted in Chips, media, politica | Leave a Comment »