Chips & Salsa

articoli e appunti da franco carlini

  • fc

Archive for giugno 2007

Intelligente sarà lei

Posted by franco carlini su 28 giugno, 2007

 

f.c.

Più di 400 testate al mondo hanno ripreso un articolo minore pubblicato venerdì scorso dalla rivista Science con cui due studiosi cercano di spiegare il fatto che il primo figlio di una famiglia risulti mediamente più intelligente del secondo. I dati statistici provengono dai registri dell’esercito norvegese che sottopone i giovani coscritti a test di intelligenza. Dopo di che, tanti giornali si sono buttati a intervistare i fratelli minori di persone di successo. Pochi sembrano essersi data la pena di leggere il saggio originale. Vale la pena di ricordare che la misura dell’intelligenza attraverso il QI è da sempre assai discutibile perché le abilità intellettive sono difficili da definire e ogni «misura» lascia fuori qualcosa ed è comunque strettamente associata a una particolare idea di intelligenza, in una certa epoca e in un certo contesto. Peraltro la differenza tra primi e secondi figli è di soli 2,3 punti, cioè assai bassa, ma, derivando da un campione di 250 mila giovani, viene considerata significativa. Nessuno poi si è interrogato su di un altro fenomeno che le statistiche hanno da tempo accertato: fino all’età di 12 anni sono i fratelli minori i più intelligenti, e solo dopo i primogeniti riportano punteggi più alti. Questo rovesciamento viene spiegato dagli studiosi suggerendo che i fratelli maggiori da un certo punto in poi si facciano carico dei minori, svolgendo un po’ la funzione di tutori e maestri, il che ne accentuerebbe le capacità intellettive. Gli autori stessi ammettono che solo di un’ipotesi si tratta anche se appare piuttosto sensata. Del resto per tradizione storica il primogenito è il destinatario di eredità, ruoli, fortune famigliari, e dunque su di lui i genitori esercitano particolari cure nel prepararlo alle responsabilità della vita. Gli altri figli, meno responsabilizzati, sono sovente più creativi, talora ribelli. Lo farebbero anche per distinguersi dal primogenito, buttandosi su altri temi e interessi. Se questo è vero, allora tutto torna: il QI classico misura la normalità media, come la società attuale la definisce, e chi è un po’ diverso, sia pure di 2,3 punti, viene considerato meno intelligente. Ma non c’è da preoccuparsi, meglio così.

Posted in cervello, Chips | 1 Comment »

media al test della provetta

Posted by franco carlini su 28 giugno, 2007

Per il quindicesimo anno, si è svolta una sessione dell’Hands-on Laboratory. In Italia, una cosa del genere per i lavoratori dell’informazione, la organizza il Laboratorio di biologia dello sviluppo di Pavia

Luca Tancredi Barone

Se un giorno, affacciandovi alla porta di un laboratorio del Max Planck Institut di Göttingen (una cittadina collocata esattamente nel centro geografico della Germania), doveste scorgere un gruppetto di pasticcioni, con guanti di lattice, sguardo perplesso e la destrezza di un elefante nel maneggiare pipette e provette, non pensate subito male degli scienziati. Potreste esservi imbattuti in uno dei gruppi di giornalisti scientifici che partecipano al programma Eicos (European initiative for communicators of science). All’inizio del mese si è svolta per il quindicesimo anno una sessione dell’Hands-on Laboratory, un «laboratorio metteteci le mani». Una cosa del genere in Italia la organizza il Laboratorio di biologia dello sviluppo di Pavia. Lo scopo è aiutare i giornalisti scientifici a narrare con cognizione di fatto, non solo per sentito dire.
Di che si tratta? Si prendono – nel caso di Eicos – quattordici giornalisti e comunicatori scientifici da tutta Europa, li si divide in quattro gruppi e li si consegna nelle mani di altrettanti gruppi di ricerca. Una specie di Isola dei famosi, dove per una intera settimana si lavora, si vive, si mangia tutti insieme in un centro di ricerca isolato dal mondo, solo che anziché indossare un costume, mostrare i muscoli e cimentarsi in imprese improbabili, qui si indossano guanti (e giacche pesanti quando si passano lunghi periodi nella cella frigorifera), si ascoltano seminari e si seguono rigorose procedure scientifiche sotto gli occhi pazienti di un generoso gruppo di brillanti dottorandi, guidati ciascuno da uno dei capi del laboratorio. L’obiettivo era quello di realizzare, dall’inizio alla fine, un esperimento vero nell’ambito delle ricerche di punta del laboratorio assegnato.
Il primo tema era di competenza del laboratorio di neurobiologia: il gruppo aveva il compito di lavorare con una cellula neurale, analizzando alcune delle proteine coinvolte nella trasmissione del segnale nervoso e il processo di fusione delle vescicole, sacche presenti all’interno della cellula che rilasciano alcune sostanze chimiche le quali a loro volta «accendono» o inattivano i neuroni. Un secondo gruppo ha lavorato con il dipartimento di biofisica teorica e computazionale: lo scopo era quello di simulare, grazie ad appositi programmi al computer, forma, comportamento e movimenti di alcune proteine chiave per certi processi biologici. Un altro gruppo ha lavorato al dipartimento di biologia molecolare dello sviluppo sulla Drosophila, il moscerino della frutta, l’insetto superstar della genetica fin dai suoi esordi, per studiare l’espressione di alcuni suoi geni legati alla differenziazione sessuale. Il gruppo in cui ha lavorato chi scrive era ospitato dal dipartimento di biochimica cellulare e si è occupato di Rna, la molecola protagonista di quello che il settimanale Economist ha definito il nuovo «Big Bang della biologia». L’attenzione del gruppo era concentrata su una fase del meccanismo di trascrizione dell’informazione genetica dal Dna alle proteine, gli ingredienti fondamentali per consentire a un organismo di svolgere tutte le sue funzioni vitali (vedi sotto).
Solo che la maggior parte di questo tipo di esperimenti va fatto in maniera indiretta: ad esempio, né l’Rna, né le proteine si vedono a occhio. I risultati e gli errori vanno interpretati all’interno di un modello teorico di riferimento. Tutti i pezzi del puzzle che formano la teoria vengono conquistati a fatica immaginando ogni volta esperimenti da modificare mille volte prima di poter fornire un risultato utile. Che magari è un gel appiccicoso e rettangolare con tante colonne marroncine (contenenti preziose proteine o Rna altrettanto importante).
La biologia, insomma, è maledettamente più complicata e subdola di quanto non possa sembrare. E non soltanto perché i giornalisti sono meno pazienti e precisi di chi in laboratorio passa intere giornate.
Ma è anche una scienza in un certo senso modesta: non pretende di trovare la Tteoria del Tutto». E, dato che si scontra tutti i giorni con la complessità del vivente, ha imparato, più della fisica, quanto tutte le conoscenze e i dogmi siano relativi. È anche la scienza da tenere sott’occhio: gli interessi che le girano attorno non sono solo scientifici (e di aspetti da chiarire su come funzioniamo ce ne sono ancora un mucchio), ma, come è ovvio, anche economici. E mano a mano che il potenziale della biologia si dispiegherà, come prevede anche l’Economist, le tentazioni riduzioniste e semplicistiche di spiegare tutto aumenteranno. Non perdetevi le prossime puntate.

Posted in Chips, giornalismo, scienza | Leave a Comment »

Pochi geni, tanto software di controllo

Posted by franco carlini su 28 giugno, 2007

 

Nel 2000, verso la fine del progetto Genoma, i biologi scommettevano fra di loro: quanti saranno i geni umani? Considerando che esistono almeno 90 mila proteine umane e che il cosiddetto dogma centrale della biologia diceva «un gene codifica per una proteina», le stime arrivavano anche a 150 mila geni. Peccato che oggi si sia verificato che questo numero sia attorno ai 20 mila. E, quel che è peggio, è più o meno lo stesso numero di geni che troviamo anche in animali più semplici. Come è possibile che la complessità stupefacente di noi umani sia generata da un Dna grosso modo lungo quanto quello del moscerino della frutta? Negli ultimi anni i ricercatori si sono accorti che se anche il numero di geni per i mammiferi è più o meno lo stesso, nell’uomo la percentuale di Dna che «codifica», ovvero che contiene istruzioni per fabbricare proteine e che sta nei cosiddetti esoni è una parte minima, attorno all’un per cento. Il resto, gli introni, sono in grande maggioranza. Insomma, più l’organismo è complesso, e più introni ci sono. La conclusione è semplice: lì in mezzo, in quello che veniva considerato «Dna spazzatura», deve essere nascosta dell’informazione che serve per regolare direttamente o indirettamente i processi cellulari. A farsi carico di ciò sono diversi tipi di Rna, l’acido ribonucleico cui finora si attribuiva solo l’umile funzione di trasportare le istruzioni del Dna. Invece l’Rna, nelle sue molte varianti, fa tante cose, svolgendo una funzione di comando e regolazione. A partire da una base comune di geni, accendendoli e spegnendoli in diverse combinazioni, genera complessità biologica. Il che tra l’altro è una soluzione molto efficiente.

Posted in Chips | Leave a Comment »

Max Plank miracolo tedesco

Posted by franco carlini su 28 giugno, 2007

 

La Max Planck Gesellaschaft (Mpg), che gestisce i 78 istituti del Max Planck, è il principale ente di ricerca tedesco. Non è un ente governativo, ma una società di diritto privato, anche se finanziata principalmente dallo stato. Ricordiamo che la Germania spende più di due volte e mezzo l’Italia in ricerca scientifica in proporzione al Prodotto interno lordo. L’Mpg riceve ogni anno 1,3 miliardi di euro (il Cnr italiano non arriva neppure a mezzo miliardo). Il motto dell’Mpg viene attribuito al fisico Max Planck stesso: «la conoscenza deve precedere l’applicazione». Scopo del Mpg è dunque la ricerca cosiddetta curiosity driven, cioè la ricerca di base, guidata dalla curiosità intellettuale, dalla voglia di conoscere, che solo in parte può essere sviluppata nelle università. È diviso in tre sezioni indipendenti: chimica, fisica e tecnologia; biologia e medicina; scienze umane.
Ci sono 265 dipartimenti (ciascuno con a capo un direttore, di questi 72 sono stranieri), e vi lavorano circa 12mila persone (di cui 4500 scienziati), più circa diecimila dottorandi (la metà sono stranieri) e postdoc (l’80% sono stranieri). Ciascun istituto è autonomo, sceglie i propri temi e le proprie strutture di ricerca, assume il proprio personale e gestisce il proprio bilancio. I gruppi di ricerca sono diretti da un responsabile che gestisce i fondi. Naturalmente si viene valutati regolarmente sui risultati scientifici: se non si passano gli esami, o le persone scelte non si rivelano all’altezza, non si ricevono più fondi e non ci saranno progressioni di carriera.
Interessante è che l’opinione pubblica tedesca ne ha una grande stima: secondo un sondaggio del 2005 il 71% dei cittadini intervistati ritiene che i soldi investiti nel Mpg siano un ottimo investimento dei soldi pubblici. Chissà che cosa pensano gli italiani dei (pochi) soldi che diamo al Cnr. (l.t.b.)

Posted in Chips, scienza | Leave a Comment »

Neanderthal messo in sequenza

Posted by franco carlini su 28 giugno, 2007

 

Dal Max Planck Institute di Lipsia arriva una speranza: potrebbe essere vicina la «sequenziazione», completa ovvero la ricostruzione «lettera per lettera» del Dna dell’uomo di Neanderthal. Lo sostiene Svante Paabo, in un articolo appena pubblicato sulla rivista Pnas. In realtà frammenti di genoma del nostro cugino, scomparso circa 30 mila anni fa, sono da tempo disponibili e sono anche stati analizzati per confrontarli con quelli di H. sapiens.
Il grande interrogativo, finora non risolto in maniera definitiva, è se le due specie, che vissero sugli stessi territori di larga parte dell’Europa e in Nord Africa, si siano mai incrociate, eventualmente riproducendosi, e comunque quale sia il motivo della scomparsa relativamente rapida di Neanderthal: genetica debolezza, minore capacità di adattamento all’ambiente, o che cosa d’altro? Gli studi più recenti sembrano indicare che tra i due non ci sia stata combinazione genetica: vissero in contemporanea, ma non si accoppiarono né generarono prole. Tuttavia queste analisi dei frammenti estratti dalle ossa di scheletri di Neanderthal sono state finora molto ambigue perché si è presto scoperto che in quel Dna ce n’era anche di estraneo, per esempio quello dei batteri e dei microorganismi che si erano installati nel cadavere dopo la morte dell’individuo. Particolari precauzioni poi devono essere seguite nel maneggiare i reperti, per non contaminarli con il Dna attuale degli sperimentatori. E poiché i Dna di tutti gli organismi si assomigliano assai, non era affatto facile discriminare tra i diversi contributi. Oltre a tutto il Dna tende a decadere: non si conserva facilmente per migliaia di anni (è questo il motivo per cui era del tutto fantasiosa la rinascita dei dinosauri in Jurassik Park). Ora il laboratorio di Lipsia sembra avere fatto un nuovo passo in avanti.

Posted in Chips, scienza | Leave a Comment »

Microsoft alla sfida dell’Open

Posted by franco carlini su 28 giugno, 2007

 

Stupore e sospetti sulla strategia di avvicinamento di Bill Gates con l’universo open source, nemico storico del monopolista del software

Raffaele Mastrolonardo

A letto con il nemico. O le verità nascoste. Sono questi i due titoli di film che descrivono uno stato di cose impensabile solo fino a un anno fa: le sempre più strette relazioni tra Microsoft, la quasi monopolista mondiale del software, e l’universo open source. Da una parte, un modello di business proprietario fondato su costose licenze, dall’altra programmi il cui codice deve restare aperto, a disposizione di chiunque lo voglia vedere, modificare e redistribuire. L’avvicinamento tra due entità così diverse e apparentemente nate per farsi la guerra, suscita comprensibile stupore ma anche sospetti e accuse.
Dopo tutto, solo cinque anni fa Steve Ballmer, amministratore delegato di Microsoft, definiva Linux, il più popolare sistema operativo a sorgente aperto, un «cancro». Mentre oggi l’azienda di Bill Gates è tutta impegnata nell’allacciare rapporti con società che fondano il proprio business su Linux. La prima e più importante tra queste è stata, lo scorso anno, Novell, distributore di una versione del sistema operativo molto diffusa. Poche settimane fa è stata la volta della canadese Xandros e, ancora più recentemente, dell’americana Linspire. Altre sono previste nei prossimi mesi.
Evidentemente, dal 2002 a oggi qualcosa è cambiato. «Quella prima reazione negativa è figlia di un momento in cui non avevamo adeguata conoscenza della cultura open source e dei suoi modelli di business», spiega al manifesto Pierpaolo Boccadamo, Direttore della strategia di piattaforma di Microsoft Italia. «Prevaleva l’idea che fosse un modo per dare software gratis. Ora abbiamo capito meglio quel mondo e ci troviamo in un momento in cui alcune barriere vanno superate perché lo chiede il cliente».
Insomma, i nemici di ieri vanno, se non proprio a letto, almeno a cena assieme. O meglio ci provano, perché sotto il tavolo la verità è più complicata e suscita diffidenza. «L’accordo con Novell – ha detto qualche settimana fa a Roma Richard Stallman, fondatore della Free software foundation (Fsf), associazione che promuove il software libero – è il tentativo di Microsoft di farsi pagare per il permesso di utilizzare GNU/Linux». Parole forti, come è nello stile di Stallman, che trovano però echi, seppur più sfumati, in altri angoli dell’ambiente di rete. Mark Shuttleworth, boss di Canonical, un altro big del settore, per esempio, ha recentemente dichiarato di non credere che «questi accordi siano in favore del software libero».
Ma cosa dicono queste intese? Innanzitutto, stabiliscono un programma di collaborazione volto a migliorare l’interoperabilità, vale a dire la capacità delle applicazioni di «girare» su diversi sistemi hardware e software. Un processo di reciproca comprensione tra i due mondi a supervisionare il quale, da parte sua, Microsoft pochi giorni fa ha assunto Tom Hanrahan, ex Linux Foundation. In secondo luogo, mettono in piedi partnership per un marketing congiunto: le aziende firmatarie decidono di promuovere, in varie forme, i prodotti dell’ex avversario presso i propri clienti. Infine, aspetto più spinoso e centrale, i contraenti si impegnano a non fare causa ai rispettivi clienti per infrazione della proprietà intellettuale. Il che significa, per esempio, che Microsoft rinuncia a rivalersi sui brevetti che, a detta dell’azienda, Linux violerebbe. In virtù di quest’ultimo aspetto, Novell, Xandros e Linspire si ritrovano in mano un potenziale vantaggio competitivo rispetto agli altri concorrenti open source. Possono andare dai clienti e offrire loro, oltre ai consueti servizi, la garanzia che, se scelgono le loro distribuzioni Linux, non avranno noie legali da Microsoft.
Proprio su questa forma di protezione si concentrano i dubbi degli alfieri del software libero e aperto. Per molti di loro l’interoperabilità è solo fumo negli occhi. Il vero volto di Microsoft è quello del bullo di quartiere che esige la merenda in cambio dell’incolumità. «Il punto – racconta al manifesto Stefano Maffulli, presidente dalla sezione europea della Fsf – è che Microsoft non dice quali sono questi suoi brevetti, nemmeno gli accordi sottoscritti. Si limita a minacciare senza prove cercando di spaventare il mercato. Se ci fossero vere violazioni, non avrebbero remore a essere più precisi e a passare alle vie legali. Gioca al gatto col topo». Dietro all’apparente disponibilità verso il mondo open, ci sarebbe dunque la volontà di usare la propria forza per rallentarne l’avanzata.
A placare gli animi, poi, non hanno certo contribuito le dichiarazioni Brad Smith, uno dei più importanti rappresentanti legali di Microsoft, che a metà maggio ha minacciosamente ricordato che l’open source violerebbe ben 235 brevetti dell’azienda fondata da Gates.
Dalle parti di Redmond, quartier generale di Micorsoft, lassù vicino a Seattle, non sono ovviamente d’accordo con simili interpretazioni e buttano acqua sul fuoco. Gli accordi, è la linea scelta e pubblicamente dichiarata, si inseriscono in una strada già intrapresa da tempo che è, oltretutto, richiesta dal mercato. «Il cliente utilizza ormai sistemi misti, proprietari e open source, e chiede che si parlino tra loro. L’interoperabilità lavora in questo senso», spiega Boccadamo. «Dall’altra, lo stesso cliente non vuole correre rischi e pretende garanzie sul piano della proprietà intellettuale. Gli accordi in questione soddisfano questa esigenza, che gli americani chiamano ‘peace of mind’, la tranquillità di non pensare al problema legale».
Giochi di forza o reale desiderio di collaborazione in nome dell’orientamento al cliente? Il dubbio resta. Anche se c’è chi prova a scioglierlo cercando una via di mezzo tra le due posizioni. Come Roberto Galoppini, esperto di open source commerciale ed «evangelizzatore» di lungo corso sulle potenzialità di business del software aperto. «La parte tecnica degli accordi ha un suo valore, e risponde davvero a una richiesta del mercato che Microsoft vuole soddisfare. L’altra, quella sui brevetti, riguarda invece le esigenze degli investitori dell’azienda a cui i diritti di esclusiva su un software fanno piacere. E’ come se ci fossero due Microsoft».
Già, e alle aziende open source piacerebbe tanto andare a letto solo con una. Ma non è detto che sia possibile.
raffaele@totem.to

Posted in Chips, IPR, software | 1 Comment »

Conformistici ologrammi alla Diesel

Posted by franco carlini su 28 giugno, 2007

 

Lo stilista Renzo Rosso si prende troppo sul serio e nella passerella fiorentina di Pitti Uomo non sconvolge gli standard classici delle sfilate

Franco Carlini

Nostalgia di Renzo Rosso, di quando già famoso con il suo marchio Diesel, e appena quarantenne, ironizzava su se stesso capellone degli anni ’70 con i suoi pantaloni a zampa d’elefante. Ora invece si prende molto, forse troppo sul serio. Per esempio annunciando, nei giorni scorsi, che a Pitti Uomo, in Firenze, e in contemporanea sul suo sito Internet, in streaming, ci sarebbe stato «un evento che, unendo innovazione e tecnologia, definirà nuovi limiti creativi e nuovi standard per le sfilate di moda». Sabato, a sfilata conclusa, era raggiante e orgoglioso «di aver mandato per la prima volta nel mondo in passerella un’invenzione per cui tutto può diventare altro e niente si ferma più».
Che cosa era successo dunque? Semplicemente che ai classici umani che percorrono la stretta pedana, si sono aggiunte forme galleggianti nell’aria, ectoplasmi, effetti speciali figli di un’invenzione e di una teoria fisica che risale alla metà del secolo scorso, l’olografia dell’ungherese Dennis Gabor. Viene dal greco olos, che vuol dire tutto, e infatti permette di conservare tutta l’informazione di un oggetto in tre dimensioni, anziché schiacciarla in una foto a due soltanto. Si riesce a farlo utilizzando fasci di luce coerente, laser per capirsi.
Carino, ma speravamo di più. Ammirando il personaggio, immaginavamo che almeno lui, almeno per una volta, osasse davvero percorrere «nuovi standard per le sfilate». Le quali, come noto, sono il format più rigido, stucchevole e apparentemente indiscutibile in circolazione nei media. Sono uno degli ultimi esempi di organizzazione tayloristica del lavoro. Da un cancello sul retro entra la materia prima, ossia ragazze/i giovani e di una bellezza normale, ma che verranno lavorate/i con trucchi e abiti. All’altro estremo della catena produttiva, il prodotto finale è solo simbolico, peraltro senza spazio alcuno alla fantasia: un varco d’ingresso sul fondo, un corridoio da percorrere avanti e indietro, in fondo al quale c’è un palchetto dove si addensano fotografi e operatori accaldati. Inquadrature rigorosamente bloccate: avete mai visto un’immagine scattata a livello pedana? Una caviglia, un primo piano sull’ombelico? Impossibile perché proibito, perché ogni dettaglio della produzione iconica deve essere sotto il controllo ferreo di una casta di professionisti che si autodefiniscono creativi. Della macchina tayloristica fa parte anche la gestione, assolutamente fondamentale, degli invitati e della loro collocazione in platea. Perché anche loro vengono chiamati lì non già per comprare abiti improbabili, ma per dar lustro alla sfilata stessa; altissima concorrenza per catturare i personaggi migliori. Sono allora le tecnologie olografiche la rivoluzione delle sfilate? Ma che novità sono dopo che avatar e attori virtuali popolano ogni monitor, fin dai tempi di Guerre Stellari e di Star Trek? Dopo che ogni azienda sente il bisogno irrefrenabile di avere almeno un padiglione su Second Life? Qualcosa di diverso lo tentò Gianni Versace, il 25 giugno 1997, venti giorni prima di morire, giusto a Pitti, nel giardino di Boboli, inventandosi una sfilata-balletto per la coreografia di Maurice Béjart. Nessuna tecnologia avanzata. La stessa Diesel, anni fa, «truffò» i media e ne smontò pubblicamente i meccanismi inventando una fasulla cantante rock che non esisteva, ne diffuse le prodezze da diva e i relativi gossip e ne presentò ben quattro identiche, in quattro eventi europei paralleli. Altri tempi, altro Renzo Rosso. Uno che non aveva ancora scoperto la parola «lusso», che vuol dire stare dentro il gioco anziché fuori.

Posted in Chips, media | Leave a Comment »

Voto elettronico sotto accusa

Posted by franco carlini su 28 giugno, 2007

 

L’e-voting Dai risultati Usa del 2004 a quelli più recenti in Scozia, i troppi errori della telematica

Patrizia Cortellessa

Ampiamente studiate e condannate da una nutrita schiera di comitati, commissioni ed istituti di esperti. Al centro delle polemiche le macchine per l’e-voting (voto elettronico) ma ad essere messo sul banco degli accusati è il voto elettronico nel suo insieme. Una premessa obbligatoria però, per non fare confusione. Non bisogna confondere il voto elettronico con lo scrutinio elettronico. Mentre nel secondo infatti l’operatore informatico inserisce i dati delle schede cartacee nel computer e poi le trasmette via telematica a un centro nazionale, nel voto elettronico gli elettori votano tramite touch screen (cioè esprimono il nome del candidato toccando lo schermo di un computer, che poi dovrebbe registrare la preferenza) oppure può essere usato un lettore a scansione ottica. Non è che ora siamo tutti più tranquilli, ma la distinzione era d’obbligo. Sistema – quello del voto elettronico – già usato in India, Venezuale, Estonia, Brasile ma, e soprattutto, negli Stati uniti. A proposito di Usa. Ancora non è dato sapere quanto possano essere considerate «democratiche» le elezioni del novembre 2004. Macchine inceppate in molti stati, seggi che non hanno aperto o hanno aperto in ritardo … e poi i «presunti brogli» nel conteggio – anzi, nel non conteggio – nell’Ohio e in Florida. Nel 13esimo collegio elettorale, dove c’è stato un margine di vittoria di soli 386 voti, circa 18.000 voti sembra siano spariti nel nulla. Le macchinette per il voto elettronico non li hanno inclusi nei loro conteggi finali e non era stato fatto un backup per il riconteggio. Lasciando gli Usa in retromarcia, non si può non ricordare le elezioni-scandalo del 2000, quando in alcune contee spesso il numero dei votanti non coincideva il numero dei voti. In alcune si sono registrate addirittura affluenze record: 123 per cento. Nell’Ohio, su 638 voti, 260 sono andati a Kery e 4.258 a Bush. La matematica a volte sembra essere veramente solo un’opinione. Bush «conquistò» la Florida per soli 537 voti, dopo un mese di conta e riconta delle schede e con l’ultima parola data a una Corte Suprema di tendenze repubblicane.
Sicurezza e democrazia. Sicurezza della democrazia. Il problema è serio, al centro di contestazioni e polemiche. Serie. Non si tratta di usare l’e-voting per una transazione finanziaria o di controllare via internet le operazioni con la nostra banca . Qui i pochi voti non registrati mettono a capo di uno stato un presidente o l’altro. E affossano definitivamente la fiducia degli elettori verso quelle «le regole democratiche» che sono chiamati a «rispettare».
Secondo «Proteggere le elezioni», una struttura messa su da varie organizzazioni tra le quali l’Associazione nazionale per la promozione degli afroamericani (Naacp) dal nome, nelle prime ore dopo l’apertura dei seggi nelle elezioni Usa di metà mandato -, erano stati registrati oltre 250 disguidi nell’Ohio (nelle presidenziali del 2004 i democratici denunciarono brogli), e un numero variabile tra 51 e 250 in altri Stati tra i quali New York, California, Texas, Florida, Arizona, Michigan, Georgia, Tennessee.
L’ultimo allarme arriva invece dalla Scozia, dove i nazionalisti hanno vinto le elezioni conquistando al parlamento un seggio più dei laburisti. Una vittoria importante per il partito che vuole l’indipendenza dal Regno Unito. Un risultato che ha scosso Tony Blair e il Labour pure. Anche in questo caso sono state tante le polemiche sullo spoglio e sul conteggio elettronico dei voti. Ma ad allarmare di più è stato leggere qualche pagina dello studio particolareggiato redatto da Open Rights Group ( http://www.openrightsgroup.org), che in un dettagliato report rilancia: «il voto elettronicio è una minaccia per la democrazia» (notizia sulla news della Bbc del 22 giugno 2007)
E quel che è successo in Scozia sembra nelle recenti elezioni del 3 maggio sembra proprio esserne la riprova. In molti Stati le macchine si sono inceppate e i seggi hanno aperto in ritardo. L’utilizzo di nuovi sistemi di conteggio elettronico ha fatto sì che almeno 100.000 voti siano stati classificati come «documenti guasti». Nello spoglio, diversi conteggi dei voti sono stati sospesi. In alcune corse – ad esempio, il computo delle schede scartate era maggiore del margine di vittoria di alcuni candidati.
Altro che futuro del voto in rete.

Posted in Chips, politica | Leave a Comment »

Psicologia di guerra e di felicità

Posted by franco carlini su 21 giugno, 2007

 

F. C.

Intorno al premio Nobel per l’economia Daniel Kahneman, nei giorni scorsi si è tenuto a Roma un incontro importante: «Psicologia ed economia della felicità: verso un cambiamento dell’agire politico». E’ la conferma che anche in Italia, almeno nei circoli accademici più aperti, la riflessione intorno ai limiti dell’economia classica e dell’Homo oeconomicus, è ormai sviluppata. L’economia dei comportamenti è arrivata da tempo a far cadere molte illusioni sulla razionalità dei mercati e dei loro attori e, contemporaneamente, la psicologia, ora associata alle neuroscienze, va portando contributi riguardo al come le persone e le organizzazioni prendono le decisioni, sia quelle minute che quelle strategiche. C’è dunque anche un impatto sulla politica, anche se la tavola rotonda finale, con i politici italiani, appunto, è risultata assai deludente. «Felicità» e «Ben-Essere» sono purtroppo trattati nel nostro paese come cose da riviste di salute o di stili di vita, mentre questi studiosi ci dicono che dalla loro soddisfazione o meno dipende lo stato delle nazioni e persino delle democrazie
Un saggio abbastanza recente dello stesso Kahneman, pubblicato nel gennaio scorso sulla rivista Foreign Policy, può far capire la portata dei problemi. Esso cerca di spiegare, sulla base di decenni di ricerche della moderna psicologia perché al momento di prendere le decisioni «I falchi vincono sempre», raccogliendo il consenso dei decisori, mentre le colombe, propense alla diplomazia e alla trattativa soccombono quasi sempre. Attenzione, lo studioso non sostiene che i falchi abbiano necessariamente torto; qualche volta hanno ragione, come nel caso dell’intervento militare durante al Seconda Guerra Mondiale. Quello che si nota, tuttavia, è che i politici (ma anche i manager, in genere i decisori) scelgono facilmente la linea dura e conflittuale, e questo per una serie di errori cognitivi che la psicologia ha da tempo studiato, anche in situazioni di laboratorio. Tipico per esempio, è l’eccesso di ottimismo rispetto a se stessi e alle proprie forze, accompagnato da una incapacità a valutare le proposte altrui, soltanto per il fatto che vengono da un nemico. Anche così scoppiano le guerre.

Posted in Chips, economia, politica | Leave a Comment »

Integrare carta e web

Posted by franco carlini su 21 giugno, 2007

giornalismi

 

Il comitato di redazione del quotidiano La Repubblica nei giorni scorsi ha segnalato ai lettori, con una certa soddisfazione, che è stato raggiunto un accordo con l’editore e la direzione a proposito della multimedialità: «Repubblica, così, diventa il primo quotidiano italiano che avvia l’integrazione tra giornale su carta e giornale on line». In sostanza, e per ora in via sperimentale, si va verso la fine della barriera tra redazione di carta e di web. Erano nate separate e tali erano rimaste negli anni, sia pure con una crescente porosità. Lo scopo è di «arricchire i contenuti dell’informazione di Repubblica, nel suo complesso, avvalendosi di tutte le professionalità presenti nell’intero corpo redazionale». Per ora nessun singolo giornalista è obbligato a lavorare su entrambe le piattaforme, verranno offerti corsi di formazione e qualche forma di incentivo. Sulla stessa linea si stanno muovendo un po’ tutti: per esempio alla Gazzetta dello Sport e anche al genovese Il Secolo XIX è iniziato il confronto sindacale al riguardo. Almeno alcuni editori sembrano essersi resi conto che l’online è obbligatorio e che esso chiede strutture e investimenti. Dall’estero è arrivata anche la notizia di una complessiva ristrutturazione, anche nei quadri dirigenti, dell’intera redazione di carta e del sito del Wall Street Journal. La decisione era nell’aria da tempo, ma può essere stata accelerata dall’offerta di acquisto sul gruppo editoriale americano da parte di Rupert Murdoch: caso mai dovesse farcela, è senza dubbio meglio che il magnate dei media trovi strutture già consolidate anche sul fronte internet, che gli sarà più difficile smantellare.

Posted in Chips, giornalismo | Leave a Comment »

 
Iscriviti

Ricevi al tuo indirizzo email tutti i nuovi post del sito.