Chips & Salsa

articoli e appunti da franco carlini

  • fc

Archive for the ‘alfabeti’ Category

Da Wi-Fi a WiMax

Posted by franco carlini su 30 novembre, 2006

Di Wi-Fi ce n’è più di uno. Tutte queste sigle derivano da un organismo internazionale, lo IEEE, Institute of Electrical and Electronics Engineer, che, giusto per complicarci la vita, si pronuncia «ai triple i») organizzazione internazionale che stabilisce gli standard del mondo elettrico. Il Wi-Fi dunque è più esattamente la tecnologia Ieee 802.11, con una diversa lettera finale. Le diverse sottospecie differiscono per esempio per la frequenza di trasmissione che usano, da cui dipende anche la capacità trasmissiva (quanti megabit al secondo) e il raggio d’azione, che comunque è confinato in poche decine di metri. Quello che conta è che si tratta di una tecnica di trasmissione dei segnali a radiofrequenza, grazie alla quale diversi apparati possono formare una rete locale (Lan) agganciandosi a un punto di accesso, che fa da perno all’intero sistema. In questo modo un ufficio può evitare di stendere cavi e fili per collegare i suoi pc, e permettere a ognuno di spostarsi da una stanza all’altra con il portatile, sempre restano collegato alla Lan. Le cose si fanno ancora più interessanti quando il punto di accesso è a sua volta collegato (con un cavo) alla rete internet. In questo caso, allora, tutti i terminali della Lan non solo possono parlare tra di loro e con il server centrale, ma anche accedere ai servizi dell’internet esterna.

Se il raggio d’azione del Wi-Fi è limitato, ben più ampio, dell’ordine delle centinaia di metri, è quello del WiMax (Worldwide Interoperability for Microwave Access) che poi sarebbe lo standard Ieee 802.16. Questa tecnica si va dispiegando in diversi paesi, ad esempio per collegare tra di loro diversi hot spot Wi-Fi, ma anche per fornire piena connettività telefonica e digitale alle abitazioni, saltando il cosiddetto ultimo miglio (cioè i fili di rame dall’armadio telefonico di strada alle case). Le sperimentazioni più avanzate sono in corso in Corea e Giappone, seguite dagli Stati Uniti. In Italia siamo fermi al palo, dato che il Ministero della

Pubblicità

Posted in alfabeti, cellulari, Chips | 1 Comment »

parole nuove / Affidarsi alle folle intelligenti

Posted by franco carlini su 23 novembre, 2006

Quelli di Wired, la rivista che nella metà degli anni ’90 fu bibbia e motore della prima esplosione nel web, non sono più sull’onda come un tempo, ma non cessano di guardare avanti e soprattutto di inventare parole suggestive. La più recente, che già riceve quasi due milioni di citazioni su Google, è Crowdsourcing. Compare per la prima volta in un articolo di Jeff Howe e Mark Robinson nel giugno 2006. Lo stesso Howe ha aperto un blog con questo nome. L’idea è chiaramente in opposizione all’outsourcing, ossia al delegare al di fuori di una organizzazione, e magari all’estero, una serie di attività. In Italia lo chiamavamo appalto a terzi. Invece crowd è la folla, la moltitudine e perciò, in questa fusione di termini, il crowdsourcing significa che alcuni compiti, anche importanti, sono affidat fuori, a volontari gratuiti o a collaboratori a tempo parziale, di solito poco pagati. L’idea «filosofica» sottostante è analoga a quella delle reti sociali (social networks), dei progetti collaborativi Open Source, degli sciami intelligenti (smarm), dell’intelligenza collettiva, dei contenuti generati dagli utenti (Ugc). Non si pretenda dunque, almeno per ora una definizione precisa. E’ abbastanza chiaro tuttavia, al di là delle successive mode linguistiche, che questo insieme di teorie e di pratiche sta diventando un nuovo paradigma sia culturale che organizzativo. E anche un affare: si pensi alle prove e collaudi dei nuovi software, opera difficile e costosa che di solito le grandi aziende facevano in casa, con propri dipendenti. Ma l’Open Source, il software aperto, offre la possibilità di affidare a volontari i test delle successive versioni alfa e beta, quelle che ancora devono scendere sul mercato. Ormai lo fanno tutti, in questo modo risparmiando forza lavoro e garantendosi una massa di collaudatori (i beta tester) ognuno dei quali porta il suo prezioso contributo.

Posted in alfabeti, Chips, Social Networks | Leave a Comment »

Alfabeti digitali /3 Le reti di nuova generazione

Posted by franco carlini su 27 luglio, 2006

di Franco Carlini

La rete Internet, si è detto nelle puntate precedenti, ha fatto un miracolo: con una tecnologia geniale ma relativamente semplice e povera, è riuscita a collegare tutto il globo, anche i suoi angoli remoti, usando in parte dei grandi cavi in fibra ottica che ne costituiscono lo scheletro (backbone), ma anche le reti telefoniche precedenti. Il trucco è stato quello di usare un protocollo di trasmissione (un insieme di regole tecniche) grazie al quale i messaggi vengono spezzati in blocchi (pacchetti) e questi spediti indipendentemente. Lo spettro del collasso dell’internet per eccesso di traffico è stato avanzato più volte ma è sempre stato smentito dai fatti perché quella rete così decentrata, si è dimostrata capace di crescere per aggiunte successive senza crollare sotto il peso dei bit in circolazione. La filosofia generale adottata è quella del best effort: la rete fornisce le sue prestazioni «al meglio possibile», senza pretendere di essere efficiente al cento per cento.
Questa tecnica (e questa filosofia) a molti non appaiono più sufficienti e la nuova frontiera ingegneristica proposta è quella delle reti di nuova generazione (NGN, Next Generation Networks). con cui si intende la fusione e il superamento in una nuova architettura dei due modelli precedenti, le reti telefoniche vecchia maniera (a commutazione di circuito, Pstn: Public switched telephone network) e le reti con protocollo Ip (Internet protocol a commutazione di pacchetto). Dal punto di vista degli utenti il best effort dovrà cedere il passo a una Qualità del servizio (QoS) pressoché totale perché l’orizzonte di affari su cui si orientano i grandi gruppi delle telecomunicazioni e le reti televisive, non è più di fornire semplicemente agli utenti Internet posta e pagine web, ma due altre cose almeno: VoIP e IpTv.
Voice over Internet Protocol è la tecnica che permette di telefonare via Internet, in questo caso la nostra voce consolo viene digitalizzata, trasformata in sequenza di numeri, ma anche «pacchettizzata», allo stesso modo di quanto avviene per la posta elettronica. Ma se il ritardo nella posta elettronica può essere tollerabile, una telefonata invece deve scorrere fluida, senza che si perdano dei pezzi di conversazione. Attualmente i servizi Internet che offrono questa possibilità vocale, come Skype, Vonage, Google Talk e altri, garantiscono una qualità più decente, spesso migliore di una telefonata via cellulare. Le conversazioni possono avvenire via Internet tra due computer entrambi collegati e ognuno dotato di microfono e di cuffia, o anche da telefono a telefono, purché siano apparecchi dotati di questa funzione. Finora tutto va bene perché gli utilizzatori sono sì milioni, ma non miliardi e questi servizi utilizzano la banda trasmissiva in eccesso che c’è sulla rete Internet. Ma se il loro numero crescerà significativamente la qualità delle prestazioni sarà senza dubbio più basso. Servono reti telefoniche nuove e più efficienti, tanto più se si pensa che a regime tutte le telefonate, anche quelle fatte attraverso Telecom Italia o France Telecom saranno Voip. Per le aziende attuali del VoIP il futuro sembra segnato: quello che oggi loro fanno da pioniere diventerà lo standard telefonico globale e a offrirlo saranno pochi grandi operatori concentrati.
La televisione di Internet (IpTv) è più indietro nelle realizzazioni e soprattutto non ha ancora definito un suo modello vincente e di massa. Il principio tecnologico è lo stesso (tutto viaggia sempre a pacchetti), ma in questo caso la quantità di dati tra trasmettere è molto maggiore della voce. E analoghe sono le esigenze di qualità del segnale: nessuno comprerebbe mai un evento sportivo che si veda solo in un piccolo monitor e per di più a scatti. Occorre che i fotogrammi arrivino in flusso costante e garantito e occorre che ne arrivino tanti per comporre lo spettacolo su un grande schermo di casa, persino a alta definizione.
I tecnici sostengono che per avere una tale qualità non bastano le reti in fibra ottica attuali – e questo è appunto uno dei terreni di discussione – ma che l’unica strada possibile è di «discriminare» tra i diversi pacchetti di dati. Se oggi tutti i bit sono uguali, domani ogni pacchetto avrà un indice di priorità diverso; i router lungo il percorso non si limiteranno più a smistarli, ma faranno anche da semafori, facendo passare per primi quelli che hanno priorità più alta.
In questa scelta, che è al cuore della discussione americana ed europea sulla neutralità della rete, pesano gli argomenti tecnici, ma pesano anche, e moltissimo, quelli commerciali, infatti una priorità più alta verrà fatta pagare. La motivazione ufficiale delle telecom è che solo in questo modo potranno rifarsi degli investimenti necessari a realizzare le Ngn, l’altra motivazione, altrettanto presente, è che questo diventa un modo di rialzare i margini di guadagno mentre quelli sui servizi di base come la voce stanno riducendosi all’osso. A questo modello si oppongo le aziende Internet e i difensori della rete aperta, come vedremo.

Posted in alfabeti, Chips, tlc | Leave a Comment »

Alfabeti digitali / 2 Alla ricerca dell’indirizzo web

Posted by franco carlini su 20 luglio, 2006

Il problema degli indirizzi: una stringa di testo alfanumerico (per ricordarla meglio) che «sta per» un indirizzo di soli numeri. E che il router interpreta per stabilire la connessione con quanto si va cercando
Nell’internet, si è detto nella puntata scorsa, «tutti i pacchetti di bit sono uguali». Ma cosa vuol dire, concretamente? Significa che quando Alice manda un messaggio a Bob, sia esso una lettera di posta elettronica o l’invio di una pagina web, o qualsiasi altra cosa digitale, esso viene spezzato in più blocchi di dati e questi recapitati al computer di rete più vicino (un router, instradatore). Questo non esamina il contenuto dei pacchetti – come del resto gli operatori postali non aprono le lettere, ma si limitano a guardare l’indirizzo di destinazione (per esempio Bologna) o a mettere la lettera nel sacco che viaggerà verso quella città.
C’è allora un problema di indirizzi: quelli fisici li conosciamo, ma quelli Internet? Ce ne sono di due tipi, gli indirizzi dei siti Internet e quelli di posta elettronica, ma il principio è simile. Per esempio l’indirizzo del sito web del manifesto è http://www.ilmanifesto.it ed è scritto in caratteri alfanumerici perché più facilmente ce ne possiamo ricordare e quel www davanti (che non sempre è obbligatorio), serve a ricordare appunto che si tratta di un sito appartenente a quella grande area dell’internet detta World Wide Web.
Dunque cosa avviene quando un lettore scrive «www.ilmanifesto.it» nel suo programma di navigazione (browser), nell’apposita riga in alto? Succede che il programma manda al primo router a lui vicino un messaggio del tipo: sono tal dei tali, mi mandi la pagina iniziale (Home Page) del sito del manifesto? Ma questo messaggio, per essere esaudito, deva arrivare al web server del manifesto appunto. Attraverso quale catena di eventi? Il router in realtà deve trovare il vero indirizzo internet del manifesto, che non è manifesto.it, ma una quaterna di numeri, nel caso specifico 195.110.125.146. Provare per credere: se anziché battere «www.ilmanifesto.it» inserite nella riga del browser quella quaterna di numeri, vi trovate sul sito della società Mir, che sui suoi server gestisce diversi siti come Smemoranda, Radio Popolare, il manifesto eccetera. In sostanza il router a me vicino per soddisfare la mia richiesta ha bisogno di conoscere l’indirizzo numerico e lo fa consultando una sorta di elenco telefonico (una tabella) dove, a fianco di ogni nome, compare l’indirizzo internet, sito per sito.
Questo vuol dire allora che tutti i router conoscono l’indirizzo internet dei siti di tutto il mondo? No, sarebbe poco pratico: i più richiesti dai loro utenti ce li hanno, ma quando si trovano di fronte a un sito di cui non conoscono l’indirizzo fanno la cosa più semplice, lo chiedono ad altri, in questo caso ad altri router a monte. La ricerca è veloce e di solito non ce ne accorgiamo nemmeno, ma questo percorso all’indietro può dover risalire fino a uno dei 13 server alla radice del web, i root server, strategicamente piazzati in diversi continenti. Sono loro che contengono i nomi e gli indirizzi dei computer internet di tutto il mondo. I root server sono 13 non per scaramanzia, ma per doverosa ridondanza: la rete infatti non può trovarsi bloccata da un malfunzionamento e perciò servono diverse copie delle stesse tabelle, sempre disponibili.
Dunque il nostro router è entrato in possesso del vero indirizzo del manifesto e può finalmente recapitare il messaggio. Lo fa passandolo ad altri router lungo la strada e tutti non fanno altro che leggere l’indirizzo del destinatario e smistarlo. Per esempio dal computer di chi scrive, collegato ai router di Alice Telecom Italia, i passaggi per arrivare al sito di Vodafone sono18, passando per Milano, Francoforte, Parigi, Washington, Atlanta, Los Angeles, San Francisco e infine Santa Clara in California.
Il principio con cui l’intera rete e i suoi router hanno fino ad ora operato è quello del best effort: significa che si fa il possibile, al meglio, ma che il risultato non è garantito al 100 per cento. Operano così anche i sistemi che recapitano gli Sms dei cellulari e anche il servizio postale degli stati. E infatti capita che alcuni Sms spediti la notte di capodanno arrivino il 2 gennaio (la rete cellulare era intasatissima), che delle e-mail non arrivino per niente (raro, ma succede) che una pagina web rimanga completa e che si debba richiederla di nuovo (reload). E’ una scelta di compromesso tra i costi elevatissimi che richiederebbe una qualità totale e la fornitura di un servizio a livelli decorosi. E’ sempre per motivi di semplicità ed economia che i router non scelgono chi smistare prima tra i pacchetti che arrivano loro, ma semplicemente, li servono in ordine di arrivo (First In, First Out: prima arrivato, prima uscito). Ma è appunto l’indifferenza rispetto ai contenuti dei pacchetti e questo egualitarismo che oggi vengono messi in discussione e il motivo in fondo è assai semplice: la tendenziale trasformazione dell’internet in un servizio simil televisivo, dove film, soap opera o partite di calcio devono essere vendibili con buona definizione e senza interruzioni né intoppi.
(2. continua. )

Posted in alfabeti, Chips | Leave a Comment »

Alfabeti digitali/1 Un pacchetto tira l’altro

Posted by franco carlini su 13 luglio, 2006

Le scelte tecnologiche hanno sempre valenza economica e sociale. Di che cosa parliamo quando diciamo Net neutrality e perché qualcuno non la vuole più.


Il congresso americano di questi tempi è soggetto a pressioni fortissime da parte di due lobby contrapposte, quella degli operatori telefonici e di reti via cavo, contrapposta a quella delle aziende Internet. La partita riguarda la cosiddetta «neutralità della rete»: se l’internet debba rimanere un servizio uguali per tutti oppure offrire servizi plus a chi paga di più, con autostrade a banda larghissima. La questione si va proponendo indirettamente anche in Italia, specialmente in Germania. In entrambi i casi è il punto centrale delle nuove regole delle telecomunicazioni, a fronte di sviluppi tecnologici già in corso. Ma per capire davvero di che cosa si tratti forse occorre un passo indietro, alla riscoperta dei fondamenti tecnici dell’Internet.
Il termine chiave è commutazione di pacchetto (packet switching) che costituì il vero salto tecnologico dell’Arpanet (poi Internet) nei primi anni ’70. Fino ad allora il mondo della telefonia operava a commutazione di circuito: quando A telefona a B tra l’un telefono e l’altro le centrali telefoniche intermedie stabiliscono un circuito fisico (cavi di rame), dirottando la chiamata fino a destinazione e finché i due parlano quella linea è occupata. La voce, in forma analogica, usufruisce dunque di una line commutata.
Con l’Internet le cose vanno in maniera completamente diversa: intanto un messaggio da A a B (un file di testo, di immagini, ma anche una telefonata vocale) nasce digitale, sequenza di bit (di 0 e 1) e per arrivare a destinazione è sottoposto a un curioso trattamento: viene infatti spezzato in blocchi (detti pacchetti) e ognuno di loro dotato di informazioni supplementari come l’indirizzo del mittente, quello del destinatario, il numero totale di pacchetti di cui il messaggio è composto e il numero progressivo di quel singolo pacchetto. Con una metafora cartacea, è come se il foglio di una lettera venisse tagliato in molti pezzi e ognuno infilato in una busta diversa, con indirizzo e tutto. Quindi le lettere (i pacchetti) vengono spediti verso la destinazione separatamente. Quando arrivano a destinazione il computer B apre tutti i pacchetti e ricompone il messaggio originale; poiché sa di quanti pacchetti è fatto e poiché essi sono numerati, allora gli è facile ricostruire il tutto. Se poi qualche pacchetto non fosse arrivato, allora B chiederà che gli siano rispediti i pacchetti mancanti. Succede così per i messaggi di posta elettronica ma anche per le pagine web: A chiede, B manda la pagina, A la ricompone.
C’è dunque un mucchio di lavoro da fare sia in partenza (spezzare e imbustare il messaggio) che in arrivo (aprire i pacchetti e ricomporre) e a prima vista non sembrerebbe un grande guadagno di efficienza. Allora perché farlo? Per due motivi. Il primo è che qualora certe linee di trasmissione siano intasate, alcuni pacchetti possono seguire altri percorsi: come se, andando in auto da Milano a Roma, alcune auto seguissero l’Adriatico, altre il Tirreno e altre l’Autosole; magari il percorso è più lungo ma il tempo impiegato può essere minore, dato che si evitano le code. Il secondo motivo è che pacchetti appartenenti a diversi messaggi, essendo chiusi in buste sigillate, possono viaggiare sulla stessa linea telefonica: nelle chiamate a circuito le chiacchiere tra A e B non riempiono mai tutta la banda del cavo, ma esso è bloccato solo per loro, anche quando ci sono dei silenzi. Nella trasmissione a pacchetti invece l’uso dei cavi può essere ottimizzato e molti messaggi viaggiare indipendenti, e senza interferire, sulla stessa linea.
Quanto poi alla fatica iniziale e finale c’è poco da preoccuparsi perché i computer attuali hanno potenza e memoria in abbondanza e svolgono loro l’impacchettamento e lo spacchettamento per conto nostro, senza che nemmeno ce ne accorgiamo. Queste operazioni (e molte altre) vengono svolte dai programmi che si utilizzano per navigare in rete, il browser (per esempio Internet Explorer, Firefox, Opera) e il gestore di posta elettronica. (per esempio Outlook, Thunderbird, Eudora).
In mezzo, tra A che spedisce e B che riceve che cosa c’è? C’è un certo numero di computer instradatori (router) che agiscono come centrali di smistamento dei pacchetti: li ricevono, guardano l’indirizzo del destinatario, e lo inviano ad un collega lungo la strada migliore in quel momento. Nel fare queste operazioni non guardano nemmeno il contenuto dei pacchetti, e non ne privilegiano alcuno. E’ questo il fondamento della Net neutrality come l’abbiamo conosciuta finora. (1. continua).
Sul manifesto questo argomento è stato trattato il 29 maggio

Posted in alfabeti, Chips, tlc, web | Leave a Comment »

Alfabeti digitali/1 Un pacchetto tira l’altro

Posted by franco carlini su 13 luglio, 2006

Le scelte tecnologiche hanno sempre valenza economica e sociale. Di che cosa parliamo quando diciamo Net neutrality e perché qualcuno non la vuole più.


Il congresso americano di questi tempi è soggetto a pressioni fortissime da parte di due lobby contrapposte, quella degli operatori telefonici e di reti via cavo, contrapposta a quella delle aziende Internet. La partita riguarda la cosiddetta «neutralità della rete»: se l’internet debba rimanere un servizio uguali per tutti oppure offrire servizi plus a chi paga di più, con autostrade a banda larghissima. La questione si va proponendo indirettamente anche in Italia, specialmente in Germania. In entrambi i casi è il punto centrale delle nuove regole delle telecomunicazioni, a fronte di sviluppi tecnologici già in corso. Ma per capire davvero di che cosa si tratti forse occorre un passo indietro, alla riscoperta dei fondamenti tecnici dell’Internet.
Il termine chiave è commutazione di pacchetto (packet switching) che costituì il vero salto tecnologico dell’Arpanet (poi Internet) nei primi anni ’70. Fino ad allora il mondo della telefonia operava a commutazione di circuito: quando A telefona a B tra l’un telefono e l’altro le centrali telefoniche intermedie stabiliscono un circuito fisico (cavi di rame), dirottando la chiamata fino a destinazione e finché i due parlano quella linea è occupata. La voce, in forma analogica, usufruisce dunque di una line commutata.
Con l’Internet le cose vanno in maniera completamente diversa: intanto un messaggio da A a B (un file di testo, di immagini, ma anche una telefonata vocale) nasce digitale, sequenza di bit (di 0 e 1) e per arrivare a destinazione è sottoposto a un curioso trattamento: viene infatti spezzato in blocchi (detti pacchetti) e ognuno di loro dotato di informazioni supplementari come l’indirizzo del mittente, quello del destinatario, il numero totale di pacchetti di cui il messaggio è composto e il numero progressivo di quel singolo pacchetto. Con una metafora cartacea, è come se il foglio di una lettera venisse tagliato in molti pezzi e ognuno infilato in una busta diversa, con indirizzo e tutto. Quindi le lettere (i pacchetti) vengono spediti verso la destinazione separatamente. Quando arrivano a destinazione il computer B apre tutti i pacchetti e ricompone il messaggio originale; poiché sa di quanti pacchetti è fatto e poiché essi sono numerati, allora gli è facile ricostruire il tutto. Se poi qualche pacchetto non fosse arrivato, allora B chiederà che gli siano rispediti i pacchetti mancanti. Succede così per i messaggi di posta elettronica ma anche per le pagine web: A chiede, B manda la pagina, A la ricompone.
C’è dunque un mucchio di lavoro da fare sia in partenza (spezzare e imbustare il messaggio) che in arrivo (aprire i pacchetti e ricomporre) e a prima vista non sembrerebbe un grande guadagno di efficienza. Allora perché farlo? Per due motivi. Il primo è che qualora certe linee di trasmissione siano intasate, alcuni pacchetti possono seguire altri percorsi: come se, andando in auto da Milano a Roma, alcune auto seguissero l’Adriatico, altre il Tirreno e altre l’Autosole; magari il percorso è più lungo ma il tempo impiegato può essere minore, dato che si evitano le code. Il secondo motivo è che pacchetti appartenenti a diversi messaggi, essendo chiusi in buste sigillate, possono viaggiare sulla stessa linea telefonica: nelle chiamate a circuito le chiacchiere tra A e B non riempiono mai tutta la banda del cavo, ma esso è bloccato solo per loro, anche quando ci sono dei silenzi. Nella trasmissione a pacchetti invece l’uso dei cavi può essere ottimizzato e molti messaggi viaggiare indipendenti, e senza interferire, sulla stessa linea.
Quanto poi alla fatica iniziale e finale c’è poco da preoccuparsi perché i computer attuali hanno potenza e memoria in abbondanza e svolgono loro l’impacchettamento e lo spacchettamento per conto nostro, senza che nemmeno ce ne accorgiamo. Queste operazioni (e molte altre) vengono svolte dai programmi che si utilizzano per navigare in rete, il browser (per esempio Internet Explorer, Firefox, Opera) e il gestore di posta elettronica. (per esempio Outlook, Thunderbird, Eudora).
In mezzo, tra A che spedisce e B che riceve che cosa c’è? C’è un certo numero di computer instradatori (router) che agiscono come centrali di smistamento dei pacchetti: li ricevono, guardano l’indirizzo del destinatario, e lo inviano ad un collega lungo la strada migliore in quel momento. Nel fare queste operazioni non guardano nemmeno il contenuto dei pacchetti, e non ne privilegiano alcuno. E’ questo il fondamento della Net neutrality come l’abbiamo conosciuta finora. (1. continua).
Sul manifesto questo argomento è stato trattato il 29 maggio

Posted in alfabeti, Chips, tlc, web | Leave a Comment »

Sigle e acronimi / Pellerossa e byte di caffè

Posted by franco carlini su 6 luglio, 2006

La fondazione Apache (www.apache.org) è quella singolare iniziativa non profit che cura gli sviluppi dell’omonimo software, grazie al quale funziona gran parte della rete internet. Si chiama infatti «Apache http server» il software che gestisce la gran parte dei computer che ospitano siti web. Tecnicamente si parla di «web server» e cioè di un programma che riceve le richieste di pagine web dai «clienti» e risponde inviando loro quanto richiesto. Apache è un software free e open. Più del 50 per cento dei server www al mondo funziona appunto con questo programma che di solito opera a sua volta appoggiandosi su di un’altra piattaforma aperta, il sistema operativo Linux; ormai esistono peraltro altre versioni che lavorano anche con Windows, il che dilata l’uso di Apacge. Il suo logo è naturalmente una bella piuma colorata, a ricordo delle tribù pellorossa.
Java, il cui simbolo è una tazza di caffè fumante, per ricordare la qualità prodotta nell’isola di Giava, è un linguaggio di programmazione aperto (non proprio free software, ma comunque abbastanza open). E’ è nato nei laboratori della californiana Sun Microsystems ma è ormai una piattaforma diffusissima, dalle scuole ai telefoni cellulari. Al di là del linguaggio, Java è diventato una vera e propria piattaforma intermedia tra il software di base (i sistemi operativi) e i software applicativi. Il suo vantaggio è di essere indipendente dall’hardware e dai software usati e questo «trucco» viene ottenuto creando una cosiddetta Java machine, e cioè un altro pezzo di software che riceve le istruzioni in linguaggio Java e le traduce al volo in quello dell’apparato sottostante, un vero traduttore simultaneo, della cui esistenza e attività gli utenti nemmeno si accorgono.
Sun Microsystems è una storica azienda di alta tecnologia californiana, fondata nel 1982. Il suo nome suona come «sole», ma vuol dire Stanford University Network e ai suoi fondatori si deve lo sviluppo di uno dei migliori sistemi operativi al mondo, una versione di Unix. Per anni la Sun è stata leader nelle stazioni di lavoro ultraprofessionali e poi nei server per la rete internet, riuscendo a sopravvivere all’ondata dei personal computer a prezzi ridotti. Negli ultimi tempi, essenso sempre meno facile, si è convertita convintamene alle filosofie del software aperto, sulla base del suo slogan «la rete è il computer».

Posted in alfabeti, Chips, software | Leave a Comment »

giornali online / Le domande più frequenti

Posted by franco carlini su 29 giugno, 2006

Sembra non si discuta d’altro: se i giornali saranno soppiantati dall’informazione online e sui cellulari; se quest’ultima offra già un modello economicamente sensato, se i contenuti, grazie alla loro supposta qualità, tornano a essere sovrani rispetto al medium e ai formati che li convogliano. Innumerevoli in proposito i convegni (noi italiani in questo siamo specialisti): prima uno del gruppo Rcs, poi un altro del Sole 24 Ore, due giorni fa un terzo della Federcomin, federazione delle comunicazioni associata alla Confindustria e presieduta da quell’Alberto Tripi che ha il record mondiale di precari travestiti da collaboratori, nei suoi Call Center. Tutti questi incontri hanno fornito lo stato delle preoccupazioni correnti tra gli editori ma hanno offerto poche idee per il futuro. Naturalmente non c’è certezza possibile, ma qualche ipotesi ha raggiunto un grado sufficiente di consenso tra gli esperti. Vediamo:

I tempi: il cambiamento è più veloce del previsto. Al debuttare del web nei primi anni ’90 sembrava già una grande rivoluzione, ma da tre anni in qua il panorama è cambiato violentemente, grazie a poche innovazioni che si chiamano Banda Larga con accesso continuo alla rete, uso diffuso degli apparati mobili, software facili e sociali.

I modelli su cui si attesteranno i media tradizionali cominciano a delinearsi e quello che riscuote il maggiore successo è dato dalla coppia: free press più rete. Qualcuno per esempio sta pensando a fare un quotidiano del pomeriggio gratuito, altri pensano di importare anche in Italia il modello dei settimanali gratuiti di qualità. Entrambi i modelli (free + online) sarebbero pagati solo dalla pubblicità, ma eventualmente prevedendo dei servizi premium, a pagamento.

I formati: c’è stata una fase in cui alcuni osservatori hanno sostenuto che essi ormai erano poco importanti, dato che in rete si cercano solo notizie brevi da consumare al volo, poco più che dei lanci di agenzia. Questa ipotesi ingenua sembra essere caduta: nei grandi quotidiani italiani in rete come repubblica.it o corriere.it, le pagine più cliccate non sono di solito le notizie di agenzia, ma i servizi originali; segno che i lettori apprezzano ancora (e probabilmente apprezzeranno anche in futuro) quel valore in più che deriva dalla competenza del giornalista e dal suo stile di racconto.

No limits e diversi livelli di lettura: uno dei pregi dell’informazione in rete deriva dal fatto che la carta costa molto, mentre le memorie magnetiche (gli hard disk) costano pochissimo. Perciò non c’è limite alla quantità di informazione che un giornale online può mettere a disposizione dei lettori, mentre c’è un limite al numero di pagine stampabili. Questo ha due conseguenze: intanto che tutto il passato è accessibile (alcuni come il manifesto, il New York Times, The Economist, lo faranno a pagamento, ma questo è secondario, l’importante è che c’è e nulla va perduto). E poi significa che l’informazione può essere giocata su più livelli, tra di loro allacciati: la notizia, il contesto (la cosiddetta news analisys), uno o più commenti in senso proprio, le schede di riferimento, e magari tutt i materiali originali. Nel recente scandalo del calcio, i due grandi quotidiani nazionali italiani hanno fatto qualcosa del genere, creando un vero e proprio dossier che contiene anche, per chi se lo voglia leggere, l’intero rapporto di Borrelli. Ma di più e di meglio si può fare. Gli esempi migliori, ancora una volta, vengono dalla Bbc, dove ogni pagina web è corredata sia dai riferimenti interni (ad altre pagine del passato sullo stesso argomento), che dai link esterni, verso le organizzazioni o i siti di cui si parla. Un modello misto interessante è offerto dalla rivista economica americana Business Week, dove agli articoli di carta si affiancano, online, altri materiali di approfondimento.

I feedback: ovvero il ritorno di opinioni dei lettori. In qualche caso ogni pezzo pubblicato può ricevere un punteggio da parte dei lettori e può essere contraddetto o discusso nei commenti che compaiono in calce. Questi commenti contestuali sono molto migliori dei forum generici dove si discute un po’ di tutto e spesso a casaccio.

Identità: tutti questi meccanismi, e in particolare l’ultimo, offrono agli editori un grande vantaggio perché rafforzano il rapporto tra testate e lettori, i quali cominciano a «sentirsi parte di» e non solo dei fruitori. Ma questo è solo l’inizio di un percorso, che, come detto in questa stessa pagina, abbatte o rende comunque porose le vecchie barriere tra autore e lettore. E’ proprio questo che molti giornalisti ed editori più temono: ci sarà ancora bisogno di noi? La risposta tranquillizzante è «Sì», ma il come e il quanto è la vera domanda, cui molti sfuggono.

Qualità: una cosa è certa, che da quando c’è l’internet, molti hanno deciso che dei media tradizionali possono fare a meno. Torneranno a leggere i giornali (di carta o di bit, non importa) solo se questi torneranno a essere autorevoli, e cioè seri, documentati, critici.

Posted in alfabeti, Chips, giornalismo | Leave a Comment »

parole / C’è un Codec nel mio iPod

Posted by franco carlini su 15 giugno, 2006

di  Sarah Tobias

Ma che differenza c’è tra streaming, download e podcasting? E cosa è un Codec? Chi abbia a che fare con i suoni e la voce digitale spesso incontra queste parole.
Lo streaming è il flusso di dati multimediali da un sito internet al nostro personal computer. Lo si può vedere o ascoltare, in diretta (per esempio mentre è in corso la trasmissione), ma anche in differita. Salvo usare particolari software (peraltro leciti) un tale flusso di bit non può essere «salvato» sul proprio computer, né si può trasferirlo dal Pc a un lettore portatile. Per esempio, prima della introduzione del podcasting, molti programmi radiofonici erano già disponibili sul sito della Rai, ma solo in streaming, con tecnologia Real Audio.
Altri siti invece permettono il download, ovvero lo scaricare un file dal sito sul proprio computer, per vederlo e/o ascoltarlo successivament, quando più ci farà comodo. Se esso non contiene particolari trucchi che lo impediscano, il file così prelevato può essere spostato su altri computer, messo su un Cd o su in lettore portatile, tipo iPod, Creative o altri. Il termine download peraltro non si riferisce solo ai prodotti multimediali: anche il prelievo di una file di testo da un sito, o la richiesta di una pagina web sono download.
Il podcasting è una forma di download particolarmente predisposta per lo scaricamento automatico: ci si abbona (di solito gratis) a un certo sito e i nuovi materiali sonori verranno inviati automaticamente sul proprio computer, via via che siano disponibili, in una sorta di servizio espresso che evita all’utente la “fatica” di dover di volta in volta andare a cercare il contenuto desiderato.
Il termine Codec, infine, si riferisce alle operazioni di Codifica e Decodifica dei file, per renderli più compatti e forzarli in un particolare formato. I formati audio più diffusi sono Mp3, Wav e WMA (usati da Microsoft), AIFF (di Apple), RM (o RAM) di Real Networks. La bontà delle registrazioni dipende sia dalle tecniche di compressione usate (alcune sono migliori di altre) che dal campionamento effettuato, il cosiddetto bit rate.


Posted in alfabeti, cellulari, Chips, software | Leave a Comment »