Freeman Dyson

L’informazione, un universo in espansione

da ''The New York Review of Books''

da ‘The New York Review of Books’

James Gleick, The Information: A History, a Theory, a Flood, New York, Pantheon, pp. 526, $ 29.95

Freeman Dyson

Tecnologia e società: La comunicazione è sempre stata un’esigenza fondamentale per l’uomo. Ogni società, ogni cultura e ogni gruppo ha sviluppato un proprio linguaggio e studiato mezzi sempre più efficaci per trasmettere messaggi a grandi distanza, a partire dalle tribù congolesi, che utilizzavano i tamburi per comunicare fra di loro. Il telegrafo è stato, per la civiltà occidentale, un’invenzione importante che ha aperto la strada a successivi sviluppi e scoperte, fino ad arrivare al web e alla “troppa informazione” che il calderone della rete ci fornisce ogni giorno.

Il primo capitolo del libro di Gleick si intitola Drums That Talk, tamburi parlanti. Spiega il concetto di informazione proponendo un esempio semplice, quello del linguaggio dei tamburi usato in una parte della Repubblica Democratica del Congo, dove la lingua parlata è il kele. Da tempo gli esploratori europei sapevano che i ritmi irregolari dei tamburi africani trasmettevano messaggi misteriosi attraverso la giungla. E agli esploratori capitava di giungere in villaggi, dove mai europeo aveva messo piede, per scoprire che gli anziani del villaggio si erano preparati ad accoglierli.

Purtroppo il linguaggio dei tamburi fu compreso e registrato da un europeo, unico al mondo, prima di sparire inesorabilmente. Quell’europeo era John Carrington, un missionario inglese che trascorse la vita in Africa e che col tempo parlò fluentemente la lingua kele e il linguaggio dei tamburi. Carrington era giunto in Africa nel 1938 e nel 1949 pubblicò le sue scoperte in The Talking Drums of Africa1. Prima che arrivassero gli europei con le strade e con le radio, gli africani che parlavano la lingua kele usavano il linguaggio dei tamburi per comunicare rapidamente fra i villaggi della foresta pluviale. Ciascun villaggio aveva il suo esperto suonatore di tamburo e ogni abitante capiva i messaggi tradotti dagli strumenti. Nel momento in cui Carrington dava alle stampe il libro, l’uso del linguaggio dei tamburi stava ormai scomparendo e gli scolari avevano smesso di impararlo. Nei sessant’anni trascorsi da allora i telefoni hanno reso obsoleto questo linguaggio, completandone l’estinzione.

Carrington capì che il linguaggio dei tamburi era possibile grazie alla struttura della lingua kele. Quest’ultima è infatti una lingua tonale, caratterizzata da due toni nettamente distinti, ciascuna sillaba è bassa oppure alta: il linguaggio dei tamburi è espresso da una coppia di tamburi con gli stessi due toni e ciascuna parola in kele è espressa dai tamburi come sequenza di battiti alti e bassi. Nella “traduzione” dalla lingua kele al linguaggio dei tamburi, l’informazione contenuta nelle vocali e nelle consonanti viene persa. In una lingua europea le consonanti e le vocali contengono tutta l’informazione e se questa venisse a mancare non rimarrebbe nulla. Invece, in una lingua tonale come il kele, parte dell’informazione è trasmessa nei toni e sopravvive nel passaggio dal parlante umano ai tamburi. La frazione di informazione che si conserva nel mondo dei tamburi è poca e le parole parlate dagli strumenti sono di conseguenza ambigue. Una singola sequenza di toni potrebbe avere centinaia di significati e ciò dipende dalla mancanza di vocali e consonanti. Il linguaggio dei tamburi deve risolvere l’ambiguità delle singole parole aggiungendo parole. E, quando il numero di parole ridondanti diviene sufficiente, il significato del messaggio diventa inequivocabile.

Dagli Stati Uniti, un giorno del 1954, arrivò alla scuola della missione di Carrington un visitatore. Carrington era in giro nella foresta e la moglie, poiché voleva comunicargli di rientrare per pranzare con l’ospite, gli inviò un messaggio nel linguaggio dei tamburi, che poi spiegò al visitatore americano. Affinché Carrington lo decifrasse, il linguaggio doveva essere formulato con espressioni ridondanti e ripetute: «lo spirito dell’uomo bianco nella foresta venire venire a casa di assicelle persona importante spirito di uomo bianco nella foresta. Donna con patate aspetta. Venire venire». Udito il messaggio, Carrington ritornò a casa. Calcolando una media, erano necessarie circa otto parole nel linguaggio dei tamburi per trasmettere senza ambiguità una parola di una lingua umana. I matematici occidentali direbbero che circa un ottavo dell’informazione nella lingua umana kele appartiene ai toni che sono trasmessi dal linguaggio dei tamburi. La ridondanza in quest’ultimo compensa la perdita di informazione dovuta alla mancanza di vocali e consonanti. I suonatori africani di tamburo erano a digiuno di matematica occidentale, ma procedendo per prove ed errori scoprirono il giusto livello di ridondanza per il loro linguaggio. La moglie di Carrington lo aveva imparato dai suonatori e sapeva come usarlo.

La storia del linguaggio dei tamburi illustra il dogma centrale della teoria dell’informazione, per il quale «il significato è irrilevante». L’informazione è indipendente dal significato che essa esprime e dal linguaggio usato per esprimerlo. È un concetto astratto, che può essere applicato in ugual modo alla parola umana, alla scrittura o ai battiti dei tamburi. Tutto ciò che serve per trasferire l’informazione da un linguaggio a un altro è un sistema di codificazione, che può essere semplice oppure complicato. Se il codice è semplice, come nel caso del linguaggio dei tamburi con i suoi due toni, una certa quantità d’informazione richiede un messaggio più lungo. Se il codice è complicato, come nella lingua parlata, allora possiamo trasmettere la stessa quantità di informazione in un messaggio più breve.

Un altro esempio che illustra bene il dogma centrale è il telegrafo ottico francese. Fino al 1793, il quinto anno della Rivoluzione Francese, i suonatori africani di tamburo erano più avanti degli europei in quanto a capacità di trasmettere l’informazione rapidamente e a grandi distanze. Nel 1793 il patriota francese Claude Chappe, volendo rinforzare la difesa del governo rivoluzionario contro i nemici interni e stranieri, inventò un dispositivo che chiamò telegrafo. Era un sistema ottico di comunicazione composto da stazioni costituite da grandi puntatori montati in cima a torri alte diciotto metri. Ogni stazione aveva un operatore addetto che leggeva il messaggio trasmesso da una stazione vicina e lo ritrasmetteva alla stazione successiva lungo la linea.

La distanza tra stazioni consecutive era di circa undici chilometri, e lungo le linee di trasmissione i messaggi ottici viaggiavano più veloci dei messaggi dei tamburi africani. Nel 1799, quando prese in mano le redini della repubblica francese, Napoleone ordinò il completamento del sistema a telegrafo ottico, in modo che collegasse le principali città di Francia, da Calais e da Parigi a Tolone e poi oltre, fino a Milano. Com’era nelle intenzioni di Claude Chappe, il telegrafo sarebbe diventato uno strumento importante del potere nazionale e Napoleone garantì che gli utenti privati non vi potessero accedere.

A differenza del linguaggio dei tamburi, che si basava sulla lingua parlata, il telegrafo ottico si basava sulla lingua francese scritta. Chappe inventò un complicato sistema di codificazione per tradurre i messaggi scritti in segnali ottici. Il patriota francese era alle prese con un problema di natura opposta a quello incontrato dai suonatori di tamburo. Costoro disponevano di un sistema di trasmissione rapido con messaggi ambigui e dovevano rallentare la trasmissione per eliminare l’ambiguità. Viceversa, il sistema di trasmissione inventato da Chappe era terribilmente lento e i suoi messaggi ridondanti. Come la maggior parte delle lingue alfabetiche, quella francese è ridondante, ovvero usa un numero di lettere assai maggiore di quelle necessarie per trasmettere il significato del messaggio. Il sistema di codificazione di Chappe consentiva ai messaggi di essere trasmessi più velocemente. Molte espressioni comuni e i nomi propri erano codificati da due simboli ottici soltanto, permettendo un notevole guadagno di velocità della trasmissione. L’autore e il lettore del messaggio possedevano dei cifrari che elencavano i codici messaggio, ottomila fra espressioni e nomi. Napoleone considerava vantaggioso un codice crittografato che impedisse alla popolazione di violare, nel suo tragitto, la segretezza dei messaggi.

Dopo averci proposto questi due esempi storici di comunicazione rapida, in Africa e in Francia, le parti successive del libro di Gleick si occupano degli sviluppi moderni della tecnologia dell’informazione, dominati da due personaggi americani, Samuel Morse e Claude Shannon. Morse è stato l’inventore dell’alfabeto omonimo e fra i pionieri che costruirono un sistema telegrafico usando l’elettricità via cavo invece dei puntatori ottici impiegati sulle torri. Nel 1838 inaugurò poi il telegrafo elettrico e nel 1844 perfezionò il codice, l’alfabeto, che usava impulsi brevi e lunghi di corrente elettrica per rappresentare le lettere dell’alfabeto.

Ideologicamente, Morse si ritrovava sulla sponda opposta rispetto a Chappe. Infatti era disinteressato alla segretezza o a creare uno strumento di potere per il governo, perché il sistema Morse era concepito come impresa a scopo di lucro, rapida, a basso costo e accessibile a chiunque. Inizialmente, il prezzo di un messaggio corrispondeva a un quarto di centesimo per ciascuna lettera e gli utenti più importanti del sistema erano i corrispondenti dei quotidiani, che diffondevano in tutto il mondo le notizie degli eventi locali. Il codice Morse era così semplice che chiunque poteva impararlo. Il sistema non forniva agli utenti alcuna segretezza. Nel caso l’avessero desiderata, essi avrebbero potuto inventare un proprio codice segreto e codificare in proprio i messaggi. Il prezzo di un messaggio in cifra era maggiore del prezzo del messaggio in chiaro perché i telegrafisti riuscivano a trascrivere più velocemente il testo in chiaro. Inoltre, era più facile correggere gli errori nel testo in chiaro che nel testo cifrato.

Claude Shannon è stato il padre fondatore della teoria dell’informazione. Per un centinaio di anni dopo l’invenzione del telegrafo elettrico, gli ingegneri inventarono e svilupparono nuovi sistemi di comunicazione – come il telefono, la radio e la televisione – senza ricorrere a una matematica superiore. Poi Shannon introdusse la teoria per capire questi sistemi nel loro complesso, e definì l’informazione come una quantità astratta intrinseca, per esempio, a un messaggio telefonico o a un’immagine televisiva. Fu così che egli introdusse in questo campo la matematica superiore.

Cresciuto in una fattoria del Michigan, ancora ragazzino Shannon costruì un sistema telegrafico casereccio utilizzando il codice Morse. Trasmetteva i messaggi agli amici delle fattorie vicine usando come conduttore dei segnali elettrici il filo spinato delle recinzioni. Allo scoppio della seconda guerra mondiale, Shannon sarebbe diventato un pioniere della crittografia scientifica e avrebbe perfezionato il telefono criptato di livello elevato, che permise a Roosevelt e a Churchill di conversare su un canale sicuro. In quel periodo, anche Alan Turing, suo amico, stava lavorando come crittografo al celebre progetto britannico Enigma, che decifrò con successo i codici militari tedeschi. Quando, nel 1943, Turing venne a New York, i due matematici si incontrarono di frequente, ma, appartenendo a mondi segreti separati, non poterono scambiarsi idee in materia di crittografia.

Nel 1945 Shannon scrisse l’articolo A Mathematical Theory of Cryptography che, classificato come «segreto», non vide mai la luce. Nel 1948 pubblicò una versione espurgata dell’articolo intitolata A Mathematical Theory of Communication, che comparve sul ‘Bell System Technical Journal’, la rivista dei Bell Telephone Laboratories, che sarebbe diventato un instant classic e soprattutto il documento fondatore della moderna scienza dell’informazione. Per merito di Shannon la tecnologia dell’informazione poté spiccare il volo: col tempo sarebbe arrivata l’era dei computer elettronici, delle macchine fotografiche digitali, di internet e del world wide web.

Gleick sostiene che l’impatto dell’informazione sul mondo umano è avvenuto in tre fasi. La prima è la storia, le migliaia di anni durante i quali i popoli hanno creato e scambiato informazione senza pensare a quantificarla. La seconda è la teoria, formulata per la prima volta da Shannon. E la terza, il mare d’informazione nel quale siamo attualmente immersi. La marea è montata in sordina. L’evento che l’ha resa visibile risale al 1965, l’anno in cui Gordon Moore formulò la legge che porta il suo nome. L’ingegnere elettrico Moore aveva fondato la Intel, l’azienda che produce tuttora componenti per i computer e altri congegni elettronici. La sua legge asseriva che il prezzo di questi componenti sarebbe diminuito e il loro numero raddoppiato ogni diciotto mesi. Ciò significava quindi che il prezzo sarebbe diminuito e che i numeri sarebbero aumentati di un fattore cento ogni dieci anni. Nei quarantacinque anni trascorsi dalla sua enunciazione, la previsione di Moore di una crescita continua si è rivelata straordinariamente accurata. Nei quattro decenni e mezzo intercorsi il prezzo è diminuito e i numeri sono cresciuti di un miliardo di volte, ossia dieci elevato a nove. E dieci elevato a nove è un valore sufficiente per fare di un rigagnolo un mare.

Gordon Moore operava nel settore dell’hardware, produceva componenti per macchine elettroniche e formulò la sua legge come legge di crescita valida per l’hardware. Ma essa vale anche per l’informazione che l’hardware è destinato ad archiviare e a elaborare. L’archiviazione dell’informazione si chiama memoria e la sua elaborazione computazione. La conseguenza della legge di Moore per l’informazione è che il costo della memoria e della computazione diminuisce e la quantità disponibile di memoria e di computazione aumenta di un fattore cento ogni dieci anni: il mare di hardware diventa un mare d’informazione.

Nel 1949, un anno dopo avere pubblicato le regole della teoria dell’informazione, Shannon stilò una tabella dei vari archivi di memoria esistenti al suo tempo. La memoria più grande della tabella era la US Library of Congress, la Biblioteca del Congresso, che, secondo le sue stime, conteneva centomila miliardi di bit di informazione. A quel tempo era una stima ragionevole della somma totale delle conoscenze umane archiviate. Oggi un hard disk di memoria capace di archiviare quell’identica quantità di memoria pesa circa un chilogrammo e possiamo comprarlo con meno di mille euro. L’informazione – o dati, se vogliamo – si riversa in memorie di quella dimensione, o anche superiori, negli uffici governativi e aziendali, ma anche nei laboratori scientifici di ogni angolo del mondo. Gleick cita lo scienziato informatico Jaron Lanier, che descrive con queste parole l’effetto diluvio: «È come se ci inginocchiassimo per piantare il seme di un albero ed esso crescesse così velocemente da inghiottire l’intera città prima di darci il tempo anche solo di rimetterci in piedi».

L’8 dicembre 2010 Gleick ha pubblicato un saggio illuminante, The Palace of Information,sul blog della ‘New York Review of Books’, ormai in ritardo per poter essere incluso nel suo libro. In esso descrive i cambiamenti storici del significato della parola “informazione” come compare nell’ultima versione trimestrale on line dell’Oxford English Dictionary. La parola apparve nel 1386 in un bollettino parlamentare e lì significava “denuncia”. La storia termina con l’uso moderno “information fatigue”, traducibile come “malessere da sovraccarico di informazione” e definito appunto come «apatia, indifferenza o esaurimento mentale causato dall’esposizione a una quantità esagerata di informazione».

Non sempre le conseguenze della marea di informazione sono negative. Una delle imprese creative consentite da questo diluvio è Wikipedia, fondata dieci anni fa da Jimmy Wales. I miei amici e conoscenti si dicono tutti diffidenti, eppure tutti la usano. Diffidenza e uso produttivo non sono incompatibili. Wikipedia è il massimo giacimento di informazione open source. Chiunque di noi è libero di leggerla e chiunque di scriverla. Contiene articoli in 262 lingue, scritti da svariati milioni di autori. L’informazione contenuta è inattendibile eppure sorprendentemente accurata. Inattendibile perché a volte gli autori sono a digiuno della materia oppure approssimativi, e accurata perché gli articoli sono rivisti da lettori più informati degli autori.

Quando fondò Wikipedia, Wales si augurava che fondere l’entusiasmo di autori volontari e la tecnologia dell’informazione open source avrebbe rivoluzionato l’accesso della nostra specie al sapere. Tuttavia, la velocità di crescita di Wikipedia ha superato i sogni più audaci del suo creatore, così da diventare in dieci anni il più grande deposito di informazione del pianeta e il più rumoroso campo di battaglia tra opinioni in conflitto. Ed è un esempio della legge di Shannon della comunicazione affidabile, la quale dice che in un sistema con un livello elevato di rumore è possibile una trasmissione di informazione accurata. Persino nel sistema più immerso nel rumore gli errori si possono correggere in modo affidabile e si può trasmettere un’informazione accurata, sempre che la trasmissione sia ridondante a sufficienza. È così che in sostanza funziona Wikipedia.

In più, questo profluvio di informazione ha arrecato grandi vantaggi alla scienza. Di solito, la gente ha una visione distorta di questo campo del sapere perché a scuola viene insegnato ai bambini che la scienza è un insieme di verità inossidabili. In realtà, essa non è un corpo di verità, bensì un’esplorazione senza fine di misteri che scopriamo ovunque esplorando il mondo intorno a noi: il nostro pianeta è rivestito di continenti e di oceani, la cui origine ancora ci sfugge, la nostra atmosfera è continuamente rimescolata da perturbazioni che chiamiamo tempo atmosferico e clima, la materia visibile dell’universo è surclassata da una quantità assai maggiore di materia oscura invisibile che sfugge alla nostra comprensione, l’origine della vita è un mistero totale, come misteriosa è l’esistenza della coscienza umana, e non abbiamo una chiara idea di come le scariche elettriche delle cellule nervose siano correlate alle nostre sensazioni, ai nostri desideri e alle nostre azioni.

La fisica stessa, la scienza più esatta e consolidata, rimane avvolta da molti misteri. Non sappiamo quanta parte della teoria dell’informazione di Shannon sarà ancora valida quando i dispositivi quantistici sostituiranno come vettori di informazione i circuiti elettrici classici. Ciò che possiamo sapere per certo è che, in teoria, potranno svolgere compiti che travalicano quelli dei dispositivi classici. La computazione quantistica è ancora un enigma inesplorato alla frontiera della teoria dell’informazione. La scienza è la somma totale di una grande moltitudine di misteri, è un discutere senza fine, come in un bazar di voci, più simile a Wikipedia che all’Encyclopedia Britannica.

La rapida crescita del mare di informazione degli ultimi dieci anni ha consentito la nascita di Wikipedia, e quello stesso oceano ha permesso lo sviluppo della scienza del XXI secolo, dove enormi archivi di informazione – i database – la fanno da padroni. Un tipico database del XXI secolo è la raccolta delle sequenze genomiche di creature viventi appartenenti alle specie più diverse, dai microbi all’uomo. Ciascun genoma contiene l’informazione genetica completa che ha dato forma alla creatura a cui esso appartiene. Il database dei genomi cresce a vista d’occhio e gli scienziati di tutto il mondo possono esplorarlo. La sua origine si può far risalire al 1939, l’anno in cui Shannon scrisse la tesi di dottorato intitolata An Algebra for Theoretical Genetics.

Shannon si era appena laureato presso il dipartimento di matematica del MIT e aveva solo una pallida idea di quale potesse essere la natura fisica dell’informazione genetica. La vera natura fisica del genoma è la struttura a doppia elica delle molecole di DNA, che sarebbe stata scoperta da Francis Crick e da James Watson quattordici anni più tardi. Nel 1939 Shannon capì che la base della genetica era l’informazione e che quest’ultima doveva essere codificata in un’algebra astratta indipendente dalla sua natura fisica. Essendo egli all’oscuro della natura della doppia elica, non si poteva sperare che azzeccasse la struttura dettagliata del codice genetico. Tuttavia, egli poteva immaginare che in un futuro più o meno prossimo l’informazione genetica sarebbe stata decodificata e archiviata in un gigantesco database capace di definire la diversità totale delle creature viventi. Sono trascorsi sessant’anni e quel suo sogno si è avverato.

Nel Novecento, il genoma umano e quello di altre specie è stato laboriosamente decodificato e tradotto in sequenze di lettere nelle memorie dei computer. Col passare del tempo la decodificazione e la traduzione sono diventate più economiche e più rapide, poiché il costo è diminuito e la velocità aumentata secondo la legge di Moore. Ci sono voluti quindici anni per decodificare il primo genoma umano, con un costo pari a un miliardo di dollari. Oggi è possibile decodificarlo in poche settimane e al costo di poche migliaia di dollari. Il punto di svolta è stato raggiunto intorno al 2000, quando è diventato più economico produrre l’informazione genetica che comprenderla. Possiamo introdurre un frammento di DNA umano in una macchina e leggere rapidamente l’informazione genetica, ma non sappiamo leggere il significato di quell’informazione. E non lo comprenderemo finché ci sfuggiranno i processi di sviluppo embrionale che il DNA ha orchestrato per fare di noi quello che siamo.

Un simile punto di svolta è stato ottenuto grosso modo in quegli anni anche nella scienza dell’astronomia. I telescopi e le navette spaziali si sono evoluti lentamente, e invece le macchine fotografiche e gli elaboratori dei dati ottici hanno seguito uno sviluppo rapido. I moderni progetti di esplorazione del cielo raccolgono dati da vastissime aree celesti e generano database contenenti informazioni accurate su miliardi di oggetti. Gli astronomi che non hanno accesso a grandi strumenti possono fare delle scoperte scavando nei database, invece di osservare il cielo. Database di grandi dimensioni hanno prodotto rivoluzioni simili in altre scienze, per esempio nella biochimica e nell’ecologia.

La crescita esplosiva d’informazione nella società umana fa parte di una crescita più lenta di strutture ordinate nell’evoluzione della vita, che si è evoluta per miliardi di anni mediante l’assorbimento di quantità crescenti d’informazione da parte degli organismi e degli ecosistemi. Ciò fa parte dell’evoluzione dell’universo, che avviene incorporando informazione in strutture ordinate, come galassie, stelle e sistemi planetari. Nel mondo vivente e in quello non vivente vediamo un ordine crescente, che ha origine dal gas informe e uniforme dell’universo primordiale e che produce la straordinaria diversità di oggetti strani che vediamo nel cielo e nella foresta pluviale. Ovunque intorno a noi, ovunque volgiamo lo sguardo, siamo testimoni di un ordine e di una informazione crescenti. La tecnologia che nasce dalle scoperte di Shannon è solo un’accelerazione locale di una crescita di informazione, che è naturale.

La crescita visibile delle strutture ordinate nell’universo sembrava paradossale agli scienziati dell’Ottocento, i quali credevano in una dottrina desolante, la morte termica. Lord Kelvin, uno dei massimi fisici dell’epoca, propose il dogma della morte termica, preconizzando che il flusso di calore dagli oggetti più caldi agli oggetti più freddi avrebbe ridotto le differenze di temperatura, ovunque, al punto che alla fine le temperature sarebbero diventate uguali. La vita ha bisogno di differenze di temperatura per evitare di essere spenta dal calore perduto. Come conseguenza la vita sarebbe scomparsa.

Questa sconsolante visione del futuro stride con il pullulare di vita che vediamo crescere intorno a noi. Per merito delle scoperte degli astronomi del Novecento, oggi sappiamo che la morte termica è un mito. Questo evento non potrà mai accadere e non esiste alcun paradosso. La migliore descrizione della scomparsa del paradosso è il capitolo How Order Was Born of Chaos del libro Creation of the Universe, scritto da Fang Lizhi e dalla moglie Li Shuxian2. Fang Lizhi è celebre due volte: come importante astronomo cinese e come autorevole dissidente politico. Oggi Fang Lizhi prosegue la sua duplice carriera all’Università dell’Arizona.

La credenza nella morte termica era basata su un’idea che ho definito regola della cottura. La mia regola afferma che una bistecca diventa più calda se la mettiamo su una griglia molto calda. Più in generale, essa dice che qualsiasi oggetto diventa più caldo quando guadagna energia e più freddo quando la perde. L’uomo cucina bistecche da millenni e mai nessuno ha visto una bistecca diventare più fredda cuocendola sul fuoco. La regola è valida per oggetti piccoli a sufficienza da essere maneggiati. Se è valida sempre, allora il ragionamento di Lord Kelvin della morte termica è corretto.

Tuttavia oggi sappiamo che tale regola non vale nel caso di oggetti di dimensioni astronomiche, per i quali la gravitazione è la forma dominante di energia. Il sole è l’esempio che tutti conosciamo. Quando perde energia per radiazione, la nostra stella diventa più calda, e non più fredda. Poiché il sole è costituito da un gas comprimibile schiacciato dalla sua stessa forza di gravità, la perdita di energia lo fa diventare più piccolo e più denso, e la compressione lo rende più caldo. In quasi ogni oggetto astronomico la forza di gravità è dominante e si manifesta lo stesso comportamento inatteso. La gravitazione inverte la relazione consueta tra energia e temperatura: nel mondo dell’astronomia, quando il calore fluisce dagli oggetti più caldi agli oggetti più freddi, i primi, quelli caldi, diventano più caldi ancora, e gli oggetti freddi ancora più freddi. Di conseguenza, col passare del tempo, nell’universo astronomico le differenze di temperatura tendono ad aumentare, e non a diminuire: non esiste alcuna temperatura uniforme, né alcuna morte termica. La gravitazione offre un universo ospitale per la vita. L’informazione e l’ordine possono continuare a crescere nel futuro per miliardi di anni, come evidentemente hanno fatto nel passato.

La visione del futuro come infinito campo da gioco, costellato da una sequenza infinita di misteri, che dovranno essere decifrati da altrettanti giocatori intenti a esplorare una scorta altrettanto vasta di informazione, è una visione gloriosa per gli scienziati. La considerano una prospettiva attraente, capace di dare un senso alla loro esistenza, oltre che essere una fonte inesauribile di lavoro. Questa visione ha meno attrattiva sugli artisti, sugli scrittori e sulla gente comune, interessata più agli amici o alla famiglia che alla scienza. E forse l’uomo della strada non si augura un futuro in un mare infinito d’informazione. Una visione più tetra dell’universo dominato dall’informazione è descritta nella Biblioteca di Babele, il celebre racconto scritto da Jorge Luis Borges nel 19413. Borges immaginò la sua biblioteca, con la sua schiera infinita di libri, di specchi e di scaffali, come una metafora dell’universo.

L’epilogo del libro di Gleick si intitola The Return of Meaning – il ritorno del significato – ed esprime le preoccupazioni di chi si sente estraniato dalla cultura scientifica, che è dominante. L’enorme successo della teoria dell’informazione è nato dalla decisione di Shannon di separare l’informazione dal significato. Il suo dogma centrale, «il significato è irrilevante», asseriva che l’informazione era manipolabile con maggiore libertà se fosse stata trattata come astrazione matematica indipendente dal significato. La conseguenza di questa libertà è la marea d’informazione in cui stiamo annaspando. Le dimensioni astronomiche degli attuali database rendono bene l’idea della sensazione di assenza di significato. Un’informazione così sterminata richiama alla mente la biblioteca di Borges, che si estende all’infinito, in tutte le direzioni. Il nostro compito di esseri umani è riportare il significato in questa landa desolata. Creature pensanti e senzienti, possiamo creare isole di significato nel mare dell’informazione. Gleick conclude il libro con l’immagine della condizione umana creata da Borges: «Camminiamo nei corridoi, cercando gli scaffali e riordinandoli, alla ricerca di versi carichi di significato immersi fra legioni di cacofonie e di incoerenze, leggendo la storia del passato e quella del futuro, raccogliendo i nostri pensieri e quelli altrui, gettando di tanto in tanto uno sguardo agli specchi, nei quali possiamo riconoscere creature dell’informazione».

1. Londra, Carey Ringsgate, 1949.

2. SingaporeWorld Scientific Publishing Co., 1989.

3. Jorge Luis Borges, La Biblioteca di Babele, in Finzioni, Torino, 1974.

(Traduzione di Silvio Ferraresi)

FREEMAN DYSON è stato professore di Fisica presso l’Institute for Advanced Study a Princeton. Ha scoperto un metodo per studiare il comportamento degli atomi e le radiazioni. Si è anche occupato di reattori nucleari, astrofisica, biologia e ferromagnetismo. I suoi libri usciti più di recente in Italia sono Scienziato come ribelle (Longanesi, 2009), Origini della vita (Bollati Boringhieri, 2002) e Il sole, il genoma e internet. Strumenti delle rivoluzioni scientifiche (Bollati Boringhieri, 2000).

Print Friendly, PDF & Email
Invia una mail per segnalare questo articolo ad un amico