Il programma dell'universo
 9788806181918, 8806181912

Table of contents :
Il programma dell'universo
Colophon
Indice
Prologo. La mela e l’universo
Ringraziamenti
Dedica
Parte prima. Il quadro complessivo
I. Introduzione
1. Il computer quantistico
2. La lingua della natura
3. Le rivoluzioni dell’informazione
II. Calcolare
1. Informazione
2. Precisione
3. Significato
4. Il computer
5. Circuiti logici
6. Calcoli impossibili
III. L’universo computazionale
1. Storia dell’universo, parte prima
2. L’energia: il primo principio della termodinamica
3. L’entropia: il secondo principio della termodinamica
4. L’energia libera
5. Storia dell’universo, parte seconda
6. Ordine dal caos: l’effetto farfalla
7. Il calcolatore universale
8. Il digitale e il quantistico
9. Computer e complessità
Parte seconda. I dettagli
IV. L’informazione e i sistemi fisici
1. L’informazione è fisica
2. Le origini del mondo computazionale
3. L’ipotesi atomica
4. Il principio di Landauer
5. L’ignoranza si diffonde
6. Ignoranza atomica
7. Una partita a biliardo
8. L’eco di spin
9. Come esorcizzare il diavoletto di Maxwell
10. Calcoli atomici
V. La meccanica quantistica
1. Oltre il giardino
2. La dualità onda-particella
3. L’esperimento della doppia fenditura
4. La decoerenza
5. I bit quantistici
6. Il principio di indeterminazione di Heisenberg
7. Operare sui qubit
8. I qubit e la decoerenza
9. «Entanglement»
10. Una subdola azione a distanza
11. Il problema della misura quantistica
12. Molti mondi
VI. Gli atomi al lavoro
1. La lingua degli atomi
2. La computazione quantistica
3. Di nuovo sul problema della misura
4. La fattorizzazione di grandi numeri
5. Algoritmi di ricerca
6. La costruzione del computer quantistico
VII. Il computer universale
1. Simulare l’universo
2. La simulazione e la realtà
3. L’idea dell’universo come computer: breve storia
4. I limiti fisici della computazione
5. La capacità computazionale dell’universo
6. E quindi?
7. La computazione quantistica e la gravità
VIII. Complessità semplificata
1. Come nasce la complessità
2. L’informazione algoritmica
3. La probabilità algoritmica
4. Cos’è la complessità?
5. La complessità effettiva
6. Perché l’universo è complesso?
7. L’inizio della vita
8. Ritorno ai molti mondi
9. Il futuro
10. Umani come noi
11. Pensieri universali
Epilogo. Il conforto dell’informazione: una nota personale
Letture consigliate
Indice dei nomi

Citation preview

-

-

-

-

--

Seth Lloyd Il programma deli 'universo

Einaudi

«Questo libro racconta la storia del bit e dell'universo. L'universo è la cosa piu grande che ci sia e il bit è la piu picco­ la quantità di informazione possibile. L'universo è fatto di bit. Ogni singola molecola, ogni atomo, ogni particella elementare registra bit di informazio­ ne. Le interazioni tra questi frammen­ ti di universo cambiano i rispettivi bit e quindi modificano l'informazione: in altre parole, l'universo computa. E sic­ come il suo comportamento è regolato dalle leggi della meccanica quantistica, l'universo calcola in modo quanto­ meccanico, e i suoi bit sono bit quanti­ stici. La storia dell'universo non è che un lungo, continuo, gigantesco calcolo quantistico. L'universo è un computer quantistico. La domanda che sorge spontanea è: ma cosa calcola l'universo? Se stesso, o me­ glio la sua evoluzione. Fin dalla sua na­ scita, l'universo non ha mai smesso di calcolarsi».

In copertina: Étienne L. Trouvelot. Parte della

Via Lattea visibile in inverno, pastello su carta, 1874-1875. Parigi, Observatoire de Paris.

A

Titolo originale Programming the Universe. Quantum Computer Scientist Takes on the Cosmos

© 2oo6 Seth Lloyd © 2006 Giulio Einaudi editore s.p.a., Torino www.einaudi.it ISBN

88-o6-I8I9I·2

Seth Lloyd

Il programma dell'universo

Traduzione di Luigi Civalleri

Giulio Einaudi editore

Indice

p. XI xv

Prologo. La mela e l'universo Ringraziamenti

Il programma dell'universo

Parte prima Il quadro complessivo 5

I.

Introduzione l. Il computer quantistico

7 10

2 . L a lingua della natura

12

3 . L e rivoluzioni dell'informazione II.

Calcolare

19

l. Informazione

21

2 . Precisione

24

3 . Significato

27

4. Il computer

30

5. Circuiti logici 6. Calcoli impossibili

33

III. L'universo computazionale 37

l. Storia dell'universo, parte prima

38

2 . L'energia: i l primo principio della termodinamica 3 . L'entropia: i l secondo principio della termodinamica

39 41

4 . L'energia libera

42

5 . Storia dell'universo, parte seconda

45

6. Ordine dal caos: l'effetto farfalla

48

7 . I l calcolatore universale

49

8. Il digitale e il quantistico

52

9. Computer e complessità

Indice

VIII

Parte seconda I dettagli IV.

L'informazione e i sistemi fisici

p. 6 1 62 65

l. 2. 3.

71 74

4. 5. 6. 7. 8. 9.

76 78 81 84 87

L'informazione è fisica Le origini del mondo computazionale L'ipotesi atomica Il principio di Landauer L'ignoranza s i diffonde Ignoranza atomica Una partita a biliardo L'eco d i spin Come esorcizzare il diJ!Volatto di Maxwell

10. Calcoli atomici v.

La meccanica quantistica l. 2. 3. 4.

91 92 94 97

Oltre il giardino L a dualità onda-particella L'esperimento della doppia fenditura La decoerenza

1 04 1 06

5. 6. 7. 8. 9.

1 07 1 09 1 13

1 0. Una subdola azione a distanza 1 1 . Il problema della misura quantistica 1 2 . Molti mondi

99 101 1 02

VI.

I bit quantistici I l principio d i indeterminazione d i Heisenberg Operare sui qubit I qubit e la decoerenza Entanglement

Gli atomi al lavoro l.

1 15 1 22 1 24 125

2. 3. 4.

La lingua degli atomi La computazione quantistica Di nuovo sul problema della misura La fattorizzazione di grandi numeri

127 1 28

5. 6.

Algoritmi di ricerca La costruzione del computer quantistico

VII. Il computer universale 133 136 138 140 146 150 153

l. 2. 3. 4. 5. 6. 7.

Simulare l'universo La simulazione e la realtà L'idea dell'universo come computer: breve storia I limiti fisici della computazione L a capacità computazionale dell'universo E quindi? La computazione quantistica e la gravità

Indice VIII. Complessità semplificata p.159 1 62 1 64 1 69 175 177 1 83 185 1 87 1 90 1 92

l. 2. 3. 4. 5. 6. 7. 8. 9. 10. 1 1.

Come nasce la complessità L'informazione algoritmica La probabilità algoritmica Cos'è la complessità? La complessità effettiva Perché l'universo è complesso? L'inizio della vita Ritorno ai molti mondi Il futuro Umani come noi Pensieri universali

1 93

Epilogo. U conforto dell'informazione: una nota personale

1 99

Letture consigliate

203

Indice dei nomi

IX

Prologo La mela e l'universo

«In principio era il bit». Iniziai così. Ero nell'ex cappella di un con­ vento del Seicento, oggi sede del Santa Fe Institute, un istituto di ri­ cerca dove si studiano i sistemi complessi. La sala era piena della soli­ ta miscela di fisici, biologi, economisti e matematici, con una spolvera­ ta di premi Nobel. John Archibald Wheeler, il grande vecchio dell'astrofisica, il guru della gravità quantistica, mi aveva invitato (o me­ glio sfidato) a tenere una conferenza dal titolo Dai bit alle cosé e io ave­ vo accettato. Ero quasi pentito del mio gesto, ma ormai era troppo tar­ di per tirarsi indietro. Mentre parlavo, giocherellavo con una mela. Un po' impacciato, mi misi a lanciarla in aria e a riprenderla con una mano. «Le cose nascono da pezzi di informazione, cioè dai bit, continuai, -e questa mela ne è un ottimo esempio. Le mele e l'infor­ mazione sono sempre andate a braccetto. All'inizio di tutto c'è la me­ la biblica, simbolo della conoscenza, "il malgustato frutto, che l'Eden ci rapì, che fu di morte"2, che porta in sé l'informazione sul bene e sul male. Poi abbiamo la mela di Newton, che nella sua traiettoria men­ tre cade dall'albero riassume le leggi della gravitazione universale; e poi ancora la mela come simbolo di una sfera, la cui superficie serve da modello per lo spaziotempo incurvato di Einstein. In modo più di­ retto, il codice genetico racchiuso nei semi di questo frutto rappre­ senta tutta l'informazione necessaria per costruire un albero carico di mele. E in ultimo, ma non meno importante per noi, dentro una me­ la è contenuta energia libera, cioè calorie cariche di informazione e 1 In inglese It /rom Bit [N. d. T.]. 2]. Mi!ton , Paradiso perduto, l, nella classica traduzione di L. Papi, Tipografia e Libreria Sa­ lesiana, Torino 1 884 [N. d. T.].

xrr

Prologo

necessarie alla nostra sopravvivenza». A questo punto diedi un bel morso. «È chiaro, quindi, che questo frutto contiene molti tipi di infor­ mazione. Ma siamo in grado di calcolare questa informazione? Quan­ ti bit ci sono in una mela?» Appoggiata la mela sul tavolo, mi girai ver­ so la lavagna per fare un po' di conti. «È interessante notare che le ba­ si per questo calcolo furono poste già all'inizio del Novecento, ben prima che si cominciasse a parlare di bit. Qualcuno potrebbe pensa­ re che una mela porti in sé una quantità infinita di informazione, ma non è così. Le leggi della meccanica quantistica, che governano tutti i sistemi fisici, limitano il numero di stati in cui i componenti micro­ scopici della mela si possono trovare. Per specificare velocità e posi­ zione di ogni suo atomo bastano pochi bit, e per stabilire il suo spin atomico ne basta solo uno. Quindi, i bit racchiusi in questo frutto so­ no tanti quanti i suoi atomi, moltiplicati per un piccolo numero: qual­ che milione di miliardi di miliardi di zeri e uno, ed ecco la mela». Mi girai verso il pubblico, e la mela era sparita. Accidenti. Chi se l'era presa? Davanti a me vedevo l'espressione benevola di Wheeler e la faccia impassibile di Murray Gell-Mann, premio Nobel per la fisi­ ca, inventore dei quark e peso massimo della scienza mondiale. «Se la mela non salta fuori, mi fermo qui». Mi sedetti. «Se spari­ scono le cose, spariscono anche le informazioni». Quasi subito, si fece avanti con la mela un dispettoso ingegnere che lavorava ai laboratori Beli. Gliela strappai di mano e, tenendola bene in alto in segno di sfida, dissi che non avrei permesso a nessuno di ru­ barmela. Silenzio. Tutto sembrava a posto, e così continuai. «Ogni bit, che tra parentesi è una contrazione di binary digit, "nu­ mero binario" , porta lo stesso tipo di informazione, dato da due pos­ sibili stati mutualmente esclusivi che per convenzione si indicano con O e l (come sì e no, testa o croce ecc.) Più stati sono possibili, più bit contiene un sistema. Se gli stati sono due, il sistema fisico in questio­ ne incorpora un solo bit. Con quattro stati possibili (identificabili con 00, 0 1 , 10, 1 1 ) ci sono due bit; con otto stati (000, 00 1 , 010, 0 1 1 , 100, l O l, 1 1 O, 1 1 1 ) i bit sono tre, e così via. Come ho già detto, grazie al­ la meccanica quantistica sappiamo che ogni sistema fisico dotato di energia finita e confinato in una regione finita di spazio può esistere

La mela e l'universo

XIII

solo in un numero finito di stati, e quindi può registrare una quantità finita di informazione, cioè di bit. Tutti i sistemi fisici hanno questa proprietà. Per dirla con le parole di Rolf Landauer, "l'informazione è fisica"». Qui fui interrotto da Gell-Mann: «Ma dawero i bit sono tutti ugua­ li? Pensiamo a un bit che, a seconda del suo stato, ci dica se una fa­ mosa congettura matematica irrisolta sia vera o no: è ben diverso da un bit che ci dice se dal lancio di una moneta sia uscita testa o croce. Ci sono bit preziosi e altri no». È vero, i bit giocano ruoli ben diversi: la quantità di informazione che registrano è sempre la stessa, ma la qualità e l'importanza della me­ desima variano da bit a bit. Un bit risponde solo sì o no, e la qualità della risposta dipende dalla qualità della domanda. Un bit che ci dice cosa ci sia in un certo posto nel DNA della mela è molto più importan­ te di quello che ci comunica lo stato di agitazione termica di uno dei suoi atomi di carbonio. Il profumo di una mela è codificato da poche decine di molecole (e quindi dai rispettivi bit), mentre per specificare il suo potere nutrizionale ce ne vogliono miliardi di miliardi. Di nuovo Gell-Mann: «Bene, ma c'è un modo preciso, matemati­ co, di quantificare l'importanza dell'informazione contenuta in un bit?» Con la mia mela sempre stretta in mano, confessai di non avere una risposta esaustiva. L'«importanza» dell'informazione dipende anche dal modo in cui è codificata. Un sistema fisico registra sempre una cer­ ta informazione, e i cambiamenti nel tempo del sistema si riflettono sull'informazione. Per esempio: un sistema è tale che l'elettrone posto in x registra O e quello in y l; se a un certo punto il primo va a metter­ si al posto del secondo, il suo bit cambia di conseguenza da O a l . Le dinamiche naturali di un sistema sono una specie di computazione in cui i bit registrano informazioni e istruzioni: O e l possono significare non solo sì o no, ma anche «fai questo o fai quello». L'importanza di un bit dipende non solo dal suo valore intrinseco ma da come questo va a cambiare i valori di altri bit attorno a sé, come parte di quel na­ turale processo di trasformazione dell'informazione che costituisce l'e­ voluzione dinamica dell'universo. Dopo questo intermezzo, continuai a enunciare pezzo per pezzo i possibili bit contenuti nella mia mela e a esaminare il loro ruolo nel

xrv

Prologo

definire le caratteristiche del frutto. Tutto procedeva per il meglio: ave­ vo risposto alle domande e stavo vincendo la sfida. O quasi. Finito il discorso e congedatomi dal pubblico, stavo lasciando la stanza quando mi sentii afferrare da dietro. Doyne Farmer, uno degli scienziati presenti, aveva preso in parola la sfida della mela, e cercava di strapparmela di mano. Doyne, tra parentesi, è uno dei fondatori del­ la teoria d el caos ed è un omone alto e forte. Iniziò una lotta senza quar­ tiere. Mentre Doyne cercava di farmi mollare la presa, io lo spinsi con­ tro la parete (facendo cadere un diluvio di poster di frattali e vedute del New Mexico) e lui mi gettò a terra. Avvinghiati nella lotta, tra le sedie che volavano, ci accorgemmo a un certo punto che l'oggetto del contendere non c'era più: la mela si era sbriciolata, i suoi bit sparsi per il pavimento, l'informazione ridotta a pezzi.

Ringraziamenti

Vorrei ringraziare tutti coloro che mi hanno insegnato qualcosa, in particolar mo­ do familiari e amici. Mia moglie Eve e le mie due figlie Emma e Zoe hanno dato prova di grande pa­ zienza durante la stesura del libro. I miei genitori, Robert e Susan Lloyd, sono stati i primi lettori e revisori di quanto ho scritto. I miei fratelli Ben e Tom hanno dato un prezioso contributo, così come vari nipoti, cugini, zii, zie e suoceri. Gli amici del Mit e di altre istituzioni sono stati prodighi di osservazioni e critiche; cito in particolare Charlie Bennett, Paul Davies e i membri del gruppo Moses: Joel Mo­ ses, Bob Berwick, Robert Fano, Gadi Geiger, Jay Keyser, Tom Knight, Sanjoy Mitter, Arthur Steinberg e Gerry Sussman. Gli studenti del gruppo di Terry Orlando hanno letto con grande attenzione la prima bozza e mi hanno fornito le loro opinioni, che ho ascoltato con interesse. J. R. Lucas, J anet Brown e Aram Harrow mi hanno dato una mano a domare le sfuggenti scimmie dattilografe. Murray Gell-Mann mi ha insegnato la meccanica quantistica e la teoria delle complessità, e Doyne Farmer mi ha tenuto im­ pegnato in mille discussioni sulla loro correlazione mentre andavamo su e giù per i monti in bicicletta. Shen Tsai mi ha detto tutto quello che sapeva su Mencio. Tutti i colleghi che si occupano di computazione e informazione mi hanno dato un enorme aiuto con il loro lavoro. Molte ricerche su cui si basa questo libro sono sta­ te finanziate da varie istituzioni: Cambridge-Mit Initiative, National Science Foun­ dation , Army Research Office, Defense Advanced Research Projects Agency, Ad­ vanced Research and Development Activity, Naval Research Office, Air Force Office for Scientific Research. Marty Asher della Knopf è stata un editor paziente e piena di buon senso. Se la mia prosa ha un certo qual stile è merito di Sara Lippincott, che ha trasformato in fra­ si compiute i miei pasticci. John Brockman è stato il primo a spingermi a scrivere e Katinka Matson mi ha aiutato e incoraggiato mentre lo facevo. Infine, vorrei ricordare chi non può più essere ringraziato di persona, in special modo Heinz Pagels, Rolf Landauer e Alexis Belash.

Il programma dell'universo

A Eve

Parte prima Il quadro complessivo

Capitolo primo Introduzione

Questo libro racconta la storia del bit e dell'universo. L'universo è la cosa più grande che ci sia e il bit è la più piccola quantità di infor­ mazione possibile. L'universo è fatto di bit. Ogni singola molecola, ogni atomo, ogni particella elementare registra bit di informazione. Le interazioni tra questi frammenti di universo cambiano i rispettivi bit e quindi modificano l'informazione: in altre parole, l'universo compu­ ta. E siccome il suo comportamento è regolato dalle leggi della mec­ canica quantistica, l'universo calcola in modo quantomeccanico, e i suoi bit sono bit quantistici. La storia dell'universo non è che un lun­ go, continuo, gigantesco calcolo quantistico. L'universo è un compu­ ter quantistico. La domanda che sorge spontanea è: ma cosa calcola l'universo? Se stesso, o meglio la sua evoluzione. Fin dalla sua nascita, l'universo non ha mai smesso di calcolarsi. I primi risultati erano molto semplici: le particelle elementari, le leggi fondamentali della fisica. Con il passare del tempo, aumentava la quantità di informazione elaborata e di con­ seguenza anche la complessità dei prodotti della computazione: ga­ lassie, stelle, pianeti. La vita, l'uomo, il linguaggio, la società, la cultu­ ra sono tutti fenomeni che devono la loro esistenza all a capacità in­ trinseca della materia e dell'energia di elaborare informazione. Il fatto che l'universo sappia calcolare spiega uno dei grandi misteri della na­ tura: come sia possibile che da un insieme di semplici leggi fisiche si generino sistemi complessi, tra cui gli esseri viventi. Le leggi fisiche, per inciso, ci consentono di prevedere ciò che ac­ cadrà, ma solo a grande scala e in termini probabilistici. Poiché l'uni­ verso è governato dalla meccanica quantistica, c'è un limite fonda­ mentale alla nostra conoscenza del futuro. L'unico computer in grado

6

I. Il quadro complessivo

di calcolare con precisione tutto ciò che accadrà deve essere grande come l'universo stesso: in pratica, non possiamo far altro che aspetta­ re e vedere cosa ci riserva il futuro. Prima di iniziare, vorrei presentarmi a voi lettori. Il mio primo ri­ cordo d'infanzia è quello di un pollaio. Mio padre era apprendista fa­ legname a Lincoln, nel Massachusetts, e l'artigiano con cui lavorava gli aveva messo a disposizione il vecchio pollaio nel cortile del retro­ bottega. Papà l'aveva trasformato in una casetta di due stanze per la nostra famiglia. Dove prima covavano le galline adesso c'erano due letti a cuccetta per me e mio fratello maggiore (mentre il minore era ancora in culla) . Ogni sera mamma ci cantava una ninna nanna e ci rimboccava le coperte. Dal tepore di quella scatola di legno, il mondo là fuori sembrava pieno di meraviglie. Altri ricordi precisi: la carta di un cestino che prende fuoco, le fiam­ me che si alzano come rombi, strette in fondo e in cima; la gamba di mia madre inguainata in un paio di jeans e io che la stringo all'altezza del ginocchio; mio padre che fa volare un aquilone dipinto come un bombardiere giapponese. Poi la memoria si affolla. Ogni essere vivente ha una sua percezione unica del mondo, piena di strutture e partico­ lari. Eppure viviamo tutti nello stesso universo e le leggi della fisica valgono per tutti. Quando a scuola appresi che queste leggi erano in fondo assai semplici, la cosa mi sembrò incredibile: come era possibi­ le che le complicate meraviglie del mondo fuori dalla mia stanza fos­ sero il risultato di istruzioni così elementari? Decisi di studiare fisica e di conoscere meglio le leggi della natura. Uno dei miei maestri all'università fu Heinz Pagels (che morì tra­ gicamente nell'estate del 1988, in un incidente di montagna in Colo­ rado) , uno scienziato originale e brillante che mi spinse a studiare la complessità e a sviluppare tecniche precise per definirla e misurarla. Poi al California Institute of Technology (Caltech) passai sotto la gui­ da di Murray Gell-Mann, che mi fece capire come la meccanica quan­ tistica e la fisica delle particelle elementari fossero in realtà «pro­ grammi» per l'universo, disseminatori di complessità. Oggi sono professore di ingegneria meccanica al Massachusetts In­ stitute of Technology (Mit). In realtà insegno quella che si potrebbe definire «ingegneria quantomeccanica». E visto che la meccanica

I.

Introduzione

7

quantistica sta agli atomi come la meccanica classica sta ai macchina­ ri, si può ben dire che sono un ingegnere degli atomi. Nel 1 993 ho scoperto un modo per costruire un computer quanti­ stico, cioè un congegno che sfrutta la capacità intrinseca di atomi, fo­ toni e altre particelle elementari di elaborare informazione. Il modo di calcolare di questi oggetti rende loro possibili operazioni che un com­ puter classico (Pc o Macintosh che sia) non è in grado di svolgere. Mentre rivolgevo la mia attenzione ad atomi e molecole, cioè ai più piccoli frammenti di materia, mi rendevo conto con crescente consa­ pevolezza che tutta la realtà, cioè l'intero universo, è in grado di ela­ borare informazione. Il variegato mondo che ci circonda è la manife­ stazione concreta della capacità di calcolo dell'universo. La rivoluzione digitale degli ultimi anni non è che l'ultima di una lunga serie di «rivoluzioni dell'informazione»: l'hanno preceduta, tra le altre, la nascita del linguaggio, l'inizio della riproduzione sessuata, l'origine della vita, il Big Bang. Ogni rivoluzione ha posto le basi per quella successiva, e tutte sono avvenute grazie alla capacità intrinseca dell'universo di elaborare informazioni. La complessità è una conse­ guenza necessaria di questa capacità dell'universo. La vita, il sesso, il cervello, la civiltà non sono apparsi nel mondo per puro caso.

l. Il computer quantistico. La stranezza della meccanica quantistica è proverbiale: onde che si comportano come particelle, particelle che si comportano come on­ de, oggetti che stanno in due posti contemporaneamente e così via. Il fatto che la materia a scala microscopica si comporti in modo bizzar­ ro e controintuitivo non è del tutto imprevisto: in fin dei conti, l'in­ tuizione umana si è sempre esercitata sulle cose visibili e non su quel­ le invisibili. Comunque, la meccanica quantistica è piena di cose scon­ certanti. Niels Bohr, uno dei padri della teoria, sosteneva che chi non è preso da un senso di vertigine dopo aver studiato la meccanica quan­ tistica non l'ha davvero capita. I computer quantistici sfruttano proprio la «stranezza» della teo­ ria per affrontare compiti troppo complessi per i computer classici.

8

I. Il quadro complessivo

Un bit quantistico, detto qubit, può essere simultaneamente nello sta­ to O e nello stato l (cosa ovviamente impossibile per un bit classico) . Grazie a questa proprietà, un computer quantistico riesce a svolgere molti milioni di operazioni allo stesso tempo. L'informazione è immagazzinata negli atomi, negli elettroni e nei fotoni. Sotto questo aspetto, un computer quantistico è un congegno molto democratico: ogni particella elementare dà il suo contributo al fine di conservare e manipolare l'informazione. Questo è un fatto im­ portante, perché ci fa capire che non solo i computer ma qualsiasi si­ stema fisico (che è necessariamente quantomeccanico) è in grado di registrare ed elaborare informazione. Ogni singola particella elemen­ tare di un sistema, si tratti di un elettrone, un fotone o un quark, è in grado di registrare un bit. Quando le particelle interagiscono, elabo­ rano l'informazione che portano: ogni interazione è l'equivalente fisi­ co di una operazione logica di base. Per capire come un sistema fisico sia in grado di elaborare infor­ mazione, dobbiamo esaminare in dettaglio il meccanismo con cui ogni suo componente la incorpora e la modifica. Dobbiamo quindi capire come funziona un computer quantistico, che non è altro che un siste­ ma fisico. L'idea di usare la materia per calcolare si fece strada una ventina di anni fa, per merito di scienziati come Paul Benioff, Richard Feynman, David Deutsch e altri ancora. I computer quantistici erano all'inizio og­ getti puramente astratti, ipotesi non realizzabili materialmente. Nei pri­ mi anni Novanta del secolo scorso ho scoperto come costruirne uno in pratica, usando la tecnologia disponibile all'epoca. Da allora mi sono dedicato interamente a progettare e realizzare computer quantistici, con l'aiuto di un gruppo di scienziati e ingegneri tra i migliori al mondo. Perché investire tempo ed energie a costruire questi computer? Per molte buone ragioni. Tanto per cominciare, perché finalmente ci riu­ sciamo. Negli ultimi anni ci sono stati notevoli progressi nel campo delle tecnologie necessarie per manipolare la materia a scala micro­ scopica. Oggi siamo in grado di produrre fasci di luce laser sufficien­ temente stabili e congegni elettronici sufficientemente veloci e preci­ si, tanto da riuscire a fare calcoli usando gli atomi. La seconda buona ragione è che dobbiamo farlo se vogliamo con-

L

Introduzione

9

tinuare ad aumentare la velocità dei computer. Negli ultimi cin­ quant'anni la potenza di calcolo disponibile è in media raddoppiata ogni diciotto mesi: è la cosiddetta «legge di Moore», formulata da Gor­ don Moore (che sarebbe poi diventato capo dell'Intel) negli anni Ses­ santa. Questa non è una caratteristica della natura, ma dell'ingegno umano: i computer sono diventati sempre più veloci perché gli inge­ gneri sono riusciti a miniaturizzare sempre più i circuiti e le porte lo­ giche che ne costituiscono il nucleo. Se dimezziamo l'ingombro di un componente di base, ne possiamo inserire il doppio nello stesso spa­ zio, e quindi raddoppiare la velocità di calcolo. In base alla legge di Moore, tra quarant'anni circa l'ordine di gran­ dezza di porte e circuiti dovrebbe scendere fino a diventare quello di un atomo. Quindi, se la legge è vera, per reggere il ritmo dobbiamo imparare a costruire computer che operano a scala quantistica, cioè al livello più alto possibile di miniaturizzazione. Il marchingegno che ho costruito insieme con i miei colleghi rie­ sce effettivamente a registrare un bit per ogni atomo. Però, come tut­ ti i suoi analoghi oggi in uso, ha ben poca capacità di calcolo. Al mo­ mento della stesura di questo capitolo i computer quantistici più po­ tenti al mondo hanno dai sette ai dieci bit, con i quali sono in grado di compiere qualche migliaia di operazioni logiche (quantistiche) al se­ condo. Per contrasto, l'oggetto che sta sulla vostra scrivania può regi­ strare migliaia di miliardi di bit e svolgere miliardi di operazioni logi­ che al secondo. Siamo diventati bravi a costruire piccoli computer con componenti elementari a scala atomica, il problema è che non sap­ piamo come farli diventare più grandi. Negli ultimi dieci anni, però, il numero di bit dei computer quantistici è raddoppiato ogni due an­ ni o poco più. Se riusciremo a mantenere questo ritmo, le macchine quantistiche raggiungeranno la potenza di calcolo di quelle classiche tra quarant'anni: ci vorrà un bel po' prima che un computer quanti­ stico faccia la sua comparsa su una scrivania. Il terzo buon motivo per proseguire nelle nostre ricerche è che il computer quantistico ci permette di studiare il modo in cui l'univer­ so registra ed elabora l'informazione. Un ottimo modo per capire una legge di natura è costruire una macchina che la replica. Anzi, avere una macchina che fa una certa cosa è spesso la molla che ci spinge a com-

IO

I. Il quadro complessivo

prendere una certa legge: la ruota e la trottola vengono prima (mil­ lenni prima) della conservazione del momento angolare, la catapulta prima delle leggi di Galileo, il prisma ottico e il telescopio prima del­ l'ottica newtoniana, la macchina a vapore prima delle leggi della ter­ modinamica enunciate da Sadi Carnot. Visto che la meccanica quan­ tistica è così difficile da capire, non sarebbe bello costruire un mar­ chingegno che ne incorpora i principi? Giocando con la nostra macchina acquisiremmo una conoscenza operativa della teoria, così come un bambino che gioca con una trottola intuisce il principio di fondo della conservazione del momento angolare. Se non riusciamo ad avere un'esperienza diretta di come gli atomi si comportano, la no­ stra comprensione dei fenomeni rimane superficiale. Oggi producia­ mo computer quantistici «giocattolo» che un giorno ci permetteran­ no di capire in profondità il modo in cui i sistemi fisici registrano ed elaborano informazioni a livello atomico. Come ultimo buon motivo per impegnarsi a costruire computer quantistici, vi posso dire che è un'impresa molto divertente. Nelle prossime pagine incontrerete personaggi interessanti, scienziati e in­ gegneri come Jeff Kimble del Caltech, che ha progettato la prima por­ ta logica quantistica a fotoni; Dave Wineland del N ational Institute of Standards and Technology, che ha costruito il primo computer quan­ tistico elementare; Hans Mooij del Politecnico di Delft, che con il suo gruppo ha dato una delle prime dimostrazioni della possibilità di re­ gistrare bit quantistici nei circuiti superconduttori; David Cory del Mit, che ha costruito il primo computer molecolare e un computer quantistico analogico in grado di fare operazioni che richiederebbero una macchina classica più grande dell'universo. Quando avremo visto un vero computer quantistico all'opera, saremo in griJ,do di porre li­ miti alla capacità di calcolo del cosmo intero.

2. La lingua della natura.

Mentre esegue i suoi calcoli, l'universo dà origine senza sforzo ap­ parente a strutture complesse e misteriose. Per sciogliere i misteri, e dunque capire meglio come funzionano queste strutture, dobbiamo

L

Introduzione

II

comprendere in che modo la realtà registra ed elabora l'informazione. In altre parole, dobbiamo capire il linguaggio intrinseco della natura. Sono un ingegnere quantomeccanico, e mi sento in un certo senso un fisioterapista atomico. li mio compito è quello di massaggiare e ma­ nipolare elettroni, fotoni, atomi e molecole fino a far loro assumere certi stati speciali in cui possono servire da sistemi di calcolo e comu­ nicazione quantistica. Gli atomi sono piccoli e forti, coriacei e sensi­ bili. Rivolgersi a loro è facile (picchiate un pugno sul tavolo, per esem­ pio, e ne avrete contattati molti miliardi in un colpo solo) , ma è mol­ to difficile capire le loro risposte (chissà cosa avranno voluto dire gli atomi del tavolo con quel rumore sordo). Non sono interessati agli umani, e tendono a farsi gli affari loro. Ma se li toccate nel modo giu­ sto, con gentilezza, riuscirete a sedurli e a farli calcolare per voi. Gli atomi non sono i soli in grado di registrare informazione: ci so­ no anche i fotoni (particelle di luce) , i fononi (particelle sonore) , i pun­ ti quantistici (atomi artificiali) e i circuiti superconduttori. Se parlate la loro lingua e glielo chiedete per favore, tutti questi elementi micro­ scopici calcoleranno per voi. Già, ma che lingua usare? Come tutti i sistemi fisici, gli atomi rispondono a cose come energia, forza, impul­ so, luce, onde sonore, elettricità e gravità. I sistemi fisici parlano una lingua la cui grammatica è data dalle leggi fisiche. Negli ultimi anni l'abbiamo imparata abbastanza da poter fare qualche domanda agli atomi, fino a convincerli a fare calcoli e a comunicarci i risultati. L' atomese è una lingua difficile? Sì. Per imparare a parlarla cor­ rentemente ci vuole una vita. Io la mastico appena, ma in questo libro incontrerete scienziati e ingegneri che se la cavano molto meglio di me. Però sostenere una conversazione elementare non è così difficile. Come accade per tutte le lingue, è più facile imparare l' atomese quando si è giovani. Insieme con Paul Penfield, tengo un corso di «Informazione ed entropia» al primo anno al Mit, il cui scopo è quel­ lo di insegnare ai ragazzi l'importanza dell'informazione in fisica (pro­ prio come cerco di fare in questo libro) . Cinquant'anni fa le matricole arrivavano al Mit che già sapevano tutto di motori, ingranaggi, leve, car­ rucole e pulegge. Vent'anni fa erano tutti appassionati di valvole, tran­ sistor, radioline e circuiti elettronici. Oggi sono tutti piccoli geni infor­ matici, pieni di nozioni su dischi rigidi, cavi a fibra ottica, trasmissione

rz

I . Il quadro complessivo

a banda larga e programmi per la compressione di musica e immagini. I loro colleghi di ieri vivevano in un mondo dominato prima dalla mec­ canica e poi dall'elettronica. Oggi i diciottenni vivono in una realtà do­ minata dall'informazione. Le matricole di un tempo arrivavano al Mit che già sapevano molte cose sull'energia meccanica e la corrente elet­ trica; oggi sanno già quasi tutto su bit e byte. Visto che le loro compe­ tenze di partenza sono così alte, possiamo affrontare fin dal primo an­ no argomenti come la meccanica quantistica che un tempo erano ri­ servati ai laureandi (per contro, i colleghi che insegnano ingegneria meccanica classica si lamentano del fatto che gli studenti di oggi non hanno mai visto un cacciavite. Penso sia falso: quasi tutti ne hanno usa­ to uno per aprire un computer e installare memoria aggiuntiva) . All'interno di u n progetto sperimentale della National Science Foundation, sto provando a insegnare alcuni concetti fondamentali delle mie ricerche nelle prime due classi elementari. Oggi i bambini di sei o sette anni fanno paura per quanto ne sanno di computer. Impa­ rano presto a parlare di bit e byte e portano a termine senza battere ci­ glio un gioco-simulazione in cui si devono comportare come atomi in un computer quantistico. Oltre ai nostri precoci pargoli, anche chi, come me, è cresciuto pri­ ma dello scoppio della rivoluzione informatica può capire il significa­ to e l'importanza del concetto di informazione. Vecchi o giovani che siate, spero che arrivati alla fine di questo libro sarete in grado di chie­ dere a un atomo di fare per voi un semplice calcolo, usando la tecno­ logia esistente e parlando la lingua della natura. 3 . Le rivoluzioni dell'informazione. La capacità intrinseca dell'universo di elaborare informazione ha dato origine, nel corso del tempo, a una serie di rivoluzioni, una delle quali sta avvenendo sotto i nostri occhi grazie ai rapidi progressi tec­ nologici esemplificati dalla legge di Moore. I computer quantistici so­ no l'avanguardia di questo movimento. Ma la nostra epoca non sta vi­ vendo né la prima né la più radicale delle rivoluzioni della storia. Pensiamo all'invenzione dello zero, che dagli antichi Babilonesi è

I.

Introduzione

13

arrivato a noi attraverso gli Arabi. L'uso di questo simbolo per rap­ presentare le potenze di dieci ( 1 0, 1 00, 1000 . . . ) distingue il nostro si­ stema di numerazione da quelli del tipo romano, che utilizzava un sim­ bolo diverso per ogni potenza successiva (X, C, M). Sembra un detta­ glio formale, ma l'adozione dello zero e dei numeri arabi ha segnato una svolta nella nostra capacità di rappresentare ed elaborare l'infor­ mazione numerica (oltre ad aver semplificato e reso più trasparenti le transazioni commerciali: se i dirigenti della Enron avessero usato i nu­ meri romani per i loro bilanci truccati, forse non se ne sarebbe accor­ to nessuno). La nascita della numerazione moderna va di pari passo con quella della tecnologia per implementarla: l'abaco, per esempio, è una macchina calcolatrice semplice, robusta e potente. Le sue palli­ ne infilate su vari legnetti rappresentano di volta in volta unità, deci­ ne, centinaia e così via. Basta un abaco con dieci colonne per rappre­ sentare (e fare calcoli con) numeri fino a decine di miliardi. L'introduzione dello zero rende ancora più efficiente la rappre­ sentazione di grandi numeri (ed è probabile che il suo uso si sia diffu­ so dopo l'invenzione dell'abaco) . La parola «zero» deriva dal tardo la­ tino zephirum; in arabo si dice sz/r e in sanscrito shunya, che vuol dire «cosa vuota». Lo zero, nella numerazione araba, cambia di funzione a seconda della posizione e rende possibile la scrittura di grandi nu­ meri: una «cosa vuota» davvero potente. Nonostante la sua impor­ tanza (o forse proprio per questo motivo) , lo zero ha sempre suscita­ to perplessità. Non è un numero naturale (come l, 2, 3 . . ) ma un con­ cetto più astratto. Eppure sull'abaco è semplice da raffigurare: basta lasciare in basso tutte le palline. Come abbiamo appena visto, una rivoluzione dell'informazione va di pari passo con una rivoluzione tecnologica, che cambia il modo in cui l'informazione è rappresentata ed elaborata: in questo caso, lo ze­ ro è inseparabile dall'abaco. Andando a ritroso di qualche millennio, ci troviamo di fronte a un evento ancora più sconvolgente: l'invenzione della scrittura, la cui «tec­ nologia» all'inizio non era altro che un insieme di segni graffiti su pie­ tra o incisi sulla creta. La scrittura, in modo quasi letterale, ha reso tan­ gibile il linguaggio umano. Grazie a questa invenzione si sono svilup­ pate le grandi civiltà, con i loro archivi, i loro testi sacri e i loro libri, .

14

I. Il quadro complessivo

come quello che avete in mano in questo momento. I supporti fisici si sono evoluti attraverso i secoli, passando dalle pietre alla carta agli elet­ troni. Ogni manifestazione concreta della scrittura, si tratti di un'in­ segna al neon o di una poesia, rappresenta una variazione delle tec­ nologie che l'uomo ha inventato per rappresentare il linguaggio. La nascita del linguaggio, circa 100000 anni fa, è in sé una grande conquista della specie umana (riconosciamo i nostri meriti!) ed è una rivoluzione dell'informazione di prima grandezza. Secondo le testi-

Figura 1.1. L'ascesa del bit. La storia dell'universo può essere vista come una sequenza di «rivoluzioni dell'informa­ zione», ognuna delle quali ha sfruttato la tecnologia delle precedenti.

1.

Introduzione

15

monianze fossili, la comparsa del linguaggio fu accompagnata e favo­ rita dall'evoluzione abbastanza rapida di alcune aree specializzate del cervello. In un certo senso, nella nostra testa comparvero nuovi cir­ cuiti neurali che, insieme con la necessaria «tecnologia» delle corde vocali, resero possibile l'articolazione del linguaggio. Pare che siano stati i nuovi circuiti cerebrali a dare all'uomo la sua straordinaria ver­ satilità, cioè l'abilità di dire (quasi) le stesse cose in una grande varietà di lingue. Inoltre, l'evoluzione del linguaggio rese possibile la nascita di vari tipi di organizzazione sociale che rendono la nostra specie uni­ ca e vincente, perlomeno fino a oggi. Se facciamo qualche passo indietro di molti milioni di anni, ci im­ battiamo in rivoluzioni dell'informazione sempre più travolgenti. L'e­ voluzione del cervello e del sistema nervoso centrale fu un trionfo del­ la «tecnologia naturale», la messa a punto di un meccanismo perfetto per elaborare l'informazione proveniente dall'esterno e per coordina­ re le comunicazioni tra le varie parti dell'organismo. Ancora prima, la nascita degli organismi multicellulari fu possibile grazie a migliora­ menti rivoluzionari nella comunicazione intra- ed extracellulare. In un certo senso, ogni speciazione, ogni mutazione favorevole che dà ori­ gine a una nuova varietà vivente, è un successo reso possibile dal­ l'informazione. Ma per trovare una svolta davvero impressionante dobbiamo risalire a circa un miliardo di anni fa, epoca in cui compar­ ve sulla Terra la riproduzione sessuata. La rivoluzione sessuale fu il trionfo, tra molte difficoltà, di quella che all'inizio sembrava una pessima idea. Accoppiarsi con un individuo di sesso diverso, infatti, è un processo che sembra comportare la perdita di preziose informazioni. Un batterio ben adattato al suo ambiente si ri­ produce in modo asessuato e passa ai suoi discendenti (fatte salve even­ tuali mutazioni) il suo intero corredo genetico. In un organismo che si riproduce in modo sessuato, invece, avviene un processo di ricombina­ zione tra i geni dei genitori che dà origine a discendenti con corredo ge­ netico diverso. n fatto che i genitori abbiano ottimi geni, e siano perfet­ tamente adattati al loro ambiente, non dà nessuna garanzia che ciò ac­ cada sempre nei discendenti. Con la riproduzione sessuata non si riesce a passare tal quale ai propri figli una combinazione di geni vincente: il sesso rimescola le carte e rischia di rovinare le mani migliori.

16

I . I l quadro complessivo

Allora perché accoppiarsi è una cosa buona? Dal punto di vista del­ la selezione naturale, il sesso permette sia di passare alla prole buona parte del proprio corredo genetico sia di introdurre variazioni poten­ zialmente utili. Immaginiamo che la temperatura media del pianeta si innalzi all'improvviso. Un batterio fino a oggi perfettamente adattato si trova a mal partito, ma non può far altro che trasmettere il suo inte­ ro corredo genetico ai discendenti, che si troveranno così a vivere in un ambiente sfavorevole. L'unica posssibilità di cambiamento per un batterio asessuato è una mutazione, che avviene o in modo casuale (un errore di replicazione) o per influenza dell'ambiente esterno. Gran parte delle mutazioni, però, è dannosa, e rende il nostro batterio ancora più vulnerabile. Ci vuole un caso davvero fortunato perché una mutazione lo trasformi in un in­ dividuo più resistente al calore. Per una specie asessuata adattarsi al cambiamento è sempre un problema, a causa del conflitto tra due esi­ genze contrastanti: obbedire al comandamento «cambia o muori» e pre­ servare integro il proprio patrimonio genetico. Un problema analogo sorge quando si deve costruire un meccanismo che rispetti due o più principi in apparente contraddizione tra loro. La riproduzione sessua­ ta risolve il problema con il rimescolamento genetico, che permette il cambiamento senza compromettere l'architettura di base del genoma. Basta prendere un paese di l000 anime e calcolare il numero di pos­ sibili accoppiamenti (che a giudicare dalle trame delle soap operas è dav­ vero elevato) , cioè il numero di ricombinazioni tra i patrimoni genetici dei suoi abitanti, per rendersi conto di una cosa: grazie alla riproduzio­ ne sessuata, una piccola comunità umana ha un potenziale di diversità genetica equivalente a molti miliardi di batteri. La diversità è un'ottima cosa. Per esempio, se un'epidemia si diffonde nel villaggio, è probabile che qualcuno dei suoi abitanti sia resistente alla malattia e che passi que­ sta sua caratteristica ai figli. La cosa importante è che la diversità data dalla riproduzione sessuata non comporta rischi per il genoma, ma rie­ sce a separare l'adattamento all'ambiente e il mantenimento dell'inte­ grità genetica, conciliando varietà e uniformità. li sesso non è solo una piacevole attività, ma anche un'ottima soluzione ingegneristica. Risalendo ancora, andando indietro di circa un terzo del tempo tra­ scorso da oggi alla nascita dell'universo, arriviamo alla nonna di tutte

r.

Introduzione

r7

le rivoluzioni: l'origine della vita sulla Terra (unico luogo in cui siamo sicuri sia nata) . Gli organismi viventi hanno i geni, sequenze di mole­ cole che codificano informazione. Questa informazione può essere quantificata: per esempio il genoma umano contiene l'equivalente di sei miliardi di bit. Gli esseri viventi trasmettono questo patrimonio ai loro discendenti, a volte con qualche variazione. Chi riesce bene in que­ sta operazione ha successo, chi non ci riesce si estingue. L'informazio­ ne che conferisce un vantaggio riproduttivo a chi la porta tende a per­ sistere generazione dopo generazione, anche se i singoli organismi che la codificano inevitabilmente nascono, si riproducono e muoiono. L'informazione genetica si trasmette con la selezione naturale. La tecnologia necessaria per questo trasferimento è data dai geni e dai meccanismi che servono a copiarli e moltiplicarli. Non dovrebbe stu­ pirei il fatto che la quantità di informazione complessiva gestita dagli organismi viventi sia immensamente più grande di quella dei nostri computer, presenti e (almeno per un bel po' di tempo) futuri. La nascita della vita fu certo un fatto straordinario: quale altro even­ to potrebbe superarlo in bellezza e forza? Eppure all'inizio di tutto ci fu una rivoluzione dell'informazione ancora più importante, di cui il resto è conseguenza. Ci fu un momento in cui nacque il primo pro­ cessare di informazione: l'universo. Ogni atomo e ogni particella ele­ mentare registra informazione, ogni interazione tra questi oggetti, ogni cambiamento, per piccolo che sia, la elabora in modo sistematico. La capacità computazionale dell'universo è alla base di tutte le ri­ voluzioni successive. Se un sistema fisico è in grado di trasformare informazione in modo rudimentale (effettuando semplici operazioni, pochi bit alla volta) , allora può partire da queste basi per costruire si­ stemi sempre più elaborati, con un grado di complessità alto a piace­ re. Le leggi della meccanica quantistica permettono questo tipo di tra­ sformazione: ogni particella è un bit, ogni cambiamento di stato un'o­ perazione logica elementare. Dunque, la realtà complessa che ci circonda (la vita, il sesso, il linguaggio, la civiltà, i videogiochi) si è svi­ luppata a partire da quelle semplici elaborazioni, fatte con pochi bit quantistici alla volta. Abbiamo visto che le rivoluzioni dell'informa­ zione si sono accompagnate a nuove tecnologie, naturali o inventate dall'uomo: il computer, il libro, il cervello, il DNA. Questi supporti per-

18

I . Il quadro complessivo

mettono la registrazione e l'elaborazione dei dati secondo un insieme fissato di regole. Ma qual è la tecnologia associata alla nascita del co­ smo, al Big Bang? Quale macchina registra l'informazione dell'uni­ verso? Basta aprire gli occhi per vederla all'opera: è l'universo stesso.

Capitolo secondo Calcolare

l. Informazione. Era la prima lezione del mio corso di teoria dell'informazione al Mit e avevo davanti una ventina di studenti degli ultimi anni. Il di­ scorsetto che tengo in questi casi è sempre il solito: «Qui le domande le fate voi, e io cerco di rispondere. Se non avete domande, allora toc­ ca a me farvene. E se non sapete rispondere, colmerò le vostre lacune. Domande?». Silenzio. Strano, di solito i ragazzi del Mit non chiedono di meglio che tem­ pestare i docenti di domande, soprattutto se l'alternativa è quella di essere travolti a loro volta dalle domande del docente. Passai allora alla fase due. «Se non avete nulla da chiedermi, ecco un quesito per voi: che cos'è l'informazione?». Ancora silenzio. Peggio che andar di notte. Avevo di fronte giova­ ni che erano stati riempiti di informazioni fin dal primo anno, eppure nessuno di loro riusciva a restituirmene un po' . Dovevo passare alla fase tre. «Vediamo se così va meglio: qual è l'unità minima di informazione?». La classe all'unisono: «Il bit ! ». Che cosa ci mostra questa storia? Che è molto più semplice misu­ rare l'informazione che definirla. E che, in generale, è più semplice quantificare (sapere «quanto misura x») che qualificare (sapere «co­ s'è x») . È difficile definire correttamente quantità come l'energia o il denaro, è più semplice dire quanta energia serve per compiere un cer­ to lavoro o quanto denaro occorre per comprare qualcosa. Torniamo alla mia classe. La domanda successiva fu «che cos'è un bit?», e le risposte fioccarono: «0 e 1», «testa o croce», «sì o no», >, CDVI (2000), pp. 1 047-54. 4 N . Margolus e L. B. Levitin, Tbe Maximum Speed o/Dynamical Evolution, in «Physica D>>, cxx ( 1 998), pp. 1 88-95 .

r 42

I I . I dettagli

Il teorema di Margolus-Levitin dice che la massima velocità con cui un sistema fisico (come un elettrone, nel nostro esempio) può spo­ starsi da uno stato a un altro è direttamente proporzionale all'energia del sistema stesso. Si tratta di un risultato molto generale. Non è im­ portante la natura del sistema, né il modo in cui registra ed elabora l'informazione: conta solo l'energia disponibile per la computazione. Un computer medio contiene atomi ed elettroni a temperatura am­ biente o poco più, che si muovono incessantemente per effetto dell'a-

Figura 7 . 1 . D Portatile Definitivo.

Si tratta di un computer pesante un chilogrammo, con volume pari a un litro (dimensioni simili a quelle dei veri portatili) . Ogni particella del Portatile Definitivo è impegnata in una computazione; in questo modo, la macchina riesce a svolgere dieci milioni di miliardi di miliardi di miliardi di miliardi di miliardi di operazioni logiche al secondo, utilizzando die­ cimila miliardi di miliardi di miliardi di bit.

VII .

Il computer universale

1 43

gitazione termica. L'energia termica di un atomo e di un elettrone è più o meno la stessa, ed è proporzionale alla temperatura, indipen­ dentemente dal tipo di particella in agitazione. Quindi la velocità mas­ sima con cui un atomo o un elettrone può cambiare di stato (da O a l , da «qui» a «lì») è la stessa. Il teorema non è solo di tipo qualitativo, ma fornisce una formula precisa per il calcolo della massima velocità: il numero massimo di commutazioni al secondo di un bit è dato dall'energia necessaria per effettuare la commutazione moltiplicato per quattro e diviso per la co­ stante di Planck. Se applichiamo la formula a una particella media, o t­ teniamo che questa può commutare fino a 3 0 000 miliardi (3 x 1013) di volte al secondo. È una velocità molto maggiore di quella tipica dei computer in commercio. La macchina su cui sto scrivendo in questo momento per commutare i bit deve caricare e scaricare i condensatori in continua­ zione, e così facendo impegna un miliardo di volte l'energia richiesta per far cambiare stato a una particella. Ma nonostante l'energia sia molto maggiore, il mio computer è circa 10 000 volte meno veloce di un atomo. Questo non contraddice il teorema, perché il limite fissato da Margolus e Levitin è, per l'appunto, un limite massimo, teorico, che i calcolatori convenzionali non raggiungono mai. Un computer quantistico, invece, opera sempre al massimo della velocità possibile. Il limite massimo al numero di operazioni elementari al secondo non dipende dal modo in cui l'energia è distribuita nel sistema. Se usia­ mo una certa quantità di energia per far commutare due bit al posto di uno, avremo che le due operazioni awengono a velocità dimezza­ ta, perché hanno a disposizione la metà dell'energia di partenza. Ma i due bit lavorano in parallelo, dunque il numero complessivo di com­ mutazioni al secondo rimane lo stesso. Se dividiamo l'energia in die­ ci, cento o mille pacchetti e la distribuiamo a dieci, cento, mille bit, le singole operazioni saranno rallentate in modo proporzionale, ma il nu­ mero totale di operazioni al secondo non cambia. Il teorema di Mar­ golus-Levitin vale a prescindere dalle dimensioni del sistema e dal mo­ do in cui l'energia viene utilizzata: il limite massimo, detta E l'energia, è sempre 4 E l h, dove h è la costante di Planck. Armati di questa relazione, è facile calcolare la potenza totale del

1 44

I I . I dettagli

Portatile Definitivo. L'energia a disposizione è data dalla celebre for­ mula di Einstein E = mc!, dove m è la massa totale e c la velocità della luce. Avendo posto m = l kg e sapendo che c = 3 x 108 m/sec (trecen­ to milioni di metri al secondo) , otteniamo un valore di circa 1017 joule: il Portatile Definitivo può contare su cento milioni di miliardi di jou­ le per effettuare i suoi calcoli. Se non avete idea di cosa sia un joule, sappiate che questa quantità è equivalente a venti milioni di milioni di chilocalorie: come mangiare cento miliardi di barrette di cioccolato. È dawero un grande numero. Messa ancora in un altro modo, questa energia è pari a venti me­ gatoni, cioè è l'energia rilasciata dall'esplosione di venti milioni di ton­ nellate di tritolo: più o meno quanto una bomba all'idrogeno di gran­ de potenza. E in effetti, quando sta calcolando a tutta birra, sfruttan­ do tutta l'energia disponibile, l'interno del Portatile Definitivo asso­ miglia dawero a un reattore termonucleare. Le particelle che lo com­ pongono si muovono in modo talmente frenetico che la temperatura sale fino a un miliardo di gradi: è quasi un Big Bang in miniatura (la tecnologia dovrà fare qualche progresso clamoroso prima che a qual­ cuno venga in mente di mettersi sulle ginocchia il Portatile Definitivo e iniziare a fare qualche calcolo) . Nota l'energia, con la formula di Mar­ golus-Levitin troviamo che il numero di operazioni elementari al se­ condo è dell'ordine di un milione di miliardi di miliardi di miliardi di miliardi di miliardi ( l On ) . L'Intel deve ancora fare un bel po' di strada per arrivare a tanto. Quanto è distante questo numero da quelli attualmente disponi­ bili? Tra quanto tempo costruiremo un computer del genere? Ricor­ diamo la legge di Moore: negli ultimi cinquant'anni la memoria e la velocità dei calcolatori sono raddoppiate in media ogni diciotto mesi. È stata una crescita esponenziale, resa possibile da costanti migliora­ menti tecnologici (i circuiti integrati, ad esempio) . Non c'è nessun mo­ tivo per cui questa «legge», che non è una legge di natura ma un' os­ servazione empirica circa il progresso umano, continui a valere nel fu­ turo. Una cosa è certa: la crescita non sarà indefinita, perché a un certo punto si raggiungerà il tetto massimo dato dal Portatile Definitivo. Supponendo che l'attuale tasso di crescita si mantenga costante nel futuro, quanto tempo ci vorrà prima di raggiungere questo limite? Un

VII.

Il computer universale

1 45

raddoppio ogni diciotto mesi implica un aumento di un fattore 1 000 ogni quindici anni, e di un miliardo ogni cinquant'anni (sì, un com­ puter standard di oggi è un miliardo di volte più potente di uno di quei giganteschi macchinari pieni di valvole che si costruivano mezzo se­ colo fa) . Poiché un computer oggi è in grado di effettuare mille mi­ liardi ( 1 012) di operazioni al secondo, un semplice calcolo ci porta a concludere che il Portatile Definitivo sarà pronto nel 2205 . Questo per quanto riguarda l'energia e la velocità di calcolo. Ma sappiamo che c'è un altro parametro, ugualmente importante, che dob­ biamo tenere d'occhio quando si parla di computer: la capacità di me­ moria. Quanti bit ci stanno nel disco rigido del nostro supercomputer? Dentro al Portatile Definitivo ci sono miliardi di particelle che dan­ zano al ritmo frenetico dato da una temperatura elevatissima. Appli­ cando a questo oggetto di un chilo le stesse tecniche usate in cosmo­ logia per misurare l'informazione presente al momento del Big Bang, troviamo che il numero di bit è pari a circa 10 000 miliardi di miliardi di miliardi ( 1 031). È una cifra enorme: ci sono più bit nel Portatile De­ finitivo di quanti ce ne siano in tutti i dischi rigidi dei computer oggi esistenti al mondo. Tra quanto tempo la tecnologia ci permetterà di avere a disposi­ zione una simile quantità di memoria? Negli ultimi anni si è visto che la legge di Moore detta ritmi più accelerati per lo spazio di memoria che per la velocità di calcolo: la capacità del disco rigido medio sta rad­ doppiando in poco più di un anno. Se il tasso si manterrà costante, ci vorranno solo settantacinque anni per costruire la memoria del Por­ tatile Definitivo. Gli attuali ritmi di progresso si potranno sostenere in futuro solo se l'ingegno umano saprà superare gli ostacoli che si frappongono sul­ la strada della miniaturizzazione spinta. È difficile costruire circuiti, transistor e condensatori più piccoli di quanto siano adesso, e più si riducono le dimensioni maggiori sono le difficoltà nel controllare que­ sti apparati. La legge di Moore è stata data per spacciata molte volte nel passato, ogni volta che si presentava un problema tecnico partico­ larmente intricato. Ma sempre, finora, qualche astuto ingegnere o scienziato è riuscito a trovare un modo per cavarsela. Inoltre, come abbiamo visto, ci sono risultati sperimentali che provano che i com-

1 46

I I . I dettagli

ponenti di un computer si possono ridurre alla dimensione di atomi: i computer quantistici sono già una realtà, e funzionano elaborando informazione a scala atomica. Secondo la legge di Moore sulla minia­ turizzazione, questa scala si dovrebbe raggiungere tra quarant'anni. Ci sono speranze, direi. 5 . La capacità computazionale dell'universo. Ora che sappiamo di cosa è capace un pezzo di materia che sta co­ modamente sulle nostre ginocchia, vediamo cosa sanno fare disposi­ tivi molto più potenti, come l' AC Cosmico di Asimov, grande quanto l'universo. Facciamo l'ipotesi che tutta la materia e l'energia del co­ smo siano messe al servizio della computazione: quale sarebbe la po­ tenza risultante? Le capacità del computer universale, cioè di tutto ciò che esiste, si possono calcolare esattamente con le stesse tecniche che abbiamo visto nel paragrafo precedente. Per prima cosa, vediamo quanta energia c'è nell'universo. È una quantità che ci è già nota, con un grado di precisione soddisfacente. Partiamo dal fatto che una gran parte di questa energia è immagazzi­ nata sotto forma di materia, cioè di atomi. Una stima degli atomi pre­ senti in tutte le stelle e le galassie, a cui si devono aggiungere quelli nel­ la materia interstellare, ci porta a concludere che la densità media del­ l'universo è di circa un atomo di idrogeno per metro cubo. L'energia è immagazzinata anche in altre forme, come ad esempio nella luce (anche se in quantità decisamente minore rispetto a quella contenuta nella materia) . Osservando la rotazione di alcune galassie lontane, si è poi dedotto che deve esistere qualche altra fonte invisi­ bile di energia, finora sconosciuta, su cui i fisici hanno avanzato va­ rie ipotesi, scatenandosi con i nomi più bizzarri: le sorgenti di questa energia potrebbero essere le WIMP (weakly interacting massive parti­ de, cioè «particella massiva con debole interazione» - ma in inglese wimp vuoi dire «pappamolla») oppure i MACHO (massive compact ha­ lo object, ossia «oggetto massivo e compatto di alone») , o magari i wi­ nos o altre stranezze ancora. Un'altra forma misteriosa di energia sem­ bra celarsi nelle anomalie che si riscontrano nel tasso di espansione

VII.

Il computer universale

1 47

dell'universo, la cui sorgente è stata battezzata quintessenza. L'ener­ gia contenuta in queste fonti esotiche, prese tutte insieme, dovrebbe essere dieci volte maggiore di quella osservabile; ma questo fattore non fa grande differenza quando calcoliamo il potere computaziona­ le dell'universo. Prima di procedere, chiariamo meglio cosa stiamo cercando di cal­ colare. I dati osservativi in nostro possesso sembrano provare che l'u­ niverso è spazialmente infinito, senza confini. Ciò implica che l' ener­ gia totale in esso contenuta è infinita, e ugualmente infiniti sono i bit e le operazioni logiche che può potenzialmente contenere. Ma gli stessi dati ci dicono che l'universo ha avuto un inizio nel tempo, un po' meno di 14 miliardi di anni fa. L'informazione non può viaggiare a velocità superiori a quella della luce, che è finita. Combi­ nando questo fatto con l'età finita dell'universo, deduciamo che la re­ gione di spazio su cui possiamo avere informazioni deve essere finita anch'essa. Questa regione si definisce interna al nostro orizzonte co­ smico; tutto ciò che accade oltre può essere solo oggetto di specula­ zioni. I numeri che stiamo per calcolare, dunque, rappresentano la quantità e la velocità massima di computazione che si possono avere all'interno dell'orizzonte. L'informazione elaborata al di fuori di que­ sta regione non può influire sui calcoli effettuati all'interno a partire dal Big Bang fino a oggi. Quindi, per «capacità computazionale del­ l'universo» intendiamo in realtà la «capacità computazionale dell'u­ niverso all'interno dell'orizzonte cosmico». L'orizzonte si allarga con il passare del tempo, a un ritmo triplo ri­ spetto alla velocità della luce. Guardare attraverso un telescopio vuol dire anche fare un viaggio indietro nel tempo; gli oggetti più distanti mai visti ci appaiono nella forma in cui erano quasi 14 miliardi di an­ ni fa. Nel frattempo, a causa dell'espansione dell'universo, questi og­ getti si sono allontanati ancora di più, e oggi si trovano a quasi 42 mi­ liardi di anni luce da noi. Con l'ampliarsi dell'orizzonte, cresce il nu­ mero di corpi celesti e cresce di pari passo l'energia disponibile per la computazione. La capacità computazionale dell'universo all'interno del­ l'orizzonte cresce nel tempo. Ricapitolando, sappiamo che l'universo accessibile sta dentro un orizzonte lontano 42 miliardi di anni luce da noi, e che la sua densità

1 48

I I . I dettagli

è di un atomo di idrogeno per metro cubo. Usando di nuovo la for­ mula E = m è per calcolare l'energia di ogni singolo atomo e facendo un po' di conti, si trova che nell'universo ci sono circa cento milioni di miliardi di miliardi di miliardi di miliardi di miliardi di miliardi di miliardi ( 1 071) di joule. Si tratta in gran parte di energia libera, utiliz­ zabile per compiere lavoro o per eseguire computazioni. Sono dawe­ ro un sacco di calorie: per riuscire a ingurgitarle tutte dovremmo es­ sere grandi come l'universo. Ora applichiamo il teorema di Margolus-Levitin a questa quantità, cioè moltiplichiamola per 4 e dividiamola per la costante di Planck. Il risultato è che l'universo attuale può fare in un secondo 10105 opera­ zioni, cioè 1 00 000 googol (un googol è 10100) . Nei suoi 14 miliardi di anni di vita, questo computer cosmico può aver eseguito un numero di operazioni pari a circa 1 0 000 miliardi di miliardi di googol ( 1 0122) . Per contrasto, cerchiamo di stimare le operazioni svolte da tutti i computer classici mai esistiti sulla Terra. Grazie alla legge di Moore, possiamo dire che metà di questa quantità totale risale agli ultimi di­ ciotto mesi (è una conseguenza della crescita esponenziale: se una quantità raddoppia in n mesi, vuol dire che negli ultimi n mesi se ne è prodotta tanta quanta tutta quella prodotta prima) . Secondo una sti­ ma plausibile, nel mondo ci sono poco meno di un miliardo di com­ puter; il loro ciclo medio è circa un gigahertz, cioè un miliardo di giri al secondo, e durante ogni ciclo eseguono in media 1 000 operazioni elementari. Considerando che in un anno ci sono circa 32 milioni di secondi e moltiplicando tra loro tutti questi numeri, troviamo che ne­ gli ultimi diciotto mesi i computer della Terra hanno svolto poco me­ no di dieci miliardi di miliardi di miliardi ( 1 028) di operazioni. Rad­ doppiando questa cifra, abbiamo il totale delle operazioni eseguite in tutta la storia dell'informatica. Passiamo ora a calcolare la capacità di memoria del computer co­ smico. Anche qui, è sufficiente considerare tutti i bit registrati da ogni singolo atomo e fotone. Grazie alla meccanica quantistica e a tecniche inventate da Planck più di un secolo fa, siamo in grado di affermare che i bit ipoteticamente a disposizione del calcolatore universale sono cento miliardi di miliardi di miliardi di miliardi di miliardi di miliardi di miliardi di miliardi di miliardi di miliardi ( l 092) . Questa quantità di

vn.

Il computer universale

1 49

informazione è immensamente più grande di quella contenuta in tut­ ti i computer della Terra, che è facile da stimare: moltiplicando per il numero di macchine presenti ( 109) la capacità media (mille miliardi di bit, l 012) otteniamo solo l 021 , cioè mille miliardi di miliardi di bit. Il computer cosmico, nel corso della sua esistenza, ha avuto la ca­ pacità di eseguire 10122 operazioni elementari su 1092 bit. Sono nume­ ri enormi, ma pensavo lo fossero ancora di più. A dire il vero, la pri­ ma volta che ho fatto questi calcoli, di fronte al risultato finale ho escla­ mato «Tutto qui?». Sì, è tutto qui: nessun altro calcolatore può aver fatto meglio nel corso della vita dell'universo. Ma è senz'altro sufficiente: grazie alla capacità del computer universale di simulare ogni sistema fisico, pos­ siamo dire che un calcolatore in grado di eseguire 10122 operazioni ele­ mentari su 1092 bit è in grado di calcolare tutto ciò che è osservabile (e quando avremo una teoria quantistica della gravità, aggiungeremo al totale altri l 0122 bit di memoria) . Queste cifre colossali hanno tre pos­ sibili interpretazioni. l. Sono i limiti superiori alla quantità di computazioni che tutta la materia dell'universo è stata in grado di svolgere fin dal Big Bang. Ab­ biamo già detto che sono le leggi fisiche a imporre questi limiti: la ve­ locità è controllata dall'energia massima disponibile, e la memoria dal­ l'energia e dalle dimensioni del sistema. Queste due quantità, dimen­ sioni ed energia dell'universo, sono note con un grado soddisfacente di precisione. Viste queste premesse, deduciamo che nessuna mac­ china che segua le leggi della fisica può fare meglio di così. 2 . Sono i limiti inferiori alla quantità di operazioni elementari e di bit richiesti per simulare l'universo con un computer quantistico. Ab­ biamo visto che i computer quantistici simulano con perfetta efficienza i sistemi fisici (quantistici) e che per farlo hanno bisogno almeno del­ lo stesso numero di bit del sistema di partenza, e di un numero di ope­ razioni elementari almeno pari a quello delle interazioni di base tra le componenti del sistema stesso (ad esempio, un elettrone che si sposta da qui a lì). Un computer quantistico che voglia simulare tutta la realtà, quindi, deve avere tanti bit quanti ne contiene l'universo ed eseguire tante operazioni elementari quante sono le interazioni avvenute fin dal Big Bang.

1 50

I I . I dettagli

3 . L'ultima interpretazione è meno diretta. Se scegliamo di rappre­ sentare l'universo come un sistema di calcolo, sappiamo che fin dalle origini ha eseguito un massimo di 10122 operazioni elementari su 1092 bit. Questa rappresentazione, però, è un po' soggettiva e deve essere chiarita. Prima di affermare che l'universo ha fatto l 0122 operazioni ele­ mentari dobbiamo ridefinire il concetto in termini di processi fisici. Un'operazione elementare in un computer è data da una commutazio­ ne (le operazioni binarie come AND sono sempre e comunque commu­ tazioni, cioè cambiamenti del valore di un bit, ma avvengono solo a cer­ te condizioni) . Nell'universo, possiamo dire che un'operazione ele­ mentare avviene quando in un processo fisico si spende una quantità di energia sufficiente, per un tempo adeguato, a far commutare un bit. Armati di questa semplice definizione, siamo in grado di dare un sen­ so al numero massimo di operazioni eseguibili da un sistema fisico, uni­ verso compreso, e di calcolarlo grazie al teorema di Margolus-Levitin. Con il passare del tempo, l'orizzonte si espande e la quantità di energia disponibile aumenta. Dunque, il numero totale di operazioni elementari e di bit è una funzione crescente dell'età dell'universo. Nel Modello Standard la relazione tra energia totale e tempo dal Big Bang è di tipo lineare (cioè è una proporzione diretta) . Poiché la velocità massima di elaborazione dell'informazione è direttamente proporzio­ nale all'energia, anch'essa è una funzione lineare dell'età dell'univer­ so. Dunque, il numero totale di operazioni elementari svolte, che è uguale alla velocità moltiplicata per il numero dei secondi trascorsi dal Big Bang, è una funzione del quadrato dell'età dell'universo. Il Modello Standard ci dice anche che il numero di bit contenuti all'interno dell'orizzonte cosmico è una funzione del tempo elevato a tre quarti. Anche in questo caso, si ha una crescita: la capacità com­ putazionale dell'universo aumenta stabilmente nel tempo. Il futuro sembra roseo.

6. E quindi? Ora sappiamo come, con quante risorse e con che velocità l'uni­ verso sta calcolando. Vi potreste chiedere che ce ne facciamo di que-

VII .

Il computer universale

I5I

sti dati. C'è forse qualcosa, in questa rappresentazione del cosmo, che aggiunga un particolare alla nostra conoscenza? Dopo tutto, il com­ portamento delle particelle elementari è già perfettamente descritto dalla meccanica quantistica. Ci interessa veramente sapere che le stes­ se particelle stanno anche elaborando informazioni e svolgendo cal­ coli? È davvero necessario un nuovo paradigma per descrivere il fun­ zionamento dell'universo? Sono domande legittime. Partiamo dall'ultima. L'immagine tradi­ zionale dell'universo è basata sulla metafora della macchina. Il para­ digma della fisica contemporanea (anzi, della scienza moderna) è di tipo meccanicistico: il mondo è analizzato sulla base del funziona­ mento dei congegni che lo fanno muovere. Le prime righe del Levz"a­ tano di Thomas Hobbes esprimono molto bene questa idea: La natura, ossia l'arte per mezzo della quale Dio ha fatto e governa il mondo, viene imitata dall'arte dell'uomo, oltre che in molte altre cose, anche nella capacità di produrre un animale artificiale. Infatti, poiché la vita non è altro che un movi­ mento di membra, l'inizio del quale sta in qualche parte interna fondamentale, per­ ché non potremmo affermare che tutti gli automi (macchine semoventi per mezzo di molle e ruote, come un orologio) possiedono una vita artificiale? Poiché cosa è il cuore, se non una molla, e che sono i nervi, se non delle cinghie, e cosa le artico­ lazioni, se non rotelle, che trasmettono il movimento a tutto il corpo secondo l'in­ tendimento dell'Artefice? I.: arte si spinge anche più avanti attraverso l'imitazione di quel prodotto razionale che è l'opera più eccellente della natura: l'uomo'.

I cambi di paradigmi sono molto utili, perché ci permettono di ve­ dere il mondo sotto occhi nuovi. L'aver immaginato l'universo come una macchina ha permesso una straordinaria serie di successi in tutte le scienze, dalla fisica alla chimica alla biologia. Il paradigma mecca­ nicistico ruota attorno a una variabile centrale, che è l'energia. In questo libro propongo l'adozione di un nuovo paradigma, che è un ampliamento del precedente: dovremmo pensare al mondo co­ me a una macchina che elabora z"n/ormazz"one. Le variabili centrali di­ ventano due, energia e informazione, di uguale importanza e in co­ stante interazione. Pensare il corpo umano come una macchina ha permesso grandi ' Th . Hobbes, Levù2tano, a cura di A. Pacchi, Laterza, Roma-Bari 1 989, p . 5 [N d. T ] .

I52

I I . I dettagli

avanzamenti nel campo della fisiologia (e nel caso di Hobbes, in quel­ lo della scienza politica) ; allo stesso modo, concepire l'universo come un computer ci aiuta a capire meglio il suo funzionamento. Forse il frut­ to più importante di questo cambio di paradigma è la soluzione del pro­ blema della complessità. li modello meccanicistico non chiarisce in mo­ do univoco perché mai nell'universo, e sulla Terra in particolare, con la nascita della vita, ci sia tanta varietà. Nel modello computazionale, invece, il processo di elaborazione dell'informazione, intrinseco alla realtà fisica, spiega in che modo si generino l'ordine e la complessità. Un secondo vantaggio fornitoci dal nuovo paradigma riguarda la nascita dell'universo. Come abbiamo già detto, uno dei principali pro­ blemi irrisolti della fisica contemporanea è quello della gravità quan­ tistica. Nei primi anni del xx secolo Einstein si inventò quella teoria di grande eleganza che è la relatività generale, uno straordinario qua­ dro concettuale in cui trattare la forza di gravità e l'universo a grande scala. Più o meno negli stessi anni nacque la meccanica quantistica, teoria di grande efficacia nello spiegare praticamente tutti i fenomeni osservati a scala microscopica. Ma per capire come sia nata la realtà, all'epoca in cui l'universo era minuscolo e allo stesso tempo enorme­ mente pesante e pieno di energia, è necessaria un'altra teoria che in­ globi in sé i due venerabili monumenti: infatti la relatività generale e la meccanica quantistica, due teorie di straordinaria esattezza e utilità nei rispettivi ambiti, sono incompatibili tra di loro. Molti si sono coraggiosamente lanciati nel tentativo di trovare una teoria quantistica della gravità. Una buona sintesi di questi lavori si trova nel libro di Smolin Three Roads to Quantum Gravity («Tre stra­ de verso la gravità quantistica»; vedi le Letture consigliate) . Ma nessu­ na di queste tre strade, finora, sembra portare a destinazione. La com­ putazione quantistica, se volete, rappresenta una «quarta strada». An­ che in questo caso, molto lavoro resta ancora da fare; e come sempre accade in fisica, in ogni momento uno scontro frontale con un dato os­ servativo o sperimentale contraddittorio rischia di uccidere la teoria. Comunque sia, vediamo un po' dove ci porta la nuova strada.

VII .

Il computer universale

1 53

7. La computazione quantistica e la gravità. Se avete capito come funziona la computazione quantistica, non vi sarà difficile entrare nei meccanismi della relatività generale e seguir­ mi nel tentativo di combinare le due teorie per arrivare a un modello unificato che racchiuda gravità e meccanica quantistica. Vediamo in­ nanzitutto come si può schematizzare una computazione quantistica in termini di porte logiche e circuiti (fig. 7 .2). I «cavi quantistici» del­ la figura rappresentano i percorsi dei qubit, e le porte i luoghi dove in­ teragiscono tra di loro. Come nel caso classico, ogni computazione può essere scomposta in questi semplici elementi. I circuiti specificano la sua struttura causale (i cavi) e logica (le porte), e in questo modo la in­ dividuano in modo completo e univoco. Per costruire una teoria quantistica della gravità a partire dal nuoFigura 7 .2. Lo spaziotempo come circuito quantistico. Nel modello computazionale dell'universo, lo spaziotempo è visto come un insieme di por­ te logiche e circuiti. I qubit interagiscono tra loro in corrispondenza delle porte, e i colle­ gamenti tra le porte rappresentano il cammino dei qubit prima e dopo le interazioni.

I 54

I I . I dettagli

vo paradigma, dobbiamo prendere in considerazione lo spazio e il tem­ po. Per prima cosa dobbiamo mostrare che la relatività generale si può dedurre dal modello della computazione quantistica; poi specificare in che modo la gravità interagisca con i qubit e viceversa come le in­ terazioni quantomeccaniche (cioè le computazioni) interagiscano con la gravità. Infine dobbiamo verificare il potere predittivo della teoria; dobbiamo assicurarci, cioè, che sia in grado di spiegare in modo uni­ voco ciò che è successo nel passato a partire dal Big Bang e di preve­ dere quale sarà il destino ultimo dell'universo, o come si svolgeranno processi come l'evaporazione dei buchi neri o altri analoghi. È un compito certamente arduo, che di sicuro non posso affronta­ re qui nella sua complessità. Il programma di ricerca sulla natura com­ putazionale dell'universo è in pieno svolgimento, e non ha ancora por­ tato alla soluzione di tutti i problemi aperti in fisica (anche se qualcu­ no cercheremo di risolverlo insieme nelle prossime pagine) . La relatività generale è una teoria che tratta dello spazio e del tem­ po, e delle loro interazioni con la materia. L'insieme di tutte le possi­ bili configurazioni di questi tre agenti è detta spaziotempo. Il nostro universo è un particolare spaziotempo. Nel nostro nuovo modello dell'universo i concetti di spazio e tem­ po (e le loro interazioni con la materia) derivano dalla computazione quantistica. Ogni calcolo corrisponde a un possibile spaziotempo, o per essere più precisi a una sovrapposizione di spazitempi, le cui pro­ prietà sono date dall'esito della computazione stessa. Il nostro primo obiettivo è quello di mostrare che questo spaziotempo segue le leggi einsteiniane della relatività generale. Poi passeremo alla parte predit­ tiva della teoria. Immaginiamo che la computazione quantistica avvenga nello spa­ zio e nel tempo. Ogni porta logica si trova in un luogo fissato dello spa­ ziotempo e i circuiti sono segmenti reali lungo i quali i qubit scorrono da un punto all'altro. Notiamo subito che ci sono molti modi diversi di immergere una computazione nello spaziotempo: riferendoci alla figura 7 .2 , possiamo spostare di qualche centimetro le sferette e tra­ sformare i segmenti in curve più complicate, l'importante è che sia pre­ servata la struttura generale dei collegamenti. Il risultato di un calco­ lo quantistico, cioè ciò che accade all'informazione, è indipendente

vn.

Il computer universale

155

dal modo preciso in cui viene realizzato nello spaziotempo. Nel lin­ guaggio tecnico della relatività generale, il contenuto dinamico di una computazione quantistica è generalmente covariante: in altre parole, a un computer quantistico «non importa» dove sia situato nello spazio­ tempo, purché le interazioni tra i qubit siano quelle corrette. Questo fatto ha come conseguenza che lo spaziotempo derivato dal modello computazionale obbedisce alle leggi della relatività gene­ rale. Perché? Perché uno dei presupposti su cui Einstein ha ricavato le sue leggi è proprio il fatto che fossero generalmente covarianti. An­ zi, fatte le debite ipotesi, si trova che la relatività generale è l'unica teo­ ria della gravità generalmente covariante. La verifica esplicita di questo fatto, cioè che lo spaziotempo deriva­ to dalla computazione quantistica è coerente con le leggi della relatività generale, richiede un po' di matematica avanzata, ma si può riassume­ re in termini generali. n circuito di figura 7 .2 ci dice dove l'informazio­ ne può stare e dove può essere trasportata, cioè è una struttura causale dello spaziotempo. Ma grazie alla relatività generale possiamo dire che la struttura basta a definire lo spaziotempo, a meno di alcuni dettagli, anzi praticamente di un solo dettaglio: la scala delle lunghezze. È immediato vedere perché la scala sia necessaria per fornire in mo­ do completo la struttura dello spaziotempo. In questo momento mi tro­ vo al Mit e voglio misurare una distanza. Prendo un bastone come unità di riferimento e comincio a vedere quanto è lungo il «corridoio infini­ to» (è un corridoio che corre lungo l'intero edificio principale dell'u­ niversità - a me sembra tanto lungo da non finire mai), trovando come risultato 25 . Ora vi invio un messaggio in cui scrivo: «li corridoio infi­ nito è lungo 25 unità». Chiaramente questo non vi dà nessuna infor­ mazione, se non conoscete la mia unità di misura. È necessario che tra me e voi si stabilisca di comune accordo uno standard. Se vi scrivo: «L'unità di misura che ho usato è pari a 1 650763 ,73 volte la lunghez­ za d'onda della riga rosso-arancio nello spettro della luce emessa da un atomo di cripto-86 (che sarebbero poi 1 0 metri)» e se avete con voi un atomo di cripto-86, allora potete sapere quanto è lungo il corridoio in termini di un'unità di misura locale e condivisa. Oggi, per inciso, si pre­ ferisce definire le unità di limghezza a partire da quelle di tempo, per­ ché il tempo si misura con maggiore precisione. li metro è universal-

I I . I dettagli

1 56

mente noto come 1/299792 458 della distanza che la luce copre in un secondo, quindi se preferite vi posso dire che la mia unità di misura è pari a 10/299 792 458 di questa distanza (e sono sempre 10 metri) : se avete un orologio molto preciso e un raggio di luce a disposizione, an­ che in questo caso ricavate senza problemi la lunghezza del corridoio. Ora torniamo all 'universo. Una volta fissata la struttura causale del­ la computazione quantistica, si devono soltanto specificare le scale di lunghezza, cioè le unità di misura locali; queste sono descritte in ter­ mini delle proprietà ondulatorie della materia. La «materia» in que­ sto caso è data dalle porte logiche quantistiche, che come ricorderete sono in grado di simulare i qubit dell'universo e le interazioni locali. I qubit formano il cosiddetto computronium, cioè un tipo di materia che si comporta come le particelle elementari standard e che è in grado di svolgere computazioni. Ogni porta logica, come ogni particella, ha na­ tura anche ondulatoria, e corrisponde dunque a un'onda che oscilla un certo numero di volte durante la computazione. Questo numero è detto azione della porta logica. Nel corso della computazione, ogni qubit accumula azione. L'a­ zione totale è data dal numero complessivo di oscillazioni fatte da tut­ te le onde dei qubit durante l'intero processo. È un fatto ben noto in meccanica, sia classica sia quantistica, che per specificare in modo completo il comportamento di un sistema fisico basta conoscere la sua azione. Quindi l'azione di tutte le porte logiche determina senza am­ biguità tutto ciò che accade durante la computazione: dove c'è azio, . ne, c e az10ne. Le equazioni della teoria einsteiniana mettono in relazione la geo­ metria dello spaziotempo con il comportamento della materia in esso contenuta. In particolare, la curvatura in un punto è legata all'azione nel punto medesimo, che nel nostro caso è data dal numero di oscil­ lazioni dell'onda associata alla porta logica quantistica. Dobbiamo ve­ rificare che la relazione di Einstein vale anche nel nostro modello. Per conoscere con precisione la curvatura in un punto dobbiamo fissare una scala di lunghezza locale. È immediato mostrare a livello matematico che qualsiasi scala scegliamo, lo spaziotempo che ne ri­ sulta ha una curvatura che rispetta le equazioni di Einstein. Questo non è un puro caso: visto che la computazione quantistica è indiffe'

vn.

Il computer universale

157

rente alla sua realizzazione come circuito nello spaziotempo, è auto­ maticamente covariante. Una volta immersa nello spaziotempo, dun­ que, deve «per forza» seguire le equazioni einsteiniane. Una volta Einstein sfidò John Wheeler a sintetizzare la relatività ge­ nerale in una sola frase. Wheeler se la cavò brillantemente: «La mate­ ria dice allo spazio come deve incurvarsi e lo spazio dice alla materia dove deve andare». In termini di computazione quantistica possiamo riscrivere lo slogan di Wheeler in questo modo: «L'informazione dice allo spazio come deve curvare e lo spazio dice all'informazione dove deve andare». Lo spazio, in questo nuovo modello, è pieno di «cavi», circuiti lungo i quali l'informazione può scorrere, che rappresentano le interazioni permesse. I circuiti collegano varie porte logiche quantisti­ che, dove l'informazione viene trasformata, e l'azione delle porte de­ termina la curvatura dello spazio in quel punto. La struttura dello spa­ ziotempo nasce dall a struttura della computazione in atto. La teoria computazionale quantistica della gravità fa un certo nu­ mero di previsioni su alcune caratteristiche dell'universo. Fornisce un semplice modello del comportamento dello spaziotempo in presenza di materia (materia che obbedisce alle leggi della meccanica quantisti­ ca) . Ci dà i mezzi per calcolare in che modo le fluttuazioni quantistiche nell'universo primordiale hanno determinato la densità della materia e la posizione delle galassie. È coerente con i modelli che prevedono la formazione e l'evaporazione dei buchi neri. I suoi qubit sono perfetta­ mente in grado di riprodurre l'intera gamma di fenomeni osservati e previsti dal Modello Standard per le particelle elementari. In altre pa­ role, la computazione quantistica sembra proprio essere una Teoria del Tutto, per usare un'espressione familiare tra i fisici. Consapevole del fatto che molte candidate a questo titolo si sono rivelate teorie del nien­ te, preferisco che la si chiami una Teoria Potenziale del Tutto. Parafra­ sando John Wheeler, il mio motto è «Tutto viene dal qubit»6• Il paradigma che vede l'universo come una grande computazione è una nuova strada verso la gravità quantistica, cioè verso la concilia­ zione di relatività generale e meccanica quantistica. Attraversa terri­ tori molto diversi da quelli descritti da Smolin nel suo libro, ma vuo' Nell'originale It /rom qubit [N. d. T. ] .

158

I I . I dettagli

le arrivare nello stesso posto. La teoria è ancora in fieri. Fa delle pre­ visioni esplicite su fenomeni quali il comportamento dell'universo pri­ mordiale e l'evaporazione dei buchi neri, previsioni che possono es­ sere verificate con esperimenti e osservazioni (ad esempio, con uno studio molto accurato della radiazione cosmica di fondo, residuo fos­ sile del Big Bang) . li tempo dirà se il nuovo paradigma è una strada che porta alla gravità quantistica o se lo scontro con i dati sperimen­ tali la porterà a perdersi nel nulla. Nonostante l'incertezza di fondo, inevitabile quando si fa scienza, la computazione quantistica ha passato un punto che nessuna delle al­ tre strade finora ha raggiunto: grazie al suo modo naturale di ripro­ durre le dinamiche quantistiche, è riuscita a combinare la relatività ge­ nerale e il Modello Standard delle particelle elementari in modo li­ neare e coerente. Questo successo mostra che vale la pena continuare a seguire la strada dell'universo computazionale, che forse ci p0rterà a raggiungere la meta finale: capire la realtà in termini di elaborazio­ ne dell'informazione.

Capitolo ottavo Complessità semplificata

l . Come nasce la complessità. La principale conseguenza della natura computazionale dell'uni­ verso è l'esistenza dei sistemi complessi, come ad esempio gli esseri vi­ venti. Le leggi fondamentali della fisica sono abbastanza semplici ep­ pure, grazie alla loro universalità e al fatto che consentono la compu­ tazione, permettono la nascita di strutture incredibilmente complesse. Il paradigma computazionale, oltre a comprendere il Modello Stan­ dard e a fornire quella che sembra una buona strada verso la gravità quantistica, può annoverare senz' altro tra i suoi successi la spiegazio­ ne del problema della complessità. In principio l'universo era un og­ getto molto semplice, mentre oggi è molto complicato. Perché? Cos'è successo nel frattempo? Secondo quanto ci dicono le ricerche astronomiche e cosmologi­ che, al momento del Big Bang il cosmo era un posto assai monotono: tutto era uguale, e ugualmente caldissimo. Detto in altre parole, lo sta­ to iniziale dell'universo era caratterizzato da regolarità, simmetria e semplicità. Oggi le cose stanno diversamente, e basta un'occhiata al cielo per accorgersene. Ci sono pianeti, stelle, galassie, ammassi e su­ per ammassi; l'universo è asimmetrico e pieno di irregolarità. Un'al­ tra occhiata fuori dalla finestra ci mostra altra complessità: piante, ani­ mali, gente, case, macchine. La vita sulla Terra è tutto fuorché sem­ plice. Come ha fatto il mondo a diventare così? Ciò che abbiamo visto nei capitoli precedenti ci dà la possibilità di fornire una risposta scien­ tifica a questa domanda. Abbiamo un quadro teorico che ci permette di descrivere il fun­ zionamento dell'universo in termini di elaborazione quantistica del­ l'informazione. Sappiamo che un computer quantistico è in grado di simulare l'universo in modo efficiente, anzi: che i due oggetti (com-

I 6o

I I . I dettagli

puter e universo) non sono distinguibili tramite l'osservazione. A sup­ porto di queste ipotesi teoriche abbiamo robuste prove empiriche del fatto che l'universo consente l'elaborazione dell'informazione. Dopo tutto, io sto scrivendo su un computer che è soggetto alle leggi fisiche. Dunque la fisica ci consente di fare calcoli, e la mia macchina, dotata di adeguata memoria, è un computer digitale universale. Qualunque esse siano, le leggi fisiche ci consentono materialmente di costruire e usare calcolatori a scala macroscopica. Ci sono anche solide prove del fatto che la fisica dell'universo con­ senta la computazione a scala microscopica. I computer quantistici che sto costruendo con i miei colleghi sono la testimonianza di quan­ to la materia, alla scala più piccola possibile, sia adatta a elaborare informazione: siamo in grado di controllare in modo preciso il com­ portamento di atomi, elettroni e fotoni. Indipendentemente dalla for­ ma che la materia/energia può assumere all'interno di queste parti­ celle elementari, fin tanto che esse seguono le leggi della meccanica quantistica possono essere utilizzate per la computazione. Nel com­ puter universale cosmico (cioè nell'universo stesso) ogni atomo è un bit, ogni fotone sposta bit da un punto all'altro del circuito e un elet­ trone commuta un bit ogni volta che il suo spin passa da up a down o viceversa. Fino a quando non arriveremo a una teoria quantistica on­ nicomprensiva, che spieghi anche la gravità, non saremo in grado di studiare in dettaglio i calcoli dell'universo. Ma possiamo sperare (le­ gittimamente) che un giorno sarà possibile farlo. Il fatto che l'universo sia un computer quantistico ci fornisce una spiegazione naturale della complessità del mondo. Torniamo per un . momento a Boltzmann e alle scim mie dattilografe. Come ricorderete, il grande fisico austriaco pensava che la complessità dell'universo fos­ se un prodotto del caso; secondo lui, ciò che vediamo attorno a noi è il mero risultato di una fluttuazione statistica, non diverso da una lun­ ga serie di lanci di moneta. A un primo sguardo, sembra essere una spiegazione convincente: in una serie infinita di lanci, prima o poi si presenteranno tutte le sequenze possibili di testa e croce, alcune del­ le quali saranno sensate, se interpretate come codice binario. C'è un racconto di Borges che parla proprio di questo; nella Biblioteca di Ba­ bele trovano posto tutti i possibili libri generati dalla combinazione ca-

VIII .

Complessità semplificata

I6I

suale di un numero fisso di caratteri. E naturalmente, c'è la storia del­ le scimmie che battendo a caso sui tasti di una macchina da scrivere a un certo punto producono tutto l'Amleto. Sono due rappresentazio­ ni dello stesso principio. Ma si può dimostrare che l'idea di Boltzmann è sbagliata. La stra­ grande maggioranza delle sequenze di lanci non ha né ordine né sim­ metria. Se la complessità nascesse solo dal caso, allora, indipendente­ mente da quanto successo nel mondo fino a oggi, ciò che si produrreb­ be in seguito sarebbe solo casuale. Anche se le scimmie fossero arrivate a scrivere quasi tutto l'Amleto, le loro stringhe di caratteri seguenti sa­ rebbero quasi certamente prive di senso. In un universo casuale al mas­ simo grado, ogni nostro respiro è quasi certamente l'ultimo, perché gli atomi che compongono il nostro corpo si ricombinano ogni volta in un nuovo stato, che sarà privo di ordine con certezza quasi totale (la Bi­ blioteca di Babele è del tutto inutile: un libro preso a caso dagli scaffali è quasi certamente composto da un'accozzaglia casuale di caratteri, e l'unico catalogo possibile è grande come la Biblioteca stessa) . Boltzmann si rese conto di questa incongruenza, ma sembra che non abbia neppure provato a correggerla. C'è comunque un nucleo di verità nella sua ipotesi. Come abbiamo già detto nel terzo capitolo, se mettiamo le scimmie davanti a un computer e non a una macchina da scrivere, e se facciamo interpretare le loro stringhe di caratteri da un programma, come ad esempio J ava, otteniamo risultati ben diversi. In informatica si dice garbage in, garbage out: se immettete in un com­ puter della spazzatura, uscirà altrettanta spazzatura. Dunque, con grande probabilità la macchina che riceve in input il codice scimmie­ sco stamperà un messaggio di errore. Ma qualche volta il risultato è sorprendente. La probabilità che il programma sia sensato cresce ra­ pidamente al decrescere della sua lunghezza, e ci sono molti pro­ grammi corti che fanno cose davvero interessanti. All'inizio degli anni Sessanta si scoprì un modo per dare un senso preciso alla probabilità che un programma casuale generasse un out­ put significativo. Era nata la teoria dell'informazione algoritmica.

r 6z

I I . I dettagli

2 . L'informazione algoritmica. In sostanza, si tratta di una misura della difficoltà di rappresenta­ re un testo (o una sequenza di bit) con un computer. L'informazione algoritmica di un testo è uguale alla lunghezza, misurata in bit, del più piccolo programma che riesca a generarlo come output. Nel secondo capitolo abbiamo visto che i linguaggi di program­ mazione assegnano un significato a una sequenza di bit, interpretan­ dola come un insieme di istruzioni volto a produrre un certo output. Ma se partiamo dal fondo, cioè dall'output, vediamo che ci sono mol­ ti linguaggi tra cui scegliere, e molti programmi scritti in un certo lin­ guaggio che danno il risultato desiderato. Se per esempio vogliamo ot­ tenere pi greco fino alla milionesima cifra, possiamo scegliere tra va­ rie possibilità che, è importante notarlo, non sono tutte della stessa lunghezza. Il programma più banale è semplicemente «PRINT 3 , 14 15926 . . » , dove « . » sta al posto delle restanti 999 992 cifre. Fa­ cile, ma molto lungo. Un modo più corto ed elegante di ottenere lo stesso risultato è quello di farlo calcolare dalla macchina. Con un pro­ cedimento già noto agli antichi Greci, potremmo approssimare una circonferenza con vari poligoni con un numero sempre maggiore di lati, fino ad arrivare alla precisione desiderata. Se ben scritto, un pro­ gramma del genere non è più lungo di un centinaio di istruzioni. Ha senso allora parlare del minimo programma possibile. Dato un numero, si definisce contenuto di informazione algoritmica o comples­ sità algoritmica la lunghezza in bit del programma più corto che lo pro­ duca come output. Possiamo pensare a questo programma minimo co­ me alla rappresentazione più succinta possibile di un numero in un certo linguaggio. L'idea di questa definizione venne, in modo indipendente, a tre scienziati agli inizi degli anni Sessanta: Ray Solomonoff del Mit, il ma­ tematico russo Andreij Nicolaevic Kolmogorov e Gregory Chaitin, che all'epoca aveva diciott'anni e studiava al City College di New York. Tutti e tre si accorsero che la complessità algoritmica era una misura più soddisfacente del contenuto informativo di un numero rispetto al­ la semplice lunghezza in bit (altro modo lecito di definirlo) , perché in .

.

.

vm.

Complessità semplificata

1 63

questo modo si riflettevano meglio le regolarità matematiche intrin­ seche del numero stesso. Gran parte dei numeri ha un contenuto di informazione algoritmi­ ca simile alla sua lunghezza. Di sicuro questo contenuto non può esse­ re molto più lungo, visto che presa una qualsiasi sequenza di bit come 0 1 1 10 1 1 0 1 0 1 1 10 1 1 10 1 1 10 l la si può generare semplicemente con il programma «PRINT 0 1 1 1 0 1 1 0 1 0 1 1 1 0 1 1 10 1 1 1 0 1 ». D'altra parte non può essere sempre molto più corto, semplicemente perché ci sono me­ no programmi corti di quanti siano i numeri lunghi. Chiediamoci ad esempio quanti numeri di 20 bit si possono generare con programmi di lO bit. I primi sono 220 = l 048576, i secondi 210 = 1 024 : solo un nu­ mero su mille, più o meno, può essere prodotto in questo modo. I numeri per cui è davvero possibile risparmiare molti bit descri­ vendoli con un programma sono quelli che hanno proprietà matema­ tiche particolari. Pi greco è un chiaro esempio; un altro esempio è da­ to da una stringa lunga un miliardo di l , che si può generare con un programma del tipo «PRINT l un miliardo di volte». Ma come abbia­ mo già detto, gran parte dei numeri non ha proprietà significative ed è a tutti gli effetti casuale. n programma più corto è sempre definito a meno di un dato lin­ guaggio, si tratti di Java, C, Fortran, Basic o quant'altro. La definizio­ ne, però, non dipende in modo decisivo dal tipo di linguaggio che si usa, perché è sempre possibile tradurre un programma da uno all'al­ tro senza alterare di molto la sua lunghezza. Ad esempio, un pro­ gramma in Fortran che generi un milione di cifre di pi greco può es­ sere trasformato in uno in Java con l'aiuto di un semplice programma di traduzione. n risultato è che il più corto programma possibile in Ja­ va è grande al massimo quanto quello in Fortran più la lunghezza del programma di traduzione, che comunque ha un ordine di grandezza piccolo, che decresce relativamente alla lunghezza dell' output. La possibilità di scrivere lo stesso programma in vari linguaggi è una caratteristica fondamentale della computazione, ed è un aspetto della sua universalità. Lo stesso si può dire di un'altra proprietà importante e ben nota, cioè il fatto che lo stesso programma (Word, per esempio) funzioni ugualmente su macchine basate su architetture differenti. I circuiti di un Macintosh e di un Pc sono molto diversi, e altrettanto di-

1 64

I I . I dettagli

versi sono i modi in cui le istruzioni di un programma sono rappresen­ tate ed eseguite. Ma Word gira su tutti e due. Se lo carichiamo su un Macintosh, Word viene tradotto, o meglio compilato come si dice in informatica, e trasformato in un insieme di istruzioni che la macchina è in grado di capire. Nonostante le profonde differenze di architettura sottostante, chi vuole scrivere una cosa in Word per Pc batte gli stessi tasti di chi compie la stessa operazione su un Macintosh1 • I l concetto d i informazione algoritmica è un'elegante applicazione delle caratteristiche di universalità e traducibilità dei linguaggi di pro­ grammazione, che ci fornisce un modo conciso di rappresentare se­ quenze di bit dotate di qualche regolarità matematica. Il «programma minimo» richiesto dalla definizione di informazione algoritmica si può interpretare come la versione compressa di un certo output. Nelle applicazioni, non sono poche le sequenze di bit che presen­ tano qualche regolarità e che quindi si possono comprimere. Ad esem­ pio, se si conosce la frequenza relativa con cui si utilizzano le lettere in una lingua (in inglese la più comune è la E, seguita nell'ordine da T, A , 1, o, N , s , H , R , n , L , u - e per inciso queste erano le prime due righe del­ la cassa dei caratteri mobili un tempo usati in tipografia) , è possibile risparmiare spazio nei programmi di scrittura assegnando un codice binario più corto alle lettere più frequenti e uno più lungo alle lettere meno usate. In questo modo, in inglese, il risparmio rispetto a una co­ difica casuale è circa di un fattore due. 3 . La probabilità algoritmica. A Ray Solomonoff venne l'idea della complessità algoritmica men­ tre stava cercando di tradurre in linguaggio matematico formale il prin­ cipio filosofico del rasoio di Occam. Il filosofo medievale Guglielmo di Occam è passato alla storia per aver enunciato un celebre principio di economia del pensiero: Pluralitas non est ponenda sine necessitate, 1 Far girare Word su Pc o Macintosh non è esattamente la stessa cosa, perché il programma può essere più veloce in un caso o nell'altro (è noto che certe versioni sono più lente su Macin­ tosh) . La traduzione è sempre accurata, ma non sempre efficiente.

vm .

Complessità semplificata

r 65

cioè «la pluralità va ipotizzata solo quando è necessaria», ovvero i fe­ nomeni devono essere spiegati nel modo più semplice possibile. Se per esempio osserviamo al telescopio delle linee regolari sulla superficie di Marte, Occam ci esorta a non pensare come prima spiegazione ai canali scavati dai marziani, ma a privilegiare spiegazioni concettual­ mente più semplici, come fenomeni geologici o illusioni ottiche. Po­ stulare l'esistenza dei marziani viola una formulazione equivalente del principio: Entia non sunt multiplicanda praeter necessitatem, cioè «non bisogna aumentare gli elementi della questione senza che ce ne sia bi­ sogno». Il rasoio di Occam taglia via le spiegazioni complicate e pre­ ferisce quelle semplici perché a priori più plausibili. La complessità algoritmica traduce in linguaggio matematico que­ sto principio filosofico. Supponiamo di avere un insieme di dati, espressi come una sequenza di bit, e ci chiediamo quale meccanismo li abbia potuti produrre; ossia, per usare il linguaggio dell'informati­ ca, cerchiamo di scoprire quale programma possa averli generati co­ me output. All'interno di un insieme di programmi ammissibili, se­ condo la proposta originale di Solomonoff, decidiamo che il più cor­ to di tutti è il candidato più plausibile. Quanto siamo giustificati in questa scelta? Negli anni Settanta del secolo scorso Gregory Chaitin e il suo collega all ' Ibm Charles Bennett affrontarono il problema in termini probabilistici, cioè con le nostre vec­ chie care scimmie programmatrici. Una scimmia sta immettendo dati a caso in un computer, che interpreta queste sequenze di bit come pro­ grammi scritti in un dato linguaggio, diciamo Java. Qual è la probabi­ lità che la macchina produca come output il valore di pi greco fino alla milionesima cifra? È la stessa che la scimmia immetta per caso la serie di bit che riproduce il programma corretto. Questa probabilità si cal­ cola semplicemente per passi successivi: al primo passo, la scimmia az­ zecca il bit giusto una volta su due, al secondo passo una volta su quat­ tro, al terzo una volta su otto, al millesimo una volta su 21000 , che è già un numero estremamente piccolo, e così via. Più lungo è il programma, più minuscola è la probabilità che la scimmia lo scriva correttamente. Questa probabilità, detta «algoritmica», dà una misura di quanto sia plausibile un certo programma. Poiché come abbiamo visto essa decresce molto rapidamente al crescere della lunghezza del program-

r 66

I I . I dettagli

ma, ne deduciamo che il più corto di tutti è il più probabile. Dunque, fra tutti i programmi che possono avere un certo numero come out­ put, il più corto rappresenta la spiegazione più plausibile di come il numero stesso sia stato generato. Detto in altri termini, i numeri che si originano a partire da pro­ grammi corti sono-con maggiore probabilità l'output di un meccanismo di generazione casuale, come quello dato dalle scimmie programmatri­ ci. Molte strutture matematiche eleganti e complesse, come i poligoni regolari, i frattali, le leggi della meccanica quantistica, il Modello Stan­ dard, le leggi della chimica, sono il prodotto di programmi piuttosto cor­ ti. Che lo crediate o meno, una scimmia ha una discreta possibilità di ge­ nerare al computer tutto ciò che vediamo intorno a noi.

Figura 8.1. Le scimmie dattilografe. Un gruppo di scimmie che batte a caso sui tasti di una macchina da scrivere (a) genera ri­ sultati privi di senso. Un gruppo di scimmie che immette dati a caso in un computer (b), dove ciò che scrivono è interpretato come un programma, genera strutture complesse.

a)

vm.

Complessità semplificata

r 67

Gli oggetti più probabili dal punto di visto algoritmico sono quelli che mostrano regolarità, struttura e ordine. In altre parole, mentre le scimmie dattilografe producono solo un mucchio di roba senza senso, le scimmie programmatrici a volte riescono, tra le molte cose inutili, a dar vita a qual­ cosa di interessante (fig. 8. 1 ) . L'universo che sono in grado di creare con­ siste soprattutto di strutture generabili a partire da semplici formule ma­ tematiche e brevi programmi. È un universo con un miscuglio di ordine e casualità, in cui i sistemi complessi prendono forma in modo naturale a partire da semplici istruzioni: insomma, è troppo simile al nostro per non farci venire qualche sospetto. Può essere che la complessità del mondo si generi davvero in questo modo, a partire da molta informazione e sem­ plici programmi che producono output dotati di struttura?

b)

I 68

I I . I dettagli

Proviamo a verificarlo. Il nostro modello presuppone due agenti necessari: il computer e le scimmie. Abbiamo già visto che la fisica, at­ traverso le leggi della meccanica quantistica, ci fornisce un computer in modo naturale. Ma dove sono le scimmie? Qual è il meccanismo fi­ sico che inserisce informazione nel mondo, scrivendo a caso sequen­ ze di bit che si possono interpretare come programmi? Anche in que­ sto caso la natura ci viene in aiuto grazie alle fluttuazioni quantistù:he. Nell'universo primordiale, ad esempio, le galassie si sono formate at­ torno a nuclei di condensazione, cioè punti in cui la materia era leg­ germente più densa che altrove. Questi «semi galattici» sono un pro­ dotto delle fluttuazioni quantistiche, che hanno permesso piccoli, spontanei scostamenti dalla media nella densità dell'universo. Le fluttuazioni sono un fenomeno molto diffuso, che tende a pre­ sentarsi in situazioni molto delicate. Prendiamo la riproduzione dei viventi, ad esempio. Il vostro DNA vi arriva dai genitori, ma la sequen­ za precisa dei geni si origina da un processo di ricombinazione che av­ viene dopo che lo spermatozoo è entrato nell'ovulo e vi ha immesso il suo materiale genetico. I dettagli di questo processo dipendono in mo­ do molto preciso da una serie di variabili chimiche e termiche, che si possono far risalire a fluttuazioni quantistiche. La meccanica quanti­ stica, in ultima analisi, è responsabile delle differenze tra voi e i vostri fratelli; un accidente quantistico ci rende tutti diversi, allo stesso mo­ do in cui vari accidenti quantistici hanno permesso la formazione del­ le galassie. Le scimmie che programmano l'universo non sono altro che fluttuazioni quantistiche. La casualità entra nell'universo computazionale perché il suo sta­ to iniziale è una sovrapposizione di vari stati, alias programmi, ognu­ no dei quali mette l'universo su una strada diversa; qualcuno di que­ sti ha conseguenze complesse e interessanti. L'universo, come un com­ puter quantistico, segue tutte le strade allo stesso tempo, con un grande calcolo parallelo. Le strade non sono altro che le storie decoerenti vi­ ste nel quinto capitolo. Grazie alla decoerenza, siamo in grado di par­ lare del passato, perché una di queste storie è dawero accaduta: cor­ risponde all'universo che vediamo attorno a noi.

VIII .

Complessità semplificata

r 69

4 . Cos'è la complessità? Nell'universo computazionale ogni possibile forma di realtà cal­ colabile si origina spontaneamente; tutto ciò che corrisponde a un pro­ gramma, avviene. Una parte di questa realtà è ordinata, un'altra è ca­ suale; una parte e semplice, un'altra è complessa. Bene: ma che cos'è di preciso la complessità? È una cosa che mi ha quasi fatto cacciare dall'università. Stavo se­ guendo i corsi di dottorato alla Rockefeller University, una sede che aveva la reputazione di lasciare molta libertà di ricerca agli studenti. Superati gli esami di ammissione, mi misi a lavorare sul rapporto tra informazione e meccanica quantistica e sulla possibilità che la com­ putazione quantistica potesse giocare un ruolo in molti fenomeni fisi­ ci, come ad esempio la gravità. Praticamente è ciò che faccio adesso, a distanza di vent'anni. All'epoca lavoravo senza un supervisore. Un giorno del 1986 due professori dell'università accompagnati da Heinz Pagels, allora direttore della New York Academy of Sciences, entra­ rono nel mio ufficio e misero le cose in chiaro: «Lloyd, la smetta di oc­ cuparsi di queste stramberie e inizi a lavorare su qualcosa che per noi abbia un senso. Altrimenti la cacciamo dalla Rockefeller». Fu una sorpresa scioccante. Ero consapevole del fatto che stavo esplorando territori estranei al normale lavoro accademico. Quasi tut­ ti gli altri studenti si occupavano di teoria delle stringhe, un modello estremamente astratto in cui per riconciliare meccanica quantistica e relatività generale si suppone che lo spazio abbia un sacco di dimen­ sioni aggiuntive invisibili. Questa per me era una vera stramberia, non certo il mio lavoro. Ma all'epoca erano in molti a dedicarsi alle stringhe e pochi, po­ chissimi alla teoria quantistica dell'informazione. Qualche tempo do­ po avrei conosciuto questi colleghi e avrei collaborato con loro, ma al momento non sapevo nemmeno chi fossero. Fu così che, dopo il di­ scorsetto dei tre professori, chinai la schiena e accettai di lavorare su un argomento più popolare; mi fu chiesto di risolvere entro l'anno due problemi standard della teoria quantistica dei campi. n frutto più im­ portante di quell'ultimatum, però, fu l'aver conosciuto Heinz Pagels

I 70

I I . I dettagli

e aver iniziato a collaborare con lui. Era un tipo che non passava cer­ to inosservato, con una gran massa di capelli bianchi, sempre fasciato in eleganti completi gessati e con i piedi calzati in lussuosi stivaletti di cuoio. Sembrava John Gotti, il celebre mafioso, solo un po' più ma­ gro. Questo singolare protagonista della fisica contemporanea accettò di farmi da guida. Dopo quattro mesi avevo risolto i problemi che mi erano stati pro­ posti. Dopo altri quattro, avevo convinto Pagels che studiare il feno­ meno dell'evaporazione di un buco nero in termini di informazione quantistica avrebbe potuto essere un programma di ricerca non in­ sensato. Nel giro di un anno eravamo diventati amici. Mi portava in giro per l'East Village, presentandomi i suoi amici più alternativi, qua­ si tutti artisti. Mi fece conoscere sua moglie Elaine, autrice di un cele­ bre libro sui Vangeli gnostici che mi fece cambiare idea sulla natura sociale della religione. Forse mi stavo preparando a una futura carrie­ ra di tassista, come tanti altri dottorandi in fisica dell'epoca, ma per­ lomeno mi stavo divertendo un sacco. Il punto di svolta della nostra collaborazione scientifica arrivò il giorno in cui Pagels entrò nel mio ufficio e mi chiese: « Seth, secondo te come si misura la complessità?». «Non si può, - risposi io. - Un fenomeno complesso non si riesce a quantificare». «Che cavolata. Adesso ci proviamo». Misurare la complessità sembra un po' come misurare la fisica. Ci sono molte quantità misurabili in fisica, come lunghezza, energia, tem­ peratura, pressione, carica elettrica e così via, ma non c'è modo di quan­ tificare la «fisica». Lo stesso si potrebbe dire per la complessità: forse tra le proprietà degli oggetti che costituiscono un sistema complesso si possono identificare delle variabili quantificabili, analoghe a quelle fi­ siche. All'epoca delle mie prime collaborazioni con Pagels mi misi a leggere per mesi tutta la letteratura disponibile in materia. Mi interes­ sava in particolare il concetto di complessità computazionale, che si de­ finisce come il numero di operazioni logiche elementari necessarie per svolgere una computazione (esiste anche una misura spaziale di questa particolare complessità, data dal numero di bit utilizzati nel corso del­ la computazione) . Si tratta di una misura delle risorse richieste per svol-

vm.

Complessità semplificata

171

gere un certo compito, più che della complessità del compito in sé. Esi­ stono molti esempi di calcoli assai lunghi che richiedono un sacco di memoria, ma che non portano a nulla di particolarmente complesso. Vedremo che la complessità computazionale, pur importante, è solo un ingrediente del concetto che stiamo cercando di precisare. Il contenuto di informazione algoritmica potrebbe essere un can­ didato adatto, e infatti Chaitin la definì «complessità» algoritmica. Ma esistono sequenze di bit con alto contenuto di informazione algorit­ mica che sembrano del tutto casuali, e lo sono (tanto che c'è chi ha ri­ battezzato questa quantità «casualità algoritmica») . Sono anche mol­ to semplici da generare: basta ad esempio lanciare una moneta cento volte, e la sequenza di bit risultante avrà quasi certamente un conte­ nuto di informazione algoritmica vicino al massimo possibile. A me sembrava, e così anche a Pagels, che si sarebbe dovuto assegnare un'al­ ta complessità a oggetti con una certa struttura, difficili da riprodur­ re casualmente; esattamente il contrario di quello che avviene per il contenuto di informazione algoritmica. Proseguendo nelle mie ricerche, trovai molte altre definizioni di complessità, che erano però tutte variazioni sul tema di quanto appe­ na visto: o erano misure dell'impiego di risorse, o della quantità di informazione. Qualche anno dopo mi trovai a un congresso organiz­ zato dal Santa Fe lnstitute. Questo istituto di ricerca è stato fondato a metà degli anni Ottanta da George Cowan, Murray Gell-Mann e altri scienziati provenienti dai vicini laboratori di Los Alamos, con lo sco­ po preciso di indagare la nascita e il comportamento dei sistemi com­ plessi. Tenni una conferenza dal titolo Trentuno misure diverse della complessità; il numero era un'allusione scherzosa alla pubblicità di una marca di gelati che vantava «trentuno gusti diversi». Anche se non ave­ vo preparato niente di scritto, in qualche modo la notizia si diffuse nel­ la comunità scientifica, e per anni il mio lavoro più citato fu questo fantomatico «articolo delle trentuno complessità». Qualche anno fa mi sono deciso a pubblicarne una versione aggiornata2, stufo di dover rispondere a e-mail che mi chiedevano una copia di un articolo mai 2 S. Lloyd, Measures o/ Complexity: A Nonexhaustive List, in «IEEE Contro! System Maga­ zine>>, XXI (200 1 ) , n . 4, pp. 7 - 8 .

I 72

I I . I dettagli

esistito. Nel frattempo, le misure di complessità erano passate da tren­ tuno a quarantadue. La cosa buffa è che questa lunga lista ha spinto J ohn Horgan a scrivere nel suo libro La /ine della scienza che gli studi sulla complessità erano in grande crisi, visto che gli scienziati non era­ no nemmeno riusciti a mettersi d'accordo su una definizione plausi­ bile e quindi a fare qualche ricerca significativa. Nel mio articolo divido le misure di complessità in quattro cate­ gorie. La prima è composta da quelle definizioni (come l'informazio­ ne algoritmica) che misurano la difficoltà di descrizione; nella secon­ da stanno quelle (come la complessità computazionale) che si con ­ centrano sulla difficoltà di esecuzione; la terza è formata da varie misure del grado di organizzazione di un sistema; la quarta, infine, da un gruppo di varie definizioni non quantitative che prendono in con­ siderazione concetti come l'auto-organizzazione o l'adattamento. Fra tutte, mi concentro su quelle per me più interessanti, che cercano di combinare elementi delle prime tre categorie. Le leggi fisiche regolano i flussi e le interazioni tra varie quantità misurabili; le leggi della complessità devono fare lo stesso. Un con­ fronto particolarmente interessante è quello tra l'informazione e il suo costo, cioè lo sforzo richiesto per attenerla. La prima è misurata dal­ l'informazione algoritmica, il secondo dalla complessità computazio­ nale. Torniamo all'esempio di pi greco fino alla milionesima cifra. Qual è il costo necessario per produrre questa informazione? Non molto al­ to: bastano i pochi milioni di operazioni logiche (che un computer me­ dio svolge in meno di un secondo) contenute nel programma «PRINT 3 , 14 15926 . . . » Anche se non conosciamo l'informazione algoritmica precisa contenuta in questo numero (ricordiamo che è non computa­ bile, si veda il secondo capitolo) , siamo in grado di calcolarne dei li­ miti superiori, cioè la lunghezza di vari programmi che producono co­ me output la cifra desiderata. Con il cosiddetto metodo delle frazioni continue, ad esempio, riusciamo a scrivere un programma non più lun­ go di 1000 cifre; ma in questo modo abbiamo aumentato il costo, per­ ché il nuovo algoritmo richiede miliardi di operazioni logiche, e non milioni come il banale PRINT. Un semplice modo di catturare la relazione tra informazione e co­ sto fu proposto all'inizio degli anni Ottanta da Charles Bennett. Sulla

VIII .

Complessità semplificata

1 73

scorta delle idee di Solomonoff, egli identificava la spiegazione più plau­ sibile dell'origine di una stringa di dati con il programma più corto tra quelli che avrebbero potuto generarla come output (con una piccola variante: considerava anche quelli «abbastanza vicini» al più corto) . Fatto ciò, definiva l a profondità logica dei dati come l a complessità com­ putazionale di uno di questi programmi minimi, cioè il costo necessa­ rio per produrre in modo minimale quella quantità di informazione. Fra tutte le definizioni di complessità esaminate da me e Pagels, la profondità logica sembrava la migliore. Una sequenza di bit palese­ mente semplice, come ad esempio quella costituita da un milione di l , è prodotta da programmi corti ed efficienti (in questo caso: «PRINT l un milione di volte») e ha quindi bassa profondità logica. Sequenze casuali come 1 1 0 1 0 1 0 1 1000 1 00 1 1 (che ho appena ottenuto lancian­ do una moneta e identificando l con testa e O con croce) sono quasi certamente originate da programmi lunghi da scrivere ma di veloce esecuzione ( «PRINT 1 1 O l O l O 1 1 000 l 00 1 1 »), e sono anch'essi a bassa profondità logica. Per contrasto, i bit che corrispondono a pi greco fi­ no alla milionesima cifra sono prodotti da un programma corto, ma di esecuzione molto lunga, e quindi hanno elevata profondità logica. Questa misura della complessità sembra catturare la presenza di strut­ ture interessanti, strutture che si generano in molto tempo anche con il più corto dei programmi possibili. Eravamo davvero conquistati dalle idee di Bennett. L'unica obie­ zione del mio maestro era che si trattava di una definizione povera dal punto di vista fisico. La profondità logica era riferita a stringhe di bit, programmi per computer e operazioni logiche. Pagels, invece, voleva arrivare a una misura della complessità che parlasse di energia ed en­ tropia. Fu così che pensammo a una grandezza analoga a quella di Ben­ nett, da noi battezzata profondità termodinamica. Questa è una pro­ prietà di tutti i sistemi fisici. È definita partendo dal modo più plausi­ bile in cui un oggetto può essere prodotto (si tratti di un atomo o di un elefante) , e quantificando le risorse necessarie per farlo. La «risorsa» misurabile che avevamo in mente era legata all'entro­ pia. Come ricorderete, questa si può calcolare in bit: l'entropia consi­ ste in una misura dei bit nascosti e disordinati. L'opposto dell'entro­ pia, cioè la quantità di bit noti e ordinati, si chiama negentropia. La ne-

1 74

II. I dett agli

gentropia ci dà una misura di quanto un sistema sia lontano dal suo stato di massima entropia. Un essere umano che vive e respira ha mol­ ta negentropia, mentre un palloncino pieno di atomi di elio a tempe­ ratura ambiente non ne ha proprio. Se associamo l'entropia ai bit ca­ suali e inutilizzabili e la negentropia a quelli ordinati e utili, allora la profondità termodinamica di un sistema è uguale al numero di bit di negentropia che sono stati utilizzati per costruire il sistema stesso. Questa misura della complessità, come la sua antenata, la profon­ dità logica, cattura molte caratteristiche importanti della realtà. Un og­ getto semplice e regolare come un cristallo ha poca profondità ter­ modinamica. Un sistema del tutto casuale, come l'elio del nostro pal­ loncino, generato da processi elementari, ne ha anch'esso poca. Ma un'entità complessa e piena di strutture come un organismo vivente, che richiede un massiccio investimento in bit ordinati per la sua co­ struzione, nonché un' «esecuzione del programma» per miliardi di an­ ni, è molto profonda dal punto di vista termodinamico. Se applichiamo questa definizione a una stringa di bit, ad esempio all' output casuale di un computer quantistico, ci ritroviamo molto vi­ cini al concetto di profondità logica. Il modo più plausibile in cui la stringa può essere stata prodotta corrisponde al programma più cor­ to. La sua profondità termodinamica, allora, è la quantità di memoria che il computer quantistico ha utilizzato durante il calcolo, cioè la com­ plessità computazionale spaziale del programma minimo. Nell'universo computazionale, dove ogni sistema fisico corrispon­ de davvero a una sequenza di qubit e la sua evoluzione è programma­ ta dalle fluttuazioni quantistiche casuali, le due profondità che abbia­ mo definito sono quantità strettamente correlate. Per mostrare la pie­ na analogia, dobbiamo definire un analogo fisico delle operazioni logiche elementari. Ma se ricordiamo il settimo capitolo, abbiamo già pronto un candidato: un'operazione fisica elementare corrisponde a un'oscillazione della funzione d'onda. Per contare le operazioni ele­ mentari che sono servite a costruire una certa sequenza di qubit, ba­ sta contare il numero di oscillazioni. Questo numero, come ricorderete, è proporzionale a una quantità che i fisici chiamano azione del sistema; per essere precisi, l'azione è il numero di oscillazioni moltiplicato per la costante di Planck. Quindi,

VIII .

Complessità semplificata

r 75

se dividiamo l'azione di un sistema per questa costante otteniamo una quantità analoga al numero di operazioni elementari di un program­ ma, cioè alla complessità computazionale. Per stimare quanto è co­ stato, in termini di tempo e risorse, costruire un certo sistema fisico, basta conoscere la sua azione: d'altronde (e perdonate il gioco di pa­ role), se c'è azione vuol dire che si è agito. I risultati ottenuti nel settimo capitolo ci permettono quindi di co­ noscere la profondità logica e termodinamica dell'universo, e quindi porre un tetto massimo alla profondità di tutto ciò che vi può essere contenuto. Per costruire tutto ciò che ci circonda sono state necessa­ rie 10122 operazioni elementari (profondità logica) su 1 092 bit (profon­ dità termodinamica) . 5 . La complessità effettiva. Le due quantità che abbiamo appena visto non sono gli unici modi di quantificare la complessità. A seconda di ciò che vogliamo evidenzia­ re tra le caratteristiche di un sistema complesso, abbiamo a disposizione altre misure. Una di queste è la cosiddetta complessità effettiva, origina­ riamente proposta da Murray Gell-Mann, che quantifica la regolarità presente in un sistema. Negli ultimi dieci anni io e Gell-Mann ci siamo adoperati per rendere questo concetto matematicamente preciso. Si tratta di un'idea semplice ed elegante. A ogni sistema fisico si può associare una quantità di informazione: quanta ne è richiesta per de­ scrivere il suo stato completo, fino alla massima precisione permessa dal­ le leggi della meccanica quantistica. Tale informazione proviene da due sottoinsiemi: quella che ne codifica le regolarità e quella che ne registra la componente casuale. La complessità effettiva di un sistema è data dal­ la quantità di informazione necessaria per descriverne le regolarità. In un oggetto costruito dall'ingegno umano, come ad esempio un aeroplano, la complessità effettiva è praticamente uguale alla lun­ ghezza del progetto esecutivo, cioè alla quantità di informazione ne­ cessaria per costruire l'oggetto partendo dalle sue componenti. In un progetto esecutivo sono specificate, tra le altre cose, la forma delle ali e la composizione chimica della lega metallica con cui sono costruite.

r 76

Il. I dettagli

Queste sono regolarità della struttura, e i bit che le specificano devo­ no assumere valori molto particolari per far sì che il nostro aereo si sol­ levi in volo. Ma nel progetto non sono certo specificate le posizioni di tutti gli atomi dell'ala: queste sono informazioni accidentali, che non contribuiscono a definire l'effettiva usabilità dell'aereo e pertanto non contano quando misuriamo la sua complessità. Come è chiaro da questo esempio, la complessità gioca un ruolo im­ portante nella progettazione ingegneristica. Come si fa a ideare ogget­ ti complessi che si comportano secondo i nostri desideri? Al Mit inse­ gniamo ai ragazzi una vecchia ma efficace regola, che si riassume nel­ l'acronimo KIS S : keep it simple, stupid! (vale a dire «non complicare le cose, stupido ! ») . Certo, nel caso di un aereo è un po' difficile non com­ plicare le cose. Al Mit, come in altre università, esiste un Dipartimen­ to di sistemi ingegneristici dove tecnici, ingegneri, specialisti di scien­ ze esatte e scienze sociali si scambiano esperienze nel tentativo di ri­ solvere i problemi di progettazione e costruzione dei sistemi complessi. Un campo che sembra promettere bene è quello del cosiddetto AD, axio­ matic design, inventato da Nam Suh, un tempo direttore del Diparti­ mento di ingegneria meccanica al Mit. L'idea di fondo è quella di ren­ dere minima l'informazione contenuta nel sistema da progettare, man­ tenendo però intatta la sua capacità di soddisfare tutti i requisiti funzionali. Se inteso correttamente, il principio dell'AD, applicato a un aeroplano, un programma per computer, un tostapane o quant'altro, produce oggetti sufficientemente complessi da svolgere i compiti ri­ chiesti, ma senza complicazioni inutili. È un modo per minimizzare la complessità effettiva senza perdere in efficienza: KISS , ma non troppo. Ovviamente, calcolare la complessità effettiva di un sistema ri­ chiede la scelta preliminare di un criterio per distinguere ciò che è re­ golare da ciò che non lo è. In che modo giudichiamo un bit «signifi­ cativo» o lo respingiamo come casuale e inutile? Nei sistemi ingegne­ ristici, ad esempio, questa scelta si impone da sé: i bit importanti sono quelli che devono per forza assumere un particolare valore perché il tutto funzioni. In un sistema come un batterio, invece, la distinzione è meno ovvia. Un semplice criterio per capire se un determinato bit sia o meno significativo è quello di commutarlo: cambiamo il suo va­ lore e vediamo cosa succede. Se l'effetto di questa operazione è evi-

VIII .

Complessità semplificata

1 77

dente (ad esempio, nel caso del batterio potrebbe essere un cambia­ mento nella sua capacità di vivere e riprodursi) , allora il bit è impor­ tante; altrimenti possiamo trascurarlo. I bit significativi di un batterio sono dunque quelli in grado di cambiare il suo futuro. Un criterio ana­ logo si può applicare a tutti i sistemi che esibiscono un comportamento di tipo finalistico: tutto ciò che influenza la capacità del sistema di rag­ giungere il suo scopo è da considerarsi significativo. Naturalmente c'è sempre un grado di soggettività in questa defini­ zione. Ma proviamo a concentrarci su quei comportamenti del sistema che gli permettono di ricevere energia e di usarla per replicarsi, co­ struendo copie di se stesso. I viventi dedicano gran parte del loro tem­ po e delle loro energie a nutrirsi e riprodursi. Comunque vogliamo de­ finire la vita, un sistema che sia in grado di fare queste due cose ha com­ piuto un bel passo nella direzione del vivente. Se quindi identifichiamo come «significativo» tutto ciò che consente al sistema di assorbire ener­ gia e di usarla per riprodursi, siamo in grado di misurare la comples­ sità effettiva di tutti i viventi, nonché dei sistemi che un giorno potreb­ bero diventarlo. Come vedremo, le computazioni dell'universo sono in grado di produrre in modo naturale sistemi ad alta complessità effetti­ va, che usano energia per produrre copie di se stessi. 6. Perché l'universo è complesso? Adesso che sappiamo cos'è la complessità, possiamo dimostrare come necessariamente abbia origine nel mondo. Le leggi fisiche pre­ vedono la computazione universale, cioè permettono all'universo di contenere sistemi con grande profondità logica e con elevata com­ plessità effettiva. Ora mostreremo che in realtà la presenza di questi sistemi è obbligata. Iniziamo con l'esaminare in dettaglio la prima del­ le rivoluzioni dell'informazione viste nel primo capitolo: la nascita del­ l'universo. Qui ci atterremo al modello cosmologico standard attualmente in uso. Secondo la teoria corrente, nell'universo non c'è abbastanza mate­ ria per far rallentare l'espansione e poi invertirla fino a un'implosione finale, il Big Crunch. Quindi il cosmo continuerà a espandersi indefini-

I 78

I I . I dettagli

tamente. Anche se in questo modello l'universo è spazialmente infinito (fin dai primi momenti) , a noi interessa solo la porzione in cui può es­ sere avvenuta la computazione, quella interna al nostro orizzonte co­ smico, dove i bit hanno potuto parlarsi fin dall'inizio. A meno di casi particolari, seguendo l'uso corrente qui quando parliamo di «universo» intendiamo la porzione di universo contenuta nell'orizzonte cosmico. Tutto inizia dall'inizio. Prima non esiste niente: né spazio, né tem­ po, né energia, né bit. Nulla è ancora accaduto, le scimmie non si so­ no ancora messe a pestare sui tasti. Secondo le nostre osservazioni, all'inizio l'universo deve essere sta­ to molto semplice. Per quanto ne sappiamo, l'unico stato di partenza ammissibile è quello in cui tutto è identico. Con un unico risultato pos­ sibile, è chiaro che al tempo zero l'universo contiene zero bit di infor­ mazione, e che tutte le misure di complessità (profondità logica e ter­ modinamica, complessità effettiva) registrano ugualmente zero. Ora le cose si muovono e la computazione ha inizio. Dopo il co­ siddetto tempo di Planck ( 1 0-44 secondi dal Big Bang) all'interno del­ l'orizzonte cosmico c'è un bit. Il numero massimo di operazioni ele­ mentari eseguibili su quel bit nel tempo di Planck è uno, dunque la complessità effettiva e la profondità termodinamica sono al massimo un bit, e la profondità logica è al massimo un'operazione. Le scimmie hanno prodotto un bit. L'universo si espande, i bit aumentano e le operazioni elementari si accumulano. La profondità logica ha un limite massimo nel nume­ ro delle operazioni possibili, mentre le altre due misure di comples­ sità sono limitate dal numero di bit presenti. L'universo diventa più complicato, ma è ancora relativamente semplice. Le scimmie stanno battendo sui tasti a tutta birra. Che cosa sta calcolando l'universo primordiale? Se stesso, come al solito, o meglio la sua evoluzione. Ci manca una trattazione soddisfa­ cente della gravità quantistica per poter conoscere i primi passi com­ putazionali del cosmo, e magari riprodurli su un computer quantisti­ co costruito da noi. Ma se accettiamo la teoria computazionale della gravità quantistica avanzata nel settimo capitolo, sappiamo che cosa sta facendo l'universo nei primi minuti: sta eseguendo in parallelo tut­ ti i calcoli possibili.

vm.

Complessità semplificata

I 79

Ricordiamo che i computer quantistici sono in grado di svolgere molte operazioni allo stesso tempo. Un qubit, se si escludono i due sta­ ti effettivamente pari a O e l , è in realtà un insieme infinito di sovrap­ posizioni, dato da tutte le possibili combinazioni di O e l . Di conse­ guenza, quasi tutti i qubit in input dicono al computer di fare due co­ se simultaneamente. Se i qubit sono due la storia si ripete: tranne che per i quattro casi determinati, gli input sono sovrapposizioni degli stati 00, 0 1 , 10 e 1 1 . Quasi tutti questi input, dunque, dicono al computer di iniziare un calcolo parallelo quantistico e fare quattro cose in contemporanea. E così via: al crescere dei qubit, l'universo si imbarca nella serie di tutte le possibili operazioni in parallelo. Anche se il cosmo primigenio è ancora semplice, con scarsa com­ plessità effettiva e profondità logica, ha uno straordinario futuro di fronte a sé. Charles Bennett lo ha definito un sistema «ambizioso», perché anche se parte in modo umile ha la capacità intrinseca di ge­ nerare una grande complessità nel corso del tempo. Le scimmie quantistiche che abitano l'universo delle origini stan­ no immettendo nella macchina tutte le possibili sovrapposizioni degli input. L'universo computazionale interpreta questi dati come istru­ zioni e si mette a svolgere tutti i calcoli possibili in parallelo (c'è chi definisce multiverso questa sovrapposizione di tutti gli stati dell'uni­ verso) . Uno di questi calcoli dà origine alla particolare forma di com­ plessità che possiamo osservare. Come sempre accade in questi fran­ genti, le strutture generate a partire da programmi corti sono più pro­ babili di quelle che necessitano di programmi lunghi. L'universo continua nei suoi calcoli. I bit commutano a grande ve­ locità. Ma cosa sono questi bit? All'inizio, rappresentano i valori del­ la densità di energia in ogni singolo punto; ad esempio O può signifi­ care che in quel punto la densità di energia è inferiore alla media, e l che invece è superiore alla media. Data l'omogeneità delle condizioni iniziali, questi scostamenti dal valore medio sono dati dalle fluttua­ zioni quantistiche. I qubit dell'universo sono sovrapposizioni di stati con maggiore e minore densità di energia, e tutto ciò semplicemente a causa delle leggi fisiche e della naturale evoluzione del cosmo. I qubit fin da subito iniziano a commutare e a interagire fra loro.

r 8o

I I . I dettagli

Ciò significa che il computer universale (dato dalle leggi fisiche) ini­ zia a eseguire il programma che le scimmie stanno scrivendo. Come ri­ corderete dal quarto capitolo, l'informazione è contagiosa: una volta creata tende a diffondersi. Nel caso quantistico, considerata la vasta rete di interazioni che lega i qubit fra loro, il contagio è particolarmente veloce. Come abbiamo già detto, questa rapida diffusione porta alla fine alla decoerenza e alla separazione tra le varie storie possibili. Un qualsiasi qubit in una qualsiasi sovrapposizione di O e l , grazie alle leggi della meccanica quantistica, registra O e l allo stesso tempo. Ora facciamolo interagire con un altro, ad esempio effettuando un'o­ perazione logica CNOT sul secondo qubit usando il primo come qubit di controllo. Adesso la sovrapposizione è tra gli stati 00 e 1 1 : l'infor­ mazione quantistica presente nel primo qubit ha contagiato il secon­ do. Però è successo qualcosa anche al primo qubit, che ora, preso da solo, si comporta come se registrasse O o l , ma non tutti e due gli sta­ ti contemporaneamente. È awenuta la decoerenza. Al crescere delle interazioni tra qubit, l'informazione quantistica inizialmente localizzata si diffonde. Durante l'epidemia informativa, c'è decoerenza: alcune storie non hanno più influenza sulle altre. In questo modo, partendo da stati localizzati in cui nell'universo c'è so­ vrapposizione tra varie densità di energia, la decoerenza ci fa arrivare a una situazione in cui la densità o è alta o è bassa. Nel modello delle storie decoerenti, possiamo finalmente parlare della densità di ener­ gia presente in vari punti dell'universo. In questa fase awiene un fenomeno di importanza capitale. Come ricorderete, la relatività generale prevede che la gravità sia influenza­ ta dalla presenza di energia. Dove la densità è più alta, lo spaziotem­ po comincia a incurvarsi un po' più che altrove. Dopo la decoerenza, la forza di gravità risponde alle fluttuazioni dei qubit di energia crean­ do un aggregato di materia in corrispondenza della componente l (che corrisponde a una densità di energia superiore alla media) della so­ vrapposizione. Nel modello computazionale dell'universo questa aggregazione av­ viene in modo naturale: il contenuto della computazione quantistica in atto determina la struttura dello spaziotempo, curvatura compresa. La componente l della sovrapposizione in un qubit, in modo auto-

vm.

Complessità semplificata

181

matico, comporta una curvatura maggiore della componente O. Quan­ do avviene la decoerenza, e il qubit in questione è O o l , non più tutti e due gli stati insieme, si decide anche il tipo di curvatura corrispon­ dente. Quando i qubit cominciano a comportarsi in modo più classi­ co, la gravità fa lo stesso. Questo meccanismo appena descritto contrasta con quello previ­ sto da altre teorie quantistiche della gravità, in cui la decoerenza av­ viene a partire dall'attrazione gravitazionale. Ma qualunque sia il mo­ dello adottato, il quadro di ciò che accade nell'universo in questi pri­ mi momenti è sostanzialmente lo stesso. Si creano i primi qubit, che iniziano a commutare e interagire fra loro. La forza di gravità rispon­ de a questa situazione facendo condensare la materia in corrispon­ denza degli stati di densità energetica l . Avviene la decoerenza, e se­ quenze casuali di O e l si sparpagliano nell'universo. La computazio­ ne è in pieno svolgimento. Oltre a tenere insieme il pianeta su cui poggiamo i piedi, l' attrazio­ ne gravitazionale fornisce la materia prima per la nascita della com­ plessità. Man mano che la materia si addensa, l'energia che vi è conte­ nuta diventa disponibile all'uso. In ultima analisi, le calorie che intro­ duciamo nel nostro corpo con il cibo esistono grazie all'attrazione gravitazionale che ha creato il Sole e ha innescato il processo grazie al quale splende. La gravità ha anche il merito di aver creato nell'univer­ so primordiale le strutture a grande scala come gli ammassi galattici. Questa prima rivoluzione dell'informazione è stata seguita da al­ tre, come abbiamo visto: la vita, la riproduzione sessuata, il cervello, il linguaggio, i numeri, la scrittura, la stampa, il computer e chissà quant'altro ci aspetta nel futuro. Ognuno di questi passi successivi ha origine dai meccanismi computazionali del precedente. Dal punto di vista della complessità, la profondità logica e termodinamica si accu­ mula, perché ogni rivoluzione eredita praticamente tutta la profondità della precedente. Ad esempio, la riproduzione sessuata ha come pre­ supposto la presenza di un organismo vivente; quindi ha profondità termodinamica almeno pari a quella della vita. Questo tipo di com­ . plessità tende ad accumularsi. Per contrasto, la complessità effettiva non deve necessariamente crescere, perché un sistema figlio può essere più efficiente di quello

182

I I . I dettagli

padre. Lo si vede per esempio nella progettazione ingegneristica, in cui le continue migliorie e l'eliminazione delle caratteristiche ridon­ danti portano a nuove soluzioni più efficienti e con minore comples­ sità effettiva delle vecchie. Anzi, la complessità effettiva può addirit­ tura sparire: basti pensare all'estinzione di una specie vivente, che por­ ta via con sé tutta l'informazione contenuta nei suoi geni. Comunque sia, la vita sulla Terra sembra essere partita da un bas­ so livello di complessità effettiva, per poi esplodere e originare la va­ rietà straordinaria (e di assai maggiore complessità effettiva) che ve­ diamo oggi. Grazie alla capacità computazionale dell'universo, ciò che è dotato di profondità logica e termodinamica si evolve in modo ne­ cessario e spontaneo. Accade forse lo stesso per la complessità effet­ tiva? Sembrerebbe di sì, visto che ne siamo circondati da una vasta mole. Ma ciò che vediamo è necessariamente il prodotto di una con­ tinua crescita? O forse ci sono momenti in cui la complessità effettiva può crollare? Quella del genere umano, ad esempio, sembra perfetta­ mente in grado di svanire, a seguito di una guerra nucleare mondiale; e tra qualche miliardo di anni, quando il Sole avrà esaurito il suo com­ bustibile, la vita sulla Terra sarà finita, e con lei la complessità. Come, perché e quando la complessità effettiva aumenta? Sono tre problemi aperti. Possiamo provare a rispondere dando uno sguardo ai meccanismi con cui si genera. Abbiamo visto che per un vivente un comportamento significativo è ciò che gli permette di ricevere energia e riprodursi. La complessità effettiva di un sistema vivente si definisce come il numero di bit di informazione che incidono sulla capacità del sistema stesso di utilizzare energia e replicarsi. Se a questi due feno­ meni aggiungiamo la riproduzione con variabilità, allora possiamo pro­ vare a delineare un quadro più preciso della storia. Un sistema come la riproduzione sessuata, che consuma energia e introduce variabilità nel meccanismo della replicazione, è in grado sia di perdere sia di acquisire complessità effettiva. Tra le varie copie co­ struite con la riproduzione sessuata, alcune saranno più efficienti nel nutrirsi e replicarsi di altre, e presto domineranno la popolazione. Al­ cune varianti figlie avranno complessità effettiva maggiore di quella delle madri, altre minore. Se questa complessità fa aumentare le pro­ babilità di riprodursi, allora il suo valore crescerà; per contrasto, se

VIII .

Complessità semplificata

r 83

una delle varianti riesce a riprodursi con maggiore successo con una quantità minore di complessità effettiva, quest'ultima tenderà a dimi­ nuire. A seconda dell'ambiente in cui vive una popolazione, è possi­ bile che la complessità aumenti in un caso e diminuisca in un altro. Tutti i viventi consumano energia e si riproducono con variazioni; ma non è detto che un sistema con queste proprietà sia necessaria­ mente vivo. Nei primordi dell'universo, grazie a un meccanismo det­ to di «espansione inflazionaria» si producevano a pieno ritmo spazio ed energia libera nuovi di zecca. Il tasso di crescita dello spazio era davvero impressionante, raddoppiava in una minuscola frazione di se­ condo: in un certo senso si stava riproducendo. Le fluttuazioni quan­ tistiche (le scimmie programmatrici) immettevano una piccola ma si­ gnificativa variabilità nelle regioni di spazio «figlie» dell'espansione. Mentre la materia si aggregava in regioni di densità maggiore, in quel­ le stesse regioni si accumulavano grandi quantità di energia libera, a spese del resto dell'universo. Qualche miliardo di anni dopo una di queste zone sarebbe diventata la Terra. E qualche altro miliardo di an­ ni dopo in una parte della Terra ci saremmo evoluti noi umani. 7. I:inizio della vita. Oggi sappiamo moltissime cose sul funzionamento dei sistemi vi­ venti. Ma paradossalmente, l'origine della vita ci è molto meno nota di quanto lo sia quella del cosmo. Conosciamo la data e il luogo (che poi sarebbe l'intero spazio) in cui è avvenuto il Big Bang con un gra­ do di precisione molto maggiore rispetto alla data e al luogo in cui la vita è cominciata, per non parlare dei meccanismi grazie ai quali ha avuto origine. Abbiamo trovato resti di forme viventi vecchi di circa quattro miliardi di anni, ma non sappiamo se si siano originati sul no­ stro pianeta o se siano stati trasportati qui dallo spazio. Il dibattito su come e dove la vita sia iniziata è uno dei più caldi del­ la scienza moderna. Proviamo a dare una risposta plausibile. Abbiamo visto che le leggi fisiche permettono che la computazio­ ne avvenga a scala microscopica, con atomi, elettroni, fotoni e altre particelle elementari. Grazie a questa capacità, anche i sistemi a scala

r 84

I I . I dettagli

macroscopica godono della proprietà di essere macchine universali. Io, voi, il mio computer, il vostro: tutti siamo in grado di svolgere le stesse operazioni di base. E lo stesso si può fare fermandosi a una sca­ la intermedia, vale a dire quella molecolare. Le molecole sono aggre­ gati di atomi; la scienza che studia il modo in cui questi insiemi si for­ mano, si evolvono e si rompono è la chimica. Anche i sistemi chimici, dunque, hanno capacità computazionale. Cosa sono i «calcoli» della chimica? Immaginiamo di avere un re­ cipiente pieno di varie sostanze. All'inizio della computazione osser­ viamo che alcuni elementi si presentano in alte concentrazioni, e li iden­ tifichiamo con bit nello stato l ; analogamente, le sostanze a bassa con­ centrazione saranno rappresentate con O. Osserviamo che qui non è importante il modo preciso di definire i confini tra «alto» e «basso». Le sostanze iniziano a reagire fra loro. Alcune di quelle in alta con­ centrazione spariscono del tutto: i loro bit commutano da l a O. Altre si formano o aumentano in proporzione, e quindi commutano i loro bit da O a l . Mentre le reazioni procedono, i bit continuano a com­ mutare o a rimanere invariati, a seconda dei casi. Questo calcolo chimico sembra interessante. Abbiamo visto come si commuta un bit e siamo a buon punto. Ora, per dimostrare che si tratta di un calcolatore universale, dobbiamo vedere come fargli svol­ gere le operazioni elementari AND, NOT e COPY. Iniziamo con l'ultima. Supponiamo che la sostanza A inneschi la produzione della sostanza B, così che in assenza di A la concentrazio­ ne di B rimane bassa. Se la situazione di partenza è (A bassa, B bassa), i bit corrispondenti sono 00. E tali rimangono anche dopo la reazio­ ne, perché B non può aumentare senza una sufficiente quantità di A; dunque 00 � 00. Analogamente, se partiamo da uno stato iniziale (A alta, B bassa) finiamo per avere (A alta, B alta) , per via della proprietà chimica sopra descritta. La transizione è dunque l O � 1 1 . Se pensia­ mo al bit associato ad A prima della reazione come all'input e a quel­ li associati ad A e B dopo la reazione come all' output, allora abbiamo appena eseguito una COPY. Osserviamo che in questo processo A in­ fluisce sulla produzione di B, ma non viene consumato durante la rea­ zione: è quello che in chimica si chiama un catalizzatore. L'operazione NOT si realizza in modo simile. Se A invece di favori-

VIII .

Complessità semplificata

1 85

re la sintesi di B la inibisce, allora troviamo che il bit associato a B do­ po la reazione è sempre l'opposto di quello associato ad A, ovvero è la sua negazione logica, cioè una NOT . Vediamo infine AND. Supponiamo che esista una sostanza C che si produce se e solo se A e B sono presenti nella soluzione in alte con­ centrazioni. Quindi una reazione che inizia con C in O finisce con C in l se e solo se A e B sono in 1 1 . Dopo la reazione, C rappresenta l' AND di A e B. Dunque le reazioni chimiche realizzano senza particolari difficoltà le operazioni elementari AND , NOT e COPY . Dosando opportunamente i reagenti e introducendone di nuovi nella soluzione riusciamo a rap­ presentare tutti i circuiti logici che vogliamo. La chimica è una mac­ china universale. Se mettiamo in una pozza scavata nella roccia una serie di sostanze e le facciamo reagire, può succedere che grazie ai catalizzatori inizial­ mente presenti se ne formino altri, che a loro volta favoriscono certe reazioni e producono nuovi catalizzatori, e così via. Un simile proces­ so è detto autocatalitico. I sistemi autocatalitici sono molto potenti, non solo in qualità di calcolatori ma soprattutto di fabbriche chimiche in miniatura, che producono in modo mirato una grande quantità di so­ stanze. Alcune di queste sono i costituenti fondamentali della vita. Allora la vita ha avuto origine in un sistema autocatalitico? Forse sì. Non lo sapremo con certezza fino a quando non avremo individuato il programma preciso che per primo ha iniziato a produrre in output cellule e geni. Il fatto che una reazione chimica sia una macchina uni­ versale ci dice che un programma del genere deve esistere per forza, ma non che sia semplice da eseguire o facile da trovare. 8. Ritorno ai molti mondi. Nel suo libro del 1 997 , La trama della realtà, il fisico inglese David Deutsch fa un'appassionata difesa dell'interpretazione a molti mondi, usando prove basate sulla computazione quantistica. Prima di chiude­ re, vediamo in che modo questi «altri mondi» à la Borges e Deutsch possano mai esistere.

1 86

II. I dettagli

L'universo che ci circonda corrisponde a una sola tra molte storie decoerenti; ciò che vediamo dalla finestra è solo uno stato fra tutti quel­ li che compongono la sovrapposizione che costituisce lo stato quanti­ stico dell'intero universo. Gli altri sono i «molti mondi», quelli in cui il lancio dei dadi quantistici ha dato esiti diversi. L'insieme di tutti i mondi possibili costituisce il multiverso. Lascio al lettore decidere se questi altri mondi esistano allo stesso modo in cui esiste quello in cui ci troviamo. Comunque stiano le cose, finché gli altri mondi sono de­ coerenti non hanno nessuna possibilità di interagire con il nostro. Osserviamo che la nostra storia è ricca di complessità effettiva. Co­ me le altre, è uno dei possibili risultati di una serie di lanci del dado quantistico (circa 1092, per essere precisi) . Ciò nonostante, lo stato quan­ tistico complessivo dell'universo rimane semplice: è iniziato in modo elementare e si evolve seguendo un piccolo insieme di leggi. Come è possibile? Perché la nostra storia particolare, una delle mol­ te, ha complessità effettiva maggiore di quella totale? Non c'è nessun paradosso in questa affermazione. Pensiamo a quest'altro esempio: l'insieme di tutti i numeri lunghi un miliardo di bit è semplice da ca­ ratterizzare, ma tutti o quasi i suoi elementi, presi singolarmente, so­ no complessi da ricavare e si devono descrivere usando tutto il mi­ liardo di bit. Lo stesso vale per il multiverso. Ogni componente della sovrapposizione può richiedere fino a 1092 bit, mentre per la sovrap­ posizione stessa ne bastano immensamente meno. Nel modello com­ putazionale dell'universo lo stato generale è presto descritto: l'uni­ verso sta eseguendo in parallelo tutti i calcoli possibili. Per isolarne uno, però, bisogna tirare fuori molti bit, quelli che corrispondono al programma che sta facendo il calcolo desiderato. Mentre il multiverso continua a girare, ogni possibile calcolo vie­ ne rappresentato in parallelo sul suo stato complessivo. La probabi­ lità che un calcolo si effettui è uguale a quella della generazione ca­ suale (tramite le nostre scimmie) del suo programma corrispondente. Per la tesi di Church-Turing, ogni possibile struttura matematica è rap­ presentata da qualche parte nella sovrapposizione. Una di queste strut­ ture è visibile, incarnata nelle leggi fisiche, chimiche e biologiche che ci permettono di osservare il mondo esattamente così com'è. In un'al­ tra componente della sovrapposizione c'è qualcosa di diverso. In una,

vm .

Complessità semplificata

1 87

magari, tutto l'universo è assolutamente identico a questo, tranne il fatto che io ho gli occhi castani e non azzurri. È anche possibile che in altre componenti qualche caratteristica del Modello Standard, come per esempio la massa dei quark, sia diversa. C'è anche un'altra possibilità. Le osservazioni astrofisiche attual­ mente a nostra disposizione sembrano mostrare che l'universo, oltre l'orizzonte cosmico, è infinito. Se così è, allora da qualche parte, in qualche istante, può apparire ogni tipo possibile di struttura. Se una particolare struttura si manifesta sulla nostra componente della so­ vrapposizione, in futuro rientrerà nel nostro orizzonte e potrà avere qualche effetto su di noi. Da qualche parte nell'universo profondo ci sono delle copie esatte di tutti noi; da qualche altra parte ci sono co­ pie con qualche difetto (come gli occhi castani e non azzurri) . In un istante del futuro, l'informazione su queste copie entrerà nel nostro orizzonte. Ma nel frattempo le stelle si saranno spente da un pezzo. Come avrebbe detto Boltzmann, se volete comunicare con questi al­ tri mondi, non sprecate il fiato. Potreste avere più fortuna, invece, nel tentativo di comunicare con altre forme di vita su altri pianeti. Sappiamo che le leggi fisiche per­ mettono l'esistenza di fenomeni come la computazione (perché abbia­ mo costruito i computer) e la vita (perché siamo vivi). Ma non sappia­ mo se e con quale probabilità la vita si sia potuta originare in modo spontaneo su altri pianeti, o se vi sia potuta arrivare trasportata chissà come. La possibilità di entrare in contatto con forme di vita aliene di­ pende in modo fondamentale dalla risposta a queste domande. Maga­ ri un giorno riusciremo a calcolare le probabilità; fino ad allora, se vo­ lete investire nella ricerca di alieni dovete sentirvi molto fortunati.

9. Ilfuturo. Per quanto tempo l'universo può continuare a calcolare? Secondo i dati più recenti, sembra che la sua espansione continuerà all'infini­ to. n numero di bit e di operazioni elementari all'interno dell'orizzonte cosmico, dunque, crescerà. Anche l'entropia aumenterà, ma con un tasso minore di quello teoricamente possibile, visto che al crescere del-

1 88

I I . I dettagli

le sue dimensioni l'universo farà sempre più fatica a raggiungere l'e­ quilibrio termico. In definitiva, l'energia libera utilizzabile al di qua dell'orizzonte cosmico aumenterà. Sembra una buona notizia. Però c'è un problema: la quantità tota­ le di energia libera diventa, sì, più grande, ma diminuisce la sua den­ sità. Nello spazio ci sono tante preziose calorie, ma diventa ogni gior­ no più difficile andarle a prendere. Tra qualche migliaia di miliardi di anni tutte le stelle avranno esaurito il loro combustibile nucleare. A quel punto i nostri eredi, ammesso che la specie umana ci sia ancora, potrebbero salvarsi raccogliendo la materia e convertendola in ener­ gia, seguendo una strategia analizzata in dettaglio da Steven Frautschi del Caltech3• Il massimo teorico è dato al solito da E = mè, ma biso­ gna tenere conto delle inevitabili dispersioni durante la conversione. Raccogliendo pezzi di materia in zone sempre più remote del co­ smo, i nostri discendenti saranno in grado di ricavare energia, pur con qualche perdita. Non tutti sono d'accordo sulla possibilità di conti­ nuare a lungo per questa strada: secondo alcuni modelli cosmologici è possibile estrarre energia dalla materia all'infinito, secondo altri no4• Una strategia più parsimoniosa sulla strada della vita eterna è quel­ la proposta da Freeman Dyson', secondo il quale possiamo farci ba­ stare una quantità di energia finita. Dopo tutto, il numero totale di operazioni elementari che si possono eseguire è proporzionale alla quantità di energia moltiplicata per il tempo in cui questa è disponi­ bile. Se il tempo non finisce mai, basta avere dell'energia finita per con­ tinuare a fare calcoli per l'eternità. Purtroppo però, ogni operazione elementare comporta uno spreco di energia, dato dagli inevitabili er1 S. Frautschi, Entropy in an Expanding Universe, in , CCXVII ( 1 982 ) , n. 4560 ( 1 3 agosto) , pp. 593 -99. ' Il punto di vista meno allegro è rappresentato ad esempio da L. M. Krauss e G. D. Starkman, The Fate o/ Li/e in the Universe, in I 5 2 , I55"5 7 · Ennio, Quinto, 5 4 · Everett, Hugh, 9 2 . Fami, Amir, I 3 0 . Feynman, Richard, 8 , 50, I 34, I 3 5 · Fitzgerald, Robert, 6 2 . Foster, E . M . , 7 8 . Frautschi, Steven, I 88 e n. Freese, Katherine, I 8 8 n. Friedkin, Edward, 49, 8 7 , 88, 1 40 . Galileo Galilei, I o , 6 7 . Gell-Mann, Murray, 6, I 1 2 , 1 q , I 7 I , 1 75 , I 94 · Gershenfeld, Nei!, I 30. Gibbs, Josiah Willars, 5 2 , 6I, 63 , 69, 70. Glashow, Sheldon, 62. Godei, Kurt, 33, 34· Goebbels, Joseph, u 2 . Gotti, John, 1 70 . Griffiths, Robert, I I 2 . Grover, Lov, I 2 7 , 1 2 8 . Guglielmo d i Occam, I 64, I65. Hartle, James, I I 2 , I I4. Havel, Tim, I 3 0 . Hawking, Stephen, I I I . Heisenberg, Werner, I O I , I 0 2 , I 29 . Hobbes, Thomas, I 5 I e n, I 5 2 . Hood, Christina, I 29 . Horgan, John, I 7 2 . Huxley, Thomas, 5 3 ·

206

Indice dei nomi

Izanagi, 3 7. Izanarni, 3 7. Jeans, sir James, 5 3 · Kimble, Jeff, 10, 1 28-3 r . Kinney, William H . , I 8 8 n. Kirchner, Leon, 62. Kodama, Maria, 9 I . Kolmogorov, Andreij Nicolaevic, I 6 2 . Krauss, Lawrence M . , I 88 n . Landauer, Rolf, 7 I , 8 6 , I 40, I 9 3 · Lao Tzu, I 36, I 3 7 · Laplace, Pierre-Simon de, 88, 89 n, I 3 7 , I 9 2 . Leff, Harvey S . , 86. Leibnitz, Gottfield Wilhelm, 65 . Levitin, Lev, I 4 I e n, I 4 3 , I44, 148, I 50 . Lloyd, Emma, 95 · Lloyd, Seth, 86 n, I 3 4 n, I 4 I n, I 7o, I 7 I n. Loyd, Zoe, 95 · Loschmidt, Joseph, 77, 8 I -83, I o5 , I 2 r . Lucentini, Franco, 9 I n. Lukens, James, I 3 2 . Mabuchi, Hideo, I 2 9 . Maloney, Russe!, 5 3 · Margolus, Norman, I 40 , I 4 I e n, 1 42-44, I 48 , I50. Maxwell, James Clerk, 52, 6I, 63 , 67, 68, 70, 75 > 78, 84-86, 93, I 9 3 · Monroe, Chris, I 29 . Mooij, Hans, I O , I 3 I , I 3 2 · Moore, Gordon, 9, I 44-46. Nakamura, Yasunobu, I 3 2 . Napier, John (Nepero), 2 8 . Neumann, John von, 65 . Newton, Sir lsaac, 65 , 67, 9 3 · Nyquist, Harry, 65 . Oe, Kenzaburo, I 96 . Olds, David, I 96. Olds, Sharon, I 96 . Omero, 6 2 . Omnès, Roland, I I 2 . Orlando, Terry, I 3 2 . Oven, Wilfred, 78. Pacchi, Arrigo, I 5 I n. Pagels, Elaine, 1 70, I95, I96.

Pagels, Heinz, 6, I 69-7 I , I 7 3 , I 93 , I 95-97· Penfield, Paul, I I . Pesenti Cambursano, Orietta, 8 8 n. Pitagora, 93 · Planck, Max, 69, 7 0, 94, I 4 3 , I 48, I 74 , I 78 . Podolsky, Boris, 1 08 . Purusha, 3 7 . Ramsey, Norman, 2 3 , 6 3 , 6 4 e n, 65 . Rex, Andrew F . , 86. Rosen, Nathan, 1 08 . Schrodinger, Erwin, I I I , I I 3 . Shahriar, Selim, I 3 r . Shakespeare, William, 54, 5 7 · Shannon, Claude, 65 . Shapiro, Jeffrey, I 3 r . Shor, Peter, I 2 7 , I 3 5 · Smolin, Lee, I 5 2 , I 5 7 · Solomonoff, Ray, I 6 2 , I 64, I65, I 7 3 · Starkman, Glenn D . , I 88 n . Suh, Nam, I 76 . Tinkham, Michael, 62, 63 , 65 . Toffoli, Tommaso, 87, 88, I 4o, I 4 I . Tolomeo, 28 n. Tsai, Jaio-Shen, I 3 2 . Turchette, Quentin, I 29. Turing, Alan, 34, 48, 49, I 3 8 , I 86. Virgilio, Publio Marone, 62. Wal, Caspar van der, I 3 2 . Watt, James, 66, 67 Wheeler, John, 92, I 5 7 · Wiener, Norbert, 65 . Wiesner, Stephen, I 3 4 · Wilberforce, Samuel, 53 · Wineland, Dave, I o , I 29, I 3 0 . Wittgenstein, Ludwig, 25, 26. Wolfram, Stephen, 49, I 4o. Wong, Franco N . C., I J I . Yamamoto, Tsuyoshi, I J 2 . Zalka, Christof, I 3 4 · Zeilinger, Anton, 97. Zoller, Peter, I 2 9, I 3 I . Zurek, Wojciech, I 96 . Zuse, Konrad, 29, 4 9 , 1 40.

Stampato per conto della Casa editrice Einaudi presso MondtJdori Printing S .p A ., Stabilimento N . S . M . , Cles (Trento) nel mese di settembre 2006

C.L. I 8 1 9 1 Anno

Ristampa o

3

4

'

6

200 6

2007

2008

2009

Seth Lloyd insegna ingegneria meccanica al Mit di Boston , dove è Direttore di pro­ getto per il Research Laboratory of Elec­ tronics. Lloyd è inoltre professore al Santa Fe Institute e uno dei p iii noti scienziati im­ pegnati nella costruzione del computer quantistico . Il suo campo di ricerche ri­ guarda l'informazione dei sistemi com­ plessi, dagli atomi alle società umane. Il programiTUl dell 'universo è il suo primo li­ bro divulgativo.

Q uesto

libro racconta la storia del bit e dell 'universo. Da quando

l'universo ha avuto origine, ha cominciato a calcolare. All'inizio il nostro computer-universo produceva strutture semplici , ma col pas­ sare del tempo e con l ' aumentare dell'informazione ha sviluppato strutture sempre p iii intricate : galassie, stelle, pianeti , la vita, la co­ scienza . Il tutto è avvenuto in modo spontaneo, seguendo leggi fi­ siche elementari . Ogni cosa , dunque, deve la propria esistenza al­ la proprietà intrinseca della materia e dell 'energia di registrare ed elaborare informazione. L' abilità di calcolo dell 'universo spiega uno dei grandi misteri del­ la natura , ovvero come sia possibile che sistemi complessi come gli esseri viventi si siano formati a partire da leggi fisiche fondamen­ talmente semplici .

Q uando

riusciremo a decifrarle fino in fondo

potremo comprendere ogni cosa e saremo in grado di predire il fu­ turo . Ma solo in termini di probabilità , a grandi linee, essendo i dettagli intrinsecamente imprevedibili e calcolabili solo da un com­ puter grande quanto l'universo stesso . In questo libro sorprendente e rapido, Seth Lloyd ci accompagna in un vortice di storie, informazioni e calcoli, particelle subatomi­ che, galassie e computer, portandoci a sfiorare la comprensione del­ la realtà intima del mondo, che sembra costituita da bit, da quan­ ti e da un programma quantistico che computa se stesso .

Seth Lloyd insegna ingegneria meccanica al Mi t di Boston. Il programma del­ l 'universo è il suo primo libro divulgativo.

ISBN 88-06- 1 8 1 9 1 -2

€ 18,50

l 111 l

9 788806 1 8 1 9 1 8