La vita nell'epoca della sua riproducibilità tecnica

412 19 34MB

Italian Pages 261 [131] Year 2004

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

La vita nell'epoca della sua riproducibilità tecnica

Citation preview

Massimo De Carolis

La vita nell'epoca della sua riproduci6ilità • tecnica

Indice

Prima edizione maggio 2004

© 2004 Bollati Boringhieri editore s.r.l., Torino, corso Vittorio Emanuele Il, 86 Jdiritti di memorizzazione elettronica, di riproduzione e di adattamento totale o parziale con qualsiasi mezzo (compresi i microfilm e le copie fotosuttk.hc) sono riservati Stampato in lralia dalla Litoprcs di Druento {To) ISBN 88·))9·•543-3 Schema grafico della copertina di Pietro PaUadino e Giulio Palmieri Scampato su carta Palatina delle Cartiere Miliaru Fabriano

Introduzione

7

Ringraziamenti

15

La vita nell'epoca della sua riproducibilità tecnica 19

1.

La tecnica come problema filosofico I. Le tecnoscienze umane, 19 2. Natuxa umana e condizione umana, 23 3. Perché la tecnica?, 26 4. Due obiezioni di principio, 33 5. I processi di tecnicizzazione e il senso della prassi, 38 6. Decidere, eseguire, 45 7. Tecnica e natuxa umana, 5 1 8. Perfezionamento e ottimizzazione, 58

67

2.

Per un naturalismo non riduttivo I. Riduzionismo, riduttivismo, 67 2. Scienze della natuxa e scienze dello spirito, 75 3. Performatività·, virtualità, autoreferenza, 8x 4. Riformulare i problemi, 89

92

3. L'autoreferenza come problema cruciale dell'ingegneria

cognitiva Le tappe del problema, 92 2 . Una esposizione semplificata del teorema di Godei, 97 3. Decisione, eccezione, emergenza, 101 4. Dentro e fuori la cornice, II 2 5. L'eme.rgenza del livello simbolico, 124 6. Qualche conclusione parziale, 131 I.

134

4. Senso e sensibilità 1. La questione dello psicologismo, 134 2. Segnale ed espressione, 140 3. Linguaggio, prassi e istinto, 145 4. Che cos'è un gioco linguistico?, x50 5. Il solipsismo primario, 153 6. Livello primario e secondario, 156 7. Giochi linguistici e forme di vita, 160

6

r67

INDICE

5. Ascesa e declino del determinismo biologico

Introduzione

Una definizione approssimativa dell'ingegneria biologica, 167 2. La medicina performativa, 174 3. Ottimizzazione e selezione naturale, 179 4. Realtà e potenzialità, 182 5. Organismo, ambiente, mondo, 191 6. La crisi del modello determinista, 198 7. Natura e cultura, 207 1.

209

6. Tecnicizzazione della vita e condizione umana 1. L'epoca della tecnica?, 209 2. Tecnica e produzione, 214 3. La rivincita del sofista, 222 4. Ontologia del presente, 233 5. Ingovernabilità e solitudine, 238 6. Tecnica e politica, 245

251

Bibfiografia In un lavoro di ricerca succede, a volte, di trovarsi di fronte a problemi la cui formulazione è relativamente chiara e semplice ma che, una volta messi a fuoco, rivelano una complessità quasi labirintica e costringono l'i!fdagine a inoltrarsi in territori lontanissimi dal punto di partenza. E quanto è accaduto anche a questa ricerca sulle forme contemporanee della tecnica, che ha dovuto spingersi in campi disciplinari in apparenza del tutto eterogenei - dalla logica matematica alla biologia, fino alla teoria sociale - pur avendo di mira, dall'inizio alla fine, una domanda relativamente semplice, ovvero: qual è, nel profondo, l'incidenza dell'evoluzione tecnica sulle forme di vita contemporanee? Nella stesura del libro, ho cercato di far emergere a ogni passaggio la catena di nessi logici che unisce i diversi temi e che ne fa le stazioni obbligate di un unico ragionamento. Non è escluso però che, almeno a un primo sguardo, il filo logico di questo ragionamento risulti ancora poco chiaro. Può essere utile, perciò, tracciarne fin d'ora, sommariamente, lo schema generale. Formalmente, questa ricerca appartiene a una disciplina filosofica che, al momento, non ha una denominazione ufficiale e che può forse essere designata con l'espressione «ontologia del presente», coniata da Foucault in uno dei suoi ultimi scritti. Il sottinteso di questa denominazione è che anche le classiche domande filosofiche sulla condizione umana siano ormai divenute inscindibili dal particolare contesto storico della contemporaneità e dalle trasformazioni che lo hanno generato. L'interrogativo basilare diviene cos}, nella sintetica formulazione di Foucault: «Che cosa sta succedendo

8

INTRODUZIONE:

adesso?» A questa domanda, come si è detto, la ricerca sceglie di rispondere mettendo in primo piano i fenomeni connessi all'evoluzione della tecnica, e in tal modo si riallaccia a una tradizione consolidata della filosofia europea del Novecento. A prima vista può sembrare che a questa scelta non occorra_altra giustificazione che il senso comune. In fondo, se un uomo d1 una qualche epoca passata potesse essere trasportato di colpo nel presente, è quasi certo che, di tutte le particolarità del nuovo mondo, l'eccezionale evoluzione della tecnica sarebbe quella destinata a impressionarlo e sorprenderlo di più. Eppure, l'apparente ovvietà di questo esperimento mentale è contraddetta,apertamente dalla storia delle idee di quest'ultimo mezzo secolo. E facile constatare, infatti, che la riflessione filosofica sulla tecnica ha dato i suoi maggiori frutti intorno alla metà del secolo. Nei decenni successivi, salvo poche eccezioni, ci si è limitati per lo più a ricalcare quei modelli ormai classici, a dispetto della velocità con cui, negli stessi anni, si trasformavano i paradigmi scientifici e le loro applic~zioni pratiche. Per contrasto, se dilatiamo il campo dell'«ontolog1a del presente», si direbbe che le teorie più innovative si siano concentrate, negli ultimi decenni, su aspetti della realtà di tutt'altra natura come la crisi delle grandi narrazioni o l'estensione planetaria dei sistemi sociali: fenomeni che presuppongono un alto grado di evoluzione tecnologica ma che, almeno a prima vista, non sembrano avere proprio nella tecnica la loro chiave di volta. In conclusione, la tesi di Heidegger che la nostra sia «l'epoca della tecnica» appare oggi decisamente meno solida che non mezzo secolo fa. Non è chiaro, intanto, se la tesi meriti ancora di essere riproposta, ed è certo che, in tal caso, occorrerà ridefinirne con attenzione il senso, i fondamenti e le eventuali implicazioni. A questa ridefinizione generale del problema della tecnica sono dedicati, nel libro, soprattutto il primo e l'ultimo capitolo, che nell'economia della ricerca hanno un preciso rapporto speculare: l'uno, cioè, ha il compito di formulare nel modo più appropriato gli interrogativi cui l'altro è chiamato a dare una risposta, natural_mente tenendo conto dei risultati emersi nell'intero percorso della ricerca. Nel loro insieme, questi risultati avvalorano tutti l'idea che i processi di tecnicizzazione, che hanno scandito l'intera parabola della modernità, dal dopoguerra in poi esibiscano una profonda trasfor-

INTROl)UZIONE:

9

mazione evolutiva. Riassunto in poche parole, il senso di questa trasformazione è che la tecnica non si concentra più sulle sole attività produttive e sui loro risultati, ma inve_s te ora esplicita~en~e le forme di vita in se stesse; di conseguenza, il suo oggetto pnmano non sono più tanto le concrete prestazioni di cui l'uomo è ~apa~e, quanto le facoltà, in se stesse, che presiedono a queste r:alizzaz1~ni, a cominciare dalle facoltà del linguaggio e della prassi che definiscono, fin da Aristotele, l'umanità dell'uomo. Non è facile cogliere tutte le implicazioni di questo salto evolutivo. Va premesso però che, per ragioni che il libro analizza in dettaglio, le teorie filosofiche più note sulla tecnic~, mat~ate _tutt_e prima di questa svolta, risultano strutturalmente msuff1c1ent1 a ricostruirne la dinamica: di qui, presumibilmente, la loro crescente difficoltà a incidere sulla discussione in corso. Già solo per recuperarne, quindi, le intuizioni più preziose, è necessario rivederne in modo anche radicale le articolazioni e l'apparato concettuale: la scelta metodologica, nel libro, è di operare questa revisione ~n diretto confronto con le espressioni più avanzate delle tecnosc1enze contemporanee. Rispetto all'impostazione tradizionale, si tra~ta di un m~tamento di prospettiva di non poco conto, e per capul~ b~sta rievocare il tono lapidario con c,ui Heidegger, a suo_ t:mpo, _d1chiar~va che ~· mulare neanche la domanda».1' Quello che c'interessa, nell'indagine che segue, è capire in che misura le nuove discipline aiutino a riformulare i problemi, in modo che anche una risposta appaia possibile. Solo a quel punto, quando la costituzione del senso avrà cessato di apparirci un a priori enigmatico e insondabile, potremo finalmente chiederci in che modo le forme pratiche della tecnicizzazione possano incidere su questo presunto a priori e, con esso, sulla condizione umana.

u Wittgcnstein 1 9 i1, 6.5.

L'AUTOREFERENZA COME PROBLEMA CRUCIALE DELL'INGEGNERIA COGNITIVA

3. L'autoreferenza come problema cruciale dell'ingegneria cognitiva

1.

Le tappe del problema

Delle tante articolazioni del cognitivismo, quella che corrisponde nel modo più chiaro alla definizione di «ingegneria cognitiva» è senz'altro la ricerca sulle macchine intelligenti, che del resto è stata a volte anche indicata, non senza un vago intento denigratorio, come «ingegneria del software». II nome però sicuramente più popolare di questo campo di ricerca è «intelligenza artificiale» (d'ora in poi IA), anche se per la verità nella letteratura specialistica tale designazione non sempre è usata in modo univoco e con la stessa estensione. Fin dagli anni sessanta, infatti, nella ricerca sui calcolatori hanno convissuto due paradigmi opposti, destinati a scontrarsi ripetutamente e con alterne fortune: da un lato i fautori di un modello «dal basso» - più vicini alla cibernetica e alle neuroscienze - volti a modellare un sistema fisico abbastanza simile al cervello da poter realizzare prestazioni cognitive dapprima elementari e poi via via più complesse; dall'altro quanti invece, procedendo «dall'alto» - e cioè dalle più sofisticate manipolazioni di simboli formalizzate dalla linguistica e dalla logica-, trasformano questi sistemi formali in programmi per calcolatori convenzionali. Abitualmente, l'espressione «intelligenza artificiale» è riferita solo al secondo di questi due indirizzi - che fino a una decina di anni fa era di gran lunga quello prevalente - mentre l'altro filone di ricerca, basato sul modello delle reti neurali, è indicato per lo più come connessionismo. In alcuni contesti però - specie da quando il connessionismo ha ritrovato forza, fino ad acquisire un relativo pri-

93

mato nella ricerca più avanzata - si è coperto con il termine IA l'intero ambito della ricerca, definito comunque dal proposito di accrescere la nostra conoscenza del pensiero umano attraverso l'elaborazione tecnica di artefatti capaci di simulare o riprodurre il comportamento intelligente. Adottando il concetto d'ingegneria cognitiva ci ritroviamo implicitamente vicini a questo secondo criterio di classificazione, nel quale i due indirizzi figurano come articolazioni di un unico programma tecnoscientifico. L'intenzione però non è affatto quella di sminuire i contrasti. Cercheremo anzi di mettere a fuoco proprio la duplicità e le tensioni interne del progetto, fino a individuare un criterio efficace per distinguere un orientamento riduttivistico da uno che non lo è. Per quanto non coincida alla lettera con l'opposizione tra «cognitivisti» e «connessionisti», questa distinzione sarà comunque tanto più interessante e plausibile quanto più riuscirà a dar conto dei dilemmi che hanno scandito la storia della disciplina, spiegandone in modo coerente i motivi di fondo. Ciò è tanto più vero, se ribadiamo l'ipotesi di considerare, come vero discrimine della distinzione, i problemi connessi alla costituzione del senso, il che nel caso specifico dell'ingegneria cognitiva ci porterà a focalizzare l'attenzione soprattutto sul tema dell'autoreferenza. Le occasioni in cui questo tema ha incrociato, in modo esplicito o sotterraneo, il cammino dell'IA coincidono infatti regolarmente con momenti di contrasto e di tensione, che hanno dato luogo a discussioni spesso aspre e contorte, nelle quali non è sempre facile orientarsi. Chi pretenda di offrire una soluzione definitiva a queste dispute è destinato quasi certamente ad aggiungere solo una nuova voce alla polemica, rendendo ancora più complesso Io scenario. È bene perciò tener presente che, in questa sede, l'intera tematica c'interessa solo nei limiti in cui può illuminare una riflessione filosofica sulle forme contemporanee di tecnicizzazione della vita; e vedremo che si tratta di un aspetto in fondo relativamente tangenziale rispetto ai dibattiti interni alla disciplina. Dal momento però che occorrerà comunque attraversare questo paesaggio accidentato, vorrei innanzi tutto fornire una mappa riassuntiva del percorso che ci sforzeremo di seguire nei paragrafi seguenti. Va ricordato, per cominciare, che il nesso tra il programma dell'1A e il problema logico dell'autoreferenza sussiste fin dalle origini,

CAPITOLO TERZO

94

in forma persino eclatante. Il concetto di macchina di Turing (d'ora in poi MT), che definisce il prototipo ideale di una intelligenza meccanica, nasce infatti nel 1937 in esplicito riferimento alla questione delle proposizioni indecidibili sollevata dal teorema di Godei; ed è lo stesso Gode! a sottolineare in più occasioni l'analogia tra le formule indecidibili costruite con il suo metodo e il classico paradosso del mentitore. Il nocciolo di quest'analogia è appunto che una formula indecidibile ha una precisa struttura autoreferenziale, definibile nel senso che essa «asserisce la propria non-dimostrabilità» (Godei 1931, p. 9). Nella sua versione del 1937, basata appunto sulle macchine ideali che in seguito prenderanno il suo nome, Turing traduce questo risultato nella conclusione che «non può esistere alcuna macchina che, provvista di una formula U di questo tipo, 1 possa eventualmente dire se U è dimostrabile» (Turing 1937, p. 145). Tredici anni dopo, nel saggio che pone storicamente le basi della nuova disciplina, Turing si esprime in modo ancora più lapidario: a suo parere il teorema di Godei (filtrato attraverso le riformulazioni di Church e dello stesso Turing) «dice che ci sono alcune cose che una macchina non può fare» (Turing 1950, p. 136): il che, in linea teorica, permette all'uomo di riportare «un piccolo trionfo» (p. 137) su ogni possibile calcolatore proprio in quel «gioco dell'imitazione» che viene presentato come un test ideale per valutare la possibilità di macchine pensanti. Dati questi presupposti, non sorprende che il ragionamento del padre spirituale dell'IA sia stato ripreso allo scopo di soffocarne la prole nella culla. È quanto avviene per la prima volta in Lucas, la cui idea è che «il teorema di Godei dimostra che il meccanicismo è falso, cioè che le menti non possono essere equiparate a macchine» (Lucas 1961, p. 43), un'idea che avrà un seguito notevole e che riappare ancora in Penrose 1994, anche se in una forma più sottile: «La mente dev'essere proprio qualcosa che non può essere descritta in termini computazionali quali che siano» (p. 8). 2 1

La maiuscola U (a car,meri gotici nel tesco originale) è l'abbreviazione del tedesco Unentscheidbar: indecidibile. 2 L'argomentaiionc di Pentosc è intctamente costruita sul teorema di Godei e il debito nei confronti di Lucas è apertamente riconosciuto. L'elemento nuovo per noi più interessante è, come vedremo, l'esplicito riferimento di Pentosc al fenomeno della «comprensione». Viceversa, l'ipotesi fisica sulla natuta della coscienza avanzata nella seconda parte del libro è esuanca ai problemi che discutiamo in questa sede.

L'AUTOREFERENZA COME PROBLEMA CRUCIALE DELL'INGEGNERIA COGNl'nVA

Turing naturalmente non era affatto di questo avviso. Non solo non riteneva che il teorema sulle proposizioni indecidibili dimostrasse alcunché circa la differenza tra gli uomini e le macchine, ma era anche convinto che quanti fanno appello all' «obiezione matematica» basata sul teorema di Godei dovessero senz'altro «essere disposti, credo in maggioranza, ad accettare il gioco dell'imitazione come base della discussione» (Turing 1950, p. 137), il che, nella sua prospettiva, equivale grosso modo a riconoscere come plausibile l'ipotesi di una macchina capace di pensare; anzi, ci sono buoni motivi per supporre che proprio la delicata questione matematica dell'indecidibilità sia tra le cause che lo spinsero a elaborare il suo test e a sostituirlo alla generica domanda se «una macchina può pensare». Ovviamente, anche la posizione di Turing è stata in seguito ripresa, non da ultimo da Hofstadter nel suo brillante quanto ponderoso best-sellersu Godei, Escher, Bach (1979). In conclusione, si può dire che la medesima questione dell'autoreferenza sia stata considerata, a seconda dei punti di vista, come fondamento o come limite intrinseco del programma dell'IA. La disputa è tuttora lontana da una conclusione, ed è bene comunque precisare che essa verte non sul teorema di Gode! in se stesso (la cui validità e il cui significato matematico sono del tutto fuori discussione), ma sulle sue implicazioni al di fuori dell'ambito strettamente matematico. Il difetto maggiore di questa lunga discussione è che essa sembra essersi svolta regolarmente ai margini della disciplina, senza toccare in alcun modo le pratiche scientifiche effettive. Quali che siano, in altri termini, le effettive implicazioni del teorema di Godei, si direbbe che il lavoro concreto di elaborazione dei programmi ne sia rimasto perfettamente immune, persino nel campo specifico dei programmi finalizzati proprio alla dimostrazione di teoremi matematici. Sembra insomma che la questione dell'autoreferenza sia una specie di disputa sui massimi sistemi, buona ad attrarre l'interesse del pubblico, ma priva di ogni nesso con i problemi che emergono dalla pratica scientifica effettiva e che decretano il successo dell'una o l'altra strategia di ricerca: un'idea espressa a chiare lettere in Hutton 1976, fin dal titolo: This Gode! is killing me! Non credo che questa visione delle cose sia giusta, anche se è vero che la discussione cui ho accennato si è realmente concentrata, finora, su questioni logiche che a volte ricordano gli pseudopro-

CAPITOLO TERZO

blemi della metafisica scolastica. Per aggirare l'ostacolo, ritengo che la via giusta sia quella di riformulare la questione speculativa che è alla base della discussione in termini più duttili e più aderenti alla sfera della prassi. In concreto, mi sforzerò di mostrare che il nocciolo del problema corrisponde alla differenza tra «comprendere una regola» e «applicare una regola»: una formulazione, come si vede, molto vicina alle meditazioni di Wittgenstein nelle Ricerche filosofiche {1947), ma che per certi aspetti è anche affine alla distinzione tra competenza ed esecuzione su cui ha spesso insistito Chomsky. Tutti i problemi connessi al concetto di «regola» hanno un corrispettivo nel campo dell'elaborazione di programmi, dal momento che un programma sembra descrivibile, almeno superficialmente, come un sistema coerente di regole operative. Arriveremo cosl a ipotizzare ch e la circolarità dell'autoreferenza sia la chiave del problema che più di ogni altro ha afflitto i tentativi finora svolti di avvicinare l'IA all'effettiva complessità del mondo reale. All'interno della disciplina il problema ha varie declinazioni e diciture, che alludono sotto diverse angolature allo stesso nodo teoretico. Le formulazioni più note sono esplosione combinatoria, common-sense knowledge problem o frame problem. Per ragioni che in seguito appariranno chiare privilegerò quest'ultimo termine, coniato da Mc Carthy e Hayes 1969, e che già Dennett 1990 proponeva di considerare, in un significato esteso, come il problema cruciale dell'IA. In questa rilettura, l'autoreferenza ci consentirà di definire con una certa precisione la soglia del riduttivismo all'interno dell'rA e di tracciare i contorni di due orientamenti di ricerca sostanzialmente distinti, uno di tipo riduttivistico e l'altro no. Anche se questa può sembrare un'affermazione drastica, credo si possa dimostrare che il programma riduttivistico non ha semplicemente niente da dire sull'uomo, sul pensiero e sull'intelligenza umana. La sua strategia consiste infatti esattamente nel riscrivere le condizioni di una prestazione tipicamente umana, in modo che essa possa essere svolta in forma ottimale anche senza che i tratti basilari del pensiero entrino in campo. È importante riconoscere che, in linea di principio, tale simulazione possa sempre avere luogo; tuttavia, nel momento preciso in cui ciò accade, quella specifica prestazione

L'AUTOREFERENZA COME PROBLEMA CRUCIALE DELL'INGEGNERIA COGNITIVA

97

perde ogni esemplarità per una indagine sulla condizione umana e quindi ogni effettivo interesse filosofico. Inoltre, le operazioni basilari di detta riduzione non sono di tipo conoscitivo ma pratico, e consistono nella delimitazione di uno spazio artificiale tutelato da ogni eccezione o emergenza. Vedremo che proprio questo tratto (che da un punto di vista filosofico è la sua maggiore carenza) rende tale programma perfettamente idoneo al modello di ottimizzazione della prassi perseguito dal sistema sociale. Il che spiega, molto più dei suoi reali successi, la sua posizione finora dominante rispetto ai programmi di tipo non riduttivistico. Di questi ultimi, infine, non diremo molto, se non che sono logicamente plausibili e che la loro maggiore difficoltà sul piano tecnico coincide con il loro maggior merito sul piano teoretico: quello di non poter prescindere dallo statuto di vivente dell'uomo.

2.

Una esposizìone semplificata del teorema di Gode!

Lo schema appena indicato c'impone di fornire innanzi tutto una esposizione sommaria del ragionamento di Godei e del suo nesso con la macchina di Turing (nonché, indirettamente, con il programma dell'IA). Ricordiamo comunque che il senso e la validità del teorema non sono in discussione. Questo ci autorizza, almeno entro certi limiti, a semplificarne all'estremo l'esposizione, forti del fatto che il risultato del ragionamento è comunque universalmente condiviso. L'essenziale perciò non è di offrirne una formulazione rigorosa, ma una da cui traspaiano con chiarezza la sua logica e il ruolo che in essa riveste la circolarità autoreferenziale. In primo luogo, ricordiamo che il teorema di Godei dimostra la necessaria incompletezza di qualsiasi sistema formale sufficientemente esteso e coerente, vale a dire di qualsiasi sistema logico che disponga di un insieme effettivamente dato di assiomi, nonché di regole per ottenere via via altri teoremi come conseguenza logica di quegli assiomi di partenza. In altri termini, è un sistema formale ogni complesso coerente di ir.ferenze logiche, fino alle più maestose costruzioni della logica matematica, come il sistema elaborato da Russell e Whitehead nei Princìpi della matematica, che Godei assume come paradigma nella sua prima esposizione del teorema.

L'AUTOREFERENZA COME PROBLEMA CRUCIALE DELL'INGEGNERIA COGNITIVA

CAPITOLO TERZO

L'essenziale, in qualsiasi sistema formale, è che un teorema, per valere come tale, non dev'essere «vero» in un senso generico: occorre che se ne possa fornire una dimostrazione, che attraverso una catena di passaggi logici deduca il teorema in questione da altri teoremi già dimostrati e quindi, in ultima analisi, dagli assiomi basilari. In pratica quindi una dimostrazione - o una prova matematica può essere descritta come una sequenza di formule di cui ciascuna è la conseguenza immediata delle precedenti, e ciascuna è o un assioma o una conseguenza immediata di assiomi. In questa descrizione non è perfettamente chiaro che cosa significhi «conseguenza immediata», e questo è un punto importante. Intuitivamente, intendiamo dire che il passaggio in questione è evidente, indubitabile, intrinsecamente semplice: che insomma chiunque sia in grado anche solo di sommare 2 + 2, avendo tempo e memoria a sufficienza, sarebbe in grado di confermare quel passaggio. Vedremo tra poco che il concetto di MT dà esattamente corpo a questa intuizione. Una MT è cioè una macchina capace solo di eseguire calcoli semplici come 1 + 1, ma dotata per definizione di una memoria infinita, e perciò in grado, almeno virtualmente, di eseguire tutti i calcoli scomponibili in una catena di operazioni semplici di questo tipo, comunemente indicati come computi o algoritmi. Per ora però lasciamo da parte la MT e torniamo a riflettere sul concetto di prova matematica. Per quanto sia semplice - anzi, come abbiamo appena visto, persino meccanico - verificare tutti i singoli passaggi di una prova una volta che la prova ci sia, è molto meno semplice, data una certa formula, trovare una sua possibile dimostrazione, ed è in questo che consiste gran parte del lavoro matematico creativo. Le procedure per «provare» una data formula possono essere infatti innumerevoli, e sottostanno a un'unica condizione: quella di essere a loro volta dimostrabili. Supponiamo per esempio di voler dimostrare che la somma .31 + .385 + 79.3 + 1427 = 26.35 sia falsa. Anziché verificare il calcolo nel modo consueto, posso limitarmi a osservare che la somma di un numero pari di numeri dispari (in questo caso: quattro numeri dispari) non può semplicemente avere un risultato dispari. Il ragionamento è corretto, ma è chiaro che potrà•valere come prova solo se se ne può dimostrare la validità, se cioè si può

99

dimostrare la formula corrispondente a «la somma di un numero pari di numeri dispari è un numero pari», e quest'obbligo vale implicitamente per qualsiasi procedura di prova, per quanto fantasiosa o complessa possa essere. Ovviamente non tutte le formule matematiche sono dimostrabili, non foss'altro che per il banale motivo che, se una formula lo è, la coerenza del sistema esigerà che non lo sia il suo contrario. Se dimostro che il risultato di un calcolo sarà un numero primo, non si potrà ovviamente dimostrare che non è un numero primo, e cosl via per ogni coppia di formule opposte F e -F. Se qualcosa è vero, il suo contrario è falso, e se posso provare che qualcosa è vero, ho anche la certezza che nessuno potrà mai provare il suo contrario. Questo vuol dire che ogni procedura di prova può anche essere letta

come dimostrazione della non-dimostrabilità della formula opposta (sembra una complicazione inutile, ma vedremo che ha invece un peso decisivo nel teorema). In conclusione, data una coppia di formule opposte, provare l'una o l'altra delle due equivale comunque a decidere la posizione di entrambe rispetto al sistema dei teoremi matematici, includendo l'una ed escludendo l'altra. Considerato ora che le procedure di prova, come si è visto, sono virtualmente innumerevoli, viene da supporre che, se disponessimo di una mente matematica capace di padroneggiarle tutte, saremmo in grado di decidere la posizione di ogni formula; saremmo in grado cioè di stabilire in ogni caso se è dimostrabile F o -F, proprio come supponiamo che una mente onnisciente debba poter dire di ogni eventuale asserzione se è vera o se è vero invece il suo contrario. Ora, il teorema di Godei smentisce appunto quest'aspettativa. Dimostra cioè che ci sono formule indecidibili, in relazione alle quali non è possibile trovare una prova né per F né per il suo contrario. Non solo, ma per di più insegna un metodo rigorosamente matematico per costruire una proposizione del genere partendo da qualsiasi sistema formale, vale a dire da qualsiasi possibile insieme di procedure di prova. Ripetiamo di nuovo, a questo punto, che ogni legittimo procedimento di prova dev'essere a sua volta dimostrabile, dev'essere cioè traducibile in un algoritmo, ovvero in una catena di operazioni talmente semplici da poter essere eseguite in maniera meccanica (e, ricordia-

l

100

CAPITOLO TERZO

molo, una MT è appunto una macchina che esegue queste e solo queste operazioni). Ciò vuol dire che, per quanto diversi, i vari procedimenti sono in un certo senso tutti equivalenti. Dati cioè due procedimenti formali A 1 e A2 , entrambi validi e quindi dimostrabili, sarà sempre possibile riunirli in un unico procedimento A che, come somma di entrambi, sarà a sua volta traducibile in un computo meccanico (per esempio, come alternanza o successione di A1 e A2). Supponiamo allora di raccogliere tutti i procedimenti validi di prova di cui siamo a conoscenza in un unico procedimento A, che varrà d'ora in poi come prototipo di un «sistema formale». Specifichiamo però che il procedimento in questione, se risulta applicabile a una data formula, dimostra che essa non è dimostrabile (il che, come si ricorderà, è un modo legittimo di descrivere qualsiasi procedimento di prova). In altri termini, data una formula F, il nostro procedimento, se è applicabile, sfocia in una formula A(F) che dichiara che «F non è dimostrabile». Ovvero: Se AcF> è dimostrabile, F non è dimostrabile

(1)

e l'effettiva applicazione di A è appunto la prova di A(F). Ora, una formula matematica contiene dei numeri, e in genere la dimostrabilità o meno di una formula dipende dai numeri che contiene. La formula 6 +a= 8, per esempio, è vera e dimostrabile solo per a= 2, e sarà falsa in tutti gli altri casi. Consideriamo allora un unico numero n. Avremo una quantità di formule dipendenti solo da n, e•intendiamo applicare A (che raccoglie tutti i procedimenti di cui disponiamo) per stabilire se ciascuna di esse è nondimostrabile. Elenchiamo tutte queste formule in questa semplice successione:

L'AUTOREFERENZA COME PROBLEMA CRUCIALE DEI.L'INGEGNERIA COCNmvA

I() I

includere).>Avremo che Se AtPn(nlJ è dimostrabile, Fn(n) non è dimostrabile Awn (Wittgenstein 1947, n. 244). . E bene osservare fin d'ora che Wittgenstein fa attenzione a non equiparare semplicemente i due livelli, a non ridurre cioè l'espressione al piano del segnale, come avverrebbe in una riproposizione pura e semplice dello psicologismo. «Naturalmente, la parola "mal di denti" non è solo un sostituto per il gemito» (Wittgenstein 1935, pp. 77-78): tra l'uno e l'altro piano ha luogo effettivamente un 2omplesso passaggio, che Wittgenstein indica per lo più con termini come «estensione» o «affinamento>>. Il linguaggio però resta comunque saldamente ancorato all'istinto, con il risultato che tra le forme di comportamento animale e le forme di vita dell'uomo sparisce la netta cesura ontologica, per lasciare il posto a un gioco com11

Sul particolare significato del termine «antropologia» in Wingcnstein d.r. in particolare Andronico 1998.

CAPITOLO QUARTO SENSO I, SENSIBILITÀ

plesso e per noi ancora oscuro di rimandi e fratture, indistinzioni e differenze: Io voglio qui considerare l'uomo come animale; come un essere primitivo cui si fa credito dell'istinto, ma non del ragionamento [... ). Di una logica che basti per un mezzo di comunicazione primitivo, non c'è motivo di vergognarci. Il linguaggio non è nato da un ragionamento (Wittgenstein 195 I, n. 4 75).

4. Che cos'è un gioco linguistico?

Stando ai passi di Wittgenstein appena citati, un gioco linguistico va concepito come un dispositivo che articola insieme il linguaggio e la prassi, in modo da tradurre i segnali in espressioni. Ho già sottolineato che questa visione non comporta una equiparazione tra i due piani: del resto, il senso del gioco è proprio quello di passare dall'uno all'altro, e tale passaggio comporta realmente un salto di qualità. Vedremo tra poco che, per Wittgenstein, l'aspetto evolutivo principale in questo salto è che in esso matura la possibilità di una distinzione tra mondo interno e mondo esterno che non poteva avere alcuno spazio al livello naturale del segnale; ed è questo, credo, il tratto di maggiore continuità con la visione di Frege. Tuttavia, la distinzione tra interno ed esterno non potrebbe aver luogo se non in base al presupposto di una loro unità di principio, che ora non è più riposta in un presunto «terzo regno» immateriale e senza tempo, ma nella complessa dialettica che unisce il gioco linguistico alla forma di vita che in esso si esprime. Sulla forma di questa dialettica, anticipo fin d'ora una tesi interpretativa generale, di cui esamineremo nelle prossime pagine le articolazioni concrete. La tesi è che, nel quadro tracciato da Wittgenstein nei suoi ultimi scritti, nessun gioco linguistico potrebbe mai istituirsi se non a partire da uno o più atti linguistici elementari - definiti - cui il gioco stesso tributa il valore tanto di segnale quanto di espressione. La vera frattura con l'impostazione di Frege sta proprio nel riconoscimento di questo spazio primario d'indistinzione tra istinto e linguaggio che, ripeto, risulta ora intrinseco a ogni prassi linguistica: l'idea della costituzione del senso ne verrà a tal punto modificata, che la stessa antinomia tra psicologismo e antipsicologismo finisce allora con il dissolversi come un falso problema.

Per cogliere il senso di questa frattura, occorre intanto ricordare che, per Wittgenstein, l'idea dei giochi linguistici fu l'approdo di un lungo e tormentato processo autocritico, che ha come punto di partenza la logica proposta nel Tractatus, ancora largamente fedele al modello fregeano, almeno nella sua impostazione basilare. Sarebbe una digressione eccessiva voler tentare gui di ricostruire, anche solo sommariamente, questo percorso. È il caso però di sottolineare che, in ogni sua tappa, un particolare rilievo è riservato ai fenomeni linguistici in cui il parlante parla di sé in prima persona e comunica sulle proprie rappresentazioni, emozioni e sentimenti; in genere, sui dati psicologici interiori, inseparabili dall' «io». 16 Questa insistenza, in effetti, non deve sorprenderci, visto che già nel quadro tracciato da Frege i riferimenti linguistici del singolo a se stesso occupavano un posto di rilievo, quello che marca il confine tra il linguaggio assertivo e la Dichtung. In Wittgenstein però è piuttosto l'unità di questa differenza a venire in primo piano, anzi potremmo dire: il modo in cui, proprio in questa terra di confine, le due regioni tendono a confondersi. Si osserva infatti che tutte le espressioni riferite a fenomeni psicologici (speranza, paura, dolore ecc.), alla prima persona singolare del presente, rivestono una doppia funzione comunicativa: da un lato quella di un'asserzione su un dato di fatto; dall'altra quella dell'esclamazione o, più esattamente, della manifestazione tipica del sentimento di cui segnalano, cosl, la presenza: «Non dovrei forse dire che ci sono due tipi di presente del verbo sperare? Uno è per cosl dire l'esclamazione, l'altro il resoconto» (Wittgenstein 1949, I, n. 460). Nelle Ricerche filosofiche, la lunga meditazione sulla impossibilità di un linguaggio privato espone nel modo più chiaro la necessità di quest'ambivalenza: un processo interno, come il dolore o la speranza, non sarebbe identificabile se non in coincidenza di qualche criterio esterno, pubblicamente riconosciuto come sua manifestazione esterna. È inevita16 Già nei Quaderni che precedono il Trac1atus si commenta che «l'io l'io è il mistero profondo» (Wittgenstein ,921 , 5.8.16), e nel Troclatus I.a questione deU'i~ è espressamente riproposta nel tema del solip1ismo, che tratterò più estesamente nel prossimo paragrafo. In seguito, Wittgenstein ebbe occasione di annotare che «io cerco di ridurre l'intero problema alla non> e di un «peggio», come la capacità di dare latte in _una mucca o quella, in un essere umano, di risolvere problemi matematici. Nelle loro manifestazioni effettive, anche queste capacità rispecchiano inevitabilmente un intreccio ogni volta diverso tra i requisiti di uno specifico organismo e quelli di un determinato ambiente. Il presupposto di una conoscenza scientifica in senso moderno - ovvero: universale e necessaria - sembra quindi anche in questo caso la piena separazione tra le determinanti organiche e quelle ambientali. Il che vuol dire, in concreto, che ciascuna capacità dell'organismo andrà ricondotta a una qualche sua proprietà reale, allora indicata in genere con il termine disposizione. Il vero nocciolo della discussione sul determinismo è dunque questa reificazione delle potenzialità, in cui rivivono, con lineamenti alterati, l'antico modello aristotelico e il progetto n L'acqua, per esempio, è dissetanre ovunque, ma è dalle condizioni ambientali che dipendono il fabbisogno giornaliero o i requisiti nlgioncvolmente necessari per ritenerla potabile o pura. Quanto au•oro. la sua adozione come parametro di scambio alle origini deU'economia monetaria ne ha trasformat.> del tutto il valore sociale, rendendo rdativan1ente secondarie le sue specifiche potenzialità di me rallo nobile e promuovendo, nel contempo, metodi sempre più accunlti per distinguere in modo nlpido e sicuro l'oro vero da quello eonrraffano.

ASCESA E DECLINO DEL DF.TERMJNISMO BIOLOGICO

scientifico moderno di rettifica dei nomi. C'è da aspettarsi perciò che anche qui gli interrogativi empirici s'intreccino a doppio filo con questioni puramente logiche. Prendiamo, a titolo di esempio, il caso largamente dibattuto dell'intelligenza.26 Come per ogni potenzialità abbiamo qui, quale punto di partenza, soltanto un insieme eterogeneo di casi concreti, uniti in un unico concetto da criteri vaghi e oscillanti, e comunque di tipo puramente fenomenologico, che riflettono allo stesso tempo · tanto i fattori ambientali quanto le eventuali determinanti biologiche. Negli esseri umani, com'è noto, il quoziente d'intelligenza è misurato con un genere di test il cui prototipo fu messo a punto all'inizio del Novecento da Alfred Binet come semplice strumento pedagogico, per consentire agli insegnanti di dedicare un impegno maggiore agli alunni che risultavano meno dotati di capacità di apprendimento. Supponendo perciò che, nel suo uso corrente, la parola «intelligenza» copra uno spettro vasto e disomogeneo di potenziali prestazioni, 27 si può dire che i test IQ mirino, in particolare, a misurare il potenziale successo scolastico. In termini più crudi, i test «individuano soggetti che gli insegnanti e gli psicologi ritengono intelligenti»,28 per cui trattarne i risultati come espressione di un dato naturale vuol dire, alla lettera, «reificare una costruzione mentale». 29 La difficoltà non è data dal semplice fatto che il criterio della reificazione sia una prestazione socialmente apprezzata. Questo accadeva, in fondo, anche per l'acqua e l'oro. In quei casi, però, la definizione scientifica metteva capo a criteri di verifica realmente indipendenti dalla contingenza sociale, e perciò in grado di regolamentarla. Qui invece accade il contrario: una variante del test di Binet è considerata affidabile se e solo se i suoi risultati coincidono 26

Un panorama completo, anche se ormai non attualissimo, della discussione su questo tema è offetto in Eysenck e Kamin r981. 27 In esperimenti condotti, pet esempio, su ceppi diversi di raui, è emersa una marcata gerarchi.a nella capacità di orientarsi in un labirinto, il che autorizzerebbe a ipotizzare una componente genetica in queSta tipica prova d'intelligenza. La difficoltà è però che, passando ad alrre prove non me.no tipiche, la gerarchia è risultata del tutto diversa. Non solo quindi «non esiste alcuna superiorità generica generale di un ceppo di ratti su un altro nel trovare la soluzione di

un problema» (Lewontin 1991, p. 27) ma~ molto dubbio che, almeno per i ratti, «intelligenza» abbia un significato univoco. 28 Lcwontin 2000, p. 27. 29 lbid., p. 26.

il termine

CAPITOtO QUINTO

con i giudizi espressi dagli educatori, come se l'unica prova scien· ·: .tifica per l'autenticità dell'oro fosse il fatto che orefici e banchieri ·10 proclamano tale. .,.., In ogni caso, il test registra delle prestazioni, e riflette perciò comunque solo l'unità di fattori organici e fattori ambientali. Quindi, anche a volerlo prendere per buono, resta il compito di scom: porre analiticamente i due momenti. Nella genetica delle popolazioni, lo strumento più idoneo per attuare questo tipo di scissione è lo studio dei gemelli omozigoti, in particolare di quelli cresciuti in ambienti diversi. Calcoli di questo tipo, oltre che essere molto delicati, sono resi aleatori dal numero molto ridotto di casi effettivamente adatti all'inchiesta. Disgraziatamente, proprio nel caso specifico degli studi sull'intelligenza il quadro è reso ancora più torbido dal fatto che lo studio a suo tempo più completo e accreditato sui gemelli identici, quello effettuato da Cyril Burt, si è rivelato in seguito una vera e propria frode: Brut non si era limitato, infatti, a inventare dati poco plausibili che avevano il solo scopo di giustificare il suo entusiasmo per l'eugenetica; per eccesso di zelo, aveva inventato anche le sue collaboratrici - la signora Conway e la signora Howard - di cui non fu mai possibile dimostrare l'effettiva esistenza. 30 D'altro canto, anche ammesso che si arrivasse a dati statistici obiettivi, potrebbero davvero bastare per reificare l'intelligenza e definirla quindi non più come potenzialità ma come dato fisiologico ereditario? Una operazione di questo tipo - che concerne in primo luogo il significato del nome e quindi il senso socialmente attribuito a un insieme di comportamenti - non sarebbe comunque e inevitabilmente una costruzione ideologica, solo un po' più sottile di quelle messe in campo a suo tempo dai pionieri dell'eugenetica, capaci persino di ribattezzare con il termine drapetomania un presunto «disturbo mentale ereditario prevalente tra gli schiavi negri del Sud, che si manifesterebbe come irresistibile bisogno di scappare via dal proprio padrone»?31 Non è importante qui arrischiare una risposta in quella che, del resto, è una polemica tuttora in corso. L'esempio ha solo la funzione d'illustrare in che senso problemi empirici e problemi logici l~ non ordinati ancora da alcuna selezione tra segnale e rumore. E noto che in una lunga tradizione filosofica europea (da Herder a Heidegger) la distinzione concettuale tra ambiente e mondo ha avuto la funzione di marcare l'eccezionalità della condizione umana. In precedenza, ho cercato però di dimostrare che il nocciolo speculativo di questa impostazione non va riposto in una presunta scissione ontologica tra l'uomo e l'animale non umano, ma piuttosto nella distinzione tra quelle che ho definito modalità primaria e secondaria di elaborazione dell'informazione: l'una basata sull'investimento di un flusso ancora indifferenziato, l'altra sulla correlazione univoca tra segnale e programma. In breve, il punto cruciale è che nel comportamento umano l'indistinzione tra ciò che è significativo per la vita e ciò che è invece semplice rumore non ha solo un'ampiezza straordinaria, ma riveste chiaramente un ruolo costruttivo. In altri termini: una norma di comportamento non è solo l'equivalente di una «norma di reazione» capace di includere un numero molto alto di possibili variazioni ambientali, ed è questo che impedisce di riprodurre le condizioni della prassi partendo da un micromondo limitato per allargarne poi man mano la cornice. Anche la più semplice delle situazioni pratiche cui andiamo incontro nella vita reale (come prendere un autobus o ordinare una cena al ristorante) include infatti già fin da principio un numero virtualmente infinito di variabili e contingenze, che eccedono ogni possibile programma; e perché emerga un ordine dall'interno di questo caos è necessario che una forma di vita si articoli in quel complesso dispositivo che Wittgenstein chiama gioco linguistico. Se ripensiamo, ora, alla dinamica dei giochi linguistici ricostruita nel capitolo precedente, noteremo un sottile parallelismo con i pro-

ASCESA E DECLINO DEL OETERMJNISMO BIOLOGICO

195

blemi sollevati dall'ingegneria biologica. In effetti, l'operazione logica fondamentale, nel determinismo, è la separazione tra organismo e ambiente, che in un certo senso riproduce, a rovescio, la separazione reale attraverso cui ciascun sistema vivente riproduce a ogni istante la propria identità. Sappiamo, ora, che anche nelle forme di vita dell'uomo l'originaria esposizione al mondo del solipsismo primario è spinta ad articolarsi in un'analoga separazione tra un interno e un esterno, e un gioco linguistico è appunto lo specifico dispositivo in cui prende forma tale separazione. In questo scenario, però, l'indistinzione tra soggetto e mondo non ha solo il valore negativo di un'opacità da superare, ma mantiene fino all'ultimo una funzione positiva, indispensabile all'intreccio tra linguaggio e prassi che dà vita al gioco. In breve, è solo perché questa indistinzione si deposita nelle espressioni primarie che il gioco linguistico può funzionare e sfociare in una effettiva istituzione del senso. In questo modo, le espressioni primarie restano il presupposto di ogni ulteriore scomposizione e il criterio di verifica di ogni oggettivazione scientifica, ma nello stesso tempo marcano proprio quell'inscindibilità di principio che segna, per il determinismo, un limite invalicabile, al punto da far dubitare che il suo impianto concettuale sia applicabile con qualche utilità alle forme di vita dell'uomo. Per certi aspetti, questa difficoltà logica è già registrata nello studio di Kripke sui designatori rigidi, che si conclude significativamente proprio contestando la legittimità di uno dei cavalli di battaglia del determinismo, vale a dire l'ipotetica identificazione di ogni stato mentale con uno stato cerebrale. 36 L'argomento basilare di tale confutazione - che ora mi limito a riportare in forma più che sintetica - è ispirato apertamente al classico esempio di Wittgenstein dell'esperienza privata del dolore: l'uso della parola «dolore» non può essere disgiunto dalla sensazione e dalla sua espressione primaria nel grido di dolore; perciò non può essere fissato da un designatore rigido, come avverrebbe se l'equiparassimo, per esempio, alla «stimolazione delle fibre C », perché questo legittimerebbe il paradosso logico di un possibile dolore in assenza di ogni sensazione

di dolore. >• Cfr. Kripke 1980, pp. , 39 sgg.

i CAPITOLO QUINTO

Non è facile ccgliere correttamente le implicazioni e l'ampiezza di questa difficoltà logica rispetto ai programmi pratici dell'ingegneria biologica, per esempio nel campo della medicina performativa. Cerchiamo di approfondire la questione ritornando all'esempio aristotelico della «collera», che in fondo non differisce molto, nella sostanza, da quello del dolore. Oggi è improbabile che un neurobiologo identifichi la collera con il calore del sangue. Un programma deterministico, però, dovrebbe comunque prevedere la sua finale equiparazione a un qualche assetto biologico reale, più o meno al modo in cui la depressione è equiparata a un disturbo di funzionamento di alcuni neuromodulatori e l'intelligenza a un qualche corredo genetico. Qualsiasi ipotetica equiparazione di questo genere rinvia, come terreno di verifica, al campo fenomenico dei giochi linguistici ordinari, delimitato da quelle che valgono come espressioni primarie della collera - per esempio: rossore del viso, urla di rabbia, esclamazioni e minacce - esattamente al modo in cui ogni ipotesi scientifica deve presupporre l'insieme delle manifestazioni tipiche dell'intelligenza o della depressione. Non diversamente dal grido di dolore, queste manifestazioni primarie valgono nello stesso tempo come segnali e come espressioni della collera, dunque come articolazioni tanto della cosa quanto del discorso su di essa. Di per sé tale coincidenza non è garantita né da una necessità logica né da una legge naturale. Possiamo senz'altro immaginare società in cui la collera si manifesti in tutt'altra maniera, raccolga in un'unica famiglia casi individuali del tutto diversi o preveda distinzioni che per noi non hanno peso. Insomma, ciò che per noi è abituale e che solo perciò ci appare «logico» non ha che un privilegio di fatto, ma è sul presupposto inaggirabile di questa fatticità che il gioco linguistico può funzionare. Una definizione scientifica in senso moderno, basata su un designatore rigido e vincolata a una pretesa di validità universale, è portata invece dalla sua stessa logica interna a travalicare questi presupposti, a sganciarsi da ogni fatticità contingente per estendere la propria validità anche a ipotetici contesti in cui le manifestazioni primarie fossero del tutto diverse o risultassero semplicemente assenti. Nel caso dell'acqua o dell'oro, ciò non comportava particolari difficoltà, perché i tratti fenomenici sono semplici segnali della natura interna dell'oggetto, come il colore della cartina al tor-

ASCESA E DECLINO OEL DETERMINISMO BIOLOGICO

197

nasole o i puntini rossi del morbillo. Dove invece, in luogo dei semplici segnali, abbiamo a che fare con delle espressioni primarie, questa estensione finisce con il corrispondere appunto al paradosso di un dolore in assenza di sensazioni di dolore. Teorie di questo tipo non sono affatto più delle ipotesi scientifiche perché, venuto meno il loro ancoraggio nelle forme di vita, non sono più passibili di alcuna verifica effettiva. Sul piano pratico si risolvono quindi in un misto di arbitrio e buon senso, su quello teorico in una specie di tautologia. È quanto marca, provocatoriamente, la pseudodefinizione di E . G. Bering, secondo cui l'intelligenza è «quella cosa che è misurata dai test IQ», una provocazione che ha un esatto corrispettivo, in psichiatria, nell'ammissione che «la depressione resta un concetto dai contorni incerti. L'unica vera certezza è che è quella cosa che si guarisce con gli antidepressivi».'7 Questa circolarità tautologica non è casuale, ma segnala l'impossibilità logica di verificare l'equazione determinista, una volta che essa prenda le vesti di una teoria generale. La difficoltà è che l'unico possibile criterio di verifica di qualsiasi ipotesi scientifica sul dolore, la collera, l'intelligenza o quant'altro figuri all'interno del campo delle forme di vita umane, è il rinvio al gioco linguistico primario, ovvero a ciò che normalmente vale come espressione del dolore (della collera, dell'intelligenza ecc.). L'ipotesi scientifica è essa stessa un'articolazione di questo gioco linguistico, una sua costruzione di secondo livello. Perciò può sicuramente influenzarne l'andamento e contribuire cosl alla sua evoluzione, ma non può in alcun caso fondarlo, non può cioè ridurlo a uno strato più elementare, semplicemente perché non c'è questo strato, perché il gioco è in se stesso il momento primario. Ancora una volta, questo non vuol dite affatto che non vi siano, nel gioco, reazioni istintive (quindi automatiche, primitive, naturali ecc.). Anzi, diamo per assodato che le manifestazioni tipiche del dolore, della collera o dell'intelligenza siano appunto di questa natura, e che quindi non descrivano lo stato interno, ma lo segnalin(! più o meno come ogni fenomeno naturale segnala le sue cause. E solo però all'interno della rete di aspettative condivise che perimetra il gioco, che questi segnali acquistano il pieno statuto di espressione, nel senso che solo qui si ha il diritto di distinguerli da ll Scotto e altri 198~, p. 16JJ·

CAl>ITOLO QUINTO

comportamenti non meno istintivi, catalogati invece come anomali, sorprendenti o eccezionali, perché associati a circostanze esterne non previste dalla norma collettiva. t" In effetti, la «normalità» che emerge dalla prassi linguistica è essa stessa di tipo circolare. Potremmo dire: dolore (o intelligenza, o depressione) è, volta per volta, ciò che di norma si chiama dolore. - Se questa circolarità non è, però, una morta tautologia, è perché articola assieme due poli distinti, sottraendoli cosi all'arbitrio: da un lato, la reazione istintiva di ogni singolo parlante (che grida di dolore, semplicemente, ogni volta che gli accade di gridare di dolore); dall'altro, la norma collettiva (per cui chiamiamo dolore ciò che, semplicemente, chiamiamo «dolore»). I due poli sono costantemente correlati, fungono l'uno da verifica dell'altro, e mettono capo solo in questa correlazione a una distinzione tra comportamenti normali e anormali. In questo modo le anomalie, le varianti individuali, i mutamenti di ogni genere negli organismi come nelle società o nel mondo, contribuiscono alla continua taratura reciproca dei due poli, e quindi all'evoluzione e alla stabilità del gioco. Trasformando questa norma duttile e fluida in un presunto programma tracciato una volta per tutte, il modello determinista cancella proprio l'apporto costruttivo della contingenza interna, e irrigidisce così il gioco in una tautologia vuota. D'altra parte, la correzione dell'anomalia e la cancellazione del rumore sono appunto gli obiettivi espliciti del programma di ottimizzazione. Lo svuotamento progressivo del senso della prassi e l'atrofia delle sue potenzialità innovative non sono quindi un incidente di percorso, ma un risvolto strutturale d el programma.

6. La crisi del modell-0 determinista Il determinismo, come sappiamo, tende a ridurre al binomio programma/ottimizzazione tanto la sfera della «cultura» quanto quella dei processi naturali, rimuovendo cosl la loro tradizionale scissione. Abbiamo visto che, almeno per quanto riguarda il primo dei due momenti - cioè le forme di vita umane che costituiscono la dimensione etica e, in senso lato, «culturale»-, il progetto sembra viziato da difficoltà logiche che toccano direttamente i due concetti base

ASCESA E OECUNO DEL DETERMINISMO BIOLOGICO

1

99

- e cioè: p_rogramma e ottimizzazione - nonché la loro congiunzione interna. E interessante osservare, ora, che le stesse difficoltà sono emerse per entrambi i concetti anche nella ricerca specificamente rivolta ai processi naturali. Sarebbe difficile elencare tutte le critiche che, in questi ultimi decenni, hanno progressivamente sgretolato il concetto tradizionale di programma genetico, e mi limito perciò a una sintesi sommaria. Ricordiamo, per cominciare, che il concetto di pro-gramma evoca, alla lettera, un'anticipazione temporale: qualcosa che non è ancora presente è prefigurato fin da principio nelle lettere (grammata) di un codice specifico. Perché abbia senso parlare di un processo programmato occorre insomma che sussista una precisa corrispondenza tra l'inizio e la fine, tale che l'uno valga a buon diritto come rappresentazione dell'altra - premesso che questa rappresentazione non dev'essere necessariamente di tipo mentale o intenzionale purché sia in grado di pre-scrivere l'esito del processo, come avviene a titolo esemplare nei programmi codificati in una macchina di Turing. Nel caso del DNA, le lettere del programma sono fornite dalle quattro basi che si alternano nella sequenza dei nucleotidi; il codice è quello che, in quasi tutti i sistemi viventi, collega ciascuna delle 64 possibili triplette di basi a uno e uno solo dei venti aminoacidi che, in diverse combinazioni, strutturano ciascuna· proteina. In ogni gene, quindi, risulterebbe prescritta una proteina e, supponendo che il genoma nel suo insieme comprenda anche le istruzioni su quando e come dare inizio a ciascuna sintesi proteica, il risultato è che l'intero assetto di ciascun organismo risulterebbe già prescritto, all'alba del suo sviluppo, nella prima cellula dell'embrione. Stando insomma all'ortodossia determinista, la perfetta circolarità del programma unisce inizio e fine a tal punto che - secondo un esperimento immaginario avanzato da Brenner meno di vent'anni fa - un computer abbastanza potente dovrebbe in teoria poter dedurre ogni singolo aspetto di un determinato organismo dalla sola sequenza completa del suo DNA. In realtà, misurandola con il metro delle conoscenze odierne, questa congettura immaginaria risulta irrimediabilmente falsa . In primo luogo, a causa della correlazione tra organismo e ambiente che abbiamo già ricordato nei paragrafi precedenti. Come si è visto, il genotipo non determina in genere l'aspetto effettivo di un organismo adulto, ma tutt'al più una norma di reazione relativa alle pos-

CAPITOLO QUINTO

200

sibili differenze ambientali. Oltre alla precisa sequenza del DNA, il computer di Brenner dovrebbe quindi conoscere in anticipo l'ambiente o gli ambienti in cui crescerà l'organismo, per poterne predire Io sviluppo. Anche in quel caso, la possibilità di previsione resterebbe però di fatto limitata ai soli tratti basilari. Nei caratteri particolari, che prevedono un alto tasso di variazione individuale, ai fattori genetici e a quelli ambientali si aggiungono elementi casuali, dettati in modo imprevedibile dal corso accidentale dello sviluppo. I gemelli omozigoti, per esempio, hanno impronte digitali diverse anche se sono cresciuti nello stesso ambiente, e i peli che fungono da organi sensoriali nel moscerino della frutta variano in genere per numero e collocazione sul lato destro e sinistro di uno stesso individuo, benché il fattore genetico e quello ambientale siano sicuramente identici per entrambi i lati. Logicamente, l'incidenza di questo fattore casuale sarà tanto maggiore quanto più ci rivolgiamo ad aspetti variabili e complessi dello sviluppo individuale: per esempio, si ritiene che sia di nat)lfa casuale gran parte dello sviluppo del sistema nervoso centrale. E interessante che questo fattore casuale venga abitualmente designato come rumore dello sviluppo. In effetti, in questi casi all'informazione genetica si ag• giunge, nel corso della sua trasmissione, qualcosa che non era dato alla fonte. Inizio e fine, perciò, divergono, con il risultato che l' idea di un programma genetico apparirà tanto meno plausibile,quanto maggiore dovesse rivelarsi l'incidenza di questo rumore. E proprio da qui che partono, come vedremo subito, tutte le alternative radicali al determinismo avanzate dalla ricerca in questi anni.'6 Il punto è che il paradigma determinista si è formato, a suo tempo, assumendo come modello normale di sviluppo una catena di passaggi univoci e lineari - un gene, una proteina, una funzione - e accantonando, appunto, come semplice rumore ogni occasionale deviazione da questo modello. Tuttavia, man mano che si è riusciti ad approfondire ogni singolo anello della catena, ne è emerso un tale grado di complessità, variazione e circolarità retroattiva da rendere quanto mai sospetta questa presunta distinzione univoca tra segnale e rumore. 8

Una critica sistematica del conceno di programma gcnciico è condona in Atlan r999. Le alternative al paradigm.a determinista cui mi riferisco sono soprattutto quelle espoSEe da Stroh• man 1997 e da Dover e Flavell 1982. '

ASCESA E DECUNO DEL DETERMINISMO BIOLOGICO

201

Le difficoltà hanno inizio già con la traduzione del DNA in RNA, l'altro acido nucleico che mette in moto effettivamente la sintesi proteica. Tranne che nei virus e in alcuni batteri, questa prima traduzione non è affatto lineare, dal momento che l'RNA primario viene successivamente spezzettato e ricomposto (splicing) in modo da assemblarne assieme singoli frammenti, che saranno gli unici a essere poi tradotti in RNA messaggero ed eventualmente, quindi, in proteine. Le parti di DNA destinate a essere trascritte (esom) si alternano cosl ad altre che non lo saranno (introni) secondo intervalli irregolari e variabili. Per di più, uno stesso esone può fungere da elemento in più di un gene, e un introne che spezza un certo gene può contenere parti dell'esone di un altro gene, e cosl via. In ogni caso, più del novanta per cento del DNA non viene affatto trascritto, ed è tuttora indicato come DNA-spazzatura, benché negli ultimi anni si tenda a riconoscergli importanti funzioni di regolazione. Perché un gene arrivi a esprimersi, occorre infatti che particolari sequenze regolatrici disseminate nel genoma, spesso a una notevole distanza dal gene in questione, interagiscano con una quantità di proteine dette fattori di trascrizione, codificate da altri geni dotati, a loro volta, di una struttura regolativa che richiederà, per entrare in funzione, altri fattori di trascrizione. Questi ultimi, in generale, non si limitano a spezzare e ricompattare il DNA, ma realizzano un complesso procedimento di editing fatto di tagli, aggiunte, replicazioni e aggiustamenti, nel corso del quale non è escluso che il flusso informativo proceda anche per trascrizione inversa, dall'RNA al DNA. Gran parte di questi enzimi regolatori è attiva solo in alcune cellule, spesso sotto la particolare stimolazione di sbalzi di temperatura, metaboliti specifici oppure ormoni, soggetti a loro volta ai mutamenti dell'ambiente. L'influenza esterna, legata per esempio a condizioni di stress, ha inoltre un peso anche nei cosiddetti trasposoni - elementi mobili che saltano da un punto all'altro del genoma sconvolgendone la sequenza - e nei processi di tacitazione dei geni, come la metilazione. In generale, comunque, è l'apparato complessivo della cellula a stabilire quali geni vadano eventualmente attivati, e in ogni caso il DNA selezionato prescriverà solo la successione degli aminoacidi, non la specifica struttura tridimensionale della proteina, di cui sono ormai assodate l'importanza e la

202

CAPITOLO QUlNTO

variabilità. Sullo specifico ripiegamento della proteina agiranno anche altri fattori, non escluse molecole più semplici come zuccheri, ferro e grassi, di modo che «anche se è certamente essenziale al processo, il DNA è solo una parte della storia».;9 Questo gioco d'interazione circolare tra i geni, il metabolismo complessivo della cellula e l'ambiente si ripropone puntualmente anche nelle fasi ulteriori di espressione e di replicazione dell'informazione, e sarebbe inutilmente lungo volerne ripercorrere una a una le varie figure. L'essenziale è che da questo quadro sommario è già possibile estrarre due considerazioni generali, che hanno entrambe spinto alcuni ricercatori ad annunciare come imminente l'avvento di un paradigma alternativo al determinismo. In primo luogo, l'informazione genetica in senso stretto può esprimersi solo in costante interazione con fattori epigenetici, cui va riconosciuta una funzionalità altrettanto significativa. 40 In secondo luogo, questo complesso interattivo è mobile e impone al genoma «una inaspettata fluidità sia sulla scala evolutiva che su quella dello sviluppo». 41 Epigenesi e genoma fluido sono ipotesi tuttora controverse, ed è difficile stabilire se siano destinate realmente a partorire un nuovo paradigma. L'argomento comunque più solido, in entrambe, è l'idea che la distinzione tra segnale e rumore, in ambito genetico, sia molto più sfumata e relativa di quanto non preveda il ricorso alla tradizionale concezione di un programma. L'informazione già inscritta nel DNA alla fonte e quella che si genera nel corso della trasmissione possono entrambe, a vario· titolo, tradursi in segnale effettivo o invece in semplice ridondanza, e l'uno e l'altro fattore s'intrecciano e invertono più volte i loro ruoli, in una condizione mobile di strutturale indistinzione. In altri termini: l'informazione biologica si elabora secondo una modalità primaria, nel senso che l'inscindibilità di segnale e rumore non è solo un difetto o una opacità interna del processo ma un suo tratto strutturale, che ne accompagna il decorso regolare e può, in particolare, assicurarne la duttilità necessaria per adattarsi ai mutamenti e alle minacce dell'ambiente. È quanto avviene, per esempio, nella formazione del sistema immunitario, la cui straordinaria plasticità poggia su un processo ;• Hubbard e Wald 1997, p. ~•· •o Cfr. Strohman 1997. "Dover e Flavcll 1982, Prefazione.

ASCESA E DECLINO DEL DETERMINISMO BIOLOGICO

casuale di ipermutazioni che raggiunge una frequenza enormemente superiore - fino anche a un milione di volte - rispetto a quella ordinaria. Questo valore significativo della mutazione ci porta direttamente all'altro versante della discussione, quello relativo alla selezione naturale di ogni singolo corredo genetico. In questa dimensione, in effetti, il valore strutturale di ciò che appare superficialmente come semplice rumore (casualità, contingenza, errori di trascrizione ecc.) non dovrebbe nemmeno entrare in discussione, visto che la teoria di Darwin affida proprio alle mutazioni casuali la creatività del processo evolutivo. Paradossalmente, invece, nel paradigma determinista è il principio darwiniano della «sopravvivenza del più adatto» a tradursi nella negazione sistematica di ogni casualità. In apparenza, l'operazione è semplice. L'evoluzione, si sostiene, opera con necessità matematica a favore del «più adatto»; dati cioè due diversi genotipi, è inevitabile alla lunga che prevalga quello che ha più capacità di sopravvivere e riprodursi, fino all'estinzione del rivale. Nonostante perciò l'apparente casualità di superficie - anzi: proprio attraverso questa casualità - la natura opera in fondo secondo un preciso programma di ottimizzazione, calcolabile in anticipo con metodi statistici improntati alla teoria dei giochi e riassumibile, in parole povere, nell'assunto che ogni tratto biologico esistente, già solo perché esiste, rappresenta presumibilmente la migliore delle possibilità a disposizione. Non ci si stupirà che questa impostazione sia stata criticamente avvicinata all'ottimismo metafisico di Pangloss, il precettore di Candido fermamente convinto che il nostro è «il migliore dei mondi possibili»; un accostamento che, tra l'altro, evidenzia l'enorme distanza ideologica tra questa lettura quasi-provvidenzialista e Io spirito originario del testo di Darwin, che è di segno diametralmente opposto. 42 La comicità di Pangloss, nel testo di Voltaire, poggia sul fatto che non c'è in pratica orrore o catastrofe che una qualche acrobazia teorica non riesca a giustificare, per cui la teoria ne risulta immancabilmente confermata. È appunto il rischio cui va incontro il determinismo, nel senso che «la critica più di•> Cfr. soprattutto Gould e Lcwontin r984.

CAPITOLO QUIN'fO

struttiva delle teorie dell'ottimizzazione è che non siano passibili di verifica. C'è quindi il reale pericolo che la ricerca di spiegazioni funzionali in biologia degeneri in una gara d'ingegnosità>>. 4 ) In effetti, in questa delicata questione della verificabilità si ripropone il problema cruciale della distinzione tra attributi reali e potenziali. In sé, infatti, il concetto darwiniano di fitness è virtualmente ambiguo. Può indicare, da un lato, la semplice capacità, da parte di un organismo, di sopravvivere e riprodursi in un determinato ambiente; ma può anche riferirsi al dato di fatto reale dell'avvenuta sopravvivenza e riproduzione. Nei sistemi correnti di calcolo, per esempio, la fitness di un tipo genetico è stabilita valutando la frequenza con cui quel tipo è presente di fatto nella popolazione. In base a questo presupposto, la generica affermazione che a sopravvivere è sempre il più adatto equivale ovviamente a una tautologia, visto che chiamiamo «più adatto» chi, semplicemente, sopravvive. Per valutare la fitness come attributo potenziale, bisogna invece riferirsi a una specifica/unzione, come avviene per esempio nei contesti di selezione artificiale, dal momento che è sempre una qualche particolare capacità che sta a cuore ali' allevatore o al contadino. In questa seconda opzione, però, l'effettivo contenuto della teoria dipenderà da quanto è specifica e determinata la funzione presa a modello, altrimenti ci si avvicinerà di nuovo alla tautologia per cui il più capace di sopravvivere è, appunto, il più capace di sopravvivere. Non stupisce, dopotutto, che nel corso del Novecento la teoria di Darwin sia stata oggetto, a scadenze regolari, di una stessa obiezione critica: quella per cui saremmo di fronte, per l'appunto, a una specie di tautologia, priva per definizione di ogni criterio scientifico di verificabilità.44 I n realtà, il contenuto legittimo di questa critica si esaurisce nell'imperativo metodologico per cui ogni variante seria del darwinismo sarà tenuta a distinguere in modo rigoroso tra il momento potenziale e quello reale della fitness, situando nella loro differenza il proprio spazio di verificabilità. È proprio

ASCESA E DECLINO DEL DETERMINISMO BIOLOGICO

205

questa doverosa distinzione, però, a mettere in crisi l'equazione determinista tra selezione naturale e ottimizzazione. Supponiamo per esempio di calcolare la fitness in base al fatto, misurando la diversa frequenza e distribuzione di alcuni tipi genetici in un determinato ambiente. Si potrà, allora, comparare i dati con quelli offerti dalla stessa popolazione in un ambiente diverso, costruendo su questa base delle ipotesi su quanto un determinato tratto fenotipico risulti (Sober e Wilson 1998, p. 331). L'essenziale, in questo quadro evolutivo a più livelli, è che la varietà biologica che funge da materia prima a ciascun livello è garantita dal random assortment al livello inferiore (ibid., p. 332). Anche in questo caso, insomma, la rete di deviazioni casuali e contingenze che in un modello determinista figurerebbe come semplice rumore, rivela invece una funzione positiva e insostituibile nel!' elaborazione dell'informazione biologica. La distinzione tra segnale e rumore perseguita dai deterministi appare cosl irrimediabilmente arbitraria, e l'idea stessa di una natura sistematicamente orientata all'ottimo tradisce le tinte del mitologema, più che della teoria scientifica.

41 Cfr. in particolare Dawkins 1976.

ASCESA E DECLINO DEL DETERMINISMO BIOLOGICO

207

7. Natura e cultura

Fin dalle prime battute della nostra ricerca, ingegneria cognitiva e ingegneria biologica sono state presentate come momenti correlati, articolazioni di uno stesso processo di tecnicizzazione della vita. Solo adesso, però, siamo in grado di cogliere il senso profondo di questa correlazione, che non si esaurisce nel gioco d'influenze reciproche normale tra due discipline scientifiche in forte espansione. Il punto è che gli orientamenti riduttivi, prevalenti in entrambi i settori fino a questi ultimi anni, condividono fin da principio uno stesso progetto, orientato tendenzialmente a equiparare del tutto i processi biologici e quelli cognitivi. Gli uni e gli altri - si sostiene - vanno descritti come forme programmate di elaborazione dell'informazione; in entrambi, tale elaborazione consiste essenzialmente nell'isolare il segnale informativo dallo sfondo indistinto del rumore; la forma ottimale di questi processi coinciderà, di conseguenza, con la perfetta selezione del segnale e l'eliminazione del rumore; e il compito della scienza, infine, sarà quello di affiancare la natura nell'ottimizzazione delle forme viventi. La realtà è che questa doppia riduzione comporta un grado di semplificazione inadeguato a entrambi i lati del dilemma, che offre un quadro deformato tanto dei comportamenti intelligenti quanto dei processi naturali. In particolare, è proprio la concezione basilare dell'informazione a rivelarsi carente su entrambi i fronti. In effetti, in un flusso informativo segnale e rumore sono naturalmente uniti. Per scinderli occorre una qualche operazione, che è poi la stessa che permette a un sistema di distinguere se stesso dal suo ambiente. Questa operazione può aver luogo in principio una volta per tutte, tracciando cosl un programma che determina l'intera evoluzione successiva; ma può anche essere, al contrario, una mossa precaria e contingente, che ripristina sempre di nuovo l'indistinzione e, con essa, la possibilità di un nuovo order /rom noise. Il punto è che, in questo secondo modello, il rumore è una risorsa potenziale; la sua eliminazione, quindi, non è affatto un progresso, ma un fattore d'irrigidimento, che a lungo andare può compromettere del tutto la duttilità e l'equilibrio dinamico dell'insieme. L'idea che vi siano modalità diverse di elaborazione dell'informazione, e che la loro distinzione sia essenziale per cogliere la spe-

208

CAPITOLO QUINTO

cificità della condizione umana, è un patrimonio antico ·della cultura filosofica europea che, come quasi tutte le idee portanti di questa tradizione, ha una radice aristotelica facilmente rintracciabile. Agli inizi del Novecento, tentando di contrastare l'avanzata del riduttivismo scientifico, la filosofia istituzionale ha riproposto • questa eredità classica, ma in una forma che ha finito con l'avallare ~na presunta scissione ontologica tra l'uomo e il regno del vivente m generale. In realtà, se ne leggiamo correttamente il senso, la p~rabola del determinismo biologico non fornisce alcun argomento d1 sostegno a questa soluzione metafisica. Al contrario, nel momento in cui testimonia i limiti di una impostazione riduttiva, essa rende comunque ancora meno plausibile il ricorso a dualismi che concedano all'uomo una posizione «eccezionale» in seno alla natura. Il punto cruciale, infatti, è che il modello riduttivo si scontra su entrambi i versanti, natura e cultura, con le stesse difficoltà . Non sono cioè solo i comportamenti intelligenti dell'uomo, ma anche i fen~m:ieni biologici di base a richiedere un apparato concettuale più sofisticato, ed è questo il motivo per cui la crisi dei modelli riduttivi si è affermata negli ultimi anni con la stessa incisività su entrambi i fronti, nell'ingegneria cognitiva come in quella biologica. In controluce, quindi, ciò che traspare non è una scissione tra uomo e natura, ma un gioco di analogie, forse persino una forma di armonia, di cui le scienze contemporanee non riescono ancora a dare pienamente la misura, ma che autorizza in ogni caso l'ideale di un sapere unitario, nelle forme ancora ipotetiche e incerte di un naturalismo non riduttivo. Nel frattempo, però, non dimentichiamo che il dominio dei modelli riduttivi nelle tecnoscienze umane non si è basato tanto su a~go~enti ~i ordin~ teor~tico, quanto sulla maggiore efficacia pratica di detti modelli nell mtervento tecnico diretto sulle forme di vita .. 9uali .sono stati, ~ conti fatti, i lineamenti basilari di questa tecrucizzazione della vita? In che misura i limiti del riduttivismo hanno inciso anche sul versante pratico, condizionando le forme di vita e i processi sociali del presente? E come può riflettersi sul piano esistenziale e sociale, il declino del riduttivismo e l'event'uale emergenza di nuovi paradigmi? Per conclude~e il confronto speculativo con le forme contempor~nee della t:::cruca dovremo ancora misurarci, per quanto è possibile, con questi difficili interrogativi.

6. Tecnicizzazione della vita e condizione umana

z.

L'epoca della tecnica?

È noto che la tarda modernità è segnata da una difficoltà profonda di comprendere se stessa. Il mondo appare radicalmente mu- ··· tato, le condizioni di esistenza talmente nuove da rendere vano il ricorso ai modelli tradizionali di cultura; e nessuno, a quanto pare, ha la certezza di conoscere le cause o il senso della grande trasformazione in corso. Di qui l'urgenza dell'interrogativo che, secondo Foucault, ci autorizza a catalogare gran parte della filosofia moderna sotto il titolo di ontologia del presente, vale a dire: «Che cosa sta succedendo adesso?» Fino alla fine degli anni cinquanta, a questo interrogativo era comune c?e si rispondesse indicando in primo luogo gli sviluppi della tecruca: «Questo sta succedendo», e l'idea era che le nuove tecnologie trasformassero a tal punto le regole del gioco da rendere marginale o subalterno ogni altro aspetto dell'evoluzione moderna, dalla religione alla politica. La bomba atomica e l'esplorazione dello spazio erano i simboli canonici di questa interpretazione del presente: la prima, perché paralizzava il conflitto politico con lo spettro della distruzione della specie; la seconda, perché apriva le porte di un cosmo in cui né dio né l'uomo hanno voce in capitolo, e «solo le macchine e i congegni moderni possono essere quello che sono».1 Eppure, nei decenni successivi l'interesse speculativo per la tecnica 1

Heidcgger 1959, p. l}l. Il riferimento allo Sputnik~ centrale anche ncU'apcrtun di Arcndt 1958; per la bomba atomica ~ esemplare invece Andcrs 1979. Entrambi i simboli sono comunque frequentissimi nella Jctteratura di questi anni.

210

CAPITOLO SESTO

doveva subire un drastico ridimensionamento, tanto più sorprendente se si pensa che mai come negli ultimi anni il peso della tecnica sulle forme di vita si è fatto capillare, oltretutto passando per quella significativa mutazione interna che è stata la nascita delle tecnoscienze umane. Non che, in genere, la rilevanza epocale della tecnica sia stata contestata apertamente. In forma indiretta ne troviamo anzi una qualche conferma in entrambi i modelli d'interpretazione del presente più seguiti in questo scorcio di secolo, vale a dire la teoria del postmoderno, che ha dominato la discussione dagli anni ottanta in poi, e quella della globalizzazione, che tiene banco da qualche anno a questa parte. In entrambe, però, è ugualmente palpabile la tendenza a far recedere la questione della tecnica sullo sfondo, imputando ad altri aspetti del presente la responsabilità della vera rottura epocale con il passato. Lyotard, per esempio, apre il suo saggio sulla condizione postmoderna proprio evocando un momento centrale dell'evoluzione tecnologica come «l'informatizzazione della società» (cfr. Lyotard 1979, pp. 9 sgg.) ma, nei fatti, lo sviluppo ulteriore della teoria concede uno spazio minimo a questo aspetto. Tanto che Luhmann, a qualche anno di distanza, potrà osservare criticamente che l'intera discussione su moderno e postmoderno si è svolta, in sostanza, più sul piano «semantico» dei concetti, delle ideologie e delle presunte metanarrazioni che non su quello delle trasformazioni strutturali (Luhmann 1992, pp. 12 sgg.). Analogamente, quale che sia il significato che si attribuisce al termine «globalizzazione», vale in genere come assodato il legame tra questo processo e un alto grado di evoluzione tecnica, ma ci si limita per lo più a lasciarlo sullo sfondo, a vantaggio di aspetti più strettamepte politici del fenomeno, come la crisi dello Stato nazionale. 2 E difficile ricostruire in modo obiettivo le cause di questa inversione di rotta, ma si può forse azzardare qualche ipotesi. Già in Heidegger, in effetti, l'i"evenibi!ità dello sviluppo della tecnica era fuori discussione. Chiedersi quindi astrattamente se questa evoluzione fosse in sé un bene o un male appariva già allora meno che futile. A definire i margini legittimi di una riflessione critica era 2

Per un qu2dro aggiornato delle diverse direzioni di ricerca sul tema della globalizzazione dr. Marramao 200.3, che tiene nel debito conto i nessi tra la discussione contemporanea e le tco• rie cd1iche della tecnica del primo Nove