Tre lezioni sull’uomo. Linguaggio, conoscenza, bene comune [Saggi ed.] 8868336324, 9788868336325

«Che cos'è il linguaggio? Quali sono i limiti dell'intelletto umano (se esistono)? E qual è il bene comune per

453 114 586KB

Italiano Pages 128 [75] Year 2017

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Tre lezioni sull’uomo. Linguaggio, conoscenza, bene comune [Saggi ed.]
 8868336324, 9788868336325

Citation preview

Presentazione

«Che cos’è il linguaggio? Quali sono i limiti dell’intelletto umano (se esistono)? E qual è il bene comune per il quale dovremmo lottare?» Ecco i tre quesiti che Noam Chomsky affronta nelle lezioni raccolte in questo volume, elementi essenziali della domanda delle domande: «Che genere di creature siamo?» Non si tratta certo di questioni da poco, ma se c’è qualcuno che ha sia la competenza scientifica sia la capacità didattica necessarie per trattare tali problemi coinvolgendo il lettore e rendendolo davvero partecipe del ragionamento, questi è sicuramente Chomsky. Che, senza avere mai la pretesa di offrire soluzioni definitive, rende semplice il difficile, e mettendo a nostra disposizione le sue enormi conoscenze ci mostra quanto spesso e quanto facilmente le ovvietà, così banali nel loro essere vere, possano essere ignorate o rifiutate, mentre l’errore diventa prassi, se non teoria, dominante. Partendo dal «linguaggio» e arrivando al «bene comune», il grande intellettuale americano si mostra qui per intero. Per una volta, in questo libro il linguista e il «politico» si incontrano, e dimostrano (se ce ne fosse bisogno) che si tratta di una persona sola: in Chomsky tout se tient. E mai come in queste pagine risulta evidente che lo scienziato che ha rivoluzionato la linguistica e l’appassionato militante perseguono un medesimo fine: la comprensione di ciò che l’uomo è nella sua natura più profonda. Noam Chomsky (Filadelfia 1928) è il maggior linguista vivente e uno dei punti di riferimento della sinistra radicale internazionale. È professore emerito di linguistica al Massachusetts Institute of Technology. Ponte alle Grazie ha pubblicato Ultima fermata Gaza (con Ilan Pappé, 2010), Sistemi di potere (2013), I padroni dell’umanità (2014), Anarchia (2015), Terrorismo occidentale (con André Vltchek, 2015), Chi sono i padroni del mondo (2016).

www.ponteallegrazie.it

facebook.com/PonteAlleGrazie

@ponteallegrazie

www.illibraio.it

Titolo originale: What Kind of Creatures Are We? Copyright © 2016 Noam Chomsky First published by Columbia University Press Italian edition licensed through Nabu International Literary Agency www.nabu.it © 2017 Adriano Salani Editore s.u.r.l. - Milano ISBN 978-88-6833-681-3 Art direction: ushadesign In copertina: © Gary Waters. Tutti i diritti riservati

Redazione e impaginazione: Scribedit - Servizi per l’editoria Ponte alle Grazie è un marchio di Adriano Salani Editore s.u.r.l. Gruppo editoriale Mauri Spagnol Prima edizione digitale: gennaio 2017 Quest’opera è protetta dalla Legge sul diritto d’autore. È vietata ogni duplicazione, anche parziale, non autorizzata.

Tre lezioni sull’uomo

Capitolo primo Che cos’è il linguaggio?

L’interrogativo generale che vorrei affrontare in questo libro è antico: che genere di creature siamo? Non sono così ingenuo da pensare di poter fornire una risposta soddisfacente, tuttavia mi sembra ragionevole credere che almeno in certi ambiti, in particolare rispetto alla nostra natura cognitiva, esistano idee di qualche interesse e rilievo, alcune delle quali nuove, e che dovrebbe essere possibile togliere di mezzo alcuni degli ostacoli che impediscono ulteriori indagini, per esempio certe dottrine universalmente accettate dotate di fondamenta molto meno solide di quanto spesso si immagini. Prenderò in considerazione tre questioni in particolare, progressivamente più oscure. Che cos’è il linguaggio? Quali sono i limiti dell’intelletto umano (se esistono)? E qual è il bene comune per il quale dovremmo lottare? Inizierò con la prima, cercando di spiegare in che modo, quando sono perseguite con precisione, quelle che a prima vista potrebbero apparire questioni piuttosto limitate e tecniche possano condurre a conclusioni di ampia portata di per sé significative, e comunque assai diverse da quello che in genere si crede – e spesso si ritiene fondamentale – nelle relative discipline: le scienze cognitive in senso lato, comprese la linguistica e la filosofia del linguaggio e della mente. Analizzerò quindi quelle che ai miei occhi paiono di fatto delle ovvietà, anche se di un tipo curioso. In genere vengono rifiutate. E questo pone un dilemma, almeno per me. E forse anche voi sarete interessati a risolverlo. Parliamo del linguaggio. È stato studiato in maniera intensiva e fruttuosa per 2500 anni, senza però una chiara risposta rispetto alla questione di cosa sia il linguaggio stesso. Più avanti citerò alcune delle principali proposte. Dovremmo chiederci quanto sia importante colmare questa lacuna. Per lo studio di ogni aspetto del linguaggio la risposta dovrebbe essere chiara. Soltanto nella misura in cui esiste una risposta a questo interrogativo, per lo meno implicita, è possibile intraprendere delle serie ricerche sulle questioni relative al linguaggio, tra cui quelle concernenti l’acquisizione e l’uso, l’origine, il mutamento, la diversità e le proprietà comuni, il linguaggio nella società, i meccanismi interni

che mettono in atto il sistema, tanto il sistema cognitivo in sé quanto i suoi svariati usi, funzioni distinte ancorché tra loro collegate. Nessun biologo oserebbe descrivere lo sviluppo e l’evoluzione dell’occhio, per fare un esempio, senza raccontarci qualcosa di piuttosto definito riguardo a che cos’è un occhio, e le stesse ovvietà si applicano alle indagini sul linguaggio. O dovrebbero. Stranamente non è così che in genere si sono affrontate le questioni, circostanza sulla quale tornerò più avanti. Esistono tuttavia ragioni ancor più essenziali per cercare di determinare con chiarezza che cos’è il linguaggio, ragioni direttamente collegate alla questione di che genere di creature siamo. Darwin non fu il primo a pervenire alla conclusione che «Gli animali inferiori differiscono dall’uomo solo per il potere infinitamente maggiore che l’uomo ha di associare i suoni alle idee più 1

diverse»; «infinitamente» è un’espressione tradizionale che oggi va interpretata alla lettera. Tuttavia Darwin fu il primo a esprimere questo concetto tradizionale nel quadro di un incipiente racconto dell’evoluzione umana. Ian Tattersall, uno dei maggiori specialisti dell’evoluzione umana, ne ha fornito una versione contemporanea. In una recente rassegna delle prove scientifiche di cui disponiamo attualmente, Tattersall osserva che un tempo si credeva che l’evoluzione avesse prodotto i primi precursori del nostro io successivo. La realtà però è un’altra: l’acquisizione della singolare sensibilità [umana] moderna è avvenuta all’improvviso e molto di recente. [...] L’espressione di questa nuova sensibilità è stata quasi certamente favorita dalla cruciale invenzione di quella che è la 2 caratteristica più notevole del nostro io moderno: il linguaggio.

Se le cose stanno così, allora una risposta all’interrogativo «che cos’è il linguaggio?» è importantissima per chiunque sia interessato alla comprensione del nostro io moderno. Tattersall colloca quell’evento brusco e repentino in un ristrettissimo arco temporale probabilmente compreso tra 50.000 e 100.000 anni fa. Le date esatte non sono chiare, e non sono rilevanti per quello che ci interessa in questa sede, tuttavia lo è la repentinità della comparsa. Ritornerò sull’ampia e fiorente letteratura dedicata all’argomento, che in genere adotta un punto di vista molto diverso. Se l’ipotesi di Tattersall è sostanzialmente precisa, come indicano le prove empiriche assai limitate di cui disponiamo, in quel breve arco di tempo comparve la capacità infinita di «associare i suoni alle idee più diverse», secondo le parole di Darwin. Questa capacità infinita risiede evidentemente in un

cervello finito. La nozione di sistemi finiti dotati di capacità infinita è stata intesa appieno a metà del Novecento, il che ha reso possibile formulare con chiarezza quella che secondo me dovrebbe essere riconosciuta come la proprietà più fondamentale del linguaggio, che chiamerò semplicemente Proprietà fondamentale: ogni lingua offre una serie illimitata di espressioni strutturate in maniera gerarchica le cui interpretazioni danno luogo a due interfacce, sensomotoria per l’espressione e concettuale-intenzionale per i processi mentali. Ciò consente una concreta formulazione dell’infinita capacità di Darwin o, risalendo molto più indietro, della classica affermazione di Aristotele secondo cui il linguaggio è suono dotato di senso, anche se le ricerche recenti mostrano che «suono» è troppo limitato, e ci sono buoni motivi, su cui ritornerò, per ritenere che la formulazione classica sia fuorviante rispetto ad alcuni aspetti importanti. Alla base, dunque, ogni linguaggio incorpora una procedura computazionale che risponde alla Proprietà fondamentale. Pertanto una teoria del linguaggio è per definizione una grammatica generativa, e ogni lingua costituisce ciò che in termini tecnici si chiama I-lingua, dove la «I» sta per interna, individuale e intensionale: noi siamo interessati a scoprire l’effettiva procedura computazionale, non un certo insieme di oggetti che enumera, ciò che, in termini tecnici, «genera con forza», più o meno analogo alle prove generate da un sistema assiomatico. A ciò si aggiunge la nozione di «generazione debole»: l’insieme delle espressioni generate, analogo all’insieme di teoremi generati. E c’è poi la nozione di «E-lingua», cioè lingua esterna, che molti – ma non io – identificano 3

con un corpus di dati, o con un insieme infinito generato in modo debole. Filosofi, linguisti, specialisti in scienze cognitive e informatici hanno spesso inteso il linguaggio come ciò che si genera in maniera debole. Non è nemmeno chiaro se la nozione di generazione debole sia applicabile al linguaggio umano. Al massimo è un derivato della ben più fondamentale nozione di I-lingua. Sono questioni dibattute in lungo e in largo negli anni Cinquanta, ma temo che non 4

siano state adeguatamente assimilate. In questa sede concentrerò l’attenzione sulla I-lingua, una proprietà biologica degli esseri umani, una sorta di sottocomponente (essenzialmente) del cervello, organo della mente/cervello nell’ampia accezione che la biologia attribuisce al termine «organo». Qui intendo la mente come il cervello considerato a un certo grado di astrazione. Tale impostazione viene talvolta

definita biolinguistica: alcuni la ritengono discutibile, ma a mio avviso senza fondamento. Negli anni passati, la Proprietà fondamentale ha resistito a una chiara formulazione. Secondo alcuni classici, come Saussure, la lingua (nel senso pertinente) è una riserva di immagini lessicali che risiede nella mente dei membri di una comunità, che «esiste solo in virtù d’una sorta di contratto stretto tra i membri di una comunità». Per Leonard Bloomfield, la lingua è un insieme di abitudini per reagire alle situazioni tramite suoni linguistici convenzionali e per rispondere a questi suoni con le azioni. Altrove Bloomfield ha definito la lingua come «la totalità degli enunciati formulati all’interno di una comunità linguistica», qualcosa di simile alla precedente concezione del linguaggio di William Dwight Whitney, cioè «l’insieme dei segni emessi e udibili per mezzo dei quali nella società umana si esprime principalmente il pensiero», quindi «segni udibili per il pensiero», anche se questa è una concezione piuttosto diversa, per degli aspetti sui quali tornerò. A sua volta, Edward Sapir ha definito la lingua «un metodo puramente umano e non istintivo per comunicare idee, 5

emozioni e desideri attraverso un sistema di simboli volontariamente prodotti». Con concezioni del genere non è strano seguire quella che Martin Joos chiama tradizione boasiana, secondo la quale le lingue possono distinguersi l’una dall’altra in modo arbitrario e ogni nuova lingua deve essere studiata senza 6

preconcetti. Di conseguenza, la teoria linguistica consiste in una serie di procedure analitiche tese a ridurre un insieme in una forma organizzata, in sostanza in tecniche di segmentazione e classificazione. È a Zellig Harris che si deve lo sviluppo maggiormente elaborato di questa concezione, in Methods in 7

Structural Linguistics. Una sua versione contemporanea prevede che la teoria 8

linguistica sia un sistema di metodi destinati a elaborare le espressioni. È comprensibile che in anni passati la domanda «che cos’è il linguaggio?» ricevesse soltanto risposte indefinite come quelle citate, e che si ignorasse la Proprietà fondamentale. Sorprende tuttavia scoprire che risposte analoghe abbiano corso ancora oggi nelle scienze cognitive contemporanee. Non è insolito che gli autori aprano uno studio attuale sull’evoluzione del linguaggio scrivendo: «intendiamo il linguaggio come tutto quel complesso di capacità di associare il 9

suono al significato, che comprende l’infrastruttura che lo sostiene»; si tratta in sostanza di una ripetizione dell’affermazione di Aristotele, troppo vaga per dare fondamento a ulteriori ricerche. Lo ripeto, nessun biologo studierebbe

l’evoluzione del sistema visivo non presupponendo altro, rispetto al fenotipo, se non che esso fornisce tutto quel complesso di capacità di associare gli stimoli alle percezioni insieme a ciò che lo sostiene. Se risaliamo alle origini della scienza moderna, rinveniamo delle intuizioni che presagiscono un quadro per certi versi simile a quello di Darwin e Whitney. Galileo si meravigliava dell’«eminenza di mente» della persona che «s’immaginò di trovar modo di comunicare i suoi più reconditi pensieri a qualsivoglia altra persona [...] con i vari accozzamenti di venti caratteruzzi sopra una carta», impresa che supera «tutte le invenzioni stupende», persino quelle di 10

«un Michelagnolo, un Raffaello, un Tiziano». Lo stesso riconoscimento, unito al massimo interesse per il carattere creativo del normale uso del linguaggio, sarebbe presto divenuto un elemento essenziale della scienza-filosofia cartesiana, di fatto un primitivo criterio per l’esistenza della mente quale sostanza separata. Del tutto ragionevolmente, questa visione condusse ai 11

tentativi, in particolare da parte di Géraud de Cordemoy, di ideare delle prove tese a determinare se esistessero altre creature dotate di una mente come la nostra. Si trattava di esperimenti alquanto simili al «test di Turing», ancorché concepiti in maniera del tutto diversa. Come una cartina di tornasole che misura l’acidità, gli esperimenti di Cordemoy miravano a trarre conclusioni riguardo al mondo reale. Come chiarì lo stesso Turing, il suo gioco dell’imitazione non nutriva ambizioni analoghe. Messi da parte questi importanti interrogativi, oggi non c’è motivo di dubitare dell’intuizione fondamentale di Cartesio, cioè che il linguaggio ha un carattere creativo: il linguaggio è tipicamente innovativo e sprovvisto di limiti, si adatta alle circostanze ma esse non ne sono la causa – distinzione cruciale – e può suscitare pensieri negli altri, i quali a loro volta riconoscono che avrebbero potuto esprimerli loro stessi. A seconda delle circostanze e delle condizioni interne, possiamo essere «incitati o indotti» a parlare in un certo modo piuttosto che in un altro, ma non siamo «obbligati» a farlo, come sostengono i successori di Cartesio. Dovremmo peraltro tenere in mente che l’ormai citatissimo aforisma di Wilhelm von Humboldt, cioè che il linguaggio implica l’uso infinito di mezzi finiti, si riferisce appunto all’uso. Più compiutamente, Humboldt ha scritto: Il linguaggio è infatti la vera e propria controparte di un ambito infinito e davvero illimitato, ossia dell’insieme di tutto il pensabile. Esso deve pertanto fare un uso infinito di mezzi finiti ed è in grado di far ciò in virtù dell’identità che sussiste tra la facoltà che produce il pensiero e quella che produce 12 il linguaggio.

Il filosofo tedesco si collocava così nella tradizione di Galileo e di altri, che associavano strettamente il linguaggio al pensiero; tuttavia si spinse ben oltre, formulando una variante della concezione tradizionale del linguaggio quale «caratteristica più notevole del nostro io moderno», secondo la recente espressione di Tattersall. Si sono compiuti grandi passi avanti nella conoscenza dei mezzi finiti che rendono possibile l’infinito uso del linguaggio, ma quest’ultimo rimane in larga misura un mistero, malgrado i notevoli progressi nella comprensione delle convenzioni che ne regolano l’uso appropriato, questione ben più ristretta. Quanto sia profondo questo mistero è una bella domanda, sulla quale ritornerò nel prossimo capitolo. Un secolo fa Otto Jespersen sollevò la questione delle modalità secondo cui le strutture del linguaggio «nascono nella mente del parlante» sulla base dell’esperienza finita, producendo una «nozione di struttura» che è «sufficientemente definita per guidarlo nella concezione di frasi proprie», vere e proprie «libere espressioni» tipicamente nuove tanto per chi parla quanto per chi 13

ascolta. Compito del linguista è dunque quello di scoprire questi meccanismi e il loro manifestarsi nella mente, per poi andare oltre verso il disvelamento dei «grandi principi alla base delle grammatiche di tutte le lingue»; in tal modo si penetrerà «più in profondità nella natura più intima del linguaggio e del pensiero umani». Sono idee che suonano molto meno strane oggi di quanto non fosse durante l’epoca della scienza strutturalista/comportamentista che ha dominato buona parte del settore, emarginando gli interrogativi di Jespersen e la tradizione dalla quale derivavano. Per riformulare il programma di Jespersen, occorre in primo luogo indagare la vera natura delle interfacce e delle procedure generative che le collegano nelle varie I-lingue, nonché determinare come compaiono nella mente e vengono utilizzate, e naturalmente il principale nucleo d’interesse sono le «libere espressioni». Oltre a ciò occorre spingersi oltre per svelare le proprietà biologiche condivise che determinano la natura delle I-lingue a cui hanno accesso gli esseri umani; la questione della GU, la grammatica universale, variante contemporanea dei «grandi principi alla base delle grammatiche di tutte le lingue», viene ormai riformulata sotto forma di questione del patrimonio genetico all’origine dell’esclusiva capacità linguistica dell’uomo e delle sue specifiche incarnazioni nelle I-lingue. Il cambio di prospettiva verso la grammatica generativa, avvenuto a metà del Novecento nel quadro della biolinguistica, ha aperto la strada a indagini di

maggiore portata sia sul linguaggio in quanto tale sia sulle questioni a esso relative. Si è estesa enormemente la gamma dei materiali empirici provenienti dall’immensa varietà tipologica delle lingue, le quali vengono studiate a un livello di profondità inimmaginabile sessant’anni fa. Questo mutamento ha inoltre arricchito considerevolmente la varietà di dati collegati allo studio di ogni singola lingua, includendo l’acquisizione, le neuroscienze, le dissociazioni e molto altro ancora, nonché ciò che si apprende dallo studio di altre lingue, sull’ormai consolidata ipotesi che l’attitudine al linguaggio dipende da un bagaglio biologico comune. Allorché, sessant’anni fa, si fecero i primissimi tentativi di costruzione di esplicite grammatiche generative, si scoprirono molti fenomeni sconcertanti che non erano stati osservati finché non si era formulata e affrontata in maniera chiara la Proprietà fondamentale e la sintassi era ancora considerata l’«uso delle parole» determinato dalla convenzione e dall’analogia. Tutto questo ricorda un po’ le prime fasi della scienza moderna. Davanti ai fenomeni noti, per millenni gli scienziati si erano accontentati di spiegazioni semplici: le pietre cadono e il vapore sale perché cercano il loro posto naturale; gli oggetti interagiscono a causa di simpatie e antipatie; percepiamo un triangolo perché la sua forma attraversa l’aria e si imprime nel nostro cervello; e così via. Quando Galileo e altri si concessero di farsi disorientare dai fenomeni della natura, nacque la scienza moderna, e subito si scoprì che molte delle nostre credenze erano insensate e le nostre intuizioni spesso errate. La disponibilità a farsi disorientare è una caratteristica preziosa da coltivare, dall’infanzia ai laboratori di ricerca. Uno degli enigmi relativi al linguaggio che venne alla luce sessant’anni fa e resta vivo ancora oggi, secondo me assai significativo nella sua portata, ha a che fare con un dato semplice ma curioso. Prendiamo la frase «istintivamente le aquile che volano nuotano». L’avverbio «istintivamente» è associato a un verbo, che è però nuotano, non volano. L’idea che le aquile che istintivamente volano nuotino non pone alcun problema, tuttavia non si può esprimere in questo modo. Analogamente la domanda «possono nuotare le aquile che volano?» riguarda la capacità di nuotare, non quella di volare. La cosa sconcertante è che l’associazione degli elementi iniziali della proposizione, «istintivamente» o «possono», al verbo avviene a distanza ed è basata su proprietà strutturali; non avviene dunque per prossimità né è basata su proprietà lineari, operazione computazionale molto più semplice che sarebbe ottimale nell’elaborazione del linguaggio. Quest’ultimo fa uso di una proprietà di minima distanza strutturale, non adoperando mai la ben più semplice

operazione della minima distanza lineare; in questo e in numerosi altri casi, nell’architettura del linguaggio si ignora la facilità di elaborazione. In termini tecnici, le regole sono invariabilmente dipendenti dalla struttura e ignorano l’ordine lineare. L’enigma sta nel perché deve essere così, non solo in inglese ma in ogni lingua, e non soltanto per le costruzioni come quelle del nostro esempio ma anche per tutte le altre, in una vasta gamma. Esiste una spiegazione tanto semplice quanto plausibile riguardo al fatto che in casi come questo il bambino conosce automaticamente la risposta giusta, anche se le prove sono scarse o inesistenti; l’ordine lineare semplicemente non esiste per chi apprende una lingua ed è messo di fronte a esempi del genere: questi è guidato da un principio fondamentale che ne restringe la ricerca alla minima distanza strutturale e gli impedisce la ben più semplice operazione della minima distanza lineare. Non conosco altre spiegazioni. E naturalmente questa ipotesi esige ulteriori spiegazioni: perché è così? Cos’ha di speciale il carattere geneticamente determinato del linguaggio – la GU – che impone questa particolare condizione? Il principio della distanza minima è largamente impiegato nell’architettura del linguaggio e si può supporre che si inscriva in un principio più generale, che chiameremo Computazione minima, il quale a sua volta è presumibilmente un esempio di una ben più generale proprietà del mondo organico, o persino del mondo nella sua totalità. Deve comunque esistere una proprietà speciale dell’architettura del linguaggio che limita la Computazione minima alla distanza strutturale, invece che a quella lineare, malgrado la maggiore semplicità di quest’ultima nella computazione e nell’elaborazione. A sostegno della medesima conclusione ci sono prove indipendenti provenienti da altre fonti, tra cui le neuroscienze. Un gruppo di ricerca di Milano ha studiato l’attività cerebrale di soggetti esposti a due diverse tipologie di stimolo: lingue inventate che rispondono alla GU e altre non conformi alla GU; in quest’ultimo caso, per esempio, una regola della negazione che pone l’elemento negativo dopo la terza parola, operazione computazionale molto più semplice delle regole della negazione proprie della lingua umana. Si è scoperto che nel caso della conformità alla GU si presenta la normale attivazione delle 14

aree del linguaggio, ma non quando viene utilizzato l’ordine lineare. In tal caso il problema viene reinterpretato come un enigma non linguistico, come indica l’attività cerebrale. Il lavoro di Neil Smith e Ianthi-Maria Tsimpli con un soggetto menomato dal punto di vista cognitivo ma dotato del linguaggio ha raggiunto conclusioni analoghe, tuttavia, cosa piuttosto interessante, ha scoperto

che anche i normodotati erano incapaci di affrontare le violazioni della GU che utilizzavano l’ordine lineare. Conclude Smith: «sembra che l’impianto linguistico dell’esperimento abbia inibito i soggetti dal compiere l’adeguata generalizzazione dipendente dalla struttura, anche se riuscivano facilmente a 15

elaborare problemi paragonabili in un contesto non linguistico». Nel campo delle scienze cognitive computazionali c’è una piccola attività che cerca di mostrare che queste proprietà del linguaggio si possono apprendere con l’analisi statistica dei cosiddetti Big Data. Si tratta in effetti di una delle pochissime proprietà rilevanti del linguaggio che sia stata affrontata seriamente in questi termini. Si è dimostrato che ogni tentativo sufficientemente chiaro per 16

essere indagato è irrimediabilmente fallito. Tuttavia la cosa più significativa da sottolineare innanzi tutto è che questi tentativi sono fuori luogo. Se si rivelassero fruttuosi, circostanza pressoché impossibile, lascerebbero intatto l’interrogativo iniziale, l’unico serio: perché il linguaggio utilizza invariabilmente la complessa proprietà computazionale della minima distanza strutturale, mentre ignora regolarmente la più agevole opzione della minima distanza lineare? L’incapacità di cogliere questo punto è il segno di una mancanza di quella disponibilità a farsi sconcertare di cui ho parlato prima, primo passo verso una seria ricerca scientifica, come si riconosce nelle scienze dure per lo meno a partire da Galileo. Secondo una tesi più generale, in quelle zone essenziali del linguaggio in cui si applicano la sintassi e la semantica, l’ordine lineare non è mai tenuto in conto dalla computazione. Pertanto l’ordine lineare è una dimensione periferica del linguaggio, un riflesso delle proprietà del sistema sensomotorio, che lo richiede: non siamo in grado di parlare in parallelo o di produrre strutture, ma soltanto sequenze di parole. Nei suoi aspetti fondamentali, il sistema sensomotorio non è specificamente adattato al linguaggio: sembra che le componenti essenziali per l’espressione e la percezione fossero presenti già molto prima della comparsa del linguaggio. È provato che il sistema uditivo 17

degli scimpanzé potrebbe essere discretamente adatto al linguaggio umano, malgrado le scimmie non possano compiere nemmeno il primo passo verso l’acquisizione del linguaggio, estraendo dati relativi al linguaggio dalla «rigogliosa e ronzante confusione» che le circonda, mentre i neonati umani lo fanno di colpo, automaticamente, impresa tutt’altro che da poco. E anche se pare che la capacità di controllare il tratto vocale per parlare sia specifica degli esseri umani, non si può dare troppo peso a questa circostanza, dal momento che la produzione del linguaggio umano è indipendente dalle modalità in cui avviene,

come hanno stabilito le recenti ricerche sulla lingua dei segni, e sono pochi i motivi per dubitare che le scimmie dispongano di adeguate capacità gestuali. È dunque evidente che nell’acquisizione e nell’architettura del linguaggio entrano in gioco proprietà cognitive assai più profonde. Benché la questione non sia risolta, prove considerevoli indicano che la tesi più generale è di fatto corretta: l’architettura fondamentale del linguaggio ignora l’ordine e altre disposizioni esterne. In particolare, nei casi essenziali l’interpretazione semantica dipende dalla gerarchia, non dall’ordine che si rinviene nelle forme espresse. Se le cose stanno così, la Proprietà fondamentale non è esattamente come l’ho formulata prima, né come è formulata nella produzione scientifica recente, compresi i miei articoli. Piuttosto, la Proprietà fondamentale è la generazione di una serie illimitata di espressioni gerarchicamente strutturate che corrispondono all’interfaccia concettualeintenzionale, che costituiscono una sorta di «linguaggio del pensiero», molto probabilmente unico nel suo genere, anche se qui sorgono interrogativi interessanti. E interrogativi interessanti e cruciali sorgono anche riguardo alla condizione e alla natura di questa corrispondenza, interrogativi che tuttavia lascerò da parte. Se queste argomentazioni sono generalmente corrette, ci sono buoni motivi per tornare a una concezione tradizionale del linguaggio come «strumento del pensiero» e di conseguenza rivedere la massima di Aristotele; il linguaggio non è suono dotato di senso ma senso dotato di suono: più in generale, dotato di una forma di espressione tipicamente sonora, sebbene esistano a nostra disposizione anche altre modalità: le ricerche della generazione precedente sul linguaggio dei segni hanno messo in luce notevoli analogie con la lingua parlata rispetto alla struttura, all’acquisizione e alla rappresentazione neuronale, nonostante sia del tutto diversa la modalità di espressione. Vale la pena di osservare che la lingua perviene raramente all’espressione. Nella maggior parte dei casi non viene affatto espressa, prende piuttosto la forma di una sorta di dialogo interno. Le limitate ricerche in materia, che risalgono ad 18

alcune osservazioni di Vygotskij, rispondono a ciò che lascia intendere l’introspezione, per lo meno la mia: alla coscienza giungono soltanto frammenti sparsi. Talvolta interiormente appaiono d’improvviso espressioni pienamente formate, con una rapidità eccessiva che non consente di impegnare gli articolatori e probabilmente nemmeno di far sì che ricevano delle istruzioni. Si tratta di una questione interessante che è stata poco studiata, ma che si potrebbe sottoporre a delle ricerche, e che per di più presenta molte ramificazioni.

A parte l’ultima questione, l’indagine sull’architettura del linguaggio fornisce buone ragioni per prendere sul serio la concezione tradizionale secondo la quale il linguaggio è essenzialmente uno strumento del pensiero. Pertanto l’espressione sarebbe un processo secondario, e le sue proprietà un riflesso del sistema sensomotorio, in larga misura o pienamente indipendente. Un’ulteriore ricerca va a sostegno di tale conclusione. Ne consegue che l’elaborazione è un aspetto periferico del linguaggio, e che gli usi particolari della lingua dipendenti dall’espressione, tra cui la comunicazione, sono persino più periferici, contrariamente a quanto afferma la tesi, priva di fondamento, che si è praticamente trasformata in un dogma. Ne conseguirebbe inoltre che le vaste congetture che negli ultimi anni si sono andate sviluppando intorno all’evoluzione del linguaggio seguono la pista sbagliata, concentrate come sono sulla comunicazione. È infatti ormai quasi un dogma che la funzione del linguaggio sia la comunicazione. Ecco una tipica formulazione di quest’idea: È importante che in una comunità linguistica le parole siano utilizzate con lo stesso significato. Se si verifica, tale condizione agevola la finalità principale del linguaggio, cioè la comunicazione. Se un individuo non utilizza le parole nel senso che vi attribuisce la maggior parte delle persone, non riuscirà a comunicare efficacemente con gli altri. E in tal modo vanificherebbe la principale finalità 19 della lingua.

In primo luogo è curioso che si attribuisca una finalità alla lingua. Le lingue non sono utensili progettati dagli esseri umani, bensì oggetti biologici, come l’apparato visivo, il sistema immunitario o quello digerente. Talvolta si dice che questi organi hanno delle funzioni, che servono a qualcosa. Tuttavia anche questa idea è tutt’altro che chiara. Prendiamo la colonna vertebrale. Ha la funzione di tenerci eretti, di proteggere i nervi, di produrre cellule sanguigne, di accumulare il calcio o tutto questo insieme? Domande simili emergono allorché ci interroghiamo riguardo alla funzione e all’architettura del linguaggio. Qui normalmente entrano in gioco delle considerazioni di ordine evolutivo, ma non sono proprio di scarso rilievo; e lo stesso vale per la colonna vertebrale. Per quanto riguarda il linguaggio, le varie congetture sull’evoluzione generalmente si rivolgono a quel genere di sistemi comunicativi che si ritrovano in tutto il regno animale, tuttavia si tratta dell’ennesimo riflesso del dogma moderno, ed è probabile che conducano a un vicolo cieco, per le ragioni già citate, sulle quali ritornerò. Inoltre, anche se la lingua viene utilizzata per la comunicazione, non c’è

bisogno che i significati (o i suoni, o le strutture) siano condivisi. La comunicazione non è una questione di sì o no, ma di più o meno. Se le similarità non sono sufficienti, la comunicazione in una certa misura non riesce, come nella vita normale. Benché il termine «comunicazione» sia in larga parte privo di un senso sostanziale e venga adoperato come termine generico per designare vari tipi di interazione sociale, nell’effettivo uso del linguaggio esercita comunque un ruolo minore, per quello che vale questa osservazione. In sostanza, il dogma canonico non ha alcun fondamento, anzi ormai esistono prove importanti che ci dicono che è semplicemente falso. Indubbiamente il linguaggio viene talvolta utilizzato per la comunicazione, come lo stile nell’abbigliamento, l’espressione del viso, la postura e molto altro. Tuttavia le proprietà fondamentali dell’architettura linguistica confermano quella ricca tradizione che considera sostanzialmente il linguaggio come uno strumento del pensiero, anche se non ci spingiamo, come fa Humboldt, fino a identificarli. La conclusione si rivela ancor più solida se valutiamo più da vicino la Proprietà fondamentale. Naturalmente ricerchiamo la definizione più semplice di tale proprietà, la teoria con il minor numero di condizioni arbitrarie, ognuna delle quali costituisce peraltro un ostacolo verso la spiegazione definitiva dell’origine del linguaggio. E ci chiediamo quanto ci porterà lontano questo ricorso al comune metodo scientifico. La più semplice operazione computazionale, che in un modo o nell’altro fa parte di ogni importante procedura computazionale, prende gli oggetti X e Y, già costruiti, e forma un nuovo oggetto Z. La chiameremo Fusione. Il principio della Computazione minima determina che né X né Y sono modificati dalla Fusione, e che appaiono senza un ordine particolare in Z. Di qui la Fusione (X, Y) = {X, Y}. Questo naturalmente non significa che il cervello contiene degli insiemi, come sostengono certe attuali interpretazioni errate, ma piuttosto che ciò che accade nel cervello ha delle proprietà che si possono adeguatamente descrivere in questi termini; analogamente, non ci aspettiamo di trovare il diagramma di Kekulé in una provetta contenente benzene. Si noti che se sotto tale aspetto il linguaggio risponde davvero al principio della Computazione minima, disponiamo di una risposta di considerevole portata all’enigma del perché l’ordine lineare è soltanto una proprietà secondaria del linguaggio, alla quale evidentemente non fanno ricorso le essenziali computazioni sintattiche e semantiche: da questa prospettiva l’architettura del linguaggio è perfetta (e di nuovo dovremmo chiederci perché). Approfondendo

la questione, si trovano prove a sostegno di tale conclusione. Supponiamo che X e Y vengano fusi, e che nessuno dei due faccia parte dell’altro, come quando si combinano leggere e quel libro per formare l’oggetto sintattico corrispondente a «leggere un libro». Chiameremo questo caso Fusione esterna. Supponiamo ora che uno faccia parte dell’altro, come quando combiniamo Y = quale libro e X = John leggere quale libro per formare quale libro John leggere quale libro, che, grazie a ulteriori operazioni di cui riparlerò, si esprime come «quale libro ha letto John». Si tratta di un esempio dell’onnipresente fenomeno dello spostamento nella lingua naturale: le frasi vengono udite in un luogo ma interpretate al contempo sia lì che in un altro luogo, perciò la proposizione viene intesa come «per quale libro x, John legge il libro x». In questo caso, il risultato della Fusione di X e Y è di nuovo (X, Y), ma implica due copie di Y (= quale libro), l’originale che resta in X, e la copia spostata fusa con X. Questa si chiama Fusione interna. È importante evitare un errore di interpretazione piuttosto comune, che si ritrova anche nella letteratura specialistica. Non esiste alcuna operazione di Copia o Rifusione. Accade che la Fusione interna generi due copie, ma questo è l’esito della Fusione secondo il principio della Computazione minima, che mantiene la Fusione nella sua forma più semplice, senza alterare l’uno o l’altro degli elementi fusi. Le nuove nozioni di Copia e Rifusione non sono soltanto superflue, ma provocano anche considerevoli difficoltà, a meno che non siano rigidamente vincolate a rispettare le condizioni assai specifiche della Fusione interna, che si soddisfano automaticamente in virtù della più semplice nozione di Fusione. Fusione esterna e interna rappresentano gli unici due casi possibili di Fusione binaria. Entrambe emergono liberamente se formuliamo la Fusione in maniera opzionale, applicandola a due oggetti sintattici già costruiti, senza ulteriori condizioni. Sarebbe necessaria una clausola tale da escludere entrambi i casi di Fusione, o da complicarli entrambi. Questa è una circostanza importante. Per molti anni si è dato per scontato – anche da parte mia – che lo spostamento fosse una sorta di «imperfezione» del linguaggio, una strana proprietà che andava spiegata con dispositivi complessi e nuove ipotesi riguardo alla GU. E invece si è rivelato sbagliato. Lo spostamento è ciò che dovremmo attenderci sulla base delle ipotesi più semplici. Sarebbe un’imperfezione se mancasse. A volte si ipotizza che la Fusione esterna sia per certi versi più semplice, e per questo dovrebbe occupare un posto più rilevante nell’architettura o nell’evoluzione della lingua. È una convinzione priva di fondamento. Se mai, si

può sostenere che è la Fusione interna a essere più semplice, giacché la computazione che le è propria esige molto meno spazio di lavoro; ma non è una cosa su cui porre troppa attenzione. Un altro dato importante è che la Fusione interna nella sua forma più semplice – che risponde al principio generale della Computazione minima – produce normalmente la struttura adeguata all’interpretazione semantica, come ho appena illustrato nel semplice caso «quale libro ha letto John». Tuttavia tali strutture non sono adatte al sistema sensomotorio: in tutte le lingue si pronuncia soltanto la copia strutturalmente più rilevante, come in questo caso; la copia inferiore viene cancellata. Esiste una categoria di eccezioni significative che di 20

fatto sostengono la tesi generale, ma non la tratterò in questa sede. La cancellazione delle copie deriva da un’altra istanza incontrovertibile della Computazione minima: computare e articolare il meno possibile. Le frasi articolate che ne risultano presentano dei vuoti. Chi ascolta deve comprendere dove si trova l’elemento mancante. Come sanno gli studiosi della percezione e dell’analisi sintattica, questo genera difficoltà per l’elaborazione del linguaggio, i cosiddetti problemi di riempimento dei vuoti. Anche in questa vastissima categoria di casi, l’architettura della lingua favorisce la computazione minima e non tiene conto delle complicazioni nell’elaborazione e nell’uso. Si noti che ogni teoria linguistica che alla Fusione interna sostituisce altri meccanismi deve soddisfare un duplice onere della prova: deve giustificare al contempo la clausola che impedisce la Fusione interna e i nuovi meccanismi destinati a dar conto dello spostamento, anzi dello spostamento con copie, che generalmente costituiscono le forme giuste per l’interpretazione semantica. Le medesime conclusioni si applicano a casi più complessi. Prendiamo per esempio la frase «[quale dei suoi quadri] ha convinto il museo che [[ogni pittore] preferisce]?» Deriva per Fusione interna dalla seguente struttura sottostante: «[quale dei suoi quadri] ha convinto il museo che [[ogni pittore] preferisce [quale dei suoi quadri]]?», formata direttamente per Fusione interna con uno spostamento e due copie. La frase «quale dei suoi quadri», che viene pronunciata, è interpretata come l’oggetto di «preferisce», nella posizione del vuoto, analoga a «uno dei suoi quadri» in «ha convinto il museo che [[ogni pittore] preferisce [uno dei suoi quadri]». Ed è proprio questa l’interpretazione che fornisce la struttura sottostante con le due copie. Per di più il rapporto quantificatore-variabile tra ogni e suoi ritorna in «[quale dei suoi quadri] ha convinto il museo che [[ogni pittore] preferisce]?». La risposta può essere «il primo», diverso per ogni pittore, come in una

interpretazione di «ha convinto il museo che [[ogni pittore] preferisce [uno dei suoi quadri]]». Per contro, non è possibile dare una risposta del genere alla domanda, strutturalmente simile, «[quale dei suoi quadri] ha convinto il museo che [[a ogni pittore] piacciono i fiori]?», nel qual caso «i suoi quadri» non rientra nell’ambito di «ogni pittore». Evidentemente è la copia non pronunciata a generare la struttura necessaria al rapporto quantificatore-variabile, nonché all’interpretazione verbo-oggetto. Ancora una volta i risultati derivano direttamente dalla Fusione interna e dalla cancellazione della copia nel corso dell’espressione. Gli esempi di questo tipo sono numerosi, e il loro interesse aumenta con il crescere della complessità. Esattamente come nei casi più semplici, come «istintivamente, le aquile che volano nuotano», è inconcepibile che una forma qualsiasi di elaborazione dei dati produca questi risultati. Chi apprende una lingua non ha a disposizione dati pertinenti. L’esito deve pertanto derivare «dalla mano originale della natura», per riprendere l’espressione di Hume, cioè, secondo i nostri termini, dal patrimonio genetico, specificamente dall’architettura del linguaggio com’è determinata dalla GU nell’interazione con i principi generali come la Computazione minima. Possiamo in tal modo trarre delle conclusioni ampie e solide riguardo alla natura della GU. Nella letteratura scientifica si leggono regolarmente affermazioni secondo le quali la GU è stata confutata, oppure non esiste. Dev’esserci un equivoco. Negare l’esistenza della GU – cioè di una proprietà biologica alla base della capacità linguistica – significherebbe sostenere che grazie a un miracolo gli esseri umani hanno il linguaggio, mentre gli altri organismi no. Probabilmente in queste asserzioni non ci si riferisce alla GU, bensì piuttosto alle generalizzazioni descrittive, per esempio alle importantissime tesi sugli universali della lingua avanzate da Joseph Greenberg. Per esempio, nella premessa a una nuova 21

edizione di Word and Object di Quine, Patricia Churchland scrive, ricorrendo a una citazione fuori luogo, che «gli universali linguistici, a lungo prediletti dai teorici, hanno subito uno scacco e sono caduti uno a uno davanti ai dati contrari raccolti dai linguisti sul campo». Presumibilmente la Churchland crede che questa sia la conferma dell’opinione di Quine, cioè che «Una opportuna riflessione sul metodo e sulle prove dovrebbe tendere a spegnere molte delle chiacchiere a proposito degli universali linguistici», cioè le generalizzazioni relative al linguaggio. In realtà, sono proprio i linguisti sul campo che hanno scoperto e confermato non soltanto le importanti generalizzazioni universalmente valide, ma anche le proprietà invarianti della GU. L’espressione

«linguisti sul campo» indica i linguisti che si occupano di dati, e poco importa che lavorino nella giungla amazzonica oppure in un ufficio di Belem o di New York. C’è una piccola parte di verità in queste osservazioni: è probabile che le generalizzazioni presentino delle eccezioni, che possono essere assai preziose quale stimolo alla ricerca; per esempio, le eccezioni alla cancellazione delle copie, a cui ho già accennato. Nelle scienze questa è un’esperienza comune. La scoperta delle perturbazioni nell’orbita di Urano non ha provocato l’abbandono dei principi di Newton e delle leggi di Keplero, né ha portato alla conclusione più generale che non esistono leggi fisiche, bensì alla supposizione – e in seguito alla scoperta – dell’esistenza di un altro pianeta, Nettuno. Di solito nelle scienze le eccezioni a generalizzazioni descrittive in larga misura valide esercitano un ruolo analogo, e lo stesso è avvenuto ripetutamente nello studio del linguaggio. Esistono dunque prove convincenti e di vasta portata che, se il linguaggio possiede un’architettura ottimale, può offrire strutture adeguate all’interpretazione semantica, ma queste generano difficoltà di percezione ed elaborazione del linguaggio (e dunque di comunicazione). Gli esempi sono tantissimi. Prendiamo per esempio la passivizzazione. Si è detto che la passivizzazione va a sostegno della convinzione secondo la quale il linguaggio è ben concepito per la comunicazione. Così nella frase «i ragazzi hanno preso i libri», se vogliamo porre in primo piano «i libri», la forma passiva ci consente di farlo dicendo «i libri sono stati presi dai ragazzi». In effetti, è piuttosto il contrario. L’architettura della lingua, che deriva dalla Computazione minima, esclude regolarmente tale opzione. Supponiamo che nella frase «i ragazzi hanno preso i libri dalla biblioteca» volessimo porre in primo piano «la biblioteca», producendo dunque «la biblioteca è stata presa i libri dalla dai ragazzi». L’architettura della lingua esclude una costruzione del genere, ennesimo ostacolo alla comunicazione. I casi interessanti sono quelli nei quali si instaura un conflitto diretto tra efficienza computazionale ed efficienza comunicativa. In ogni caso noto prevale la prima, mentre viene sacrificata la facilità di comunicazione. Ci sono noti molti casi del genere, per esempio le ambiguità strutturali e le cosiddette «frasi labirinto», del tipo «the horse raced past the barn fell» (il cavallo fatto correre oltre la stalla cadde, in cui il participio passato raced viene inizialmente scambiato per un tempo passato attivo), che di primo acchito viene interpretata come sgrammaticata. Un altro caso di particolare interesse è costituito dalle cosiddette isole – costruzioni nelle quali è esclusa l’estrazione (Fusione

interna) –, per quanto si possano spiegare invocando i principi dell’efficienza computazionale. Lo illustrano bene le domande che si associano alla frase «hanno chiesto se i meccanici hanno riparato le auto». Possiamo chiederci di «quante auto» si tratti, producendo così «hanno chiesto se i meccanici hanno riparato quante auto?» Oppure possiamo domandarci «quanti meccanici», il che dà «hanno chiesto se quanti meccanici hanno riparato le auto?» I due interrogativi sono assai diversi per condizione: chiedersi «quanti meccanici» è una buona idea, che deve però essere espressa con una circonlocuzione, ostacolando nuovamente la comunicazione; tecnicamente si tratta di una violazione dell’ECP (empty category principle, principio di categoria vuota). Anche in questo caso sembra che vi siano delle eccezioni, per esempio in italiano. Il riconoscimento di tale circostanza ha condotto Luigi Rizzi a delle 22

scoperte riguardo alla natura delle lingue a soggetto nullo, scoperte che confermano l’ECP, il che illustra nuovamente il valore delle generalizzazioni proposte e delle loro eccezioni apparenti. Sono molti i casi simili. Nella misura in cui sono comprese, le strutture derivano dal libero funzionamento delle regole più semplici, che generano difficoltà di percezione ed elaborazione del linguaggio. Di nuovo, ove la facilità di elaborazione e l’efficienza comunicativa contrastano con l’efficienza computazionale nell’architettura del linguaggio, in ogni circostanza nota sono le prime a essere sacrificate. Ciò dà ulteriore sostegno all’idea del linguaggio quale strumento del pensiero, per molti aspetti perfettamente concepito, in cui l’espressione, e a maggior ragione la comunicazione e gli altri usi del linguaggio esternato, sono processi secondari. Come spesso accade, i fenomeni osservati concretamente forniscono un’immagine fuorviante dei principi soggiacenti. L’arte essenziale della scienza sta nel ridurre, secondo le parole del premio Nobel per la chimica Jean Baptiste Perrin, «il visibile complicato all’invisibile semplice». Per chiarire ancor più ciò che è in gioco, ripercorriamo il ragionamento esposto in queste pagine e diamogli dei principi. Cominciamo dalla Proprietà fondamentale del linguaggio e chiediamoci quale potrebbe essere il sistema computazionale ottimale in grado di coglierla, adottando il normale metodo scientifico. La risposta è la Fusione nella sua forma più semplice, con le sue due varianti, la Fusione esterna e la Fusione interna, con quest’ultima che dà vita alla «teoria della copia del movimento». In una vasta gamma di casi importanti, si danno così forme adeguate all’interpretazione semantica al livello dell’interfaccia concettuale-intenzionale, forme prive di ordine o di altri assetti.

Quindi un processo secondario di espressione trasforma gli oggetti generati internamente in una forma adattata al sistema sensomotorio, con assetti che variano a seconda della modalità sensoriale dell’espressione. Anche quest’ultima è soggetta alla Computazione minima, perciò le copie vengono cancellate, circostanza che genera difficoltà di elaborazione e uso del linguaggio (compreso il caso speciale della comunicazione). Una ripercussione degli assunti secondari è che le regole sono invariabilmente dipendenti dalla struttura, circostanza che risolve dunque l’enigma analizzato all’inizio e altri analoghi. Un progetto di ricerca più ampio – in anni recenti denominato programma minimalista – poggia sull’ipotesi ottimale – la cosiddetta tesi minimalista forte (strong minimalist thesis, SMT) – e si chiede quanto potrà reggere di fronte alle complessità rilevate e alla varietà di lingue del mondo. Se si individuerà un vuoto, il compito consisterà nel chiedersi se si possono reinterpretare i dati, oppure se si possono rivedere i principi della computazione ottimale, in modo da risolvere gli enigmi nel quadro della SMT. In questo campo affascinante e inatteso, tale prospettiva riafferma in qualche modo il precetto di Galileo, secondo il quale la natura è semplice, ed è compito dello scienziato provarlo. Il compito è ovviamente impegnativo. Credo sia giusto dire che appare molto più realistico oggi rispetto soltanto a qualche anno fa, nonostante permangano enormi problemi, naturalmente. Tutto ciò solleva di colpo un ulteriore interrogativo. Perché l’architettura della lingua dovrebbe essere ottimale, come sostiene la SMT? Da tale interrogativo scaturisce quello sull’origine del linguaggio. L’ipotesi della SMT concorda con le prove molto limitate di cui disponiamo riguardo alla comparsa del linguaggio, a quanto pare piuttosto recente e improvvisa nella cronologia dell’evoluzione, come ha affermato Tattersall. Oggi si può legittimamente ipotizzare – spianando la strada a nuove ricerche e indagini – che una lieve riconfigurazione del cervello abbia prodotto la Fusione, naturalmente nella forma più semplice, fornendo le basi per un pensiero illimitato e creativo, il «grande balzo in avanti» rivelato dalle testimonianze archeologiche, e per le notevoli differenze che separano gli uomini moderni dai loro predecessori e dal resto del regno animale. Se tale congettura fosse confermata, disporremmo di una risposta agli interrogativi riguardanti l’apparente architettura ottimale della lingua: è ciò che ci si dovrebbe attendere nelle circostanze ipotizzate, senza l’azione della pressione selettiva o di altro tipo, in modo che il sistema nascente possa seguire semplicemente le leggi della natura, in questo caso i principi della Computazione minima, un po’ come si forma un fiocco di neve.

Queste osservazioni restano comunque in superficie. Forse possono servire per illustrare il perché la risposta alla domanda «che cos’è il linguaggio?» sia di primaria importanza, nonché per mostrare come una forte attenzione a tale questione fondamentale possa produrre delle conclusioni dotate di molte ramificazioni per lo studio di che tipo di creature siano gli esseri umani.

Capitolo secondo Che cosa possiamo conoscere?

Nel capitolo precedente ho analizzato la domanda «Che cos’è il linguaggio?» e ho riflettuto su ciò che un’indagine approfondita su questa proprietà umana può insegnarci riguardo al tipo di creature che siamo. Molto, credo io, come ho cercato di illustrare. Adesso vorrei passare alle questioni concernenti più in generale le nostre capacità cognitive, e in particolare al modo in cui influenzano portata e limiti della nostra comprensione. Esiste un concetto denominato «nuovo misterianesimo», coniato da Owen Flanagan, che lo ha definito come un atteggiamento postmoderno concepito per «infilare un grosso chiodo nel cuore dello scientismo», e ha affermato che la 1

coscienza non si può mai spiegare completamente. Il termine è stato esteso a questioni più ampie che riguardano la portata e la natura delle spiegazioni accessibili all’intelligenza umana. Qui sotto utilizzerò il termine nell’accezione più vasta, che mi sembra più giusta. Mi si accusa di essere uno dei responsabili di questa strana eresia postmoderna, alla quale preferisco però dare un nome diverso: ovvietà. Era quello che pensavo quarant’anni fa, quando proposi una distinzione tra problemi, 2

che rientrano nelle nostre capacità cognitive, e misteri, che non vi rientrano. Nei termini che ho preso in prestito dall’abduzione (come descritta da Charles Sanders Peirce), la mente umana è un sistema biologico che dispone di una serie limitata di «ipotesi ammissibili», le quali costituiscono i fondamenti dell’indagine scientifica umana e, in base allo stesso ragionamento, dei risultati cognitivi in genere. Per ragioni puramente logiche, il sistema deve escludere altre ipotesi e altre idee perché del tutto incomprensibili per noi, oppure perché troppo lontane in una gerarchia della comprensione per essere davvero comprensibili, anche se magari potrebbero esserlo per una mente strutturata in maniera diversa; ma questa forse non è l’opinione di Peirce. La GU esercita un ruolo più o meno analogo rispetto alla lingua, e l’osservazione essenziale si estende a tutte le capacità biologiche.

Talvolta si interpreta la nozione di abduzione di Peirce come un’inferenza alla migliore spiegazione, ma per quanto non sviluppata, tale nozione va ben oltre. Peirce insisteva con forza sui limiti delle «ipotesi ammissibili», che riteneva piuttosto ristretti, prerequisito per «immaginare teorie corrette». Se lui era interessato all’accrescimento del sapere scientifico, la stessa logica si applica all’acquisizione delle conoscenze comuni, in particolare all’acquisizione della 3

lingua. Lo stesso dovrebbe valere per le domande che possiamo formulare; la nostra struttura innata fornisce una grande varietà di domande formulabili, mentre ne esclude altre che una mente diversa potrebbe riconoscere come quelle giuste da porre. Ho anche citato le idee per certi versi simili di Hume, il quale ammetteva che, proprio come per le «bestie», la «maggior parte del sapere umano» dipende da «una specie di istinti naturali», che derivano «dalla mano originale della natura», cioè il patrimonio genetico, secondo la nostra terminologia. Si applicano le medesime conclusioni. Tutto questo mi sembra piuttosto prossimo alla semplice ovvietà, anche se forse non per le ragioni che hanno condotto molte figure eminenti a conclusioni abbastanza simili. Se siamo organismi biologici, e non angeli, le nostre facoltà cognitive sono simili a quelle che si chiamano «capacità fisiche» e dovrebbero essere studiate di più come lo sono gli altri sistemi del corpo. Prendiamo per esempio il sistema digerente. I vertebrati dispongono di «un secondo cervello», il «cervello intestinale», cioè il sistema nervoso enterico, «sede indipendente di integrazione ed elaborazione neurale». La struttura e le cellule che lo compongono sono «più simili a quelle del cervello di quelle di qualsiasi altro organo periferico». Ci sono più cellule nervose nell’intestino che nella spina dorsale, di fatto più «che in tutto il resto del sistema nervoso periferico», 100 milioni nel solo intestino tenue. Il cervello intestinale è «un grande deposito di sostanze chimiche, all’interno del quale è rappresentata ciascuna delle classi di neurotrasmettitori che si trova nel cervello», mentre la comunicazione interna è «ricca e simile a quella del cervello nella sua complessità». L’intestino è «il solo organo a contenere un sistema nervoso intrinseco in grado di mediare i riflessi in completa assenza di input dal cervello o dal midollo spinale». «Il cervello dell’intestino si è evoluto al passo con quello della testa». È diventato «un centro di elaborazione dati moderno e pieno di vita che ci consente di portare a termine alcuni compiti molto importanti e spiacevoli senza alcuno sforzo mentale»; e quando siamo fortunati lo fa «in modo efficace e al di fuori della nostra consapevolezza». È possibile inoltre che «abbia le proprie

psiconevrosi», tanto che oggi alcuni ricercatori sostengono che è soggetto a patologie cerebrali come l’Alzheimer, il Parkinson e l’autismo. Possiede dei propri trasduttori sensoriali e un apparato regolatore, di cui è attrezzato per affrontare i compiti specifici imposti dagli organi con i quali interagisce, 4

escludendo gli altri. Indubbiamente «la mano originale della natura» determina ciò che il cervello intestinale può fare o non fare, i «problemi» che può risolvere e i «misteri» al di fuori della sua portata. Indubbiamente portata e limiti sono legati: le proprietà strutturali che generano la portata stabiliscono anche i limiti. Nel caso del cervello intestinale, non esiste alcun dibattito riguardo a una oscura «ipotesi dell’innatismo», che invece si condanna spesso nel caso del linguaggio ma non si difende mai, perché un’ipotesi del genere non esiste, a parte varie idee sulla componente genetica. Nessuno si lamenta perché dopo tutti questi anni la componente genetica del cervello intestinale non è del tutto compresa, esattamente come per gli altri sistemi. Lo studio del cervello intestinale è internalista. E non esistono critiche di carattere filosofico basate sul fatto che ciò che accade nel sistema digerente dipende sostanzialmente da questioni esterne a esso, provenienti da altre parti dell’organismo o dall’esterno della pelle. Si studiano la natura del sistema interno e le sue relazioni con l’esterno, senza dilemmi filosofici. Si ritiene che interessi analoghi pongano seri dilemmi allo studio del cervello principale e delle sue capacità, in particolare il linguaggio umano. Questo mi sembra l’esempio di una strana tendenza a trattare gli aspetti mentali dell’organismo umano diversamente dai cosiddetti aspetti «fisici», in una sorta di dualismo metodologico, più dannoso del dualismo metafisico cartesiano. Quest’ultimo rappresentava una rispettabile ipotesi scientifica, che si rivelò errata allorché Newton sgretolò la filosofia meccanicicista della nascente scienza moderna dimostrando che una delle sostanze cartesiane – il corpo – non esiste, ed eliminando in tal modo il problema-mente-corpo, per lo meno nella forma cartesiana, per lasciare aperto l’interrogativo riguardo a ciò che dovrebbe essere 5

il «fisico» o «materiale». Per contro il dualismo metodologico sembra che non abbia nulla a proprio favore. Se lo abbandoniamo è difficile intendere perché il cervello principale, in particolare nei suoi aspetti cognitivi, debba essere studiato in maniera fondamentalmente diversa da quella in cui si esplora il cervello intestinale, o qualunque altra parte del corpo. Se è così, contrariamente alle opinioni ampiamente diffuse, il misterianesimo è dunque soltanto una varietà

dell’ovvio, insieme all’internalismo. Per diversi motivi, molte figure eminenti hanno avuto la colpa di accettare l’ovvietà del misterianesimo. Tra queste ritengo che dovremmo includere Bertrand Russell, il quale novant’anni fa adottò la visione derivata da Hume secondo cui «il massimo grado [di certezza] appartiene alle mie percezioni», e dunque possiamo pensare le costruzioni della mente quali sforzi per dare senso a ciò che percepiamo, che si tratti delle costruzioni automatiche del senso comune o degli sforzi più ponderati e disciplinati delle scienze, le quali ci mostrano che ciò che «è dato» alla percezione è un costrutto di dati esterni e struttura mentale, 6

questioni analizzate in maniera stimolante poco dopo da C.I. Lewis. Secondo Hume, dobbiamo attenerci alla «filosofia newtoniana» con un «modesto scetticismo di una certa misura, e l’onesta confessione di ignoranza sugli argomenti che superano le capacità umane», che per Hume comprendono pressoché tutto ciò che va al di là delle apparenze. Dobbiamo «astenerci dalle disquisizioni riguardanti la loro natura e le loro azioni reali». È l’immaginazione, «una sorta di facoltà magica dell’anima, che [...] è inesplicabile con i sommi sforzi dell’intelletto umano», a farci credere di sperimentare oggetti esterni 7

continui, come la mente o l’io. Al contrario di Samuel Johnson, di G.E. Moore e di altre figure insigni, ritengo che il ragionamento di Hume sia degno di rispetto. In uno studio accurato e istruttivo sull’Appendice al Trattato di Hume, Galen Strawson sostiene, secondo me in maniera convincente, che alla fine Hume si rese conto che le difficoltà che affrontava erano molto più profonde. «È evidente» concludeva Hume «che esiste un principio di connessione tra pensieri o idee diversi nella mente», una connessione reale, non simulata dall’immaginazione. Tuttavia nella sua filosofia/psicologia questa entità realmente esistente non trova posto, perciò alla fine le sue «speranze svanirono». E i suoi principi fondamentali crollarono irrimediabilmente. Uno dei momenti 8

più struggenti nella storia della filosofia. Per Russell, ne consegue che la fisica può soltanto sperare di scoprire «lo scheletro causale del mondo, [mentre studia] le percezioni soltanto nel loro aspetto conoscitivo; gli altri loro aspetti restano fuori del suo ambito», anche se ne riconosciamo l’esistenza, di fatto al massimo grado di certezza, che possiamo o meno trovare delle spiegazioni soddisfacenti nelle nostre imprese scientifiche. Tutto questo mi sembra misterianesimo bello e buono, o forse lo modifica prendendo coscienza di essere al massimo grado di certezza, mentre tutto il resto rientra nei problemi, di cui fanno probabilmente parte i misteri-per-gli-umani.

Tra questi rientrerebbero i dilemmi considerati gli «ardui problemi» della prime fasi della scienza e della filosofia moderne, nel XVII e nel XVIII secolo. All’epoca il più gravoso di questi ardui problemi riguardava la natura del moto, dell’attrazione e della repulsione. Quegli «ardui problemi» non furono mai risolti, anzi vennero abbandonati e considerati dagli osservatori più perspicaci, come Locke e Hume, quali misteri permanenti; per lo meno misteri-per-gliumani, potremmo aggiungere. All’epoca si era inteso benissimo tale limite. Locke scrisse che mentre restiamo in «una ignoranza incurabile di ciò che vorremmo sapere» riguardo alla materia e ai suoi effetti, e «non esiste scienza delle cose fisiche [che fornisca spiegazioni precise] nel raggio delle nostre possibilità», nondimeno si dichiarava convinto dal «libro incomparabile del saggio signor Newton che v’è un eccesso di presunzione nel voler segnare i limiti del potere di Dio alla luce delle nostre limitate concezioni». Malgrado la gravitazione universale si verifichi in modi «per me incomprensibili», tuttavia, come ha dimostrato Newton, dobbiamo riconoscere che rientra nel potere di Dio attribuire ai corpi «poteri e modi di azione anche diversi da quelli che possono essere dedotti dalla nostra idea di corpo o spiegati con le nostre cognizioni della materia». E grazie all’opera di 9

Newton sappiamo che «Egli ha davvero fatto così». Considerate le evidenze misteriane, che qualcosa mi appaia inconcepibile non è un criterio in funzione del quale si dovrebbe determinare quello che può esistere. Lasciando perdere la teologia, possiamo riformulare le idee di Locke dicendo che il mondo naturale ha delle proprietà che sono dei misteri-per-gliumani. Newton non avrebbe dissentito. Nella sua costante ricerca di un modo per evitare l’«assurda» conclusione che gli oggetti interagiscono a distanza, ipotizzò che Dio, che è ovunque, potesse essere l’«agente immateriale» alla base delle interazioni gravitazionali. Tuttavia non poteva andare oltre, dal momento che rifiutava di «fingere ipotesi» al di là di ciò che si poteva stabilire sperimentalmente. Newton concordava con Leibniz, il suo critico più insigne, che l’interazione senza contatto fosse «inconcepibile», anche se poi non conveniva che si trattasse di una «qualità occulta irrazionale», secondo le parole 10

di Leibniz. Newton sosteneva che i suoi principi non erano occulti: «le cause soltanto sono occulte». E sperava che tali cause si potessero spiegare in termini fisici, cioè nei termini della filosofia meccanicista o di qualcosa di analogo. In assenza di questo risultato, sosteneva Newton, dedurre in maniera induttiva dai

fenomeni dei principi generali, e «spiegare come le proprietà e le azioni di tutte le cose corporee derivino da questi principi palesi, sarebbe un grandissimo passo in avanti nella filosofia, anche se le cause di questi principi non fossero ancora conosciute». Nel suo penetrante studio su Newton in quanto filosofo, Andrew Janiak sostiene che lo scienziato inglese aveva delle ragioni proprie per rifiutare l’interazione senza contatto. Osserva infatti che l’interpretazione del posto di Dio nel mondo fisico forma un quadro metafisico nel suo pensiero, esattamente nel senso che non è soggetto a revisione mediante la riflessione sull’esperienza o mediante lo sviluppo della scienza fisica.

E «se è possibile la lontana azione divina», tale da produrre un’azione a distanza, «l’onnipotenza di Dio non ha dunque bisogno di essere spiegata come lo fa sempre Newton, in termini di onnipresenza divina». In seguito i newtoniani rifiutarono la metafisica, accettando così l’azione a distanza nel quadro delle costruzioni teoretiche e ignorando l’«inconcepibilità» delle conclusioni sul mondo che turbavano i grandi contemporanei di Newton, nonché lui stesso. Di conseguenza, gli obiettivi della ricerca scientifica venivano implicitamente ristretti: dal tipo di concepibilità che costituiva il criterio della vera comprensione nella prima scienza moderna si passava a qualcosa di molto più limitato, l’intelligibilità delle teorie sul mondo. Mi sembra questo un passo di notevole importanza nella storia del pensiero e della ricerca, più di quel che in genere si riconosce. Ed è collegato direttamente alla portata del misterianesimo in senso lato. Locke andò oltre e concluse che, dal momento che Dio aveva aggiunto alla materia quelle qualità inconcepibili come l’attrazione gravitazionale, avrebbe potuto parimenti avere «sovrapposto» alla materia la capacità di pensare. Se si sostituisce la «natura» a «Dio», si apre il campo alla ricerca, ed è una strada che fu ampiamente battuta negli anni che seguirono, arrivando alla conclusione che il 11

pensiero è una proprietà di certe forme della materia organizzata. Per come Darwin ha riformulato la conoscenza piuttosto comune, non c’è bisogno di considerare il pensiero, «una secrezione del cervello», come «più sorprendente 12

del fatto che la gravità sia una proprietà della materia»; ciò che per noi è inconcepibile in tale circostanza non riguarda il mondo esterno, bensì i nostri limiti cognitivi.

Negli ultimi anni sono state riscoperte alcune delle prime interpretazioni moderne di tali questioni, talvolta con un senso di meraviglia, come quando Francis Crick ha formulato la sua «ipotesi straordinaria», secondo cui i nostri stati mentali ed emotivi non sono «nient’altro che il comportamento di un vasto insieme di cellule nervose e delle relative molecole». Negli scritti di carattere filosofico, a volte questa riscoperta è stata vista come una nuova idea radicale nello studio della mente. Come scrive Paul Churchland citando John Searle, questa nuova idea è «l’audace asserzione che i fenomeni mentali sono interamente naturali e causati dalle attività neurofisiologiche del cervello». Tali proposte ripetono, quasi con le stesse parole, le formulazioni di secoli addietro, enunciate quando il tradizionale problema mente-corpo divenne impraticabile a seguito della demolizione, da parte di Newton, dell’unica nozione coerente di corpo (cioè del dato fisico, materiale ecc.). Un esempio è la conclusione di Joseph Priestley, secondo la quale le proprietà «che chiamiamo mentali» si riducono alla «struttura organica del cervello», conclusione espressa in parole diverse da Locke, Darwin e molti altri, e peraltro pressoché ineluttabile, così sembrava, dopo il crollo della filosofia meccanicistica sulla quale si fondava la 13

prima scienza moderna. L’ultimo decennio del Novecento è stato definito «il decennio del cervello». Nell’introduzione a una raccolta di saggi in cui se ne passavano in rassegna i risultati, il neuroscienziato Vernon Mountclastle ha inquadrato il tema conduttore della tesi della nuova biologia, secondo la quale «Gli oggetti mentali, anzi le menti, sono le proprietà emergenti del cervello [, anche se] tali manifestazioni sono [...] il prodotto di principi che [...] ancora non comprendiamo». Si ribadiscono così ancora una volta, quasi con le stesse parole, le intuizioni 14

settecentesche. Tuttavia la frase «ancora non comprendiamo» dovrebbe essere considerata con una certa cautela. Dovremmo ricordare un’osservazione di Bertrand Russell, che nel 1927 scriveva che le leggi chimiche «al momento non si possono ridurre a leggi fisiche», circostanza che spinse alcuni scienziati eminenti a considerare la chimica soltanto come una modalità di calcolo che poteva predire dei risultati sperimentali, non come una vera scienza. Come si scoprì ben presto, l’osservazione di Russell, ancorché esatta, era parziale: in effetti le leggi chimiche non erano riducibili a leggi della fisica per come la si conosceva allora, anche se in seguito questa scienza sarebbe andata incontro a dei mutamenti radicali, con la rivoluzione della teoria quantistica, e avremmo assistito alla sua

unificazione con una chimica pressoché immutata. Forse qui le neuroscienze e la filosofia della mente avrebbero qualcosa da imparare. Le neuroscienze contemporanee non sono affatto solide come lo era la fisica un secolo fa. Anzi, i loro assunti fondamentali sono sottoposti a critiche ai 15

miei occhi persuasive. L’opinione comune secondo la quale lo studio della mente costituisce le neuroscienze a livello astratto potrebbe rivelarsi fuorviante quanto le affermazioni sulla chimica di novant’anni fa, se cioè pensiamo alle neuroscienze attuali. Si noti che le questioni che nascono riguardo a questo argomento non impediscono affatto di concepire la mente come il cervello considerato a un certo livello di astrazione, come nella presente analisi. In un’opera recente particolarmente controversa, Thomas Nagel scrive: Temo che la mente non sia un evento fortuito e inspiegabile né un anomalo dono divino, bensì un aspetto essenziale della natura che non comprenderemo fino a quando non oltrepasseremo i limiti 16 impliciti dell’ortodossia scientifica contemporanea.

Se questo fosse vero, non ci si allontanerebbe troppo dalla storia della scienza, anche se ritengo che l’evocazione dell’«incredulità» e del «senso comune» potrebbe fare la fine di prospettive analoghe che furono abbandonate già dalla fine del XVII secolo, allorché fu assimilata la portata delle scoperte di Newton e si restrinsero in maniera notevole e implicita le finalità della ricerca scientifica, come si è detto in precedenza. Alla luce di queste scoperte, nonché delle loro implicazioni, Hume scrisse che il grande merito di Newton stava nel fatto che toglieva «il velo da alcuni misteri della natura» e al contempo restituiva «gl’intimi secreti a quell’oscurità 17

nella quale rimasero e rimarranno mai sempre». Per lo meno per gli uomini. Ancora una volta una forma di misterianesimo impegnato, per ragioni sostanziali. All’incirca nello stesso periodo, nel discorso della filosofia moderna fece il proprio ingresso la coscienza. Nel suo recente studio, esauriente ed erudito, su questo insieme di argomenti, Udo Thiel scopre che il primo filosofo inglese a fare un ampio uso del sostantivo coscienza, in senso filosofico, fu Ralph Cudworth, attorno al 1670; tuttavia soltanto cinquant’anni dopo la coscienza 18

divenne un oggetto d’indagine a sé stante. In seguito la coscienza venne identificata con il pensiero, come aveva già fatto Cartesio, secondo alcune interpretazioni. E per alcuni pensatori, come Humboldt, il pensiero si identificò

ulteriormente con il linguaggio, il che diede luogo alla nozione di linguaggio del pensiero, tutte idee che in parte si possono riformulare in termini contemporanei, come ho illustrato nel capitolo precedente. In età moderna, l’identificazione del pensiero con la coscienza riappare in svariati modi, per esempio nella tesi di Quine, secondo cui l’osservanza di una regola si riduce o a una «conformità», come nel caso dei pianeti il cui moto è conforme alle leggi di Keplero, oppure a un «orientamento» da parte del pensiero cosciente. Oppure nel «principio di connessione» di Searle, il quale afferma che le operazioni della mente devono essere in qualche modo accessibili all’esperienza cosciente, idea che non è facile formulare in maniera coerente. Comunque le si accolga, quali affermazioni empiriche o disposizioni terminologiche, queste tesi escludono buona parte delle scoperte a proposito dell’osservanza delle regole nel campo della lingua o della percezione, per esempio il principio, di cui ho parlato nel primo capitolo, secondo cui nella lingua le regole sono sempre dipendenti dalla struttura, e soprattutto il fondamento stesso di tale principio, ossia quella che Donald Hoffman nel suo studio sull’intelligenza visiva chiama «regola della rigidità», in virtù della quale le proiezioni di immagini vengono interpretate «come proiezioni di movimenti 19

rigidi a tre dimensioni», anche quando gli stimoli sono fortemente depauperati. C’è motivo di credere che ciò che arriva alla coscienza, persino potenzialmente, potrebbe essere soltanto lo sporadico riflesso di processi mentali inaccessibili, che interagiscono intimamente con i frammenti che talvolta giungono effettivamente alla coscienza. Gli ormai noti esperimenti di Libet sui procedimenti attraverso i quali prendiamo delle decisioni forniscono qualche prova indipendente a sostegno di questa ipotesi, benché io creda che sia un errore considerarli collegati al libero arbitrio. Le questioni rimangono in larga misura le stesse, anche rispetto alla responsabilità personale, allorché si ammette che le decisioni vengono prese senza un certo grado di coscienza o determinazione, o in circostanze di possibili limitazioni cognitive, sulle quali tornerò. Se è vero che i frammenti dei processi mentali che pervengono alla coscienza interagiscono intimamente con quelli inaccessibili, come sembra piuttosto chiaro almeno per quel che riguarda l’uso del linguaggio, concentrare l’attenzione sulla coscienza, o sull’accessibilità alla coscienza, può dunque ostacolare gravemente lo sviluppo di una scienza della mente. Si tratta di questioni di notevole interesse, ma non è questa la sede per approfondirle. Torniamo invece al misterianesimo in senso lato, non limitandoci dunque

alla coscienza, e prendiamolo per una semplice ovvietà, come penso che dovremmo fare. Possiamo prendere in considerazione diversi tipi di mistero. Alcuni sono di grande portata, come quelli che ho citato: probabilmente si tratta di misteri permanenti per l’uomo. Tuttavia, prima di ritornarvi, vale la pena di menzionarne altri, più limitati, cioè quei casi che possono rientrare nelle nostre capacità cognitive e che in linea di massima si potrebbero spiegare con delle prove empiriche pertinenti, anche se noi non riusciamo a raccoglierle. Oppure quei casi in cui le considerazioni di ordine etico impediscono gli esperimenti che potrebbero dare una risposta agli interrogativi che possiamo ragionevolmente porci. Grazie agli esperimenti invasivi su gatti e scimmie, si sa molto della neurologia dell’apparato visivo umano, ma non possiamo apprendere nulla sul linguaggio in questo stesso modo. Non conosciamo alcuna facoltà analoga nel mondo animale, e gli esperimenti sull’uomo sono proibiti, anche se le nuove tecnologie potrebbero forse sgretolare certe barriere. Un esempio potrebbe essere rappresentato dall’evoluzione delle facoltà cognitive, in particolare da quella che si chiama «evoluzione del linguaggio», ossia l’evoluzione della capacità di parlare, la facoltà linguistica; le lingue cambiano ma non si evolvono. Anni fa il biologo evoluzionista Richard Lewontin ha sostenuto ripetutamente che su tali questioni non possiamo apprendere pressoché nulla: «Sarebbe interessante sapere come sia nata, si sia diffusa e sia mutata la cognizione (qualunque cosa sia)» concludeva, «ma non 20

possiamo saperlo. Che sfortuna». Dunque non abbiamo a disposizione delle prove pertinenti. I curatori del volume del MIT in cui ha pubblicato questa conclusione, dal titolo Invitation to Cognitive Science, l’hanno trovata convincente, come me; tuttavia la sua analisi, in larga misura ignorata, non ha impedito lo sviluppo di un’enorme letteratura fatta di ciò che Lewontin qualifica come «storielle», in particolare nel caso del linguaggio. Generalmente queste storielle prendono piede senza nemmeno definire la natura essenziale del fenotipo, prerequisito di qualunque ricerca dedicata all’evoluzione. Per di più, altrettanto generalmente trattano di comunicazione, questione diversa ma forse più allettante, perché per lo meno si possono immaginare continuità e piccoli cambiamenti in accordo con quelle concezioni dell’evoluzione tanto convenzionali quanto discutibili, nella migliore delle ipotesi. Un recente contributo specialistico passa in rassegna ciò che si è fatto dopo le critiche di Lewontin, riaffermandole, io credo, in maniera plausibile, anche se va detto che io sono uno degli autori.

21

Rispetto alle origini del linguaggio, un dato lo conosciamo con una certa sicurezza, mentre disponiamo di un’altra ipotesi plausibile. Il fatto è che, dal momento in cui i nostri antenati lasciarono l’Africa, tra 50.000 e 80.000 anni fa, non c’è stata alcuna evoluzione rilevabile. Lo stesso sembra valere per quanto riguarda le capacità cognitive in genere. L’ipotesi plausibile è di Tattersall, che ho citato nel capitolo precedente: abbiamo qualche motivo per supporre che il linguaggio esistesse già all’incirca 50-100.000 anni prima di questa migrazione. Ogni discorso sull’origine del linguaggio umano dovrà riconoscere tale circostanza, e per lo meno prestare attenzione all’ipotesi plausibile. E dovrà fornire qualche proposta credibile riguardo all’origine di quella che ho definito Proprietà fondamentale. Che io sappia, non ne esiste alcuna, a parte quella che ho citato nel capitolo precedente, ritenuta eretica, se non peggio. Esistono inoltre altri compiti. Uno è quello di dar conto della varietà delle lingue, della gamma di opzioni consentite dalla facoltà del linguaggio evoluta. Specialmente negli ultimi trent’anni, sono state condotte ricche e illuminanti ricerche sui parametri ammissibili di variazione, che a loro volta sollevano problemi di ordine evolutivo. Problema ancor più arduo è determinare le origini degli atomi di computazione della Proprietà fondamentale. Anche in questo caso esiste una vasta letteratura, ma di valore discutibile, dal momento che di rado presta attenzione al fenotipo, alla natura del significato nelle lingue umane. Secondo me la ricerca intacca le teorie tradizionali e solleva seri interrogativi riguardo all’evoluzione e all’acquisizione. Gli atomi di computazione – che chiameremo «concetti atomici» – sono oggetti paragonabili alle parole, ma non sono parole. Se è corretto ciò che ho detto nel capitolo precedente, le parole vengono costruite dal processo secondario dell’espressione, il quale non alimenta i sistemi di pensiero. Talvolta gli atomi vengono denominati «unità lessicali», ma non è giusto nemmeno questo. Gli atomi di computazione sintattica che pervengono all’interfaccia concettuale-intenzionale non sono provvisti di proprietà fonologiche, mentre le unità lessicali sì. Queste compaiono in una prima fase dell’espressione e sono arbitrarie, nel consueto senso saussuriano. Per di più, ormai sappiamo che il suono è soltanto una delle modalità possibili dell’espressione. Aspetto ancor più significativo, i «concetti atomici» del linguaggio e del pensiero umani paiono piuttosto diversi da tutto ciò che si rinviene nei sistemi di comunicazione degli animali. A quanto pare questi sono collegati direttamente a entità extramentali e si possono identificare indipendentemente dal sistema

simbolico. Un cercopiteco verde, per esempio, dispone di un certo numero di richiami. Uno è associato al fremito delle foglie, che viene interpretato come il segno del probabile arrivo di un predatore. Un altro può essere associato a un determinato cambiamento ormonale: «Ho fame». È un dato apparentemente generalizzato, molto diverso dal linguaggio umano, in cui persino le unità più elementari sono prive di tale proprietà, contrariamente a ciò che sostiene la tradizionale teoria referenzialista, cioè che esista una relazione diretta tra parole ed entità extramentali, come indicano i titoli di opere canoniche quali Parola e oggetto di Quine o Words and Things di Roger Brown, nonché una vasta letteratura. Torniamo alla riflessione cartesiana sulla mente: i segnali animali sarebbero causati dalle circostanze, interne ed esterne, mentre nel caso degli esseri umani un’adeguata produzione di parole ed espressioni più complesse è al massimo incitata o disposta. Inoltre nei sistemi simbolici degli animali le associazioni sono di tipo molto diverso da quelle del linguaggio umano. Da questo punto di vista, le conclusioni di Darwin sull’unicità del linguaggio umano, che ho citato nel primo capitolo, devono essere modificate ben al di là di quanto avrebbe potuto prevedere lui. Secondo Laura-Ann Petitto, una delle maggiori specialiste della materia, nonché principale ricercatrice nel progetto NIM: A differenza degli esseri umani, gli scimpanzé utilizzano etichette di questo tipo in un modo che sembra dipendere fortemente da una nozione generale di associazione. Uno scimpanzé utilizzerà la medesima etichetta mela per designare l’atto di mangiare mele, il luogo in cui sono conservate, eventi e collocazioni di oggetti diversi dalle mele che per caso sono stati conservati insieme a una mela (il coltello impiegato per tagliarla) e così via; il tutto simultaneamente, senza un apparente riconoscimento delle differenze tra questi oggetti o dei vantaggi che comporta la capacità di distinguerli. Nell’uomo, persino le prime parole di un neonato vengono utilizzate secondo una modalità obbligata tipo-oggetto. [...] Tuttavia l’uso degli scimpanzé, anche dopo anni di addestramento e di comunicazione con gli esseri umani, non mostra mai una sensibilità alle differenze tra le tipologie naturali. Sorprendentemente, dunque, gli scimpanzé non dispongono affatto 22 dei «nomi delle cose». Dispongono soltanto di un miscuglio di associazioni sconnesse.

Il linguaggio umano è totalmente diverso, tranne che per un aspetto: anch’esso non possiede i nomi per designare le cose, anche se per ragioni diverse. I concetti atomici del linguaggio umano non identificano entità del mondo extramentale. A quanto pare in esso non esistono le nozioni di «referente» e di «denotazione», benché naturalmente esistano gli atti corrispondenti. Si tratta di un’osservazione che non è stata ignorata nella letteratura filosofica: il contributo sul referente che Peter Strawson pubblicò

sessant’anni fa è un esempio notissimo, oppure si possono citare la semantica aitiazionale proposta vent’anni dopo da Julius Moravcsik o l’analisi della nozione «radicalmente locale o contestuale» di contenuto condotta vent’anni dopo ancora da Akeel Bilgrami. Si può presupporre l’esistenza di una relazione del referente dipendente dalle circostanze che deriva dagli atti di referenza; e così il nome Jones designa la persona Jones (naturalmente è tutt’altro che un’idea ingenua) nella misura in cui ci riferiamo a lui utilizzando il nome in un determinato modo, in determinate circostanze. Ma la nozione fondamentale resta l’atto di referenza. A tale riguardo, i concetti atomici assomigliano piuttosto agli elementi della rappresentazione fonetica. Possiamo immaginarli come istruzioni agli articolatori (e analogamente all’apparato percettivo). L’atto della pronuncia produce un evento specifico nel mondo esterno alla mente, tuttavia sarebbe ozioso ricercare un’entità o una categoria indipendente dalla mente a cui corrisponda l’unità fonetica, anche in un singolo individuo, per non dire in una comunità di fruitori. La fonetica acustica e la fonetica articolatoria cercano di scoprire il ruolo dei simboli interni nella produzione e nell’interpretazione dei suoni, compito non semplice: dopo sessant’anni di studi intensi con l’ausilio di una strumentazione tecnologicamente avanzata, molto resta ancora ignoto. E non c’è motivo di supporre che sarebbe un compito più facile scoprire come vengono utilizzati i sistemi interni per parlare di aspetti del mondo o riflettere su di essi. È proprio il contrario, come si chiarisce allorché indaghiamo effettivamente i concetti atomici della computazione linguistica e cognitiva, nonché le modalità secondo cui vengono utilizzati nella designazione. Lo aveva già capito Aristotele, il quale concludeva che possiamo «definire una casa come un insieme di pietre, mattoni e legname», in termini di costituzione materiale, ma possiamo dire anche che essa è un «rifugio per proteggere cose e corpi» in termini di funzione e progetto; dovremmo combinare entrambi gli elementi della definizione, integrando materia e forma, giacché 23

l’«essenza di una casa» implica «finalità e scopo» della costituzione materiale. Dunque una casa non è un oggetto indipendente dalla mente. La circostanza si chiarisce ancor più se approfondiamo ulteriormente la questione e scopriamo che il concetto di casa ha proprietà molto più complesse, osservazione che si può estendere ben oltre. La ricerca rivela che persino le espressioni più semplici 24

presentano significati assai complessi. In altri ambiti, la teoria referenzialista ha effettivamente un ruolo prezioso.

Nella metamatematica, per esempio, oppure nelle scienze, la si considera come un principio guida. Nell’ideazione di nozioni tecniche come elettrone o fonema, i ricercatori sperano di identificare entità che esistono nel mondo. Ma niente di tutto questo dev’essere confuso con il linguaggio umano. E ulteriori equivoci possono insorgere se si mescolano questi sistemi diversi. Così nelle discussioni informali i chimici adoperano liberamente il termine «acqua», ma non nel senso della parola nella lingua naturale, cosa che a sua volta contraddice la teoria referenzialista. Si noti che Aristotele era intento a definire l’entità casa, non la parola «casa». Ai suoi occhi la questione era di ordine metafisico: l’entità è una combinazione di materia e forma. Nel corso della rivoluzione cognitiva del XVII secolo, il punto di vista generale si spostò verso la ricerca delle «capacità conoscitive innate» che entrano nella nostra comprensione dell’esperienza. Riassumendo molti anni di dibattito su tali argomenti, Hume concluse che «l’identità che attribuiamo» alla mente, ai corpi vegetali e animali e ad altre entità «è soltanto un’identità fittizia» stabilita dall’immaginazione «su oggetti 25

simili», non un «carattere peculiare appartenente a questa forma». Un esempio dei difetti della teoria referenzialista è il concetto di persona, abbondantemente studiato fin dall’epoca classica, e in particolare dal XVII secolo. Perciò quando si dice che il nome Jones denota chi lo porta, ci si può chiedere in cosa consista esattamente chi lo porta. Non può essere semplicemente il corpo materiale. Come osserva Locke, non è affatto assurdo pensare che la stessa persona potrebbe avere due corpi differenti, se la medesima coscienza «può essere trasferita da una sostanza pensante ad un’altra, sarà possibile che due sostanze pensanti formino una sola ed unica persona». Ci sono poi moltissime altre complicazioni. L’identità personale consiste dunque in (almeno) una sorta di «identità di coscienza» in continuità psichica. Locke aggiunge che il termine persona (o io, oppure anima) è peraltro «un termine forense, inteso ad attribuire le azioni e il loro merito; e perciò appartiene solo 26

agli agenti intelligenti, suscettibili di una legge, e di felicità e infelicità». Non è questa la sede per analizzare le ricche e acute indagini sull’argomento passate in rassegna di recente nell’opera di Udo Thiel che ho citato in precedenza. Tuttavia potrebbe essere utile ricordare brevemente l’interessante storia giuridica del concetto «forense» di persona. Il Quinto Emendamento della Costituzione americana garantisce i diritti cruciali della «persona» affermando che non deve essere privata «della vita,

della libertà o delle proprietà senza un regolare procedimento legale», norme che risalgono alla Magna Carta. Ma il concetto di persona era fortemente circoscritto: chiaramente non includeva i nativi americani né gli schiavi. Né le donne. Sotto la common law britannica, adottata dalle colonie, le donne erano in sostanza proprietà dei padri, che le consegnavano ai mariti. L’idea dominante la espresse Kant alcuni anni dopo: le donne non hanno «personalità civile» perché nella loro esistenza dipendono «dai comandi degli altri», al pari di apprendisti e servi, ugualmente privi di «personalità civile». Il Quattordicesimo Emendamento estese lo statuto di persona agli schiavi liberati, almeno in linea di principio. In realtà, alcuni anni dopo un patto tra Nord e Sud consentì agli Stati che possedevano schiavi di istituire nuovamente una forma di schiavitù, criminalizzando di fatto i neri, circostanza che fornì una forza lavoro disciplinata e a buon mercato alla rivoluzione industriale. Questo sistema durò finché la Seconda guerra mondiale non creò la necessità di manodopera libera. Quella brutta storia sarebbe ritornata nella brutale «guerra alla droga» della generazione passata, lanciata da Reagan. Quanto alle donne, soltanto nel 1975 la Corte Suprema riconobbe loro la «parità», con il diritto di svolgere il ruolo di giurate nei tribunali federali, accordando loro pertanto il pieno statuto di persona. Recenti sentenze della Corte hanno esteso tale diritto che era già stato concesso alle imprese, mentre hanno 27

escluso dalla categoria gli stranieri clandestini. Non sarebbe una gran sorpresa se si concedessero i diritti della persona prima agli scimpanzé che agli immigrati clandestini. Insomma, interpretare «persona» come termine forense ha molte conseguenze tanto complesse quanto nefaste sul piano umano. Torniamo al linguaggio e ai concetti atomici: studi recenti sull’acquisizione, in particolare quelli di Lila Gleitman e dei suoi colleghi, hanno mostrato che persino i significati delle espressioni linguistiche più elementari vengono acquisiti a partire da dati ridottissimi e con grande rapidità nei primi anni di vita, anche in presenza di gravi limitazioni sensoriali. È difficile vedere come si possa eludere la conclusione che queste strutture intricate dipendono da «facoltà conoscitive innate», del tipo di quelle che furono esplorate nel corso della «prima rivoluzione cognitiva» del XVII secolo. Le complessità aumentano rapidamente se andiamo al di là dei semplici elementi utilizzati per la referenza, il che avvalora la conclusione che le proprietà innate della mente esercitano un ruolo cruciale nell’acquisizione e nell’uso di tali elementi. Sembra impossibile conciliare considerazioni del genere con le opinioni comuni sull’acquisizione

della lingua, fondate sull’ostensione, l’istruzione e la costruzione di abitudini, oppure con quella che Dagfinn Føllesdal, nel suo acuto studio sulla teoria del significato in Quine, chiama «Tesi MMM [man-made meaning]: il significato di una espressione linguistica è il prodotto congiunto di tutti i dati che aiutano chi 28

apprende una lingua e chi la usa a determinare quel significato». In un commento elogiativo, Quine appoggia l’interpretazione di Føllesdal, tuttavia aggiunge una modifica essenziale, affermando che «Ciò che conta è soltanto il fatto che il significato linguistico è una funzione del comportamento osservabile in circostanze osservabili». Tuttavia questa precisazione indebolisce non poco la tesi, che varrebbe indipendentemente dalla ricchezza della cruciale dote innata e dalla scarsità dei dati, fintanto che è necessario almeno uno stimolo minimo, esattamente come l’apparato visivo maturo è una funzione dell’input visivo. Se le conclusioni appena citate si possono effettivamente generalizzare, come sembra il caso, ne consegue che la lingua naturale è sprovvista di una semantica referenziale, nel senso dei rapporti tra simboli ed entità estranee alla mente. Piuttosto, possiede una sintassi (la manipolazione interna dei simboli) e una pragmatica (modalità d’uso della lingua). Secondo tale classificazione, la semantica formale, compresa la variante fondata sulla teoria dei modelli, rientra nell’ambito della sintassi. È motivata da fattori del mondo esterno, proprio come la fonologia, ma sembra sia legata al mondo soltanto nel contesto delle teorie dell’azione. Considerazioni di questo genere pongono problemi assai seri a ogni potenziale teoria sull’origine del linguaggio. Come ho detto, sembra che i sistemi di comunicazione degli animali siano basati su una relazione privilegiata tra processi mentali e cerebrali da una parte e, dall’altra, «un aspetto 29

dell’ambiente a cui questi processi adattano il comportamento dell’animale». Se è così, il divario tra linguaggio umano e comunicazione animale è notevole in questo ambito come in quelli della struttura, dell’acquisizione e dell’uso, perciò la ricerca sulle origini dovrà guardare altrove. Volgiamo brevemente la nostra attenzione agli oggetti designati da un parlante. Dobbiamo chiederci che cosa descrive. A tale questione era interessato Quine, il quale ha osservato che in alcuni casi un sintagma nominale potrebbe non essere «il candidato convincente – almeno a prima vista – allo statuto di cosa», come ha detto di recente Daniel Dennett analizzando le questioni sollevate da Quine. Diciamo «per Pete» o «nell’interesse di», ma non ci aspettiamo di rispondere a domande sull’interesse o su Pete che siano legate alle

cose, per esempio «di che colore è l’interesse?», oppure «quanto è alto Pete?» Parimenti, osserva Dennett, «Parigi e Londra chiaramente esistono, ma esistono anche i chilometri che le separano?» Quine risponderebbe, scrive ancora Dennett, che un sintagma nominale di questo tipo è «difettivo, e dal punto di 30

vista ontologico il suo referente putativo non deve essere preso sul serio». Esiste spesso una prova linguistica diretta dei limiti dello «statuto di cosa». Prendiamo i sostantivi errore e mosca. In alcuni costrutti svolgono una funzione simile: c’è una mosca nella bottiglia / un errore nel ragionamento; si crede che ci sia una mosca nella bottiglia / un errore nel ragionamento. In altri casi no: c’è una mosca creduta nella bottiglia / *un errore creduto nel ragionamento; una mosca è nella bottiglia / *un errore è nel ragionamento (l’asterisco indica devianza). Alcuni costrutti hanno una sorta di rilevanza esistenziale che manca in altri, persino in quelli che presentano esplicite espressioni di carattere esistenziale, questione che rientra in un quadro esplicativo dalle diverse 31

implicazioni, che ho analizzato altrove. Sembra dunque che esistano delle distinzioni tra i «candidati allo statuto di cosa», però sorgono subito degli interrogativi. Presumibilmente, almeno la parola cosa dovrebbe essere una candidata convincente allo statuto di cosa. E tuttavia quali sono le condizioni di identità delle cose, e quante sono? Supponiamo di vedere dei rami sparsi sul terreno. Se sono caduti da un albero a seguito di una tempesta, non sono cose. Ma se fossero stati accuratamente disposti lì da un artista per una installazione di arte concettuale, magari con tanto di titolo, essi sarebbero allora una cosa (che potrebbe vincere un premio). Se ci si riflette un minimo, appare evidente che sono molti i fattori complessi che determinano se una parte di mondo costituisce una cosa, comprese le intenzioni e i progetti umani – la forma aristotelica –, i quali non sono proprietà che si possono individuare con l’osservazione del mondo esterno alla mente. Se cosa non designa lo statuto di cosa indipendentemente dalle circostanze dipendenti dalla mente, quale entità può farlo? E gli esempi di Parigi e Londra addotti da Dennett? Possiamo designarle, come farei se dicessi che ho visitato Londra l’anno prima che fosse distrutta da un grande incendio e poi ricostruita con materiali e un impianto completamente diversi 80 chilometri più su, lungo il Tamigi, e che ho intenzione di visitarla nuovamente l’anno prossimo. Evidentemente il mondo extramentale non contiene un’entità dotata di questi attributi, un’entità che in linea teorica un fisico potrebbe scoprire. Eppure possiamo riferirci a Londra, o utilizzando

l’espressione Londra o un pronome a essa collegato, oppure adoperando una frase più complessa, come «la mia città preferita». Nella mia I-lingua c’è un’entità interna Londra – che non necessariamente coincide del tutto con la vostra – costituita da elementi che consentono di rimandare ad aspetti del mondo, così come i tratti dell’entità fonetica interna [ta] fanno parte dei mezzi di cui dispongo per pronunciare e interpretare determinati eventi del mondo. In questa prospettiva, diventa difficile o impossibile formulare parecchi paradossi classici, da quello della nave di Teseo proposto da Plutarco al puzzle di Kripke, tutti enunciati sulla base di presupposti referenzialisti. Come indica Norbert Hornstein, potremmo riformulare l’osservazione, assumendo gli aspetti problematici dei paradossi come un ulteriore argomento contro i presupposti referenzialisti che vi conducono. Le prime indagini su questa materia erano interessate in primo luogo all’individuazione: cosa distingue un individuo dagli altri? Con l’ascesa delle teorie corpuscolari secentesche, l’attenzione della ricerca si spostò dall’individuazione alla precedente questione dell’identità: cosa rende un individuo uguale nel tempo malgrado i cambiamenti parziali cui va incontro? Per un sostenitore della teoria corpuscolare, un individuo è semplicemente quello che è: una «porzione distinta di materia formata da un certo numero di corpuscoli» (Robert Boyle). Nel corso del tempo lo studio dell’identità si è evoluto verso un approccio cognitivo. Come dice Thiel, «dal momento che le forme sostanziali sono negate e nelle cose stesse non si può scoprire alcun ‘principio’ di identità, si ammette che la loro identità deve dipendere da quelli che consideriamo i loro costituenti essenziali»; «da quelli che consideriamo», cioè dai nostri criteri di giudizio, dalle nostre nozioni delle cose. A portare avanti questa «rivoluzione soggettivista» fu soprattutto Locke, per il quale l’esistenza si preserva «sotto la stessa denominazione», dal punto di vista delle idee astratte attraverso le quali consideriamo il mondo. Hume interpreta la nostra tendenza ad attribuire l’identità nel tempo come una «propensione naturale», una sorta di istinto, che costruisce l’esperienza per conformarsi alle nostre modalità cognitive, peraltro assai diverse dal mondo animale. La «propensione» ad attribuire identità dove l’evidenza mostra la diversità è «talmente grande», scrive Hume, che l’immaginazione crea concetti che mettono insieme una serie di oggetti posti in relazione, il che ci induce a «immaginare qualcosa di sconosciuto e misterioso, a connessione delle parti». Pertanto l’attribuzione dell’identità è una costruzione dell’immaginazione, e i fattori che entrano in gioco nella costruzione di queste finzioni divengono il

soggetto delle scienze cognitive, anche se Hume avrebbe potuto sollevare delle obiezioni se l’immaginazione è davvero, come pensava, «una sorta di facoltà magica [che] risulta, per quanti sforzi possa compiere la ragione umana, 32

incomprensibile», di qui un altro mistero-per-gli-umani. In quest’ottica dovrebbe inoltre essere possibile reinterpretare la ricca e illuminante storia del pensiero sulla natura dell’anima, ormai separata dalle condizioni teologiche, come la resurrezione, e dal contesto metafisico dei tempi passati. Sono tutte questioni che secondo me meritano molta più attenzione e interesse rispetto a quelli che hanno ricevuto finora. In particolare, esse pongono problemi molto seri per lo studio dell’acquisizione e dell’origine del linguaggio, problemi in quest’ultimo caso probabilmente irrisolvibili, per le ragioni invocate da Lewontin. Le prime riflessioni moderne sulle origini della conoscenza causarono una forma ancor più sostanziale di misterianesimo, del tipo che ho illustrato brevemente. Per Locke e Hume, sulla base di considerazioni di ordine epistemologico consegue che i limiti del nostro intelletto sono molto ristretti. Janiak osserva che Newton riteneva questo scetticismo globale «vano; lui dà per scontata la possibilità della nostra conoscenza della natura». Pertanto «è la stessa fisica teorica a sollevare i principali interrogativi epistemici che abbiamo davanti», tra cui sarebbe inclusa la posizione scettica di Locke e Hume. Questi, però, presero molto sul serio il nuovo misterianesimo su base scientifica scaturito dalla demolizione della filosofia meccanicistica operata da Newton, che aveva fornito il criterio stesso di intelligibilità alla rivoluzione scientifica del XVII secolo, fondata sulla concezione del mondo quale macchina complessa. Galileo sosteneva che le teorie sono intelligibili soltanto a una condizione assai restrittiva: soltanto se possiamo «rappresentar da noi un simile effetto», «per qualunque artifizio si adoperi», concezione che fu mantenuta da Cartesio, Leibniz, Huygens, Newton e altre grandi figure della rivoluzione scientifica. Di conseguenza, le scoperte di Newton resero il mondo inintelligibile, mentre venivano liquidati i presupposti teologici. La soluzione raggiunta, come ho detto in precedenza, fu quella di ridurre gli obiettivi della scienza, abbandonando la ricerca dell’intelligibilità del mondo a favore di qualcosa di meno ambizioso: l’elaborazione di teorie intelligibili per noi indipendentemente dall’intelligibilità dei loro postulati. Pertanto fu del tutto naturale, per Bertrand Russell, liquidare la stessa idea di mondo intelligibile come «assurda», non più obiettivo ragionevole dell’indagine scientifica.

Non c’è contraddizione nell’ipotizzare che potremmo sondare i limiti dell’intelletto umano e cercare di marcare meglio i confini tra problemi e misteri 33

(per gli uomini). La ricerca sperimentale potrebbe determinare quali sono i «limiti alle ipotesi ammissibili» analizzati da Peirce, sia quelle che entrano nel sapere comune sia quelle che costituiscono ciò che si potrebbe chiamare la nostra «capacità di produrre scienza», che rappresentava poi l’interesse specifico di Peirce e potrebbe avere proprietà diverse (questione che contesta la psicologia 34

cognitiva). Si potrebbero considerare seriamente gli interessi delle grandi figure della prima rivoluzione scientifica e dell’Illuminismo: ciò che ritenevano «inconcepibile», e in particolare le loro ragioni. La stessa «filosofia meccanicistica» rivendica di essere un’approssimazione alla concezione che il senso comune ha del mondo. Malgrado le molte critiche complesse a cui è stata sottoposta, è difficile sfuggire alla forza della convinzione di Cartesio che il libero arbitrio è «la cosa più nobile» che possa trovarsi in noi, che «non c’è nulla che comprendiamo più evidentemente e perfettamente» e che «sarebbe assurdo» dubitare di qualcosa che «comprendiamo intimamente e sperimentiamo in noi stessi», semplicemente perché «per sua natura incomprensibile», se in effetti non «apprendiamo [...] sufficientemente» per comprendere i meccanismi della mente, 35

come pensava lui. I concetti di determinazione e indeterminazione sono alla nostra portata sul piano intellettuale, ma se le «libere azioni degli uomini», che sono «indeterminate», non si possono ordinare in questi termini, ne scaturisce una questione di limiti cognitivi, cosa che non precluderebbe l’elaborazione di una teoria intelligibile di queste azioni, impresa piuttosto lontana dall’odierno sapere scientifico. Mentre l’elenco dei misteriani è lungo e composto di nomi eminenti, la loro posizione appare in contrasto con la tesi fin troppo ottimistica secondo cui la prima rivoluzione scientifica e l’Illuminismo hanno dato agli uomini una capacità esplicativa illimitata, dimostrata dal rapido sviluppo della scienza moderna. Una figura di rilievo che abbracciò tale opinione fu David Hilbert. Nella sua conferenza finale del 1930, non molto tempo prima che la piaga nazista distruggesse il suo circolo di Gottinga, il matematico tedesco ricordò «il magnifico modo di pensare e la visione del mondo che risplendono» nelle parole del grande matematico Jacobi, il quale aveva ammonito Fourier perché aveva affermato che scopo della matematica è quello di spiegare i fenomeni naturali. Al contrario, insisteva Hilbert, «scopo unico di tutta la scienza è l’onore dello spirito umano», perciò «un problema di teoria dei numeri vale quanto un

problema di applicazioni pratiche». Chiunque colga tale modo di pensare, continuava Hilbert, si renderà conto che «non esiste alcun ignorabimus», né in matematica né nelle scienze naturali. «Non esistono affatto problemi irrisolvibili. In opposizione allo sciocco ignorabimus io offro il nostro slogan: noi dobbiamo 36

sapere, noi sapremo», parole che furono incise sulla lapide di Hilbert. Nella matematica, il pronostico non si è rivelato poi tanto azzeccato, come dimostrò presto Kurt Gödel con grande impressione nel mondo matematico. E malgrado la nobiltà del pensiero, il ragionamento non aveva grande forza per le scienze naturali. Di recente il fisico David Deutsch ha scritto che il progresso potenziale è «sconfinato», in conseguenza della grande conquista dell’Illuminismo e della prima scienza moderna: indirizzare l’indagine verso la ricerca di buone spiegazioni, secondo le linee popperiane. David Albert espone così la sua tesi: con l’introduzione di quella particolare abitudine di ordire e valutare nuove ipotesi, si diffuse la sensazione che potessimo fare qualunque cosa. Le capacità di una comunità che ha padroneggiato quel metodo per sopravvivere, apprendere e rifare il mondo secondo le proprie inclinazioni, sono (a 37 lungo andare) letteralmente, matematicamente, infinite.

La ricerca di spiegazioni migliori potrebbe certamente essere infinita, ma infinita ovviamente non vuol dire illimitata. La lingua inglese è infinita, ma non comprende il greco. I numeri interi sono un insieme infinito, ma non comprendono quelli reali. Non riesco a scorgere un ragionamento capace di affrontare la gamma degli interessi e delle conclusioni del misterianesimo. I presupposti di fondo risalgono quanto meno a Peirce, che in ogni caso presentava un ragionamento collegato all’osservazione di Albert riguardo alla padronanza del metodo per sopravvivere. Peirce sosteneva che l’istinto abduttivo che stabilisce delle ipotesi ammissibili e ci permette di scegliere tra di esse si era sviluppato attraverso la selezione naturale: le varianti che producevano verità sul mondo fornivano un vantaggio nella selezione e si conservavano nella discendenza con modificazioni, mentre le altre scomparivano. Nondimeno tale opinione è del tutto indifendibile. Al contrario, la teoria dell’evoluzione colloca gli esseri umani saldamente all’interno del mondo naturale, e li assume quali organismi biologici al pari degli altri, dunque dotati di capacità che hanno una portata e dei limiti, anche in ambito cognitivo. Perciò chi accetta la biologia 38

moderna dovrebbe aderire al misterianesimo. Abbandonato l’insostenibile ricorso alla selezione naturale, ci resta una

seria e impegnativa ricerca scientifica: determinare le componenti innate della nostra natura cognitiva nel linguaggio, nella percezione, nella concettualizzazione, nell’elaborazione di teorie, nella creazione artistica e in tutti gli altri ambiti della vita. Un ulteriore compito sta nel determinare la portata e i limiti dell’intelletto umano, ammettendo che un’intelligenza strutturata in maniera diversa potrebbe considerare i misteri-per-gli-umani quali problemi elementari e stupirsi che non riusciamo a risolverli, così come noi possiamo constatare l’incapacità dei topi di uscire da un labirinto strutturato secondo i numeri primi, a causa della stessa architettura della loro natura cognitiva. Invece di lamentarci per l’esistenza di misteri-per-gli-umani, dovremmo piuttosto essere riconoscenti. Senza limiti all’abduzione, le nostre capacità cognitive non avrebbero nemmeno alcuna portata, come se il patrimonio genetico non imponesse vincoli alla crescita e allo sviluppo di un organismo che potrebbe diventare soltanto una informe creatura ameboide, che reagisce per riflesso agli eventi fortuiti di un ambiente non analizzato. Le condizioni che impediscono a un embrione umano di diventare un insetto svolgono un ruolo cruciale nel determinare che possa diventare un essere umano, e lo stesso vale in ambito cognitivo. La teoria estetica classica riconosceva lo stesso rapporto tra portata e limiti. Senza regole, non può darsi un’autentica attività creativa, anche quando il lavoro creativo contesta e corregge le regole dominanti. Per onestà dovremmo ammettere che oggi sappiamo poco di più sulla creatività di quanto ne sapesse nel XV secolo il medico e filosofo spagnolo Juan Huarte, il quale distingueva il genere di intelligenza che gli esseri umani avevano in comune con gli animali in base al grado più elevato posseduto solo dagli uomini, indicato dall’uso creativo del linguaggio, e ancora più in là, in base al grado ancor più elevato illustrato dall’autentica creatività artistica e 39

scientifica. Né sappiamo se questi siano interrogativi alla portata dell’intelletto umano, o se siano tra quelli che Hume considerava i segreti ultimi della natura, consegnati «a quell’oscurità nella quale rimasero e rimarranno sempre».

Capitolo terzo Che cos’è il bene comune?

Nei due capitoli precedenti ho trattato argomenti strettamente connessi come il linguaggio e il pensiero. A mio avviso l’indagine ravvicinata rivela che essi presentano molte proprietà sorprendenti, in gran parte impossibili da osservare direttamente e, per alcuni dei loro aspetti importanti, inaccessibili alla coscienza. Tra queste proprietà vi sono la struttura e l’architettura di base del soggiacente sistema computazionale del «linguaggio del pensiero», costituito dalla lingua interna, l’I-lingua, che ogni individuo padroneggia e la cui portata, ampia ma comunque limitata, è determinata dalla nostra natura essenziale. Inoltre gli atomi della computazione, i concetti atomici del linguaggio e del pensiero, appaiono un’esclusiva fondamentale degli esseri umani, il che solleva problemi ardui riguardo alle origini, problemi che non si possono esplorare efficacemente senza tener conto delle proprietà del fenotipo. A mio avviso l’indagine rivela anche che la portata del pensiero umano è a sua volta ristretta dai «limiti alle ipotesi ammissibili» che ne fanno la ricchezza e la profondità; restano così dei misteri che resisteranno a quella forma di conoscenza a cui ambivano i creatori della rivoluzione scientifica della prima modernità, com’è stato riconosciuto dalle grandi figure del pensiero sei e settecentesco, e si aprono al contempo delle possibilità di ricerca su questioni affascinanti che sono state esplorate troppo poco. Fin qui mi sono limitato a determinati aspetti cognitivi della natura umana e ho considerato gli esseri umani in quanto individui. Gli uomini sono però degli esseri sociali, naturalmente, e il tipo di creature che diventiamo dipende essenzialmente dalle circostanze sociali, culturali e istituzionali della nostra vita. Questo ci porta dunque a esplorare quelle forme di organizzazione sociale che contribuiscono al riconoscimento dei diritti e al benessere degli individui, affinché realizzino le proprie aspirazioni: in sostanza, al bene comune. Ho guardato inoltre in larga misura a quelle che mi appaiono come vere e proprie ovvietà, ancorché di un tipo singolare, dal momento che in genere vengono rifiutate. In questo capitolo vorrei indicarne altre, anch’esse segnate da

caratteristiche singolari. E con la più ampia portata delle questioni che cercherò di affrontare, queste presunte ovvietà riguardano una particolare categoria di principi etici: quelli che non sono semplicemente universali, perché quasi tutti li professano, bensì doppiamente universali, giacché sono allo stesso tempo pressoché universalmente rifiutati nei fatti. Si va dai principi davvero generali, come il luogo comune secondo il quale dovremmo applicare a noi stessi i criteri che applichiamo agli altri, se non addirittura più rigidi, fino a dottrine più specifiche, come l’impegno nel promuovere la giustizia e i diritti umani, proclamato pressoché universalmente, persino dai peggiori mostri, ma la cui situazione reale è cupa, da una parte all’altra dello spettro. Un buon punto di partenza è il classico di John Stuart Mill, Saggio sulla libertà. In epigrafe sta scritto: «Il grande principio, cui direttamente convengono tutti gli argomenti sviluppati in queste pagine, è l’assoluta e essenziale importanza dello sviluppo umano nella sua più ricca diversità». Le parole sono tratte da Wilhelm von Humboldt, il quale, tra le sue tante imprese, vanta quella di essere uno dei fondatori del liberalismo classico. Ne consegue che le istituzioni che limitano questo sviluppo umano sono illegittime, se non sono in grado di giustificare la propria esistenza. Humboldt esprimeva opinioni piuttosto diffuse all’epoca dell’Illuminismo. Un altro esempio è l’aspra critica di Adam Smith contro la divisione del lavoro, 1

e in particolare le ragioni che adduce. Scrive Smith: «L’intelletto della maggior parte degli uomini è necessariamente formato dalle loro occupazioni ordinarie», perciò chi passa tutta la sua vita a eseguire alcune semplici operazioni, i cui effetti sono inoltre sempre gli stessi o quasi, non ha occasione di esercitare l’intelletto [...] e generalmente diventa tanto stupido e ignorante quanto può diventarlo una creatura umana. [...] Ma in ogni società progredita e civile questo è lo stato in cui i poveri che lavorano, cioè la gran massa del popolo, devono necessariamente cadere a meno che il governo si prenda qualche cura di impedirlo.

La preoccupazione per il bene comune dovrebbe spingerci a trovare il modo di superare i terribili effetti di queste politiche disastrose, che toccano tanto il sistema educativo quanto le condizioni di lavoro, allo scopo di offrire la possibilità di esercitare l’intelletto e coltivare lo sviluppo umano nella sua massima diversità. L’aspra critica di Smith nei confronti della divisione del lavoro non è nota quanto la sua smaccata lode dei grandi benefici. Anzi, nell’edizione accademica del bicentenario approntata dall’università di Chicago, non è nemmeno inserita

nell’indice. Eppure si tratta di un esempio istruttivo di quegli ideali illuministici che stanno alla base del liberalismo classico. Probabilmente Smith riteneva che non dovesse essere troppo difficile mettere in atto politiche umanitarie di quel tipo. La sua Teoria dei sentimenti morali si apre con la seguente osservazione: Per quanto egoista si possa ritenere l’uomo, sono chiaramente presenti nella sua natura alcuni principi che lo rendono partecipe delle fortune altrui, e che rendono per lui necessaria l’altrui felicità, nonostante da essa egli non ottenga altro che il piacere di contemplarla.

Malgrado la forza della «vile massima dei padroni dell’umanità» – «Tutto per noi e niente per gli altri» –, tale patologia potrebbe essere compensata dalle 2

«passioni originarie della natura umana». Il liberalismo classico è naufragato sulle secche del capitalismo, ma l’umanesimo di cui era portatore con le sue aspirazioni e il suo impegno non sono morti. In tempi più vicini a noi idee analoghe furono ribadite per esempio da un importante pensatore politico, il quale mise in evidenza quella che chiamava «una tendenza definita nello sviluppo storico dell’umanità», che lotta per «il libero e incontrastato dispiegarsi di tutte le forze sociali e individuali nella vita». L’autore era Rudolf Rocker, importante pensatore e attivista 3

anarchico novecentesco, il quale tracciava un profilo della tradizione anarchica che, a suo avviso, culminava nell’anarco-sindacalismo, o, secondo la terminologia europea, una variante del «socialismo libertario». Rocker sosteneva che queste idee non raffigurano affatto «un sistema fisso, chiuso», dotato di una risposta precisa a tutti i problemi e a tutte le molteplici questioni della vita umana, bensì una tendenza dello sviluppo umano che lotta per la realizzazione degli ideali illuministici. La terminologia politica non è certo un modello di precisione. Se si considera come viene adoperata, è pressoché impossibile dare una risposta significativa a interrogativi come «che cos’è il socialismo?» O il capitalismo, o il libero mercato, o altri termini di uso comune. E la cosa vale ancor più per il termine «anarchismo», sottoposto a un uso assai eterogeneo, nonché a un vero e proprio abuso, sia da parte degli acerrimi nemici sia da chi ne tiene alta la bandiera, al punto che il termine resiste a ogni definizione univoca. Tuttavia ritengo che la formulazione di Rocker colga le idee principali che animano per lo meno le maggiori correnti delle ricche, complesse e spesso contraddittorie tradizioni del pensiero e dell’azione anarchici.

Inteso in tal modo, l’anarchismo è l’erede delle idee del liberalismo classico nate dall’Illuminismo. Si inscrive nella più vasta corrente del pensiero e dell’azione del socialismo libertario, che va dal marxismo della sinistra antibolscevica di Anton Pannekoek, Karl Korsch, Paul Mattick e altri all’anarcosindacalismo, nel quale si possono comprendere in sostanza le esperienze concrete della Spagna rivoluzionaria del 1936, fino alle odierne imprese di proprietà operaia sparse nella Rust Belt, la cintura della ruggine statunitense, nel Messico settentrionale, in Egitto e in tanti altri paesi, in particolare nei Paesi Baschi spagnoli, abbracciando inoltre i numerosi movimenti cooperativi del mondo e una buona parte dei gruppi femministi e di quelli che tutelano i diritti umani e civili. Questa vasta tendenza cerca di identificare le strutture della gerarchia, dell’autorità e del dominio che limitano lo sviluppo umano, per sottoporle poi a una sfida assai ragionevole: giustificate la vostra esistenza; dimostrate di essere legittime, in alcune circostanze speciali in una fase particolare della società, oppure in linea di principio. E se tali strutture non sono in grado di raccogliere la sfida, devono essere smantellate. E non soltanto smantellate, ma anche ricostruite, cioè, per gli anarchici, «rifatte dal basso in forma nuova», come 4

osserva Nathan Schneider in un recente scritto sull’anarchismo. Sembra in parte un’ovvietà. Perché si dovrebbero difendere strutture e istituzioni illegittime? L’impressione è giusta, il principio dovrebbe essere considerato un’ovvietà, eppure le ovvietà hanno quanto meno il merito di essere vere, il che le distingue da una larga fetta del discorso politico. E io penso che tali ovvietà forniscano un buon trampolino per determinare che cos’è il bene comune. Queste particolari ovvietà appartengono all’interessante categoria dei principi morali che ho citato in precedenza, quelli doppiamente universali. Uno di essi afferma che dovremmo contestare le istituzioni coercitive e rifiutare quelle che non sono in grado di dimostrare la propria legittimità, smantellandole e ricostruendole dal basso. È difficile scorgere come lo si possa verosimilmente rifiutare in linea di principio, tuttavia come al solito agire secondo un principio non è facile quanto proclamarlo pomposamente. Procediamo lungo la stessa linea di pensiero e ricorriamo nuovamente a Rocker: l’anarchismo «cerca di liberare il lavoro dallo sfruttamento economico» e la società dalla «tutela ecclesiastica o politica», aprendo in tal modo la strada a «un’alleanza di gruppi di uomini e donne liberi fondati sul lavoro cooperativo e un’amministrazione delle cose pianificata nell’interesse della comunità». Da

buon militante anarchico, Rocker prosegue invitando le organizzazioni popolari a creare «non soltanto le idee del futuro, ma anche i fatti» nella società attuale, dando seguito alla parola d’ordine di Bakunin. Uno degli slogan tradizionali degli anarchici recita ni Dieu, ni maître – né Dio, né padrone –, frase che Daniel Guérin ha usato come titolo per la sua preziosa raccolta di classici dell’anarchia. Ritengo sia giusto intendere lo slogan «né Dio» come faceva Rocker: l’opposizione alla tutela ecclesiastica. Le credenze individuali sono una questione diversa. In tal modo si lascia la porta aperta alla vivace e notevole tradizione dell’anarchismo cristiano, rappresentata per esempio dal Movimento dei lavoratori cattolici di Dorothy Day, nonché alle molte conquiste della teologia della liberazione avviata mezzo secolo fa dal Concilio Vaticano II, la quale spinse gli Stati Uniti a una brutale guerra per abbattere l’eresia di un ritorno al radicale messaggio pacifista dei Vangeli. Quella guerra è stata un successo, secondo la School of Americas (che da allora ha cambiato nome), che addestra assassini e torturatori latinoamericani e che trionfante si vanta del contributo dell’esercito statunitense nella sconfitta della 5

teologia della liberazione. Effettivamente quella campagna ha lasciato una scia di martiri religiosi, nel quadro di una spaventosa epidemia repressiva che ha divorato il continente. Gran parte di questi crimini non viene raccontata dalla storia ufficiale, perché non sono stati commessi da nemici. Se così fosse, conosceremmo benissimo i dettagli; ennesimo esempio di quegli affascinanti principi etici doppiamente universali. Ovviamente gli studiosi onesti sanno benissimo che dal 1960 al crollo dell’Unione Sovietica avvenuto nel 1990, in America Latina il numero dei prigionieri politici, delle vittime della tortura e delle esecuzioni di dissidenti politici nonviolenti superò di gran lunga quello dell’Unione Sovietica e dei suoi satelliti dell’Europa orientale. In altri termini, dal 1960 al 1990 l’intero blocco sovietico fu meno repressivo, in termini di vittime umane, rispetto a molti singoli paesi latinoamericani [...] una catastrofe umanitaria senza precedenti 6

nella sola America centrale, soprattutto negli anni di Reagan. Tra le persone giustiziate vi furono molti martiri religiosi, e furono parecchi anche i massacri, costantemente sostenuti oppure orchestrati da Washington. Se guardiamo oltre il consueto quadro retorico, possiamo scoprire che le ragioni di questa epidemia repressiva avevano ben poco a che fare con la guerra fredda; si trattava piuttosto di una reazione al fatto che gli oppressi osavano alzare la testa, ispirati in parte dal ritorno della Chiesa all’«opzione preferenziale per i poveri»

sulla base dei Vangeli. Viene subito in mente la parabola del Grande inquisitore di Dostoevskij. La frase «né padrone» è diversa, giacché si riferisce non al credo individuale, bensì ai rapporti sociali, rapporti di subordinazione e dominio che l’anarchismo cerca di smantellare e ricostruire dal basso, a meno che non si riesca ad affrontare il grave onere di dimostrare la legittimità di tali rapporti. Siamo ormai passati dalle ovvietà a un tema assai controverso. Sotto questo aspetto in particolare, il libertarismo nella sua variante americana si distacca nettamente dalla tradizione libertaria e accetta, anzi propugna, la subordinazione dei lavoratori ai padroni dell’economia, nonché l’assoggettamento di ogni individuo alla disciplina restrittiva e agli aspetti distruttivi del mercato. Varrebbe la pena di affrontare alcuni argomenti che tuttavia in questa sede lascerò da parte, mi limito perciò a osservare che ci sarebbe il modo di mettere insieme le energie della sinistra e della destra libertarie, come si è fatto a volte, per esempio 7

nel prezioso lavoro teorico e pratico dell’economista David Ellerman. Notoriamente l’anarchismo si oppone allo Stato, sostenendo per contro «un’amministrazione pianificata delle cose nell’interesse della comunità», secondo le parole di Rocker, e, al di là di questo, una vasta federazione di comunità e luoghi di lavoro autogestiti. Nella realtà odierna, gli anarchici dediti a questi obiettivi appoggiano sovente il potere dello Stato al fine di garantire la protezione degli individui, della società e della Terra dalle devastazioni di un capitale privato troppo concentrato. Prendiamo per esempio una venerabile rivista anarchica come Freedom, fondata nel 1886 come rivista del socialismo anarchico dai seguaci di Kropotkin. Sfogliandola scopriamo che molte pagine sono dedicate alla difesa di questi diritti e vi si invoca spesso il potere dello Stato, nella regolamentazione di materie come la sicurezza, la salute e la tutela ambientale. Non c’è alcuna contraddizione. Nel mondo reale, nella società attuale, le persone vivono, soffrono e resistono, e ogni essere umano degno di questo nome dovrebbe sostenere l’impiego di tutti i mezzi a disposizione per migliorare la sicurezza e il benessere di queste persone, nonostante l’obiettivo a lungo termine preveda di destituire tali dispositivi e costruire alternative migliori. Nell’analisi di questi temi ho talvolta preso in prestito un’immagine utilizzata dal movimento 8

brasiliano dei lavoratori rurali: i suoi membri parlano di ampliare il pavimento della gabbia, la gabbia delle istituzioni coercitive esistenti, che si può ampliare per mezzo della lotta popolare, come sono riusciti a fare per molti anni.

Possiamo estendere il senso di questa immagine e concepire la gabbia delle istituzioni coercitive statali come una protezione dalle bestie selvagge che scorrazzano fuori, le istituzioni capitaliste predatorie sostenute dallo Stato, dedite in linea di principio alla vile massima dei padroni, al profitto privato, al potere e al dominio, mentre l’interesse della comunità e dei suoi membri costituisce nella migliore delle ipotesi una postilla, magari onorata per retorica ma respinta nella pratica per questioni di principio o addirittura in nome della legge. Occorre inoltre ricordare che gli Stati condannati dagli anarchici erano Stati realmente esistenti, non visioni di sogni democratici irrealizzati, come il governo del popolo e per il popolo. Hanno avversato aspramente il dominio di quella che Bakunin chiamava «burocrazia rossa», che lui previde con fin troppa precisione, che sarebbe stata tra le più atroci creazioni dell’uomo. E si sono opposti anche ai sistemi parlamentari che sono strumenti del dominio di classe: gli Stati Uniti contemporanei, per esempio. Alcuni dei politologi più stimati hanno messo a confronto opinioni e politica effettiva, quest’ultima evidente, le prime individuabili attraverso dei sondaggi rigorosi che forniscono risultati piuttosto costanti. Il lavoro più recente e maggiormente dettagliato rivela che la 9

maggioranza della popolazione è di fatto priva di voce. Circa il 70 per cento, al grado più basso della scala del patrimonio/reddito, non ha alcun influsso sulla politica. Se saliamo lungo la scala l’influenza aumenta lentamente e infine in cima troviamo quelli che determinano effettivamente la linea politica, con mezzi tutt’altro che oscuri. Il sistema che ne scaturisce non è una democrazia, bensì una plutocrazia. Questa realtà è stata interiorizzata a tal punto che è divenuta praticamente invisibile, talvolta in maniera notevole. Prendiamo l’assistenza sanitaria, che per anni ha occupato un posto di rilievo tra le preoccupazioni degli americani. E giustamente. Il sistema sanitario è uno scandalo. Ha quasi il doppio del costo pro capite dei paesi OCSE e profitti relativamente scarsi, e costituisce un terribile salasso per l’economia. Per di più è l’unico sistema in larga misura privatizzato e non regolamentato. Il modo in cui viene raccontata la realtà la dice lunga. Un esame del fiasco del sistema sanitario pubblicato sul New York Times rileva che gli Stati Uniti sono fondamentalmente svantaggiati nella ricerca di un’assistenza sanitaria più economica. Tutti gli altri paesi sviluppati fanno ricorso a un elevato grado di interventi diretti del governo che, per mezzo di tariffe negoziate o prefissate, servono a ottenere cure mediche a prezzi ridotti per tutti i cittadini. Ma qui non è politicamente accettabile.

L’articolo cita un esperto che attribuisce la complessità dell’Affordable Care Act «alla necessità politica negli USA di affidarsi al mercato privato per fornire l’accesso all’assistenza sanitaria». Una delle conseguenze è rappresentata dalle fatture «kafkiane», perché «persino Medicare non è autorizzata a negoziare i prezzi dei farmaci per le decine di milioni dei suoi beneficiari». Il problema dell’«impossibilità politica» è stato già rilevato in precedenza. Perciò nella campagna presidenziale del 2004 il New York Times scrisse che il candidato John Kerry «ha avuto un bel da fare [...] a dire che il suo piano teso a estendere l’accesso all’assicurazione sanitaria non darebbe vita a un nuovo programma governativo», giacché «negli Stati Uniti c’è uno scarso consenso politico attorno a un intervento del governo nel mercato dell’assistenza 10

sanitaria». Perché negli Stati Uniti è «politicamente inaccettabile» un intervento del governo, se non altro per stabilire i prezzi dei farmaci? Perché riscuote «uno scarso consenso politico»? Come mostrano i sondaggi realizzati nel corso degli anni, ciò non dipende dall’opinione pubblica. Anzi, è proprio il contrario. L’85 per cento dell’opinione pubblica è infatti favorevole «a consentire al governo federale di trattare con le aziende farmaceutiche per cercare di ottenere prezzi più bassi per gli anziani». Quando Obama vi ha rinunciato, l’opzione pubblica godeva di due terzi del consenso popolare. In anni passati il sostegno pubblico in favore di un sistema sanitario nazionale del tipo diffuso nei paesi sviluppati, e talvolta anche in quelli più poveri, è stato molto elevato. È stato talmente elevato che negli ultimi anni di Reagan più del 70 per cento dell’opinione pubblica «riteneva che l’assistenza sanitaria dovesse essere una garanzia costituzionale», 11

mentre il 40 per cento «pensava che lo fosse già». L’interpretazione tacita è che «consenso politico» significa appoggio da parte delle società farmaceutiche e delle istituzioni finanziarie. Sono loro a determinare cos’è «politicamente accettabile». In sostanza ci troviamo davanti a una plutocrazia, che si eleva quasi al livello di verità necessaria. O magari, per dirla in termini più gentili, si tratta di quella che il giurista britannico Conor Gearty definisce «neodemocrazia», compagna del neoliberismo, sistema in cui a godere della libertà sono in pochi e in cui la sicurezza nel senso più compiuto esiste solo per l’élite, anche se all’interno di un 12

sistema più generalizzato di diritti formali. Una società libera in senso hobbesiano, nella quale a una persona «non è impedito di fare ciò che ha la volontà di fare»; e «se scelgo di non fare una cosa semplicemente perché ne

temo le conseguenze, ciò non significa che non sono libero di farla; significa soltanto che non voglio, cioè che sono ancora libero» spiega Hobbes. Se la scelta è tra la fame e la servitù, e nulla impedisce la scelta, allora siamo liberi; solo che noi non scegliamo la fame, dal momento che ne temiamo le conseguenze. Per contro, un sistema autenticamente democratico cercherebbe di realizzare l’ideale humboldtiano, che potrebbe prendere la forma di «un’alleanza di gruppi di uomini e donne liberi fondati sul lavoro cooperativo e un’amministrazione delle cose pianificata nell’interesse della comunità», per citare ancora una volta Rocker. In effetti, un ideale del genere non è poi tanto lontano da almeno una variante dell’ideale democratico. Una variante. Sulle altre tornerò tra poco. Prendiamo per esempio John Dewey, che, sul piano sociale e politico, si preoccupava soprattutto della democrazia e dell’educazione. Nessuno lo ha mai 13

preso per un anarchico, ma esaminiamo le sue idee. Nella sua concezione della democrazia, le strutture di coercizione illegittime devono essere smantellate. Vi sono compresi, nella sostanza, il dominio da parte degli «affari per il profitto privato attraverso il controllo privato dell’attività bancaria, della terra, dell’industria, rinforzato dal dominio della stampa, degli agenti di stampa e altri mezzi di pubblicità e propaganda». Dewey riconosceva che «Il potere oggi risiede nel controllo dei mezzi di produzione, di scambio, di pubblicità, di trasporto e di comunicazione. Chiunque li possegga regola la vita del paese», anche se restano le forme della democrazia. Finché tali istituzioni non saranno in mani pubbliche, la politica resterà «l’ombra gettata sulla società da parte delle grandi imprese», proprio come vediamo oggi. Tuttavia Dewey si spinse anche oltre, fino a invocare una forma di controllo pubblico sull’economia. In una società libera e democratica, scrisse, i lavoratori dovrebbero essere «i padroni del loro stesso destino industriale», non strumenti presi a noleggio dai datori di lavoro, né guidati dalle autorità statali. Questa posizione risale alle principali idee del liberalismo classico espresse, tra gli altri, da Humboldt e Smith, e poi sviluppate dalla tradizione anarchica. Riguardo all’istruzione, Dewey riteneva «illiberale e immorale» educare i giovani a lavorare «non liberamente e intelligentemente, ma per il solo scopo del salario guadagnato» – per esempio per ottenere determinati voti –, nel qual caso la loro attività non era «libera perché non era liberamente partecipativa». Per usare un’immagine che risale all’Illuminismo, l’educazione non consiste nel versare acqua in un recipiente – un recipiente che perde molto, come abbiamo provato tutti –, ma, citiamo ancora una volta Humboldt, dovrebbe essere

concepita come un filo teso sul quale i discenti procedono a modo loro, esercitando e migliorando le proprie capacità creative e la propria immaginazione, sperimentando quindi le gioie della scoperta. In quest’ottica, secondo le parole di Dewey, l’industria deve essere trasformata «da un ordine feudale a un ordine sociale democratico», mentre la pratica educativa dovrebbe essere concepita per incoraggiare la creatività, l’esplorazione, l’indipendenza, la cooperazione, cioè il contrario di quello che accade oggi. Queste idee portano naturalmente a una visione della società in cui i lavoratori controllano le istituzioni produttive, come immaginarono i pensatori ottocenteschi, soprattutto Marx, ma anche – cosa meno nota – John Stuart Mill, il quale sosteneva che la forma di associazione che, se il genere umano continuerà a progredire, ci si può attendere che alla fine predomini [...] [è] l’associazione, su un piano di eguaglianza, dei lavoratori stessi, che possiedano collettivamente il capitale con il quale conducono le loro operazioni, e che lavorino sotto 14 direttori eletti e destituibili da loro stessi.

E tali attività dovranno essere sottoposte anche al controllo della comunità in un quadro di libera associazione e organizzazione federale. Tale visione si inscrive nel tono generale di una corrente di pensiero che comprende, insieme a molti anarchici, il socialismo corporativo di G.D.H. Cole e il marxismo della sinistra antibolscevica, e tendenze attuali come l’economia e la politica partecipative teorizzate da Michael Albert, Robin Hahnel, Steven Shalom e altri, e l’importante opera teorica e pratica del compianto Seymour Melman e dei suoi colleghi, nonché i preziosi contributi recenti di Gar Alperovitz sulla crescita delle imprese e delle cooperative di proprietà dei lavoratori nella Rust Belt statunitense e altrove. Dewey era una figura tipica del pensiero americano. E in effetti idee come le sue sono profondamente radicate nella nostra tradizione. Se le seguiamo entriamo nel terreno della lotta esemplare e spesso aspra condotta dai lavoratori a partire dagli albori della rivoluzione industriale di metà Ottocento. Il primo serio studio accademico dedicato agli operai dell’industria di quegli anni fu 15

scritto novant’anni fa da Norman Ware, e vale ancora la pena di leggerlo. L’autore esamina le terribili condizioni di lavoro imposte agli ex artigiani e contadini indipendenti, così come alle «ragazze di fabbrica», giovani donne di origine rurale che lavoravano negli stabilimenti tessili attorno a Boston. Tuttavia insiste soprattutto sull’«umiliazione patita dagli operai industriali», sulla

«perdita di posizione sociale e autonomia», che non si potevano cancellare nemmeno con il miglioramento delle condizioni materiali. E l’attenzione si posa anche sulla «radicale rivoluzione sociale capitalistica in cui la sovranità sulle questioni economiche è passata da un’intera comunità alle mani di una classe particolare» di padroni, spesso lontana dalla produzione, un gruppo «estraneo ai produttori». Ware mostra che «a ogni protesta contro il macchinismo, si possono trovare centinaia di persone contrarie al nuovo potere della produzione capitalista e alla sua disciplina». Gli operai non scioperavano soltanto per il pane, ma anche per le rose, per la dignità e l’indipendenza, per i loro diritti di uomini e donne liberi. Sulle loro riviste condannavano «il terribile influsso dei principi monarchici sul suolo democratico», che non sarà vinto fino a quando «le fabbriche non apparterranno a chi ci lavora» e la sovranità non tornerà ai liberi produttori. E così non saranno più «servi o umili sudditi di un despota straniero [i padroni assenti], né schiavi nel senso più stretto della parola [che] sgobbano [...] per i loro padroni». Riconquisteranno anzi la loro condizione di «liberi cittadini americani». La rivoluzione capitalista diede inizio al fondamentale passaggio dal prezzo al salario. Quando il produttore vendeva il suo prodotto a un determinato prezzo, scrive Ware, «conservava la propria persona. Ma quando giunse a vendere il proprio lavoro, vendette sé stesso» e perse la propria dignità di persona diventando uno schiavo, uno «schiavo salariato», secondo l’espressione che si utilizza in genere. Centosettant’anni fa un gruppo di operai qualificati di New York ribadì l’opinione comune che il salario giornaliero è una forma di schiavitù e avvertì, acutamente, che sarebbe potuto giungere il giorno in cui gli schiavi salariati «avranno dimenticato il rispetto che si deve agli esseri umani per gloriarsi di un sistema loro imposto dalla necessità, contro i loro stessi sentimenti di indipendenza e amor proprio»; un giorno che speravano «molto lontano». I militanti sindacali mettevano in guardia contro il nuovo «spirito dei tempi: diventare ricchi, dimenticare tutto tranne sé stessi». In forte reazione contro questo spirito degradante, i nascenti movimenti radicali dei lavoratori e dei contadini, i più importanti movimenti popolari democratici di tutta la storia 16

americana, si impegnarono alla solidarietà e alla mutua assistenza; una battaglia tutt’altro che conclusa, nonostante le battute d’arresto, spesso segnate da una violenta repressione. Gli apologeti della rivoluzione radicale della schiavitù del salario sostengono che i lavoratori dovrebbero invece vantarsi di un sistema di contratti

liberi, stipulati volontariamente. A loro aveva già risposto Shelley due secoli fa, nel grande poema La mascherata dell’anarchia, scritto a seguito del massacro di Peterloo, allorché la cavalleria inglese attaccò brutalmente un raduno pacifico di centinaia di migliaia di persone che chiedevano una riforma parlamentare. Sappiamo che cos’è la schiavitù, scriveva Shelley: È lavorare ed avere un paga tale appena da menare la vita giorno per giorno nelle vostre dimore, come in una cella per lasciare gli agi ai tiranni, [...] È sentirsi schiavi dentro e non avere fermo controllo sul vostro volere, ma essere come altri vi rendono.

Gli artigiani e le ragazze di fabbrica che lottavano per la dignità, l’indipendenza e la libertà avrebbero potuto conoscere le parole di Shelley. I testimoni dell’epoca notavano che essi possedevano buone biblioteche ed erano a conoscenza delle opere canoniche della letteratura inglese. Prima che la meccanizzazione e il sistema salariale ne compromettessero l’indipendenza e la cultura, scrive Ware, un’officina era un liceo. Gli operai qualificati assumevano dei ragazzi affinché leggessero loro mentre lavoravano. Questi luoghi di lavoro erano «imprese sociali» che offrivano molte occasioni di lettura, discussione e miglioramento reciproco. Insieme alle ragazze di fabbrica, si lamentavano amaramente dell’attacco alla loro cultura. Lo stesso accadeva in Inghilterra, questione analizzata nel monumentale studio di Jonathan Rose sulle abitudini di 17

lettura della classe operaia dell’epoca, nel quale si mettono a confronto l’«appassionata ricerca del sapere da parte dei proletari autodidatti» con il «dilagante filisteismo dell’aristocrazia britannica». Sono abbastanza vecchio da ricordare le tracce di questa mentalità tra gli operai di New York, che negli abissi della Grande Depressione si tuffavano nella cultura alta. Ho accennato al fatto che Dewey e i lavoratori americani sostenevano una certa variante della democrazia, con forti elementi libertari. Tuttavia la variante prevalente è stata molto diversa, e la sua espressione più istruttiva si trova all’estremità progressista dello spettro intellettuale dominante, tra i buoni intellettuali liberali della linea Wilson-Roosevelt-Kennedy. Ecco qualche citazione eloquente. L’opinione pubblica è fatta di persone «ignoranti e di estranei invadenti

[che] devono essere rimessi al loro posto». Le decisioni devono stare nelle mani della «minoranza intelligente [degli] uomini responsabili», i quali devono essere protetti «dal calpestio e dai clamori della plebe smarrita». La plebe deve avere una funzione: ha il compito di prestare la propria forza, per un certo numero di anni, a una selezione di uomini responsabili, ma a parte questo la sua funzione è quella di uno «spettatore, non di chi partecipa all’azione». E tutto per il suo bene. Non dovremmo cedere ai «dogmatismi democratici sul fatto che gli uomini sono i migliori giudici dei propri interessi». Non è così. Lo siamo noi, gli uomini responsabili. Perciò gli atteggiamenti e le opinioni devono essere plasmati e controllati. Dobbiamo irreggimentare «le menti degli uomini come un esercito ne irreggimenta i corpi». In particolare, dobbiamo introdurre una maggiore disciplina nelle istituzioni responsabili dell’«indottrinamento dei giovani». Se si realizza questo, sarà possibile evitare periodi pericolosi come gli anni Sessanta, l’«epoca dei disordini» nel tipico discorso elitario. Saremo in grado di ottenere una maggiore «moderazione nella democrazia» e tornare a giorni migliori, come quando «Truman poteva governare il paese con la collaborazione di un ristretto numero di avvocati e banchieri di Wall Street». Sono citazioni tratte da icone dell’élite liberale: Walter Lippman, Edward Bernays, Harold Laswell, Samuel Huntington e la Commissione Trilaterale, 18

molti membri della quale entrarono a far parte dell’amministrazione Carter. Questa concezione ristretta della democrazia ha radici ben salde. I padri fondatori erano molto preoccupati dai rischi della democrazia. Nelle discussioni della Convenzione di Filadelfia, il principale estensore, James Madison, mise in guardia contro questi rischi. Prendendo a modello l’Inghilterra, ovviamente, osservò che «oggi, in Inghilterra, se le elezioni fossero aperte a tutti i ceti, i beni dei proprietari terrieri non sarebbero al sicuro. Entrerebbe subito in vigore una legge agraria», tale da compromettere il diritto alla proprietà. Per tenere lontana questa ingiustizia, «il nostro governo deve assicurare gli interessi permanenti del paese contro l’innovazione», definendo le modalità di voto e l’equilibrio dei poteri in modo tale da «proteggere la minoranza dei ricchi contro la 19

maggioranza», primo compito di un governo degno di questo nome. La minaccia alla democrazia assumeva dimensioni ancora maggiori a causa del probabile aumento del «numero di coloro che proveranno tutti gli stenti della vita e in segreto sospireranno per una più equa distribuzione dei suoi doni», come prevedeva Madison. Probabilmente influenzato dalla rivolta di Shays, avvertì che «le leggi ugualitarie del suffragio» nel tempo potrebbero mettere il

potere nelle mani di queste persone. «In questo paese non si è ancor compiuto alcun tentativo di una riforma agraria» continuò, «tuttavia i sintomi di uno spirito livellatore [...] sono apparsi a sufficienza in certi ambienti per preoccuparsi di un futuro pericolo». Per queste ragioni Madison riteneva che il Senato, principale sede del potere all’interno del sistema costituzionale, dovesse «rappresentare i ricchi della nazione», l’«insieme degli uomini più capaci», e che si dovessero inoltre istituire altri vincoli al regime democratico. Il problema sollevato da Madison ha continuato a turbare gli statisti. Nel 1958, per esempio, il segretario di Stato John Foster Dulles valutò le difficoltà che gli Stati Uniti affrontavano in America Latina ed espresse la propria apprensione riguardo alla capacità da parte dei comunisti all’interno dei vari paesi di «prendere il controllo dei movimenti di massa», una capacità che noi «non siamo in grado di riprodurre». Il loro vantaggio sta nel fatto che «fanno 20

appello ai poveri, i quali hanno sempre voluto depredare i ricchi». Non possiamo radunarli sotto l’idea che il governo deve «proteggere la minoranza dei ricchi dalla maggioranza». E questa incapacità di far arrivare il nostro messaggio dall’altra parte ci costringe regolarmente a ricorrere alla violenza, contrariamente ai nostri nobilissimi principi e con nostro sincero rammarico. Per riuscire a «elaborare un sistema che vorremmo durasse per secoli», sosteneva Madison, sarebbe necessario assicurarsi che i governanti provenissero dalla minoranza ricca. Sarebbe così possibile «garantire i diritti della proprietà contro il pericolo del suffragio universale, che attribuirebbe pieno potere sulla proprietà in mani che non ne possiedono alcuna». L’espressione «diritti della proprietà» veniva utilizzata regolarmente per intendere diritti alla proprietà, cioè i diritti dei proprietari terrieri. Molti anni dopo, nel 1829, Madison rifletté sulla circostanza che «non ci si può attendere che le persone che non possiedono alcuna proprietà, né hanno la speranza di acquisirla, siano sufficientemente attaccate ai diritti della proprietà per detenere il potere di stabilire o revocare tali diritti». La soluzione consisteva nel far sì che la società fosse frammentata, con una minima partecipazione pubblica nell’arena politica, che deve restare sostanzialmente nelle mani dei ricchi e dei loro rappresentanti. Gli studiosi concordano in genere sul fatto che «la Costituzione era essenzialmente un documento aristocratico concepito per tenere a freno le tendenze democratiche dell’epoca», nonché a consegnare il potere alle persone della «specie migliore» e a escludere «chi non era ricco, di buona famiglia o con un ruolo di primo piano nell’esercizio del potere politico».

21

A difesa di Madison dovremmo ricordare che «era – a un grado per noi oggi 22

pressoché inimmaginabile – un rispettabile gentiluomo settecentesco». Secondo le sue previsioni, sarebbero stati lo «statista illuminato» e il «filosofo benevolo» a reggere le redini del potere. Idealmente «puri e nobili», questi «uomini contrassegnati dall’intelligenza, dal patriottismo, dalla proprietà e dall’indipendenza economica» avrebbero costituito «un gruppo scelto di cittadini, la cui saggezza potrebbe distinguere meglio i veri interessi del loro paese, e che, per il loro patriottismo e il loro amore per la giustizia, saranno meno disposti a sacrificare tali interessi a fattori momentanei o parziali». Essi avrebbero così «raffinato» e «ampliato» le «opinioni pubbliche», preservando l’interesse pubblico contro i «danni» delle maggioranze democratiche. Non è andata proprio così. Il problema della democrazia percepito da Madison era già stato riconosciuto molto tempo prima da Aristotele, nella prima importante opera di scienza della politica, la sua Politica, appunto. Dopo aver passato in rassegna una serie di sistemi politici, il filosofo greco concludeva che la democrazia era il migliore – o magari il meno peggio –, ma vi scorgeva un difetto: la grande massa dei poveri avrebbe potuto usare il proprio potere di voto per impossessarsi delle proprietà dei ricchi, cosa che sarebbe stata ingiusta. Madison e Aristotele affrontarono lo stesso problema, ma scelsero soluzioni opposte: Aristotele raccomandava di diminuire la disuguaglianza, per mezzo di misure che oggi considereremmo tipiche dello stato sociale. Madison invece pensava che la risposta stesse nella riduzione della democrazia. Il conflitto tra queste concezioni della democrazia risale alla primissima rivoluzione democratica moderna, che ebbe luogo nell’Inghilterra secentesca, allorché si scatenò una guerra tra i sostenitori del re e quelli del Parlamento. Gli appartenenti alla gentry, gli «uomini di qualità», come si definivano loro stessi, erano sgomenti di fronte alla marmaglia che non voleva farsi governare né dal re né dal Parlamento, bensì da «cittadini come noi, che conoscono i nostri bisogni». Nei libelli che prendevano le parti delle classi popolari, si poteva leggere che «questo non sarà mai un mondo buono, finché saranno i cavalieri e i gentiluomini a scegliere le leggi per noi, leggi oppressive che accettiamo per 23

paura, e che non tengono conto delle miserie del popolo». La natura sostanziale del conflitto, il quale è tutt’altro che concluso, fu colta schiettamente da Jefferson negli ultimi anni della sua vita, allorché era molto preoccupato per la qualità e il destino dell’esperimento democratico. Jefferson

distingueva tra «aristocratici e democratici»: i primi sono «coloro che temono il popolo e non se ne fidano, e intendono togliergli tutto il potere per metterlo nelle mani delle classi più elevate»; i democratici, per contro, «si identificano [...] con il popolo, ripongono fiducia in esso, lo tengono in gran conto e lo considerano come il più onesto e sicuro depositario degli interessi pubblici, anche se non il 24

più saggio». Gli intellettuali progressisti di oggi che cercano di «rimettere la gente al suo posto» e si sentono liberi dai «dogmatismi democratici» riguardo alla capacità, da parte di «ignoranti ed estranei invadenti», di entrare nell’arena politica, sono gli «aristocratici» di Jefferson. Le loro opinioni essenziali sono molto diffuse, anche se il dibattito è aperto su chi dovrebbe essere investito dell’autorità: «gli intellettuali tecnocrati e guidati dalla politica» della progressista «società della conoscenza», oppure banchieri e dirigenti delle grandi imprese. Oppure ancora, in altre versioni, il Comitato centrale o il Consiglio dei Guardiani composto da religiosi. Sono tutti esempi della «tutela politica» che l’autentica tradizione libertaria cerca di smantellare e ricostruire dal basso, cambiando al contempo l’industria «da un ordine sociale feudale a uno democratico» basato sul controllo da parte dei lavoratori, che rispetta la dignità del produttore come persona a pieno titolo, non quale strumento nelle mani di altri, in conformità con una tradizione libertaria che ha radici profonde, e come la vecchia talpa di Marx scava sempre in prossimità della superficie, sempre pronta a sbucare fuori, a volte in modi sorprendenti e inattesi, cercando di portare avanti quella che mi sembra quanto meno una ragionevole approssimazione al bene comune.

Note

1. Che cos’è il linguaggio? 1 C. Darwin, The Descent of Man, J. Murray, London, 1871, cap. 3 (trad. it.: L’origine dell’uomo, a cura di F. Paparo, Editori Riuniti, Roma, 1999, p. 119). 2 I. Tattersall, Masters of the Planet: The Search for Our Human Origins, Palgrave Macmillan, New York, 2012, p. XI (trad. it.: I signori del pianeta. La ricerca delle origini dell’uomo, Codice, Torino, 2013, p. 5). 3 Il termine è mio. Cfr. N. Chomsky, Knowledge of Language: Its Nature, Origin, and Use, Praeger, New York, 1986 (trad. it.: La conoscenza del linguaggio: natura, origine e uso, a cura di G. Longobardi e M. Piattelli Palmarini, Il Saggiatore, Milano, 1989). Tuttavia io l’ho definito in maniera pressoché vacua, come qualunque altra idea della lingua che non sia la Ilingua. 4 All’origine del malinteso potrebbe essere il fatto che, nelle prime opere, il «linguaggio» è talvolta definito nei brani introduttivi secondo i termini della generazione debole, benché l’uso sia stato rapidamente precisato, per ragioni giustificate. 5 F. de Saussure, Cours de linguistique générale, Payot, Paris, 1922 (trad. it.: Corso di linguistica generale, a cura di T. De Mauro, Laterza, RomaBari, 2005, p. 24); L. Bloomfield, Philosophical Aspects of Language (1942), in C.F. Hockett (a cura di), A Leonard Bloomfield Anthology, Indiana University Press, London-Bloomington, 1970, pp. 267-270; L. Bloomfield, A Set of Postulates for the Science of Language, Bobbs-Merrill, Indianapolis, 1926; L. Bloomfield, A Set of Postulates for the Science of Language, in Language, II, 3 (settembre 1926), pp. 153-164; W.D. Whitney, The Life and Growth of Language, H.S. King, London, 1875 (trad. it.: La vita e lo sviluppo del linguaggio, Rizzoli, Milano, 1990); E. Sapir, Language, Harcourt, Brace & Co., New York, 1921, p. 8 (trad. it.: Il

linguaggio. Introduzione alla linguistica, a cura di P. Valesio, Einaudi, Torino, 1969, p. 8). 6 Nel commento a M. Joos (a cura di), Readings in Linguistics, American Council of Learned Societies, Washington DC, 1957. 7 Z. Harris, Methods in Structural Linguistics, University of Chicago Press, Chicago, 1951. 8 Io credo che si tratti di una regressione, dal momento che confonde le nozioni sostanzialmente diverse di competenza e performance – grosso modo, ciò che sappiamo e ciò che facciamo –, a differenza del sistema di Harris, che non lo fa. 9 D. Dediu e S.C. Levinson, On the Antiquity of Language: The Reinterpretation of Neandertal Linguistic Capacities and Its Consequences, in Frontiers in Psychology, IV, 397, 5 luglio 2013, pp. 1-17, doi: 10.3389/fpsyg.2013.00397. 10 G. Galilei, Dialogo sopra i due massimi sistemi del mondo (1632), fine della Giornata prima. 11 Per rimandi e analisi cfr. N. Chomsky, Cartesian Linguistics, Cambrdige University Press, London-New York, 20093, con traduzioni ampliate (e perfezionate) di James McGilvray. 12 W. von Humboldt, Über die Verschiedenheit des menschlichen Sprachbaues, Dümmler, Berlin, 1836 (trad. it.: La diversità delle lingue, a cura di D. Di Cesare, Laterza, Roma-Bari, 1993, p. 79). 13 O. Jespersen, The Philosophy of Grammar, Holt & Co., New York, 1924. 14 M. Musso, A. Moro et al., Broca’s Area and the Language Instinct, in Nature Neuroscience, VI, 22 giugno 2003, pp. 774-781, doi:10.1038/noìn1077. 15 N. Smith, Chomsky: Ideas and Ideals, Cambridge University Press, Cambridge, 20042, p. 136. Cfr. anche N. Smith e I.-M. Tsimpli, The Mind of a Savant: Language Learning and Modularity, Blackwell, Cambridge, 1995. 16 R.C. Berwick, P. Pietroski, B. Yankama e N. Chomsky, Poverty of the Stimulus Revisited, in Cognitive Science, XXXV, 7 (settembre-ottobre 2011), pp. 1207-1242, doi:10.1111/j.1551-6709.2011.01189.x.

17 W. Tecumseh Fitch, Speech Perception: A Language-Trained Chimpanzee Weighs In, in Current Biology, XXI, 14 (26 luglio 2011), pp. 543-546, doi:10.1016/j.cub.2011.06.035. 18 C. Fernyhough, The Voices Within: The Power of Talking to Yourself, in New Scientist, 2919 (3 giugno 2013), pp. 32-35. 19 W. Uzgalis, John Locke, in The Stanford Encyclopedia of Philosophy (Fall 2012 Edition), a cura di E.N. Zalta, http://plato.stanford.edu/archives/fall2012/entries/locke/. 20 T. Trinh, A Constraint on Copy Deletion, in Theoretical Linguistics, XXXV, 2-3 (ottobre 2009), pp. 183-227. Inoltre sorvolo qui anche su altre questioni che sollevano svariati interrogativi ulteriori, per esempio le «operazioni nascoste», nelle quali si esprime soltanto la prima copia frutto della Fusione. 21 P.S. Churchland, premessa a W.V.O. Quine, Word and Object (1960), MIT Press, Cambridge (Mass.)-London, 2013, p. XIII. 22 L. Rizzi, Issues in Italian Syntax, Foris, Dordrecht, 1982.

2. Che cosa possiamo conoscere? 1 O. Flanagan, The Science of the Mind, MIT Press, Cambridge (Mass.)London, 19912, p. 313. Cfr. anche: http://en.wikipedia.org/wiki/New_Mysterianism. 2 N. Chomsky, Problems and Mysteries in the Study of Human Language, in A. Kasher (a cura di), Language in Focus: Foundations, Methods and Systems: Essays in Memory of Yehoshua Bar-Hillel, Reidel, Boston, 1976, pp. 281-358. Una versione più ampia si trova in N. Chomsky, Reflections on Language, Pantheon, New York, 1975, cap. 4 (trad. it.: Riflessioni sul linguaggio, a cura di S. Scalise, Einaudi, Torino, 1981). 3 Cfr. N. Chomsky, Language and Mind, Harcourt, Brace & World, New York, 1968 (trad. it.: Il linguaggio e la mente, Bollati Boringhieri, Torino, 2010). 4 M. Gershon, The Second Brain, HarperCollins, New York, 1998 (trad. it.: Il secondo cervello, a cura di M.G. Petruccioli, UTET, Torino, 2006).

5 Per una trattazione più ampia di questo argomento e di alcune questioni analizzate più avanti, cfr. N. Chomsky, The Mysteries of Nature: How Deeply Hidden?», in Journal of Philosophy, CVI, 4 (aprile 2009), pp. 167200. 6 B. Russell, The Analysis of Matter, Harcourt, Brace & Co., New York, 1927, cap. 37 (trad. it.: L’analisi della materia, Longanesi, Milano, 1964). C.I. Lewis, Mind and the World-Order: Outline of a Theory of Knowledge, C. Scribner’s Sons, New York, 1929 (trad. it.: Il pensiero e l’ordine del mondo, Rosenberg e Sellier, Torino, 1977). 7 G. Strawson, The Evident Connexion: Hume on Personal Identity, Oxford University Press, Oxford-New York, 2011, p. 56. 8 Ivi, parte 3. 9 J. Locke, seconda risposta a Stillingfleet, in The Works of John Locke, vol. 3; analizzata in A. Janiak, Newton as Philosopher, Cambridge University Press, Cambridge, 2008, p. 121. 10 A. Janiak, op. cit., pp. 9 sgg., p. 39. 11 Sulla «proposta di Locke» e sul suo sviluppo nel secolo successivo, che culminò nell’importante lavoro di Priestley, cfr. J.W. Yolton, Thinking Matter: Materialism in Eighteenth-Century Britain, Minnesota University Press, Minneapolis, 1983, nonché un’ulteriore elaborazione in N. Chomsky, The Mysteries of Nature: How Deeply Hidden?, cit. 12 C. Darwin, 1838, taccuino C166, in Charles Darwin’s Notebooks, 18361844: Geology, Transmutation of Species, Metaphysical Enquiries, a cura di P.H. Barrett et al., Cambridge University Press, Cambridge, 1987, p. 291; http://darwin-online.org.uk/content/frameset? viewtype5image&itemID5CUL-DAR122.&keywords5brain1the1of1secretion&pageseq5148. 13 P. Churchland, Betty Crocker’s Theory, recensione a J. Searle, The Rediscovery of the Mind, London Review of Books, XVI, 9 (12 maggio 1994), pp. 13-14. Churchland associa le opinioni di Searle a quelle di Cartesio secondo modalità che non risultano del tutto chiare, in parte per via di un fraintendimento della filosofia meccanicistica e del suo destino. Su Priestley e altri, cfr. i riferimenti bibliografici della nota 11. 14 V.B. Mountcastle, Brain Science at the Century’s Ebb, in The Brain, Dædalus, CXXVII, 2 (primavera 1998), pp. 1-36, a p. 1.

15 C.R. Gallistel e A.P. King, Memory and the Computational Brain: Why Cognitive Science Will Transform Neuroscience, Wiley-Blackwell, Malden (Mass.), 2009. 16 T. Nagel, The Core of «Mind and Cosmos», in New York Times Opinionator, 18 agosto 2013; T. Nagel, Mind and Cosmos: Why the Materialist Neo-Darwinian Conception of Nature Is Almost Certainly False, Oxford University Press, London-New York, 2012 (trad. it.: Mente e corpo: perché la concezione neodarwiniana della natura è quasi certamente falsa, Raffaello Cortina, Milano, 2015). 17 D. Hume, The History of England, vol. 6, cap. LXXI (trad. it.: Storia d’Inghilterra, Tipografia Elvetica, Capolago, 1837, vol. VIII, p. 503). 18 U. Thiel, The Early Modern Subject: Self-Consciousness and Personal Identity from Descartes to Hume, Oxford University Press, New York, 2011. 19 D.D. Hoffman, Visual Intelligence: How We Create What We See, Norton, New York, London, 1998, p. 159. 20 R. Lewontin, The Evolution of Cognition: Questions We Will Never Answer, in D.N. Osherson, D. Scarborough e S. Sternberg (a cura di), An Invitation to Cognitive Science, vol. 4: Methods, Models, and Conceptual Issues, 2ª ed., MIT Press, Cambridge (Mass.), 1998, pp. 108-132. 21 M. Hauser, C.Yang et al., The Mystery of Language Evolution, in Frontiers in Psychology, 5, 401 (7 maggio 2014), doi: 10.3389/fpsyg.2014.00401. 22 L.-A. Petitto, How the Brain Begets Language, in J. McGilvray (a cura di), The Cambridge Companion to Chomsky, Cambridge University Press, Cambridge, 2005, pp. 84-101, a p. 86. 23 Aristotele, Metafisica, libro VIII, 3; De Anima, I, 1. 24 Cfr. N. Chomsky, Notes on Denotation and Denoting, in I. Caponigro e C. Cecchetto (a cura di), From Grammar to Meaning: The Spontaneous Logicality of Language, Cambridge University Press, Cambridge, 2013, pp. 38-45, e le fonti ivi citate. 25 Citazioni tratte da B.L. Mijuskovic, The Achilles of Rationalist Arguments, Nijhof, The Hague, 1974. 26 J. Locke, An Essay Concerning Human Understanding, libro II, cap. 27

(trad. it.: Saggio sull’intelligenza umana, Laterza, Roma-Bari, 1988, p. 375 e 384). 27 Sulle donne: L.K. Kerber, Why Diamonds Really Are a Girl’s Best Friend: Another American Narrative, in Dædalus, CXLI, 1 («On the American Narrative», inverno 2012), pp. 89-100; D. Ellerman, Workplace Democracy and Human Development: The Example of the Postsocialist Transition Debate, in Journal of Speculative Philosophy, XXIV, 4 (2010), pp. 333-353; Taylor v. Louisiana, 419 US 522 (1975). Sugli afroamericani: D. Blackmon, Slavery by Another Name: The Re-Enslavement of Black Americans from the Civil War to World War II, Doubleday, New York, 2008; M.L. Alexander, The New Jim Crow: Mass Incarceration in the Age of Colorblindness, ed. riveduta, New Press, New York, 2012. Sugli immigrati: Rasul v. Myers, gennaio 2008, Court of Appeals, District of Columbia Circuit, gennaio 2008, aprile 2009. Sulle imprese: cfr. le fonti di N. Chomsky, Hopes and Prospects, Haymarket, Chicago, 2010, pp. 30 sgg. (trad. it.: America, no we can’t: le speranze deluse e le prospettive della politica Usa, Alegre, Roma, 2010). 28 D. Føllesdal, Indeterminacy and Mental States, in R. Barrett e R. Gibson (a cura di), Perspectives on Quine, Blackwell, Cambridge (Mass.), 1990, pp. 98-109. 29 C.R. Gallistel, Representations in Animal Cognition: An Introduction, in Cognition, XXXVII, 1-2 (novembre 1990), pp. 1-22. 30 D.C. Dennett, Sakes and Dints, in Times Literary Supplement, 2 marzo 2012. 31 N. Chomsky, Derivation by Phase, in M.J. Kenstowicz (a cura di), Ken Hale: A Life in Language, MIT Press, Cambridge (Mass.), 2001, pp. 1-52. 32 U. Thiel, op. cit. 33 Indagine che Colin McGinn ha intrapreso in libri e articoli vari, tra cui Basic Structures of Reality: Essays in Meta-Physics, Oxford University Press, Oxford, 2011. 34 S. Carey, The Origin of Concepts, Oxford University Press, New YorkOxford, 2011. 35 Per le fonti, cfr. N. Chomsky, The Mysteries of Nature: How Deeply Hidden?, cit.

36 D. Hilbert, Logic and the Knowledge of Nature (1930), in W.B. Ewald (a cura di), From Kant to Hilbert: A Source Book in the Foundations of Mathematics, vol. 2, Oxford University Press, New York-Oxford, 2005, pp. 1157-1165. Ringrazio Richard Larson per l’indicazione bibliografica. 37 D. Deutsch, The Beginning of Infinity: Explanations That Transform the World, Viking, New York, 2011 (trad. it.: L’inizio dell’infinito: spiegazioni che trasformano il mondo, Einaudi, Torino, 2013). D. Albert, Explaining it All: How We Became the Center of the Universe, in New York Times, 12 agosto 2011. 38 Cfr. N. Chomsky, Il linguaggio e la mente, cit. 39 J. Huarte de San Juan, Examen de ingenios para las ciencias, 15751594 (trad. it.: Esame degli ingegni, a cura di R. Riccio, CLUEB, Bologna, 1993). Cfr. N. Chomsky, Cartesian Linguistics, Cambridge University Press, Cambridge-New York, 20093; J. Virués Ortega, Juan Huarte de San Juan in Cartesian and Modern Psycholinguistics: An Encounter with Noam Chomsky, in Psicothema, XVII, 3 (2005), pp. 436-440, http://www.psicothema.com/pdf/3125.pdf.

3. Che cos’è il bene comune? 1 A. Smith, An Inquiry into the Nature and Causes of the Wealth of Nations (1776), ed. critica di E. Cannan, ristampa, Chicago University Press, Chicago, 1976, libro V, cap. I, pt. III, art. II (II, 302-303); (trad. it.: La ricchezza delle nazioni, a cura di A. e T. Bagiotti, UTET, Torino, 1975, pp. 949-950). 2 A. Smith, The Theory of Moral Sentiments (1759), Penguin, New York, 2009 (trad. it.: Teoria dei sentimenti morali, BUR, Milano, 2009, pp. 253254). Per la «vile massima», Wealth of Nations, libro III, cap. IV (I, 437); (trad. it.: La ricchezza delle nazioni, cit., pp. 541-542). 3 R. Rocker, Anarcho-Syndicalism: Theory and Practice, Secker & Warburg, London, 1938. 4 N. Schneider, Introduction: Anarcho-Curious? or, Anarchist America, in N. Chomsky, On Anarchism, New Press, New York, 2013, pp. VII-XVI, in particolare p. XI.

5 United States Army, School of the Americas, maggio 1999, citato in A. Isacson e J. Olson, Just the Facts: A Civilian’s Guide to U.S. Defense and Security Assistance to Latin America and the Caribbean, Latin America Working Group, Washington DC, 1999. 6 J.H. Coatsworth, The Cold War in Central America, 1975-1991, in M.P. Leffler e O.A. Westad (a cura di), The Cambridge History of the Cold War, vol. III, Endings, Cambridge University Press, Cambridge-New York, 2010, pp. 201-221, cfr. p. 221. 7 D. Ellerman, Property and Contract in Economics: The Case for Economic Democracy, Blackwell, Oxford, 1992. 8 B. Maybury-Lewis, The Politics of the Possible: The Brazilian Rural Workers’ Trade Union Movement, 1964-1985, Temple, Philadelphia, 1994. 9 M. Gilens, Affluence and Influence: Economic Inequality and Political Power in America, Russel Sage Foundation, New York, Princeton University Press, Princeton, 2012; L.M. Bartels, Unequal Democracy: The Political Economy of the New Gilded Age, Princeton University Press, Princeton, 2010. 10 E. Rosenthal, Health Care’s Road to Ruin, in The New York Times, 21 dicembre 2013. G. Harris, In American Health Care, Drug Shortages Are Chronic, in The New York Times, 31 ottobre 2004. 11 Kaiser Health Tracking Poll, aprile 2009. Per i sondaggi, cfr. N. Chomsky, Failed States: The Abuse of Power and the Assault on Democracy, Metropolitan Books/Henry Holt, New York, 2006, cap. 6 (trad it. Stati falliti: abuso di potere e assalto alla democrazia in America, Il Saggiatore, Milano, 2011). 12 C. Gearty, Liberty and Security, Polity, Malden (Mass.)-Cambridge, 2013. 13 Le citazioni sono tratte da R.B. Westbrook, John Dewey and American Democracy, Cornell University Press, Ithaca, 1991 (trad. it.: John Dewey e la democrazia americana, Armando, Roma, 2011). 14 Sull’opinione di Mill e altre relative, cfr. D. Ellerman, Workplace Democracy and Human Development: The Example of the Postsocialist Transition Debate, in Journal of Speculative Philosophy, XXIV, 4 (2010), pp. 333-353.

15 N. Ware, The Industrial Worker, 1840-1860: The Reaction of the American Industrial Society to the Advance of the Industrial Revolution (1924), ristampa Quadrangle Books, Chicago, 1964. 16 Cfr., tra gli altri, L. Goodwyn, The Populist Moment: A Short History of the Agrarian Revolt in America, Oxford University Press, Oxford-New York, 1978. 17 J. Rose, The Intellectual Life of the British Working Classes, Yale University Press, New Haven-London, 2002. 18 W. Lippmann, in C. Rossiter e J. Lare (a cura di), The Essential Lippmann: A Political Philosophy for Liberal Democracy, Harvard University Press, Cambridge (Mass.), 1982, pp. 91 sg.; E. Bernays, Propaganda, Liveright, New York, 1928 (trad. it.: Propaganda: della manipolazione dell’opinione pubblica in democrazia, Logo Fausto Lupetti, Bologna, 2008); H. Lasswell, «Propaganda», in E. Seligman (a cura di), Encyclopedia of the Social Sciences, Macmillan, New York, 1937; M.J. Crozier, S.P. Huntington e J. Watanuki, The Crisis of Democracy: Report on the Governability of Democracies to the Trilaterial Commission, University Press, New York, 1975 (trad it. La crisi della democrazia: rapporto sulla governabilità delle democrazie alla Commissione trilaterale, Franco Angeli, Milano, 1977). 19 J. Elliot (a cura di), The Debates in the Several State Conventions on the Adoption of the Federal Constitution, 1787. Per altre indicazioni su Madison, cfr. N. Chomsky, Consent without Consent: Reflections on the Theory and Practice of Democracy, in Cleveland State Law Review, XLIV, 4 (1996), pp. 415-437. 20 J.F Dulles, telefonata ad Allen Dulles, 19 giugno 1958, «Minutes of Telephone Conversations of John Foster Dulles and Christian Herter», Eisenhower Presidential Library, Museum and Boyhood Home, Abilene (Kansas). 21 L. Banning, The Sacred Fire of Liberty: James Madison and the Founding of the Federal Republic, Cornell University Press, Ithaca, 1995, p. 245, dove si cita G.S. Wood, The Creation of the American Republic, 1776-1787, North Carolina University Press, Chapel Hill, 1969. 22 Ibid., p. 333. 23 C. Hill, The World Turned Upside Down: Radical Ideas during the

English Revolution, Penguin, New York, 1975, p. 60. (trad. it.: Il mondo alla rovescia: idee e movimenti rivoluzionari nell’Inghilterra del Seicento, Einaudi, Torino, 1981, p. 49). 24 T. Jefferson, citato in C. Sellers, The Market Revolution: Jacksonian America, 1815-1846, Oxford University Press, New York-Oxford, 1991, pp. 269-270.

Indice

Tre lezioni sull’uomo Capitolo primo Che cos’è il linguaggio? Capitolo secondo Che cosa possiamo conoscere? Capitolo terzo Che cos’è il bene comune? Note

Ti è piaciuto questo libro? Vuoi scoprire nuovi autori? Vieni a trovarci su IlLibraio.it, dove potrai: scoprire le novità editoriali e sfogliare le prime pagine in anteprima seguire i generi letterari che preferisci accedere a contenuti gratuiti: racconti, articoli, interviste e approfondimenti leggere la trama dei libri, conoscere i dietro le quinte dei casi editoriali, guardare i booktrailer iscriverti alla nostra newsletter settimanale unirti a migliaia di appassionati lettori sui nostri account facebook, twitter, google+ «La vita di un libro non finisce con l’ultima pagina»