Danni collaterali. Diseguaglianze sociali nell’età globale 9788858108895

L’esplosiva miscela che scaturisce dalla disuguaglianza economica e sociale in continuo aumento, abbinata all’accrescers

430 119 1MB

Italian Pages 187 Year 2013

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Danni collaterali. Diseguaglianze sociali nell’età globale
 9788858108895

Table of contents :
Indice......Page 4
Frontespizio......Page 2
Introduzione. Il danno collaterale della disuguaglianza sociale......Page 5
1. Dall’«agorà» al mercato......Page 14
2. Requiem per il comunismo......Page 33
3. Il destino della disuguaglianza sociale nell’era liquido-moderna......Page 47
4. Gli sconosciuti sono pericolosi... Ne siamo proprio sicuri?......Page 60
5. Consumismo e moralità......Page 82
6. «Privacy», riservatezza, intimità, legami umani e altre vittime collaterali della modernità liquida......Page 93
7. La sfortuna e l’individualizzazione dei rimedi......Page 105
8. Nella moderna Atene, in cerca di una risposta alla domanda dell’antica Gerusalemme......Page 116
9. Storia naturale del male......Page 141
10. «Wir arme Leut’»......Page 164
11. La sociologia: da dove viene? E dove è diretta?......Page 174

Citation preview

eBook Laterza

Zygmunt Bauman

Danni collaterali Diseguaglianze sociali nell'età globale

© 2013, Gius. Laterza & Figli

Edizione digitale: settembre 2013 www.laterza.it Proprietà letteraria riservata Gius. Laterza & Figli Spa, Roma-Bari Realizzato da Graphiservice s.r.l. - Bari (Italy) per conto della Gius. Laterza & Figli Spa ISBN 9788858108895 È vietata la riproduzione, anche parziale, con qualsiasi mezzo effettuata

Sommario

Introduzione. Il danno collaterale della disuguaglianza sociale 1. Dall’«agorà» al mercato 2. Requiem per il comunismo 3. Il destino della disuguaglianza sociale nell’era liquido-moderna 4. Gli sconosciuti sono pericolosi... Ne siamo proprio sicuri? 5. Consumismo e moralità 6. «Privacy», riservatezza, intimità, legami umani e altre vittime collaterali della modernità liquida 7. La sfortuna e l’individualizzazione dei rimedi 8. Nella moderna Atene, in cerca di una risposta alla domanda dell’antica Gerusalemme 9. Storia naturale del male 10. «Wir arme Leut’» 11. La sociologia: da dove viene? E dove è diretta?

Introduzione. Il danno collaterale della disuguaglianza sociale

Quando un impianto elettrico si sovraccarica, il primo componente a saltare è il fusibile. Si tratta di un elemento che non può reggere lo stesso voltaggio del resto del circuito, di cui rappresenta infatti il segmento meno resistente, e vi è stato inserito appositamente cosicché bruciando prima di qualsiasi altra parte – e precisamente nell’esatto momento in cui la corrente supera il livello di guardia – interviene per disattivare l’impianto e le periferiche da esso alimentate. Ciò significa che il fusibile è un dispositivo di sicurezza che protegge i componenti del circuito impedendo che si fondano senza più alcuna possibilità di ripararli e riutilizzarli. Questo implica anche che la funzionalità e la tenuta dell’intero impianto (ovvero l’energia che è capace di assorbire e la quantità di lavoro che è in grado di svolgere) non possono superare la sua capacità di resistenza. Quando il fusibile salta, l’intero impianto smette di funzionare. Un ponte non si spezza quando il carico che sostiene eccede la solidità media delle sue campate, ma assai prima: nell’attimo stesso in cui il peso del carico supera la capacità di portata di una sola di esse: quella più debole. La “capacità media di portata” dei piloni è una convenzione statistica che sulla funzionalità del ponte ha un impatto nullo o minimo – proprio come la “resistenza media” degli anelli delle sue catene non è di nessuna utilità per determinare quanto peso tali catene sono in grado di tollerare. Affidandosi a calcoli, conteggi e medie matematiche, vi è anzi la sicurezza di perdere in un sol colpo tanto il carico che la catena che lo sorregge. A prescindere dalla solidità delle altre campate e degli altri piloni, è l’elemento più debole che determina il destino dell’intero ponte. Si tratta di semplici e banali considerazioni che ogni ingegnere di opportuna formazione ed esperienza deve tenere a mente nel progettare e collaudare una struttura di qualsiasi tipo – e altrettanto sono tenuti a fare i

responsabili della manutenzione. Di norma, quando una struttura è monitorata e sorvegliata con attenzione, si ricorre a eventuali interventi di adeguamento strutturale appena la solidità di uno dei suoi componenti non soddisfa più i parametri minimi di solidità. Dico “di norma” perché tale regola purtroppo non è sempre osservata per tutte le strutture, come accade nel caso delle dighe lasciate semi-incustodite, dei ponti abbandonati, dei velivoli riparati alla bell’e meglio o di edifici pubblici e residenziali ispezionati sbrigativamente e senza cura. Circostanze di cui veniamo a conoscenza a disastro avvenuto, quando arriva il momento di fare il conto delle vittime e determinare l’esorbitante costo dei lavori di ripristino. Esiste, tuttavia, una struttura di fronte alla quale tutte le semplici precauzioni sopra descritte, dettate invero dal buon senso, vengono dimenticate, tralasciate, omesse, trascurate o addirittura deliberatamente ignorate. La struttura in questione è la società. È infatti opinione diffusa – ancorché erronea – che la qualità complessiva di una società possa e debba essere misurata sulla base della qualità media delle parti che la compongono. E che se una qualsiasi di esse scendesse al di sotto di tale media, difficilmente il suo deterioramento potrebbe a sua volta compromettere la qualità, la funzionalità e la capacità operativa della struttura nel suo complesso. Per verificare e valutare le condizioni della società ci si basa di norma sul valore “medio” degli indici di reddito, degli standard di vita, delle condizioni igienico-sanitarie e via discorrendo. Tuttavia, è raro che la differenza registrata fra questi parametri nei diversi segmenti della società, così come l’ampiezza del divario tra i segmenti più “alti” della popolazione e quelli più “bassi”, sia considerata un indicatore rilevante. L’accrescersi della disuguaglianza non è quasi mai visto come indizio di qualcosa di diverso da un semplice problema economico. E nei casi relativamente rari in cui ci si interroga sui pericoli che la disuguaglianza preannuncia per la società nel suo insieme ci si limita il più delle volte a soffermarsi sulle minacce all’“ordine pubblico” – anziché sui rischi che la disuguaglianza rappresenta per quegli elementi fondamentali del benessere collettivo della società quali, ad esempio, la salute fisica e mentale dell’intera popolazione, la qualità della vita di tutti i giorni, il grado di partecipazione politica dei cittadini e la solidità dei rapporti che uniscono coloro che ne sono parte. Di norma, infatti, l’unico parametro che viene preso a misura del benessere – nonché del successo o

del fallimento delle autorità deputate a monitorare e proteggere la capacità di una nazione di superare le avversità e risolvere i problemi che le si presentano – è il reddito medio o il tasso medio di ricchezza dei suoi componenti, e non il livello di disuguaglianza nella distribuzione del reddito o della ricchezza. Il messaggio trasmesso da una simile scelta è che la disuguaglianza non rappresenta in sé un rischio per la società nel suo insieme, né è la causa dei problemi che la affliggono. La natura della politica contemporanea, così come di una parte consistente del suo elettorato, può essere definita dal desiderio della classe politica di costringere la realtà dei fatti a sottostare al modello sopra descritto. Un sintomo rilevante di questo desiderio, e della politica che aspira a soddisfarlo, è il modo in cui il segmento della popolazione situato all’estremità più bassa della distribuzione sociale della ricchezza e del reddito rimane confinato all’interno di un’immaginaria “sottoclasse”, formata da individui che, a differenza del resto della popolazione, non appartengono ad alcuna classe – e quindi, di fatto, nemmeno alla società. Questa è una società di classe intesa come una totalità che suddivide i propri membri in base alla rispettiva classe di appartenenza, esigendo da loro che adempiano alla funzione che a questa spetta in seno e a beneficio del “sistema sociale” nel suo insieme. L’idea di “sottoclasse” non evoca invece alcuna funzione (a differenza di quanto accade ad esempio con la classe “degli operai” o “dei professionisti”), né definisce una specifica posizione all’interno del contesto sociale (come capita invece con la definizione dei ceti “basso”, “medio” o “alto”). L’unico significato che il termine “sottoclasse” implica è l’esclusione da qualsivoglia, significativa classificazione definita in base a coordinate di funzione e posizione. La “sottoclasse” potrebbe essere parte della società, ma di certo non è riconosciuta in quanto tale, poiché non contribuisce in alcun modo a ciò di cui la società ha bisogno per la propria sopravvivenza e il proprio benessere e, se non esistesse, la società sarebbe addirittura migliore. Come il termine stesso suggerisce, la “sottoclasse” è formata da “migranti interni”, o “immigrati clandestini”, “stranieri in mezzo a noi”, privati di quei diritti di cui godono i membri accreditati e riconosciuti della società; in poche parole, una sorta di corpo estraneo, anziché una delle componenti “connaturate” e imprescindibili dell’organismo sociale. Paragonabile forse a una massa tumorale, curabile unicamente tramite l’asportazione – o

tutt’al più l’isolamento forzato, indotto e architettato, e/o la remissione. Strettamente collegato al primo, un altro sintomo di quello stesso desiderio è la propensione vieppiù evidente a ripensare la povertà – il sedimento più estremo e problematico della disuguaglianza sociale – come un problema di ordine pubblico, da combattere quindi con quegli stessi mezzi a cui solitamente si ricorre per far fronte alla delinquenza e alla criminalità. È tuttavia vero che povertà e disoccupazione cronica, così come il lavoro senza prospettive (sporadico, a breve termine e inadatto a coinvolgere e offrire sbocchi), sono correlate a tassi delinquenziali superiori alla media. A Bradford, per esempio, una città situata a una decina di chilometri da dove abito, il 40 per cento dei giovani vive in famiglie in cui nessuno ha un impiego regolare e uno su dieci di loro è già noto alle forze dell’ordine. Tale nesso statistico non giustifica di per sé la riclassificazione della povertà come problema di criminalità, ma evidenzia, semmai, la necessità di considerare la delinquenza giovanile come una questione di ordine sociale. Per ridurre la percentuale dei giovani che trasgrediscono la legge occorre indirizzarsi alle radici del fenomeno – che sono di natura sociale e derivano dalla combinazione tra una filosofia di vita consumistica diffusa e instillata da un’economia e una politica basate sul consumo, una contrazione delle opportunità a disposizione dei poveri, e la mancanza di realistiche possibilità per un segmento in continua crescita della popolazione di sfuggire alla miseria attraverso modalità socialmente accettate e collaudate. Riguardo a Bradford, così come per i numerosi casi analoghi diffusi nel resto del mondo, occorre sottolineare due punti. Innanzitutto, sforzarsi di spiegare esaurientemente simili realtà alla luce di cause locali, immediate e dirette (per non parlare del tentativo di attribuirle esplicitamente a un atto di cattiva fede premeditata) equivale a una perdita di tempo. E, in secondo luogo, c’è ben poco che le istituzioni locali, per quanto intraprendenti e desiderose di intervenire, possano fare per prevenirle o risolverle. Le connessioni con il fenomeno Bradford vanno ricercate ben al di là dei confini geografici di quella cittadina: le condizioni di vita dei suoi giovani non sono che una conseguenza, un danno collaterale della globalizzazione orientata al profitto – non pianificata né, in alcun modo, arginata. Entrata di recente a far parte del lessico delle forze militari di spedizione, e successivamente divulgata dagli inviati stampa mandati al loro

seguito, l’espressione “perdita (o danno, o vittima) collaterale” denota degli effetti accidentali, inaspettati o (come direbbero erroneamente alcuni) “imprevisti” – e tuttavia dannosi, nocivi, deleteri. Definire “collaterali” alcuni devastanti esiti delle operazioni militari lascia supporre che questi non siano stati messi in bilancio né al momento in cui l’operazione è stata pianificata, né al momento in cui alle truppe è stato dato l’ordine di entrare in azione; oppure che l’eventualità del loro possibile verificarsi sia stata considerata e soppesata, e tuttavia ritenuta un rischio che valesse la pena correre, alla luce dell’importanza degli obiettivi militari in gioco. Quest’ultima ipotesi appare molto più plausibile (e assai più probabile) per il fatto che le persone a cui spettava il compito di stabilire se fosse o meno il caso di correre il rischio non erano le stesse che ne avrebbero patito le conseguenze. Molti di coloro che impartiscono ordini sarebbero felici di poter giustificare a posteriori la propensione da loro dimostrata nel mettere a rischio la vita e la sussistenza di altri esseri umani con la motivazione che non è possibile fare una frittata senza rompere delle uova. Una spiegazione che naturalmente tralascia di considerare il potere legittimo o usurpato di decidere quale frittata vada preparata e gustata e quali uova occorra rompere, come pure il fatto che le uova sacrificate in nome della frittata non potranno certo gustarla... Pensare in termini di danno collaterale implica tacitamente una disparità già in atto tra diritti e opportunità, e l’aprioristica accettazione dell’iniqua ripartizione dei costi di un intervento (o, per quel che vale, dell’astenersi dall’intervenire). A quanto pare i rischi, poiché le loro ripercussioni sono del tutto casuali, non vengono preventivamente calcolati e sono quindi considerati “neutrali”; si tratta, di fatto, di una partita giocata a dadi truccati. Esiste un’affinità selettiva tra la disuguaglianza sociale e la probabilità di rimanere vittima di qualche catastrofe, che sia causata dall’uomo o “naturale”, per quanto in entrambi i casi vi sia chi affermi che i danni non fossero né voluti né previsti. Tra l’occupare il gradino più basso della scala della disuguaglianza e il ritrovarsi “vittima collaterale” di un’azione umana o di un disastro naturale esiste lo stesso rapporto che intercorre tra i poli opposti delle calamite, i quali tendono a gravitare l’uno verso l’altro. Nel 2005, prima che l’uragano Katrina si abbattesse sulle coste della Louisiana, gli abitanti di New Orleans e delle zone circostanti sapevano del

suo imminente arrivo ed ebbero il tempo di correre ai ripari. Non tutti però poterono agire di conseguenza e mettersi in salvo. Taluni – e non furono pochi – non riuscirono a racimolare il denaro necessario ad acquistare un biglietto aereo. Avrebbero forse potuto impacchettare tutto e caricare la famiglia su un furgone, ma per andare dove? I motel costano e quasi certamente non avrebbero potuto permetterseli. Per i loro concittadini benestanti, invece, attenersi alle raccomandazioni di lasciare la propria abitazione, abbandonare ogni cosa e mettere in salvo la pelle fu, paradossalmente, più facile poiché i loro beni erano assicurati, e, ammesso che Katrina rappresentasse una minaccia per le loro vite, di certo non lo era per le loro ricchezze. Inoltre, benché i beni di quei poveri che non riuscirono a prendere un aereo o a trovare scampo in un motel fossero forse poca cosa rispetto a quelli dei ricchi, e quindi non altrettanto degni di essere rimpianti, essi rappresentavano per loro tutto ciò che possedevano. Nessuno li avrebbe compensati per la perdita di quei beni, che una volta perduti lo sarebbero stati per sempre, insieme a tutti i risparmi di una vita. Katrina forse non ha dimostrato favoritismi: ha colpito tutti allo stesso modo, senza operare distinzioni in base alla classe sociale e avventandosi con la medesima, indifferente, sorda equanimità tanto sui ricchi quanto sui poveri. E tuttavia quella catastrofe, assolutamente naturale, non è stata percepita come “naturale” da tutte le sue vittime. Malgrado l’uragano in sé rappresenti un fenomeno del tutto naturale, è chiaro che le conseguenze che ha avuto sugli uomini non lo sono state. Come ha sintetizzato (e non è stato il solo) il reverendo Calvin O. Butts III, pastore della chiesa battista abissina di Harlem, “gli individui colpiti erano per lo più poveri. Poveri e neri”1. Dal canto suo David Gonzalez, inviato speciale del «New York Times», ha scritto: Da quando i quartieri e le città della costa del Golfo sono stati spazzati via dal vento e dall’acqua, si è andata diffondendo la percezione che i fattori che hanno tacitamente decretato chi è uscito indenne da quel disastro e chi invece ne è rimasto vittima siano stati la razza e la classe sociale. Come hanno fatto notare numerosi leader nazionali, le politiche federali hanno reso vulnerabili alcune delle città più povere degli Stati Uniti, similmente a quanto accade nei Paesi del terzo mondo, dove il verificarsi di disastri naturali quali alluvioni e siccità evidenzia in maniera lampante il fallimento delle politiche di sviluppo rurale. “Quando tutto andava bene, nessuno si preoccupava dei neri che abitano queste terre”, ha dichiarato Milton D. Tutwiler, sindaco di Winstonville (nello Stato del Mississippi. “Sono dunque sorpreso nel constatare che nessuno oggi accorre in nostro aiuto? No”.

Secondo Martin Espada, professore di inglese presso l’Università del

Massachusetts, “Tendiamo a considerare i disastri naturali imparziali, casuali. Da sempre, invece, sono i poveri a essere a rischio. Essere poveri significa questo. Esseri neri è pericoloso. Essere ispanici è pericoloso”. Come se non bastasse, le categorie particolarmente esposte al rischio tendono a sovrapporsi: molti dei poveri sono anche neri o ispanici, così come due terzi degli abitanti di New Orleans erano neri, e più di un quarto di loro viveva in condizioni di povertà, mentre il 98 per cento dei residenti del Lower Ninth Ward, il quartiere che le acque dell’alluvione hanno spazzato via dalla faccia del pianeta, erano neri, e più di un terzo di loro viveva in condizioni di povertà. A risentire più di chiunque altro di quella catastrofe naturale furono coloro i quali, già molto prima che Katrina si abbattesse sulla città, erano considerati scarti dell’ordine sociale, rifiuti della modernizzazione, vittime del mantenimento dell’ordine e del progresso economico: due obiettivi eminentemente umani e assolutamente innaturali2. Individui che, ben prima di finire in fondo all’elenco delle priorità di chi ha il compito di garantire la sicurezza dei cittadini, erano stati confinati ai margini dell’interesse (e dell’agenda politica) di quelle stesse autorità che affermano che la ricerca della felicità è un diritto universale dell’uomo, e la selezione naturale il mezzo principale per conseguirla. Una riflessione agghiacciante: Katrina non contribuì forse, ancorché inavvertitamente, ai disperati tentativi della dolente industria dello smaltimento di esseri inservibili, intenta a contrastare le conseguenze sociali della produzione globale di un “eccesso di popolazione” su un pianeta già affollato (o sovraffollato, secondo il punto di vista di quella stessa industria)? E quel suo contributo non è forse stato uno dei motivi per i quali l’esigenza di inviare l’esercito nelle zone colpite dal disastro fu considerata impellente solo dopo che l’ordine sociale si era spezzato, lasciando intravedere la possibilità di una rivolta sociale? Quale dei “sistemi di allerta preventiva” ha imposto la necessità di inviare sul posto la Guardia Nazionale? Si tratta di una riflessione davvero avvilente e agghiacciante, che vorremmo poter respingere perché infondata o chiaramente inverosimile. Se solo la sequenza degli eventi successivi l’avesse resa meno credibile di quanto non fosse... La maggiore probabilità di diventare una “vittima collaterale” di una qualsiasi iniziativa umana, per quanto nobile sia il proposito che sembra

animarla, o di una qualunque catastrofe “naturale”, per quanto cieca di fronte alle diverse classi sociali, rappresenta, di questi tempi, uno degli aspetti più emblematici ed evidenti della disuguaglianza sociale. Ciò la dice lunga sulla scarsa, e in ulteriore diminuzione, importanza che la politica attribuisce alla disuguaglianza sociale. E, per chi ricorda quale sia la sorte dei ponti la cui portata massima è calcolata in base a quella media dei loro piloni, la dice ancora più lunga circa i problemi che una crescente disuguaglianza sociale tiene in serbo per il nostro futuro collettivo, sia all’interno di una società che tra società diverse. Il nesso esistente tra una maggiore probabilità di diventare una “vittima collaterale” e l’occupare una posizione svantaggiata sulla scala della disuguaglianza è il risultato della convergenza di due fattori: l’“invisibilità” endemica o progettata delle vittime collaterali da un lato, e, dall’altro, l’“invisibilità” imposta agli “stranieri in mezzo a noi”: gli indigenti e gli sventurati. Due categorie che, per motivi diversi tra loro, non sono mai prese in considerazione quando occorre calcolare e valutare i costi di un intervento programmato e i rischi che la sua implementazione comporta. I danni sono allora detti “collaterali” perché non ritenuti sufficientemente rilevanti da giustificare i costi che la loro prevenzione avrebbe richiesto, o semplicemente “imprevisti” – in quanto coloro le cui decisioni li hanno determinati non li hanno ritenuti meritevoli di essere presi in considerazione durante la fase preliminare di progettazione. Tra tutti i possibili candidati, i poveri, vieppiù criminalizzati, sono dunque naturalmente votati al danno collaterale, e per sempre segnati dal duplice marchio dell’irrilevanza e dell’indegnità. Ciò appare evidente nelle operazioni di polizia contro gli spacciatori di droga o i trafficanti di clandestini e nelle spedizioni militari contro i terroristi – e ogni volta che i governi, per fare cassa, anziché intensificare la pressione fiscale sui ricchi aumentano l’Iva e rinunciano ad ampliare i parchi-giochi per i bambini. In tutti questi casi, e in una moltitudine crescente di altri, causare dei “danni collaterali” è più facile nei quartieri difficili e tra le strade più malfamate delle città che nelle tranquille zone residenziali, sbarrate da accessi riservati e abitate da uomini potenti e altolocati. Tale distribuzione permette di trasformare il rischio di creare vittime collaterali da inconveniente a vantaggio, a seconda degli interessi e dei propositi. In questo libro, che si basa principalmente su alcune lezioni da me

preparate e tenute tra il 2010 e il 2011, affronto il tema della stretta affinità e del nesso che collegano disuguaglianza sociale e perdite collaterali: due fenomeni del nostro tempo che si stanno imponendo per diffusione e rilevanza, oltre che per la tossicità dei rischi che presagiscono. In alcuni capitoli, i due temi sono trattati manifestamente, mentre in altri appaiono in secondo piano. Poiché una teoria generale delle loro dinamiche interrelate non è ancora stata scritta, il presente volume può, nel migliore dei casi, essere considerato come un insieme di affluenti che confluiscono verso il letto di un fiume che non è stato ancora tracciato né esplorato. Consapevole del fatto che il lavoro di sintesi debba ancora essere svolto, sono tuttavia certo che l’esplosiva miscela risultante da una disuguaglianza sociale in continuo aumento e l’accrescersi di quella sofferenza umana che releghiamo alla sfera della “collateralità” (considerandola marginale, estranea, esitabile, che non rientra legittimamente nell’agenda politica) sta dimostrando di essere, potenzialmente, il più disastroso dei tanti problemi che l’umanità potrebbe vedersi costretta ad affrontare e a risolvere in questo secolo. 1

Questa citazione, come le seguenti, è tratta da David Gonzalez, From margins of society to centre of the tragedy, in «New York Times», 2 settembre 2005. 2 Si veda il mio Vite di scarto, Laterza, Roma-Bari 2007 (ed. or. 2004).

1. Dall’«agorà» al mercato

La democrazia è la forma di vita propria dell’agorà: quello spazio intermedio che collega/separa gli altri due settori della polis: l’ekklesìa e l’oikos. Nella terminologia aristotelica l’oikos rappresentava il nucleo familiare, il luogo all’interno del quale gli interessi privati prendevano forma ed erano perseguiti; l’ekklesìa simboleggiava invece il “pubblico”, il consiglio dei cittadini, composto da magistrati eletti, nominati o estratti a sorte, a cui spettava il compito di curare gli affari della comunità riguardanti tutti i cittadini della polis – come le questioni di pace e di guerra, la difesa del dominio e le norme che regolano la convivenza tra cittadini all’interno delle città-Stato. Il concetto di “ecclesia” deriva dal termine kalèin, che significa chiamare, convocare, radunare, e presumeva sin dall’inizio la presenza dell’agorà, il luogo dove incontrarsi e discutere, il punto d’incontro tra popolo e consiglio: la sede della democrazia. All’interno della città-Stato, l’agorà era lo spazio fisico in cui la bulè – il consiglio – convocava una o più volte al mese tutti i cittadini (i capifamiglia) per deliberare su temi di interesse comune o per eleggere o estrarre a sorte i propri membri. Per ovvi motivi, una volta che l’ambito della polis o il corpo politico si estesero ben oltre i confini della città, tale procedura divenne insostenibile, in quanto il significato di agorà non poteva più coincidere, letteralmente, con quello di pubblica piazza nella quale tutti i cittadini dello Stato erano tenuti a convenire per prendere parte al processo decisionale. Ciò non significa, però, che l’intento alla base della costituzione dell’ agorà e la funzione da essa svolta nel perseguirlo avessero perso significato o dovessero essere abbandonati per sempre. Si può raccontare la storia della democrazia come il succedersi dei tentativi di tenere in vita sia l’intento che i processi volti a soddisfarlo dopo la scomparsa del suo substrato materiale originario.

O, in alternativa, si potrebbe dire che a mettere in moto, ispirare e tenere in vita la storia della democrazia fu il ricordo dell’agorà. Si potrebbe – e si dovrebbe – dire inoltre che la conservazione e la reviviscenza di tale ricordo fossero destinati a seguire traiettorie diverse e ad assumere svariate forme; non esiste un unico modo di svolgere l’opera di mediazione tra oikos ed ekklesìa, né esiste un modello che sia privo di imperfezioni e intoppi. Oggi, a più di due millenni di distanza, occorre pensare in termini di democrazie multiple. Il proposito dell’agorà (talvolta dichiarato, ma per lo più implicito) era e rimane il perpetuo coordinamento di interessi “privati” (legati all’oikos) e “pubblici” (gestiti dall’ekklesìa). La funzione dell’agorà era e continua ad essere invece quella di fornire la condizione essenziale e necessaria a tale coordinamento: ovvero, la traduzione del linguaggio degli interessi individuali/familiari nel linguaggio degli interessi pubblici, e viceversa. Ciò che nell’agorà essenzialmente ci si aspettava o si auspicava di conseguire era riconfigurare questioni e desideri privati sotto forma di argomenti pubblici e, viceversa, riconfigurare questioni di interesse pubblico sotto forma di diritti e doveri individuali. Il livello di democrazia di un regime politico potrebbe quindi essere misurato in base al successo o al fallimento, alla scorrevolezza o alla grossolanità di quella traduzione: vale a dire, in base alla misura in cui il suo obiettivo precipuo è stato raggiunto, anziché, come spesso accade, in base alla tenace osservanza di questa o quella procedura, erroneamente considerata condizione necessaria e al tempo stesso sufficiente della democrazia. Di ogni democrazia, della democrazia in quanto tale. Il modello di “democrazia diretta” proposto dalla città-Stato, in cui la fedeltà e la scorrevolezza della traduzione potevano essere misurate sul momento basandosi semplicemente sul numero di cittadini che prendevano parte “in carne e voce” al processo decisionale, era chiaramente inapplicabile al moderno, resuscitato concetto di democrazia (e in particolare alla “grande società”: quell’entità immaginata, astratta, lontana dall’esperienza personale e dalla sfera di influenza del cittadino); la moderna teoria politica si adoperò quindi per individuare o inventare dei parametri alternativi in base ai quali valutare il livello di democrazia di un dato regime politico. Criteri dei quali discutere, e capaci di riflettere e indicare se lo scopo dell’agorà era stato adeguatamente raggiunto e la sua

funzione svolta a dovere. I più popolari tra questi criteri alternativi erano forse quelli di tipo quantitativo, basati sulla percentuale di cittadini che prendevano parte alle elezioni (che nella democrazia “rappresentativa” si erano sostituite alla partecipazione “in carne e voce” dei cittadini al processo legislativo). L’efficacia di questa partecipazione indiretta tendeva tuttavia a rimanere controversa, in particolare dopo che il voto popolare aveva iniziato a trasformarsi nell’unico, accettabile metro della legittimità dei governanti, mentre regimi apertamente autoritari, dittatoriali, totalitari e tirannici che non ammettevano né il pubblico dissenso né un aperto dialogo potevano facilmente vantare percentuali di affluenza alle urne ben superiori (e quindi, stando ai criteri formali, un maggiore sostegno popolare verso le politiche dei loro governanti) a quelle rilevate nei governi che al contrario rispettavano e tutelavano scrupolosamente la libertà di opinione e di espressione – percentuali che questi ultimi potevano solo sognare di raggiungere. Non sorprende dunque che oggi, quando si tratta di esplicitare i tratti distintivi della democrazia, l’enfasi tenda a spostarsi dai dati sulla partecipazione e l’assenteismo elettorali a questi criteri di libertà di opinione e di espressione. A partire dai concetti di «defezione» e di «protesta», che Albert O. Hirschman considera le due principali strategie a cui i consumatori possono (e tendono a) ricorrere al fine di esercitare una vera e propria influenza sulle politiche di marketing3, è stato spesso suggerito che il diritto dei cittadini a dare apertamente voce al proprio dissenso, la disponibilità di strumenti che consentono loro di farlo e di raggiungere il pubblico a cui intendono rivolgersi, e il diritto a prendere le distanze dal governo sovrano di un regime detestato o non condiviso sono le condizioni imprescindibili affinché un assetto politico veda riconosciute le proprie credenziali democratiche. Nel sottotitolo di questo lavoro così autorevole, Hirschman pone nella stessa categoria i rapporti venditori-compratori e quelli Stato-cittadini, in quanto sottoposti ai medesimi criteri di misurazione della performance. Una decisione legittimata oggi come ieri dal presupposto che le libertà politiche e le libertà di mercato sono strettamente collegate tra loro, si alimentano e si rafforzano a vicenda – oltre a necessitare le une della presenza delle altre; e che la libertà dei mercati, la quale è alla base della crescita economica e la promuove, è, in definitiva, la condizione necessaria, nonché l’humus, della democrazia politica – e la politica

democratica è l’unico contesto entro il quale è realmente possibile perseguire e raggiungere il successo economico. Tale presupposto, tuttavia, è quanto meno controverso. Pinochet in Cile, Syngman Rhee nella Corea del Sud, Lee Kuan Yew a Singapore, Chiang-Kai-shek a Taiwan o gli attuali governanti della Cina erano o sono in tutto e per tutto dittatori (Aristotele li avrebbe definiti “tiranni”), a prescindere dai titoli che di volta in volta adottavano o adottano per definire la propria carica. E tuttavia detenevano o detengono il potere su mercati di considerevole estensione e in rapida crescita. Se non fosse per una protratta “dittatura dello Stato”, i succitati Paesi non sarebbero oggi l’epitome del “miracolo economico”. E, potremmo aggiungere, non è una semplice coincidenza che lo siano diventati. Ricordiamoci che la fase iniziale dell’insorgere di un regime capitalista, quella della cosiddetta “accumulazione originaria” del capitale, è invariabilmente caratterizzata da sovvertimenti sociali eccezionali, accolti da profondo risentimento, dall’espropriazione dei mezzi di sostentamento e da una polarizzazione delle condizioni di vita; fenomeni che non possono non sconvolgere coloro che li subiscono e produrre tensioni sociali dagli effetti potenzialmente esplosivi – che commercianti e imprenditori alle prime armi devono reprimere con il sostegno di un’energica, spietata e coercitiva dittatura statale. Mi si permetta di aggiungere, inoltre, che i “miracoli economici” del Giappone e della Germania del dopoguerra possono essere in grande misura spiegati dalla presenza in quei Paesi di forze di occupazione straniere, che si fecero carico di espletare le funzioni coercitive/oppressive del potere statale che sarebbero spettate alle istituzioni politiche locali, sottraendosi al tempo stesso a qualsiasi controllo da parte delle istituzioni democratiche dei Paesi occupati. Uno dei punti notoriamente più dolenti dei regimi democratici è dato dalla contraddizione tra la formale universalità dei diritti democratici (riconosciuti in egual misura a tutti i cittadini) e la possibilità men che universale di riuscire a esercitarli effettivamente; in altre parole, la discrepanza tra la posizione giuridica di un “cittadino de jure” e le effettive opportunità godute da un cittadino de facto. Uno scarto che ci si aspetta venga colmato dagli individui stessi tramite il dispiego delle proprie capacità e risorse – di cui però potrebbero non disporre, e che in un enorme numero di casi, infatti, non possiedono.

Lord Beveridge – a cui dobbiamo il modello dello “Stato sociale” inglese del dopoguerra, successivamente preso a modello da diversi Paesi europei – era un liberal, e non un socialista. Egli credeva infatti che la proposta di un’assicurazione contro tutti i rischi, universale e approvata da tutti, fosse l’inevitabile conseguenza, nonché l’indispensabile complemento, del concetto liberal di libertà individuale, e condizione necessaria della democrazia liberale. La guerra che Franklin Delano Roosevelt dichiarò “alla paura” si basava su quello stesso presupposto, così come deve essere stato per il pionieristico studio di Seebohm Rowntree sulla diffusione e le cause della povertà e del degrado umani. Dopotutto, la libertà di scelta comporta innumerevoli e incalcolabili rischi di fallimento, che molti riterrebbero insostenibili, superiori alla loro personale capacità di farvi fronte. Per la maggior parte degli individui, l’idea liberale di libertà di scelta è destinata a rimanere un miraggio elusivo e un ozioso vagheggiamento a meno che la paura della sconfitta venga mitigata da una polizza assicurativa affidabile, emessa a nome dell’intera comunità e su cui sia possibile contare in caso di sconfitta personale o di inaspettato tiro del destino. Se i diritti democratici e le libertà che li accompagnano sono garantiti nella teoria, ma restano inaccessibili nella realtà, al sentimento di scoraggiamento si aggiunge immancabilmente l’umiliazione dell’impotenza; dopotutto, la capacità di far fronte alle sfide che la vita ci presenta, giorno dopo giorno, non è che la palestra all’interno della quale l’autostima degli individui si rinforza o svanisce. Da uno Stato politico che non è, e rifiuta di essere, uno Stato sociale non ci si può che aspettare prospettive di salvezza limitate o nulle di fronte all’indolenza o all’impotenza individuali. In assenza di diritti sociali per tutti, un numero cospicuo e con ogni probabilità crescente di persone si accorgerà che i loro diritti politici hanno scarsa utilità e non meritano la loro attenzione. Se i diritti politici sono necessari per l’assegnazione dei diritti sociali, i diritti sociali sono indispensabili per rendere i diritti politici “effettivi”, e mantenerli in vigore. I due tipi di diritti hanno bisogno l’uno dell’altro per sopravvivere: la loro sopravvivenza non può che essere il risultato dei loro sforzi congiunti. Lo Stato sociale è l’incarnazione estrema e moderna dell’idea di comunità: ovvero la reincarnazione istituzionale di quell’idea nella sua versione moderna di “totalità immaginata” – intreccio di dipendenza,

dedizione, lealtà, solidarietà e fiducia reciproche. I diritti sociali sono, per così dire, la manifestazione tangibile ed “empirica” di quella totalità collettiva immaginata (ovvero, della moderna forma di ekklesìa, la cornice entro la quale le istituzioni democratiche si iscrivono), che collega la nozione astratta alle realtà quotidiane, ancorando l’immaginazione al terreno fertile dell’esperienza quotidiana. Questi diritti certificano la veracità e il realismo di una fiducia reciproca, da persona a persona, e della fiducia in una rete istituzionale condivisa che sostiene e rafforza la solidarietà collettiva. Una sessantina di anni fa T.H. Marshall fece confluire il diffuso stato d’animo di quegli anni in quella che riteneva fosse, e fosse destinata a rimanere, una legge universale del progresso: dai diritti di proprietà ai diritti politici, e da questi ai diritti sociali4. Dal suo punto di vista la libertà politica era una conseguenza inevitabile, benché alquanto posticipata, della libertà economica, sebbene destinata necessariamente a propria volta a dar vita ai diritti sociali – il che rende quindi l’esercizio di entrambe le libertà attuabile e plausibile per tutti. Secondo Marshall, con ogni successivo allargamento dei diritti politici, l’agorà sarebbe divenuta più inclusiva e avrebbe dato voce a un numero crescente di categorie di persone rimaste sino a quel momento inascoltate, e ingiustizie e discriminazioni sarebbero state progressivamente ridotte ed eliminate. Circa un quarto di secolo più tardi, John Kenneth Galbraith individuò un’altra costante, destinata questa volta a modificare drasticamente, se non addirittura a confutare in modo chiaro, la prognosi avanzata da Marshall: mentre l’universalizzazione dei diritti sociali inizia a produrre risultati, i detentori dei diritti politici tendono, in misura sempre maggiore, a servirsi del proprio diritto al voto per sostenere iniziative individuali – con tutte le conseguenze che questo comporta: l’aumento, anziché il calo o l’eliminazione, della disuguaglianza nei redditi, negli standard e nelle prospettive di vita. Galbraith attribuiva tale propensione al radicale cambiamento dell’umore e della filosofia di vita dell’emergente “maggioranza appagata”5. Sentendosi ormai salda in sella e a proprio agio in un mondo di grandi rischi ma anche di ricche opportunità, questa emergente maggioranza non scorgeva più alcuna necessità dello “Stato sociale”: un assetto che sempre più spesso equiparava a una gabbia anziché a una rete di sicurezza, un limite anziché un’opportunità – un’elargizione superflua, di cui con ogni probabilità loro,

gli “appagati”, in grado di fare affidamento sulle proprie risorse e liberi di girare il mondo, non avrebbero mai avuto bisogno e di cui difficilmente si sarebbero avvalsi. Dal loro punto di vista, i poveri, legati e ancorati a terra come sono, non rappresentavano più “un esercito di riservisti del lavoro”, e il denaro speso per tenerli in buona salute era quindi sprecato. Il diffuso sostegno, al di là della destra e della sinistra, allo Stato sociale, che T.H. Marshall considerava la destinazione ultima della “logica storica dei diritti umani”, iniziò a contrarsi, a sgretolarsi e a dissolversi con un ritmo sempre più accelerato. È improbabile, infatti, che lo Stato assistenziale (sociale) sarebbe mai potuto diventare una realtà se i proprietari delle fabbriche non avessero ritenuto a un certo punto che prendersi cura di “un esercito di riservisti del lavoro” (ovvero: mantenere “i riservisti” in buona salute nel caso fossero stati richiamati al servizio attivo) rappresentasse un investimento vantaggioso. Così come in passato l’introduzione dello Stato sociale era stata considerata una questione “al di là della destra e della sinistra”, oggi sono la riduzione e il graduale smembramento dei principi di quello Stato sociale a essere considerati una questione “al di là della destra e della sinistra”. Se oggi lo Stato sociale è insufficientemente finanziato, è compromesso o viene addirittura smantellato, è perché le fonti del profitto capitalista si sono spostate, o sono state spostate, dallo sfruttamento del lavoro di fabbrica allo sfruttamento dei consumatori. E, non potendo contare sulle risorse necessarie per reagire alle tentazioni del mercato consumistico, i poveri per essere utili – dove il termine “utilità” è inteso nel senso del capitale di consumo – avrebbero bisogno di contante e di un conto di credito (non il tipo di servizi che lo “Stato assistenziale” fornisce). Più di qualsiasi altra cosa, lo Stato assistenziale (che, lo ripeto, è preferibile chiamare “Stato sociale”, così da spostare l’enfasi dall’erogazione di vantaggi materiali al loro intento originario, quello di formare la comunità) rappresentava un assetto inventato e promosso precisamente al fine di scongiurare l’attuale spinta verso la “privatizzazione” (un’abbreviazione per la promozione di modelli essenzialmente individualizzanti e contrari al senso di comunità, tipici del mercato consumistico e tali da porre gli individui in competizione tra loro): una spinta che ha portato all’indebolimento e alla rottura della rete di rapporti umani, così minando le basi sociali della solidarietà umana. La

“privatizzazione” trasferisce il difficile compito di contrastare e (auspicabilmente) risolvere i problemi di natura sociale sulle spalle dei singoli uomini e donne, che, nella maggior parte dei casi, non hanno mezzi sufficienti per affrontarli; lo “Stato sociale” tende invece a unire i propri membri nel tentativo di proteggere ciascuno di loro dalla spietata e moralmente devastante “guerra di tutti contro tutti”. Uno Stato si dice “sociale” quando promuove il principio di un’assicurazione collettiva e sottoscritta dalla comunità contro le disgrazie individuali e le loro conseguenze. È quel principio (dichiarato, attivato e dal funzionamento garantito) che innalza una “società immaginata” al livello di “autentica totalità”: una comunità tangibile, sentita e vissuta, che (per usare le definizioni di John Dunn) sostituisce l’“ordine dell’egoismo” – che genera diffidenza e sospetto – con “l’ordine dell’uguaglianza”, che ispira fiducia e solidarietà. Si tratta dello stesso principio che rende democratico il corpo politico e innalza i membri della società al rango di cittadini, rendendoli soci, oltre che azionisti del sistema; beneficiari, ma anche attori responsabili della creazione e dell’equa ripartizione dei suoi vantaggi. In breve, diventano cittadini definiti e mossi dal vivo interesse nei confronti del benessere e della responsabilità comuni: una rete di istituzioni pubbliche fidata per assicurare la solidità e l’affidabilità della “polizza di assicurazione collettiva” rilasciata dallo Stato. L’applicazione di quel principio può proteggere (e spesso lo fa) uomini e donne dalla triplice sventura del silenzio, dell’esclusione e dell’umiliazione. E, aspetto più importante, può diventare (e in gran parte diventa) una prolifica fonte di solidarietà sociale capace di trasformare la “società” in un valore comune e collettivo. Attualmente, tuttavia, noi (e con “noi” intendo i Paesi che si sono “sviluppati” per loro stessa iniziativa, ma anche quelli attualmente “in via di sviluppo” sotto l’orchestrata pressione dei mercati globali, del Fondo monetario internazionale e della Banca Mondiale) sembriamo diretti nella direzione opposta, in cui le “totalità”, le società e le comunità reali o immaginate sono sempre più “assenti”. L’ambito dell’autonomia individuale si va espandendo, ma al tempo stesso si va gravando delle funzioni un tempo considerate di responsabilità dello Stato e oggi scaricate (“sussidiarizzate”) sulle spalle dei singoli individui. Gli Stati sottoscrivono la polizza di assicurazione collettiva a malincuore, con riserve sempre

maggiori, e lasciano che il benessere sia raggiunto e si consolidi attraverso iniziative individuali. Oggi non c’è un granché, dunque, che spinga le persone a frequentare l’agorà – e ancor meno che le invogli a lasciarsi coinvolgere dalle sue dinamiche. Agli individui, sempre più abbandonati alle proprie risorse e al proprio ingegno, viene chiesto di trovare soluzioni individuali a problemi generati dalla società, puntando sulle proprie capacità personali. Una simile aspettativa pone gli individui in competizione tra loro, e fa sì che la solidarietà collettiva (a meno che non si presenti sotto forma di coalizioni temporanee, basate sulla convenienza, ovvero di legami umani stretti e sciolti su richiesta e con l’indicazione “senza obblighi o limitazioni”) sia avvertita per lo più come irrilevante, se non addirittura controproducente. A meno di non essere mitigata dall’intervento delle istituzioni, questa “individualizzazione per decreto” rende ineluttabile la differenziazione e la polarizzazione delle opportunità individuali. Anzi: fa sì che la polarizzazione delle prospettive e delle opportunità diventi un processo che si alimenta e si accelera da sé. Gli effetti di una simile tendenza erano già facilmente prevedibili in passato e oggi possono essere toccati con mano. In Gran Bretagna, ad esempio, il reddito del più ricco 1 per cento della nazione è raddoppiato dal 1982, passando dal 6,5 al 13 per cento del reddito complessivo nazionale, mentre la paga dei direttori generali delle società comprese nell’indice di borsa Ftse 100 – che fino al 1980 superavano di venti volte lo stipendio medio – oggi (sino alla recente stretta creditizia, e oltre) lo superano di ben 133 volte. Ma non finisce qui. Grazie alla rete delle “autostrade dell’informazione”, in rapida crescita per estensione e capillarità, ogni singolo individuo – uomo o donna, adulto o bambino, ricco o povero – è invitato, tentato e indotto (o meglio: costretto) a mettere a confronto il proprio destino individuale con quello di tutti gli altri individui, e in particolare con il consumo eccessivo praticato dagli idoli pubblici (i personaggi famosi costantemente sotto i riflettori, sugli schermi televisivi o sulle prime pagine dei giornali scandalistici e delle riviste patinate), e a misurare i valori che rendono la vita degna di essere vissuta in base all’opulenza da questi ostentata. Così, mentre le prospettive realistiche di una vita soddisfacente continuano a divergere drasticamente, gli standard sognati e gli emblemi vagheggiati di una “vita felice” tendono a

convergere: la molla che guida la nostra condotta non è più il desiderio più o meno realistico di “tenere il passo con gli altri”, bensì l’idea esasperante e vaga di “tenere il passo con i personaggi famosi” e portarci allo stesso livello delle supermodelle, dei giocatori di calcio della Serie A, dei cantanti delle dieci canzoni più vendute. Una miscela realmente tossica, prodotta, come suggerisce Oliver James, dall’accumulo di “aspirazioni irrealistiche e speranze di riuscire a soddisfarle”; eppure ampie fasce della popolazione britannica ritengono di “poter diventare ricche e famose” e sono convinte che “chiunque possa diventare Alan Sugar o Bill Gates, nonostante il fatto che dagli anni Settanta a oggi le probabilità che ciò possa accadere siano di fatto diminuite”6. Lo Stato oggi è sempre meno capace e disposto a garantire ai propri cittadini la sicurezza esistenziale (“la libertà dalla paura”, per usare una celebre frase di Franklin Delano Roosevelt, il quale si diceva “fermamente convinto” che “l’unica cosa di cui dobbiamo avere paura è la paura stessa”). Il compito di conquistare la sicurezza esistenziale – ovvero di conseguire e di mantenere una posizione decorosa e dignitosa all’interno della società eliminando il rischio di esserne espulsi – oggi è sempre più spesso lasciato alle capacità e alle risorse dei singoli individui, e questo significa farsi carico di rischi enormi e patire la straziante incertezza che simili compiti inevitabilmente implicano. La paura che la democrazia e la sua risultante, lo Stato sociale, promettevano di debellare si è ripresentata, in forma ancora più acuta. La maggior parte di noi, dai primi agli ultimi, teme oggi la minaccia, per quanto indistinta e vaga, di vedersi escluso, di non essere all’altezza delle sfide e di essere ignorato, privato della dignità e umiliato. La politica e il mercato sono impazienti di trarre vantaggio dai diffusi e vaghi timori che saturano la società contemporanea. I commercianti di servizi e beni di consumo pubblicizzano i propri prodotti come rimedi infallibili contro l’abominevole sensazione d’incertezza e contro minacce velate. I movimenti e i politici populisti assumono il ruolo abbandonato dallo Stato sociale (sempre più debole e ormai sul punto di dissolversi) e anche, in gran parte, da ciò che è rimasto della vecchia sinistra sociodemocratica. Nella dura opposizione allo Stato sociale, il loro interesse, però, è di espandere – anziché ridurre – il volume di quelle paure. Ed espandere, in particolare, le paure di un certo tipo di pericoli ai quali,

stando a ciò che mostra la televisione, sono intenti a resistere valorosamente, battendosi a difesa della nazione. Il problema è che le minacce che i media ci sottopongono con veemenza, ostentazione e insistenza crescenti ben di rado rappresentano i pericoli che sono all’origine dell’ansia e delle paure popolari. Per quanto lo Stato possa opporsi con successo alle minacce che troviamo reclamizzate, le autentiche fonti dell’ansia, di quell’ossessionante incertezza che ci circonda e dell’insicurezza sociale – cause primarie della paura propria del moderno stile di vita capitalista – rimangono intatte. O, tutt’al più, vengono rafforzate. Per quanto riguarda la maggioranza dell’elettorato, i leader politici in carica o aspiranti tali vengono giudicati in base alla severità con cui dimostrano di affrontare la “corsa verso la sicurezza”. I politici tentano di superarsi l’un l’altro a colpi di promesse, dichiarandosi pronti a punire duramente i responsabili, veri o presunti, dell’insicurezza, ma solo quelli a portata di mano, che possono essere combattuti e sconfitti, o che quanto meno appaiono debellabili e possono essere presentati come tali. Partiti come Forza Italia o la Lega Nord possono vincere le elezioni con la promessa di proteggere gli operosi lombardi ed evitare che siano defraudati dai calabresi nullafacenti, e di difendere gli uni e gli altri da quei nuovi arrivati che giungono da terre straniere e risvegliano in loro l’incertezza e il sentimento di incurabile fragilità della loro stessa posizione; di difendere ciascun elettore da mendicanti importuni, molestatori, malintenzionati, rapinatori, ladri d’auto e, naturalmente, dagli zingari. Il problema è che le minacce più formidabili a un’esistenza decorosa e alla dignità umana – e quindi alla vita democratica – riemergeranno immutate da tutto ciò. Tuttavia, i rischi a cui le democrazie contemporanee sono esposte sono solo in parte dovuti al modo in cui i governi statali tentano disperatamente di legittimare il proprio diritto a governare e ad esigere disciplina mostrando i muscoli e la determinazione a essere fermi di fronte alle infinite minacce (vere o presunte) che si presentano ai cittadini – anziché tutelando, come accadeva in passato, l’utilità sociale e il rispetto della posizione dei cittadini all’interno della società e risparmiando loro l’esclusione, la privazione della dignità e l’umiliazione. Dico “in parte”, perché il secondo fattore di rischio della democrazia è quello che potremmo definire “affaticamento da libertà”, osservabile nel torpore con

cui la maggior parte di noi accetta la progressiva limitazione delle proprie libertà conquistate a caro prezzo, il diritto alla privacy, il diritto a ricevere un giusto processo e ad essere considerati innocenti sino a prova contraria. Laurent Bonelli ha coniato di recente il termine “liberticida” per descrivere la miscela che scaturisce dall’incontro delle nuove e improbabili mire dello Stato con l’esitazione e l’indifferenza dei cittadini7. Tempo fa la televisione ha mostrato migliaia di passeggeri costretti a rimanere a terra a causa dell’ennesimo caso di “panico da terrorismo”: i voli erano stati cancellati dopo l’annuncio della scoperta degli “indescrivibili pericoli” di una “bomba liquida” e di una congiura mondiale volta a far esplodere gli aerei in volo. Quelle migliaia di passeggeri lasciati a terra a causa delle cancellazioni dovettero rinunciare alle vacanze, a importanti incontri di lavoro, a riunioni di famiglia... Eppure non hanno protestato! Assolutamente no... Né hanno avuto da ridire per essere stati annusati da capo a piedi dai cani, obbligati a code infinite per i controlli di sicurezza, costretti a perquisizioni che in circostanze normali avrebbero considerato inammissibili e lesive della propria dignità. Questi passeggeri, al contrario, sembravano estasiati e raggianti di gratitudine: “Non ci siamo mai sentiti tanto sicuri come adesso”, continuavano a ripetere. “Siamo molto grati alle autorità che vigilano e prendono tanto a cuore la nostra sicurezza!”. All’estremità opposta di questa tendenza troviamo persone che vengono tenute prigioniere per tanti anni senza alcuna accusa nei campi di Guantánamo, Abu Ghraib e forse in decine di altri, tenuti segreti e per questo ancora più sinistri e disumani. Ciò che siamo venuti a saperne ha causato qualche occasionale mormorio di protesta, ma certo non rimostranze pubbliche o ancor meno una reazione adeguata. Noi, la “maggioranza democratica”, ci consoliamo pensando che tutte queste violazioni dei diritti umani sono mirate a “loro”, non a “noi” – appartenenti a una specie umana diversa (“detto tra noi, ma dovremmo definirla umana?!”) –, e che quello sdegno non riguarda noi, persone rispettabili. Abbiamo opportunamente dimenticato la triste lezione appresa da Martin Niemöller, il pastore luterano vittima della persecuzione nazista. Per prima cosa portarono via i comunisti, e io rimasi in silenzio perché non ero un comunista. Poi se la presero con i sindacalisti, e io che non ero un sindacalista non dissi nulla. Poi fu il turno degli ebrei, ma non ero ebreo...

E dei cattolici, ma non ero cattolico... Poi vennero per me, e a quel punto non c’era rimasto nessuno che potesse prendere le difese di qualcun altro. In un mondo di incertezze, la sicurezza è lo scopo del gioco: ne è l’intento principale e l’obiettivo ultimo. Un valore alla luce del quale tutti gli altri – di fatto, se non in teoria – appaiono insignificanti e da questo scalzati dalla nostra vista e dalla nostra attenzione, compresi quelli cari a “noi”, e che sospettiamo siano invisi a “loro”, e per questo considerati il motivo principale all’origine del loro desiderio di farci del male, nonché del nostro dovere di sconfiggerli e punirli. In un mondo insicuro come il nostro, la libertà personale di parola e di azione, il diritto alla privacy, l’accesso alla verità – tutte cose che un tempo associavamo alla democrazia e in nome delle quali ancora oggi siamo pronti a imbracciare le armi – devono essere ridotti o sospesi. O, per lo meno, questo è ciò che viene sostenuto dalla versione ufficiale e confermato dalla consuetudine ufficiale. La verità – che possiamo trascurare solo a rischio della democrazia – è che tuttavia non è possibile difendere efficacemente le nostre libertà in casa nostra se ci isoliamo dal resto del mondo interessandoci esclusivamente a ciò che ci riguarda. La suddivisione in classi è soltanto una delle forme storiche di disuguaglianza, e lo Stato nazionale soltanto una delle sue cornici storiche. Per questo la “fine della società nazionale basata sulle classi” (ammesso che l’era della “società nazionale basata sulle classi” sia davvero finita, cosa che rimane opinabile) non annuncia “la fine della disuguaglianza sociale”. Occorre estendere il concetto di disuguaglianza al di là del fuorviante e angusto ambito del reddito pro capite, fino a comprendere la fatale e reciproca attrazione tra povertà, vulnerabilità sociale, corruzione, l’assommarsi dei pericoli, l’umiliazione e la negazione della dignità: fattori che plasmano modi di pensare e guidano e integrano (o, più correttamente in questo caso, disintegrano) i gruppi. Fattori che nell’era dell’informazione globalizzata aumentano rapidamente, assumendo una rilevanza sempre maggiore. Credo che alla base dell’attuale “globalizzazione della disuguaglianza” vi sia il riproporsi, benché questa volta su scala planetaria, del processo che Max Weber osservò alle origini del capitalismo moderno e che definì come “separazione tra impresa ed economia domestica”: in altre parole, l’emancipazione degli interessi commerciali da tutte le istituzioni socio-

culturali ancora esistenti e dedite, per ispirazione etica, alla supervisione e al controllo (che in passato si concentravano nella casa/bottega a conduzione familiare e, tramite questa, nella comunità locale) – e di conseguenza l’immunizzazione degli obiettivi commerciali contro qualsiasi valore che non sia quello della massimizzazione del profitto. Col beneficio del senno di poi, possiamo considerare le deroghe attuali come una replica ampliata del suo processo iniziale, risalente a due secoli fa. Queste deroghe hanno prodotto i medesimi frutti: la rapida diffusione della sofferenza (sotto forma di povertà, disgregazione delle famiglie e delle comunità, lo scemare e l’indebolirsi dei legami umani, ormai ridotti al “nesso monetario” di Thomas Carlyle) e l’emergere di una nuova “terra di nessuno” (una sorta di quel “Far West selvaggio” che sarà poi ricreato negli studios hollywoodiani) libera dai vincoli delle leggi e dai controlli amministrativi, e visitata solo sporadicamente da giudici itineranti. Per farla breve: all’originaria secessione degli interessi commerciali ha fatto seguito una lunga, frenetica, ardua lotta ingaggiata dallo Stato emergente per invadere, sottomettere, colonizzare e infine “regolare normativamente” quella terra priva di regole e gettare le basi istituzionali della “comunità immaginata” (ribattezzata “nazione”), che avrebbe dovuto farsi carico di tutte le funzioni vitali un tempo svolte dalle famiglie, dalle parrocchie, dalle corporazioni di artigiani e da altre istituzioni che imponevano alle attività commerciali i medesimi valori della comunità, che però oggi sfuggono alla debole presa delle comunità locali, spogliate del proprio potere esecutivo. Oggi assistiamo alla fase 2 della secessione commerciale: questa volta il ruolo di “famiglia” e di “baluardo del campanilismo” viene assegnato allo Stato nazionale, che diventa oggetto di disapprovazione e di biasimo ed è accusato di essere un immotivato retaggio del passato, un ostacolo alla modernizzazione e all’economia. L’essenza della seconda secessione, così come l’essenza della secessione originaria, sta nel divorzio tra potere e politica. Nel corso della sua lotta per limitare i danni sociali e culturali causati dalla prima secessione (che culminò nel “trentennio glorioso” successivo alla Seconda guerra mondiale), l’emergente Stato moderno riuscì a sviluppare all’interno dell’unione territoriale tra nazione e Stato istituzioni politiche e di governance a misura della postulata fusione tra potere (Macht, Herrschaft) e politica. Oggi il matrimonio tra potere e politica (o piuttosto la loro

convivenza all’interno dello Stato nazionale) sta sfociando in una separazione che sfiora il divorzio, in cui il potere in parte evapora verso l’alto, nel cyberspazio, in parte confluisce nei mercati, attivamente e inflessibilmente apolitici, e in parte viene “addossato” (coercitivamente, “per legge”) agli individui da poco “affrancati” (anch’essi coercitivamente) e al loro modo di gestire l’esistenza. I risultati della seconda secessione sono molto simili a quelli prodotti dalla prima, ma si manifestano su una scala incomparabilmente più imponente. Questa volta però all’orizzonte non si scorge nulla di paragonabile al postulato “Stato nazionale sovrano”, che sia cioè in grado (almeno nelle intenzioni) di escogitare (e ancor meno di implementare) soluzioni capaci di lenire gli effetti sinora esclusivamente negativi della globalizzazione (che è distruttiva, annienta le istituzioni ed erode le strutture) e di radunare le forze ormai impazzite per sottoporle a un controllo di ispirazione etica, da esercitare attraverso la politica. Almeno fino ad oggi... Al momento il potere è svincolato dalla politica, e la politica è priva di potere. Il potere è già globale, mentre la politica rimane pateticamente locale. Gli Stati nazionali territoriali sono dei presidi di ordine pubblico a livello locale, ma anche dei ricettacoli, degli impianti per la raccolta e lo smaltimento dei rischi e dei problemi che si producono a livello globale. Esistono dei validi motivi per supporre che in un pianeta globalizzato, in cui le difficoltà di ciascun individuo, ovunque esso si trovi, contribuiscono a determinare le difficoltà di tutti gli altri – da cui a loro volta sono determinate –, non sia più possibile riuscire a tutelare e proteggere la democrazia “separatamente”: in un solo Paese, o in alcuni Paesi prescelti, come nel caso dell’Unione Europea. Il destino della libertà e della democrazia in ciascuna terra si decide e si attua sulla scena globale, e lì solo può essere difeso con realistiche possibilità di successo duraturo. Nessun Paese, per quanto intraprendente, ben armato, risoluto e intransigente, può più permettersi di difendere con le sole proprie forze alcuni valori in patria e al tempo stesso voltare le spalle ai sogni e ai desideri di chi vive al di fuori dei suoi confini. Tuttavia sembra proprio questo che noi, europei e americani, facciamo quando ci teniamo strette le nostre ricchezze e le moltiplichiamo a scapito dei poveri che vivono al di fuori delle nostre frontiere. Qualche esempio dovrebbe bastare: se quarant’anni fa il reddito del più

ricco 5 per cento della popolazione mondiale era trenta volte superiore rispetto a quello del più povero 5 per cento, quindici anni fa lo era sessanta volte e nel 2002 ben centoquattordici volte. Come indicato da Jacques Attali in La voie humaine8, la metà degli scambi commerciali mondiali e più della metà degli investimenti globali arricchiscono solo ventidue Paesi, in cui vive un mero 14 per cento della popolazione mondiale, mentre i quarantanove Paesi più poveri, che ospitano l’11 per cento della popolazione mondiale, si sostengono con una percentuale pari allo 0,5 per cento del prodotto complessivo globale, una cifra che corrisponde più o meno al reddito complessivo dei tre uomini più ricchi del pianeta. Il 90 per cento della ricchezza complessiva del pianeta rimane nelle mani di appena l’1 per cento della popolazione mondiale. Mentre ogni anno la Tanzania suddivide i suoi 2,2 miliardi di dollari di entrate tra 25 milioni di abitanti, la banca Goldman Sachs ne guadagna 2,6 miliardi, che ripartisce tra i suoi 161 soci azionisti. E se ogni anno Europa e Stati Uniti spendono 17 miliardi di dollari in mangimi per animali, secondo alcuni esperti ne potrebbero bastare 19 per risolvere il problema della fame nel mondo. Come faceva notare Joseph Stiglitz ai ministri del Commercio che si preparavano a incontrarsi in Messico per un summit9, il sussidio che l’Europa versa per ogni bovino “corrisponde ai due dollari al giorno con cui miliardi di esseri umani sopravvivono a stento nella povertà” e i sussidi di 4 miliardi di dollari per il cotone americano versati a 25.000 coltivatori benestanti “costringono alla miseria 10 milioni di coltivatori africani, annullando di fatto l’esiguo contributo che gli Stati Uniti erogano ad alcuni di quegli stessi Paesi”. Di tanto in tanto si sentono l’Europa e l’America accusarsi reciprocamente di “pratiche agricole scorrette”, ma Stiglitz osserva che “nessuno dei due Paesi sembra disposto a fare concessioni significative” – quando solo una “concessione significativa” potrebbe convincere gli altri Paesi a non considerare più la spudorata esibizione di “bruta supremazia economica da parte degli Stati Uniti e dell’Europa” nient’altro che un tentativo di difendere i privilegi dei privilegiati, proteggere le ricchezze dei ricchi e assecondare i loro interessi. Il che, dal loro punto di vista, si riduce all’accumulo di ricchezze sempre maggiori. Se si vogliono elevare e reindirizzare i tratti principali della solidarietà umana (come il sentimento di reciproca appartenenza, la responsabilità

condivisa verso un futuro comune, la volontà di prendersi cura del benessere del prossimo e di trovare soluzioni amichevoli e durature agli occasionali, ma accesi, scontri di interessi) a un livello che vada oltre quello dello Stato nazionale, è necessario creare un quadro istituzionale all’interno del quale si possono formare opinioni e costruire volontà. L’Unione Europea mira, per quanto lentamente e con titubanza, a realizzare un quadro istituzionale sia pure in forma rudimentale o embrionale, incontrando sul suo cammino come principali ostacoli gli Stati nazionali esistenti e la loro riluttanza a separarsi da ciò che resta della loro sovranità, un tempo incontrastata. È difficile tracciare con certezza la direzione da prendere (e ancor più difficile predirne le svolte future), che si annuncia oltretutto priva di garanzie, azzardata e imprudente. Riteniamo, immaginiamo, sospettiamo di sapere ciò che occorrerebbe fare, ma non possiamo sapere in che forma o modo alla fine sarà fatto. Tuttavia, possiamo essere ragionevolmente certi che il risultato definitivo sarà diverso da ciò che già conosciamo. Sarà – dovrà essere – diverso da tutti i risultati a cui siamo stati abituati in passato, nell’epoca in cui il senso di identità nazionale si andava consolidando e gli Stati nazionali iniziavano ad affermarsi. È difficile che le cose possano andare altrimenti, dato che tutte le istituzioni politiche attualmente a nostra disposizione sono state create a misura della sovranità territoriale dello Stato nazionale e resistono al tentativo di essere estese a livello sovranazionale, planetario, e le istituzioni politiche al servizio dell’auto-costituzione della comunità umana planetaria non saranno – non potranno essere – “le stesse, solo più grandi”. Se avesse avuto la possibilità di assistere a una seduta del parlamento di Londra, Parigi o Washington, Aristotele ne avrebbe forse approvato le norme procedurali, riconoscendo i vantaggi che il parlamento offre al popolo a cui le sue decisioni sono destinate, ma avrebbe provato una certa perplessità nel venire a sapere di trovarsi di fronte a una “democrazia in azione”. Non è così che Aristotele, che coniò quel termine, immaginava una “polis democratica”. Possiamo certo intuire che il passaggio da agenzie e strumenti esecutivi internazionali a istituzioni universali – che si estendono al globo, al pianeta, all’umanità – deve essere, e sarà, un cambiamento qualitativo e non semplicemente quantitativo nella storia della democrazia. Possiamo quindi domandarci, con un certo grado di preoccupazione, se gli organismi di

“politica internazionale” attualmente disponibili possano soddisfare le modalità del sistema globale che sta emergendo, o anzi fungere loro da incubatrice. Pensiamo ad esempio alle Nazioni Unite, tra i cui compiti, fin dalla fondazione, c’è quello di vigilare e difendere l’indivisa e inviolabile sovranità dello Stato sul proprio territorio. È possibile che il potere vincolante di leggi planetarie dipenda dagli accordi (considerati revocabili!) che obbligano i membri sovrani della “comunità internazionale” ad attenervisi? Nella sua fase iniziale, la modernità ha innalzato il livello dell’integrazione tra gli esseri umani al livello delle nazioni. Prima di completare la propria opera, la modernità dovrà compiere uno sforzo ulteriore, ancora più eroico: innalzare tale integrazione umana al livello dell’umanità, sino a comprendere l’intera popolazione del pianeta. Un compito che, per quanto arduo e spinoso, si presenta come tassativo e urgente, e che in un pianeta caratterizzato dall’interdipendenza universale rappresenta – letteralmente – una questione di vita (condivisa) o morte (comune). Una delle condizioni fondamentali affinché tale compito possa essere intrapreso ed espletato seriamente è la creazione di un equivalente globale (non una replica, né una copia ampliata) dello Stato sociale che ha suggellato e coronato la fase precedente della storia moderna – quella che aveva visto l’integrazione delle comunità e delle tribù in Stati nazionali. A un certo punto, quindi, sarà indispensabile che riemerga il nucleo essenziale dell’“utopia attiva” socialista: il principio di responsabilità e di assicurazione collettive contro sofferenze e avversità; questa volta però su scala globale, dal momento che dovrà avere come proprio oggetto l’umanità intera. La globalizzazione dei capitali e del commercio delle materie prime ha raggiunto ormai un livello tale che nessun governo è più in grado, da solo con altri, di far quadrare i conti. E senza i conti in regola è inconcepibile che uno Stato sociale possa riuscire a eliminare efficacemente la povertà all’interno dei propri confini geografici. È anche difficile immaginare che i governi possano, da soli coalizzanodosi, imporre limiti ai consumi e incrementare le tasse locali fino a portarle al livello che l’erogazione (per non parlare dell’ulteriore espansione) dei servizi sociali richiederebbe. L’esigenza di intervenire sui mercati è molto sentita, ma siamo sicuri che tale intervento – ammesso che avrà luogo, e soprattutto che produrrà effetti tangibili – sarà di matrice statale? L’impressione è che debba essere

compito, invece, di iniziative non-governative, indipendenti dallo Stato e forse addirittura critiche nei suoi confronti. La povertà e la disuguaglianza, e più in generale i disastrosi strascichi e i “danni collaterali” del laissez-faire globale, non possono essere adeguatamente affrontati a prescindere dal resto del pianeta, in un solo angolo del globo. Non esiste un modo onorevole in cui uno o più Stati territoriali potrebbero “dissociarsi” dall’interdipendenza globale dell’umanità. Lo “Stato sociale” non rappresenta più una via perseguibile: solo un “pianeta sociale” può rilevare le funzioni che gli Stati sociali hanno tentato, con esiti alterni, di espletare. Sospetto che a condurci a quel “pianeta sociale” non saranno gli Stati sovrani territoriali, ma piuttosto delle organizzazioni e associazioni nongovernative extraterritoriali e cosmopolite, capaci di raggiungere direttamente i bisognosi scavalcando i governi “sovrani” locali, evitandone le interferenze. [Sono grato per aver avuto la possibilità di trarre parte del materiale per questo saggio dal mio articolo Ot agory k rynku – i kuda potom?, in «Svobodnaja Mysl’», 8 (2008)] 3 Albert O. Hirschman, Lealtà, defezione, protesta. Rimedi alla crisi delle imprese, dei partiti e dello Stato, Bompiani, Milano 1982 (ed. or. 1970). 4 Thomas H. Marshall, Cittadinanza e classe sociale, a cura di P. Maranini, Laterza, Roma-Bari 2002 (ed. or. 1950). 5 Si veda, tra gli altri lavori di John Kenneth Galbraith, La cultura dell’appagamento, Rizzoli, Milano 1993 (ed. or. 1992). 6 Oliver James, Selfish capitalism is bad for our mental health, in «The Guardian», 3 gennaio 2008. 7 Laurent Bonelli, L’antiterrorisme en France, un système liberticide, in «Le Monde», 11 settembre 2008. 8 Jacques Attali, La voie humaine: pour une nouvelle socialdémocratie, Fayard, Paris 2004. 9 Joseph Stiglitz, Trade imbalances, in «The Guardian», 15 agosto 2003.

2. Requiem per il comunismo

L’idea di comunismo fu concepita e nacque sull’onda della fase “solida” della modernità. Le circostanze della sua nascita devono aver lasciato segni profondi, se per molti anni, addirittura un secolo e mezzo, questi hanno continuato a emergere intatti da ripetute prove e verifiche, al punto da dimostrarsi, in ultima istanza, indelebili. Dal momento della sua comparsa, e fino al suo tramonto, il comunismo è rimasto un autentico fenomeno “solidomoderno”: un figlio molto (forse il più) fedele, devoto e premuroso, nonché l’allievo più solerte (almeno nelle sue intenzioni) fra tutta la progenie della modernità solida. E in tutte le crociate da lei intraprese si è battuto al suo fianco da leale sottoposto e compagno d’armi, rimanendo (insieme a pochissimi altri) fedele alle sue ambizioni, e desideroso di ultimarne il “progetto incompiuto” – anche quando il corso della storia ha mutato direzione e gran parte dei seguaci di un tempo avevano rinunciato alle sue ambizioni “solidificanti”, ridicolizzate o condannate, abbandonate e/o dimenticate. Risolutamente votato alle intenzioni, alle promesse, ai principi e ai canoni della modernità solida, il comunismo è rimasto sino all’ultimo su quel campo di battaglia dal quale le altre unità dell’esercito moderno si erano ormai ritirate; benché esso non potesse sopravvivere (e non ci riuscì) al tramonto della fase “solida”. Nella nuova fase “liquida” della modernità, il comunismo sarebbe stato relegato infatti a rappresentare una stranezza obsoleta, il relitto di tempi andati che non aveva più nulla da offrire alle generazioni nate e formatesi all’interno della nuova epoca, nessuna credibile risposta da dare alle loro ambizioni, aspettative e preoccupazioni profondamente modificate. Nella sua iniziale fase “solida”, la modernità era stata una reazione alla crescente fragilità e all’impotenza dell’ancien régime, a cui il distacco dell’impresa dalla vita familiare aveva assestato un colpo mortale. Quando

le attività commerciali iniziarono ad allontanarsi dal controllo della famiglia e a sottrarsi alla fitta rete di legami comunitari e associativi in cui la vita domestica era inserita, e le attività produttive e distributive si ricostituirono sotto forma di “imprese” pure e semplici, svincolate dalle limitazioni dovute alla comunità e alle corporazioni, lo spontaneo e inconsapevole riprodursi dell’abituale tessuto tradizionale fondato su quei legami che fino a quel momento aveva sostenuto e favorito l’ancien régime iniziò a venir meno. La secessione delle “imprese commerciali” colse di sorpresa l’ancien régime, che si dimostrò manifestamente impreparato alla sfida e incapace di dimostrarsene all’altezza. Di fronte ai poteri di un capitale che si era appena emancipato, polverizzando o semplicemente evitando o ignorando le abituali regole del gioco (“Si volatilizza tutto ciò che vi era di corporativo e di stabile, è profanata ogni cosa sacra”, affermarono due giovani teste calde tedesche, Karl Marx e Friedrich Engels, in un misto di ammirazione e timore), le istituzioni socio-politiche dell’ancien régime si dimostrarono esecrabilmente impotenti. Erano incapaci di mitigare, rallentare o regolamentare l’avanzata delle nuove forze, o di contenere (e ancor meno di porvi rimedio) le conseguenze socialmente devastanti, gli effetti secondari e il “danno collaterale” che queste si lasciavano alle spalle. Ciò che rimaneva di stabile e solido (ovvero, le tradizionali forme di vita e convivenza umana sin lì tramandate e consolidate) fu doppiamente screditato, in quanto incapace di imporre ai nuovi poteri un andamento regolare e prevedibile, ma anche di ridurne l’impatto socialmente devastante, men che meno di resisterne agli effetti. Per dirla in breve: il passato non riuscì a superare la prova del tempo, dalla quale emerse palesemente screditato. Tanto le vittime che i testimoni ebbero chiaro che andava incenerito o annientato – e che bisognava liberare con urgenza l’area dalle macerie risultanti, per fare spazio alla costruzione di un nuovo, magnifico edificio. L’essenza di quello “spirito moderno” è stata colta in maniera sintetica ed efficace da Daniel Bell, il quale parla della “consapevole volontà dell’uomo di distruggere il proprio passato e controllare il proprio futuro”10. La modernità nasceva come l’intenzione di annientare il retaggio, il peso, la zavorra degli eventi passati e ricominciare da zero. Quarant’anni più tardi Leonidas Donskis avrebbe domandato, retoricamente:

Non bastavano le proposte e i progetti architettonici di Le Corbusier di cancellare dalla storia ogni città esistente col suo centro storico, e di distruggere i dipinti coprendoli con altri – queste grandiose raccomandazioni furono entusiasticamente messe in atto dai modernizzatori più solerti del mondo, i bolscevichi e i maoisti, non è vero? Non abbiamo forse già conosciuto la giusta dose di movimenti totalitaristici dediti alla persecuzione e alla distruzione dell’arte?11

La distruzione dell’arte, la nuova arte come atto di distruzione della vecchia... Architettura, pittura e le altre arti figurative seguirono soltanto l’esempio della modernità, la quale si era gettata a capofitto nell’impresa di riconfigurare il vivere umano (individualmente, a gruppi o collettivamente) in un’opera d’arte. Ogni aspetto dell’esistenza umana doveva essere di nuovo costruito, concepito e rinascere; nulla poteva essere (e difatti nulla fu) esentato a priori dalla determinazione umana di emanciparsi dal giogo della storia tramite l’espediente della “distruzione creativa”. Né vi era nulla che la potenzialità umana per la distruzione creativa non potesse eliminare dal proprio cammino, o rielaborare e ricostruire, o inventare ab nihilo. Come in seguito avrebbe dichiarato Lenin, con stile e piglio tipicamente moderni, non vi era fortezza che i bolscevichi non potessero espugnare (e che quindi, presumibilmente, non avrebbero espugnato). La nozione di “fallimento dell’ancien régime” si riferiva principalmente alla dissipazione e alla frantumazione del tessuto sociale – e quindi alla disintegrazione dell’ordine sociale esistente, che in assenza di altre opzioni era percepito come “ordine in quanto tale”: unica alternativa al caos e al pandemonio. La modernità fu una reazione decisa e vigorosa al deteriorarsi delle strutture consolidate e al disordine sociale che ne derivava. Ciò che talvolta è definito, a posteriori, “il progetto della modernità” era il prodotto di sforzi generalizzati, inizialmente sporadici e rarefatti ma vieppiù concentrati, coesivi e mirati a scongiurare un’imminente discesa nel caos. Quella che con il senno di poi sarebbe stata descritta come la “nascita della modernità” non era che l’impeto di sostituire le tradizionali strutture stabili, ormai stantie e in via di rapida putrefazione, superate e obsolete, con altre appositamente create e stavolta, auspicabilmente, di qualità di gran lunga superiore: strutture ritenute più solide e quindi più affidabili di quelle ormai screditate che le avevano precedute, perché costruite apposta e progettate in modo da resistere ai rovesci della storia, e magari persino immuni a qualsiasi imprevisto del futuro. Già dalla sua fase iniziale e “solida” la modernità si dedicò a

“strutturare” processi che sino a quel momento erano stati fortuiti, mal coordinati, quindi poco regolari, e si sforzò di costruire delle “strutture” da imporre a processi casuali e accidentali messi in atto da forze isolate e sconnesse, non vincolate, mai controllabili, che si scatenavano in maniera folle e violenta (“strutturare” significa essenzialmente manipolare le probabilità: rendere molto probabile il verificarsi di alcuni eventi e al tempo stesso ridurre drasticamente la possibilità che se ne verifichino altri). In breve, la modernità si apprestò a sostituire le strutture stabili tramandate, inadatte a mantenere la regolarità dell’ambiente umano, con altre, nuove e perfezionate, in grado – era questo l’auspicio – di dare vita a un assetto ordinato, trasparente e prevedibile. Nata sotto il segno della “certezza”, fu proprio in quell’ambito che la modernità mise a segno le sue vittorie più spettacolari. Nella sua fase iniziale e “solida”, la modernità è stata vissuta come una lunga marcia verso l’ordine. Un “ordine” considerato l’epitome della certezza e del controllo – e, in particolare, della certezza che gli eventi, fino ad allora importunamente capricciosi, sarebbero stati ricondotti e costretti all’ordine, al punto da diventare prevedibili e pianificabili. Doveva essere una marcia lunga, segnata e costellata da scoperte scientifiche e invenzioni tecnologiche; una marcia che si pensava sarebbe riuscita a eliminare una dopo l’altra tutte le cause dei disordini presenti e delle agitazioni future. Destinata, certo, a protrarsi nel tempo, ma sicuramente non all’infinito. La traiettoria prevista avrebbe condotto a un traguardo. Il tragitto verso la certezza e verso una maggiore sicurezza, che solo la certezza avrebbe potuto offrire, si annunciava lungo, erto e tortuoso, ma si sarebbe trattato di uno sforzo unico, da compiere una volta per tutte in nome di una conquista permanente. Si era supposto, tacitamente, che le circostanze contingenti e fortuite, gran parte dei contrattempi e la generale imprevedibilità degli eventi fossero anomalie, deroghe a norme ben consolidate, dovute all’incapacità umana di fissare una “normalità” che era visualizzata, ipotizzata e progettata come stato di equilibrio e regolarità. L’obiettivo era quello di sollevare e rimettere in carreggiata un mondo che sembrava aver deragliato per un guasto al motore o per un errore del conducente, oppure di trasferire i binari su una superficie più solida e resistente. L’intento del cambiamento era di portare il mondo a uno stato che non richiedesse più alcun cambiamento: il proposito dell’intervento era il raggiungimento di uno stato di inerzia.

L’obiettivo dello sforzo era lo stato di riposo, e il fine della dura fatica era lo svago. Gli studiosi delle nascenti scienze sociali, alla stregua degli autori di utopie, si dedicarono alla costruzione di modelli di società o sistemi sociali “stabili”, che fossero in grado di tenersi in equilibrio da soli; una condizione nella quale l’eventuale sopraggiungere di qualsiasi cambiamento sarebbe dipeso esclusivamente da fattori esterni e inconsueti, mentre il congegno omeostatico incorporato in una società progettata a dovere avrebbe fatto del suo meglio per rendere superflui tali cambiamenti. Il numero dei problemi da affrontare e risolvere era limitato (o, quanto meno, così si riteneva): ogni volta che se ne risolveva uno, ne rimaneva uno in meno da affrontare. Le esigenze umane che restavano trascurate, irrisolte e in attesa di gratificazione erano tantissime, ma ogni volta che una di queste fosse stata soddisfatta ne sarebbe rimasta una in meno di cui preoccuparsi – sino a quando non vi fosse rimasto più nessun bisogno che esigesse e giustificasse l’intensificarsi degli interventi produttivi. La missione del progresso era quella di riscattarsi dal lavoro. Simili convinzioni erano condivise da chiunque si fosse soffermato a riflettere sulle prospettive della storia e sulla conduzione del futuro degli uomini. O meglio: tutti questi presupposti erano gli strumenti comuni del pensare – le idee con cui, ma non a cui, pensare; non emergevano quasi mai alla consapevolezza per diventare a loro volta oggetto di riflessione critica. Erano intrecciati a formare un asse attorno al quale ruotavano tutti gli altri pensieri; o, in alternativa, li si sarebbe potuti visualizzare come a formare lo spazio in cui si sono combattuti tutti gli scontri di idee (o almeno tutti quelli davvero importanti). La posta in palio di ogni battaglia era il privilegio di scegliere l’itinerario più breve, meno arduo e meno disagevole per giungere alla destinazione ultima del progresso: una società in cui ogni esigenza umana trova soddisfazione e tutti i problemi che affliggono gli uomini e la loro convivenza comune vengono risolti. Una società di benessere universale, in grado di garantire un’esistenza confortevole, caratterizzata da un’economia stabile e saldamente ancorata a livelli tali da permettere l’ininterrotta erogazione di tutti i suoi servizi. Fu nell’ambito di un simile contesto che andò in scena lo scontro tra due opposti piani d’azione che sarebbe passato alla storia come conflitto tra capitalismo e socialismo. I sostenitori dell’uno e dell’altro avevano preso

estremamente sul serio la triplice promessa moderna di libertà, eguaglianza e fraternità – così come l’assunto dell’esistenza di un legame intimo e indistruttibile tra questi tre ideali. Il fronte socialista però rimproverava e criticava i sostenitori del capitalismo e coloro che lo praticavano (e in particolare i più radicali tra questi, appartenenti alla fazione del liberismo), accusandoli di fare troppo poco, o quasi nulla, per tener fede a quella promessa. I socialisti accusavano l’interpretazione capitalista della modernità del doppio peccato di iniquità e sperpero. Di sperpero perché la caotica corsa ai profitti costringeva la produzione a spingersi regolarmente ben oltre le esigenze reali, e quindi a spedire dritto tra i mucchi di rifiuti gran parte di ciò che veniva prodotto: il tipo di prodigalità che avrebbe potuto essere evitata se si fosse messo da parte il fattore profitto, calcolando in anticipo le esigenze effettive e pianificando la produzione in base a queste. Di iniquità perché i lavoratori, sfruttati, erano sistematicamente derubati della ricchezza che essi stessi creavano, e privati della porzione di ricchezza nazionale che spettava loro. Stando alle accuse avanzate dai socialisti, entrambe le questioni avrebbero potuto essere evitate, o addirittura eliminate, se i mezzi di produzione non fossero stati di proprietà privata – circostanza, questa, che poneva la logica della produzione in netto contrasto con la logica della soddisfazione delle esigenze, alla quale la produzione di ogni sorta di merce avrebbe dovuto ispirarsi. L’abolizione della proprietà privata dei mezzi di produzione, che è destinata a subordinare la produzione delle merci alla logica del profitto, avrebbe consegnato all’oblio entrambi i problemi, come pure la morbosa contraddizione tra natura sociale della produzione e gestione privata dei suoi mezzi. Si riteneva che il socialismo, nella sua declinazione marxiana, si sarebbe compiuto come prodotto della rivoluzione proletaria: vieppiù scontenti del loro progressivo impoverimento e dell’indegnità della propria condizione, gli operai prima o poi si sarebbero ribellati, imponendo nuove (e ben meritate) regole del gioco a proprio favore. Con il passare degli anni, però, le prospettive di una “rivoluzione proletaria” sembravano ridursi e apparivano vieppiù remote. Lo spettro della rivoluzione, insieme all’ascesa e allo sviluppo di efficaci organizzazioni di auto-tutela tra gli operai delle fabbriche, spinsero lo Stato (considerato la rappresentazione politica della classe dei proprietari delle fabbriche) a imporre qualche limite all’avidità di coloro che erano a caccia

di profitti e alla disumanità delle condizioni di lavoro degli operai, cosicché l’intero processo si trasformò in una “profezia che si confuta da sé”, e la prevista “pauperizzazione proletaria” mancò di materializzarsi. Si assistette invece al moltiplicarsi dei casi di operai che volenti o nolenti si sistemavano all’interno della società a gestione capitalista – perseguendo efficacemente da questa nuova collocazione il miglioramento della propria condizione e la soddisfazione dei propri interessi di classe. Tale tendenza evidenziò un andamento storico in decisa opposizione alle aspettative che derivavano dall’analisi di Marx. Una contraddizione che andava a tutti i costi spiegata, se si voleva mettere in salvo le aspettative che aveva mandato in frantumi. A cavallo tra il XIX e il XX secolo ci si sforzò di formulare una lunga lista di spiegazioni. Una delle più discusse e influenti si basava sulla presunta corruzione della “borghesia lavoratrice”: quella porzione della forza-lavoro altamente specializzata e ben retribuita che, grazie ai suoi privilegi, aveva sviluppato propri interessi a conservare lo status quo e riusciva a far sì che le organizzazioni dei lavoratori, i sindacati e persino i nascenti partiti politici operassero a favore di quegli interessi. La teoria della “falsa coscienza” – un’altra spiegazione, addirittura più influente – si spingeva persino oltre, affermando che l’assetto complessivo di una società capitalista impedisce ai suoi membri più svantaggiati, indigenti e discriminati di percepire la verità circa la propria condizione, e in particolare di comprenderne le cause, privandoli così della possibilità di emanciparsi dalla propria miseria. Simili spiegazioni circolavano in numerose versioni e a diversi livelli di raffinatezza, ma tutte miravano a una conclusione analoga: ovvero, che vi erano scarse possibilità che ad avviare, condurre e dirigere una “rivoluzione proletaria” fossero gli operai stessi (adesso ribattezzati “le masse”, con più di una punta di disprezzo). Lenin era solito ribadire che il “proletariato”, lasciato alle proprie risorse e al proprio buon senso, non sarebbe mai riuscito a elevarsi oltre il livello di una “mentalità sindacalista”; mentre i compagni di strada (nelle convinzioni) di Lenin aggiungevano alla sua censura politica il loro sdegno intellettuale nei confronti dei “borghesi filistei”, accusando “le masse” di essere costitutivamente incapaci e riluttanti a elevarsi oltre il livello di una “cultura di massa” che inebetisce e ottenebra la mente. Fu in tale contesto, che si estende tra la fine del XIX e i primi del XX secolo, che nacque l’esaltato, impaziente e sventato fratello minore del

socialismo moderno: quell’insieme di idee e di pratiche che sarebbe passato alla storia come “comunismo” – una denominazione coniata nel Manifesto di Marx e Engels che esso usurpò e fece propria, aggiungendovi riferimenti che i suoi ideatori non avevano né inteso né previsto che avesse. La nuova entità era frutto sia della delusione di fronte alle “leggi della storia”, sia della frustrazione causata dalla palese mancanza di progressi nella “maturazione” del proletariato che non riusciva ad assumere il ruolo di forza rivoluzionaria, sia del sospetto crescente che il tempo “non stesse dalla parte del socialismo”: cioè che il fluire degli anni, lasciato all’attuale gestione, avrebbe potuto rendere la prospettiva di una svolta socialista ancora più remota e incerta, anziché avvicinarla e renderla inevitabile. L’indolente corso della storia richiede un poderoso incitamento, e le masse intorpidite una decisa sferzata; la consapevolezza della necessità storica andava portata dall’esterno dentro le case del proletariato, dove difficilmente sarebbe stata concepita e avrebbe potuto nascere. La rivoluzione, che difficilmente avrebbe potuto originare dalle “masse”, doveva essere compiuta per conto delle masse dagli “specialisti della rivoluzione”: “rivoluzionari di professione” che, una volta assunto il controllo del potere coercitivo dello Stato, se ne sarebbero serviti per convertire “le masse” in autentica forza rivoluzionaria – e spingerle (tramite l’istruzione, le prediche, gli stimoli o se necessario la coercizione) a farsi carico del ruolo che erano tanto riluttanti (o incapaci o semplicemente troppo ignoranti) ad assumere. E tutto ciò sarebbe potuto accadere ancor prima che l’industrializzazione promossa dal capitalismo fosse riuscita a elevare le masse premoderne di sfruttati al rango di classe operaia. Una volta che i rivoluzionari di professione fossero stati addestrati e inseriti in un partito rivoluzionario armato della conoscenza delle “leggi della storia” e cementato da una disciplina d’acciaio, l’interludio capitalista – l’esercizio attraverso cui il capitale, approdato nelle terre contadine e premoderne che sorgevano al limitare del “mondo sviluppato”, come la Russia zarista, tentava di “farsi spazio” e “preparare la strada” avrebbe potuto essere sorvolato e omesso. La strada che conduce alla società ideale, ordinata, priva di conflitti e a prova di imprevisti avrebbe potuto essere imboccata dall’inizio e percorsa sino al traguardo finale seguendo la conoscenza della “ineluttabilità storica” e sotto la supervisione, il controllo e il comando di coloro che di quella conoscenza erano portatori. In breve il

comunismo, la versione leninista del socialismo, era un’ideologia e una pratica basata su scorciatoie da perseguire a qualunque costo. Una volta attuata, quell’idea (così come la strategia messa in atto per conseguirla) si dimostrò essere ciò che Rosa Luxemburg, nella sua controversia con Lenin, aveva previsto: una ricetta per la schiavitù. E tuttavia, nemmeno Rosa riuscì a immaginare quanto sarebbe stata atroce, violenta, crudele, disumana e sanguinosa, e quale volume di sofferenza umana avrebbe prodotto. Spinta a un estremo mai sperimentato prima di allora in nessuna parte del mondo, la moderna promessa di felicità che una società ordinata, progettata e gestita razionalmente sembrava garantire, si rivelò una condanna a morte per la libertà umana. Portata a un tale estremo, una società gestita dalle proprie autorità come un giardino è curato e accudito dal suo giardiniere finì per concentrarsi su un tracciato ossessivo e in definitiva compulsivo e coercitivo, volto a individuare, sradicare e debellare gli equivalenti sociali delle “erbacce”: ovvero quegli esseri che non si inquadravano nell’ordine previsto, e la cui sola presenza oscurava il nitore, inquinava l’integrità e comprometteva l’armonia del progetto. Come in ogni giardino, nella “società trasformata in aiuola” gli esseri umani che non erano stati invitati a farne parte, che erano spuntati come erbacce mettendo radici in ogni posto sbagliato (in quanto non pianificato), sconvolgendo il miraggio di armonia assoluta tanto caro ai governanti e mettendo in dubbio la legittimità dei diritti che i “governanti divenuti giardinieri” rivendicavano sulla propria creazione, furono individuati per essere distrutti. Invece di accelerare l’avvento di quel benessere che una convivenza umana assolutamente trasparente e prevedibile, e per questo sicura, prometteva, la guerra dichiarata al disordine, all’imprevedibilità e all’impurità sembrava non finire mai. E lungo il suo corso, produceva a sua volta nuovi motivi di contrasto ed evocava “erbacce” sempre nuove da distruggere, operando su una scala enorme, che mostrava poca o nessuna inclinazione a scemare. Riassumendo, l’esperimento comunista mise alla prova – una prova estrema e forse definitiva e conclusiva – la fattibilità della moderna ambizione di ottenere un controllo totale sul destino e le condizioni di vita degli esseri umani. E rivelò quanto fosse spaventoso, in termini umani, il costo della messa in atto di tale ambizione. Come la nascita della versione comunista della modernità fu parte integrante, forse addirittura inevitabile,

dell’alba della “modernità solida”, così la sua implosione e il suo crollo furono parte integrante del declino e del fallimento di quella modernità. Il regime comunista subì il medesimo destino dell’ambizione solidomoderna di sostituire alle realtà sociali che gli erano state tramandate una realtà meticolosamente progettata e costruita sulla base di esigenze umane presumibilmente calcolabili e doverosamente calcolate. L’alternativa comunista era stata concepita come un’opzione migliore perché più rapida e breve: un sentiero per una corsa campestre a ostacoli, senza tempi morti, per eliminare l’incertezza dalla condizione umana. E fu accolta come il metodo più fidato per assicurare quel tipo di esistenza umana che corrispondeva all’ideale immaginato, agognato e sognato, e che, si era certi, sarebbe stato raggiunto nell’incipiente fase “solida” dell’era moderna. Benché la sua pretesa di essere una via preferibile si dimostrò come minimo assai dubbia, il motivo principale della sua caduta in disgrazia e della disfatta finale, il suo colpo di grazia, fu il sopraggiungere di una serie di eventi fino a quel momento imprevisti che coincisero con la dissipazione e la scomparsa – sino all’esplicito rifiuto – dell’obiettivo attraverso il quale il grado di successo dell’intero esercizio sarebbe stato misurato. Il rintocco funebre dell’esperimento comunista fu sancito dall’ingresso della modernità nella sua fase “liquida”. Il confronto diretto e l’antagonismo tra alternativa comunista e alternativa capitalista della modernità ebbe senso fino a quando (ma solo fino a quel momento!) i due antagonisti condivisero la posta in gioco di tale rivalità: ovvero la soddisfazione di tutte le esigenze umane, ritenute limitate, stabili e quantificabili. Nella fase liquida della modernità, però, il capitalismo ha abbandonato la sfida, decidendo di scommettere invece sulla potenziale illimitatezza dei desideri umani; da allora, anziché concentrare i propri sforzi sull’appagamento dei desideri, li ha rivolti al loro infinito moltiplicarsi: verso desideri che desiderano altri desideri, e non la propria soddisfazione; l’accrescimento, anziché la diminuzione, delle scelte e delle opportunità; liberare, anziché “strutturare”, la dinamica delle probabilità. Il compito di sciogliere e ricomporre le realtà esistenti (che in passato si effettuava una tantum e una volta per tutte) è divenuto di conseguenza un incessante e presumibilmente permanente aspetto della condizione umana, proprio come le dinamiche di connessione e disconnessione si sono trasformate in una modalità esistenziale permanente di “creazione di una

rete sociale di contatti” che ha preso il posto dell’opera di “strutturazione della società”. D’altro canto, la concezione era decisamente poco adatta a gestire la vita liquido-moderna, proprio come le istituzioni nate per soddisfare gli interessi legati alla “creazione dell’ordine” della modernità solida si erano dimostrate assolutamente inadeguate a far fronte all’incarnazione “liquida” della modernità. La nuova condizione rendeva obsoleti e ridondanti (o, per meglio dire: controproducenti) gli obiettivi e i mezzi tramandati dalla “preistoria solida” della modernità liquida. Per quanto tempo si sarebbe protratta la competizione tra le due versioni di modernità, se entrambi gli antagonisti fossero rimasti fedeli al credo e ai precetti solido-moderni? Tale interrogativo rimane insoluto e forse è destinato a non trovare risposta. Più di qualsiasi altro difetto o mancanza, furono la monotonia e il grigiore di un’esistenza vissuta in un regime che usurpava i diritti e riteneva di poter stabilire l’ampiezza e il contenuto delle esigenze umane (Ágnes Heller e altri diedero del comunismo la memorabile definizione di “dittatura sui bisogni”12, mentre lo scrittore satirico russo Vladimir Vojnovič immaginava che in futuro gli abitanti di una Mosca comunista avrebbero iniziato ogni giornata ascoltando l’annuncio ufficiale che decretava quanto dovessero essere grandi o piccole le loro necessità quel giorno13) a escludere quel regime dalla rosa dei candidati in lizza – a favore dei bazar capitalisti sempre più variopinti e seducenti. La caduta del comunismo fu dunque una conseguenza inevitabile dell’avvento della fase liquida della modernità. Caduta... significa forse morte? Una sconfitta irreversibile? La conclusione decisiva, definitiva di una fase storica che scompare prima di aver fatto testamento e senza lasciare eredi né eredità, a eccezione di un monito contro le politiche che si basano su espedienti e scorciatoie, nonché sul motto “noi sappiamo meglio di voi cosa è bene per voi”? Anche questa domanda rimane aperta, poiché l’avvicendarsi della modernità “liquida” a quella “solida” (fatto che non rappresenta in sé un miglioramento puro e semplice, né un evento del tutto positivo o negativo) potrebbe non essere nient’altro che una trasformazione storica definitiva. Grazie a Dio, o alla Storia, le atrocità e le sofferenze che hanno infestato la fase “solida” trascorsa appartengono ormai al passato, e ne sono prontamente emerse di nuove, un tempo sconosciute o solo vagamente intuite, a prendere il loro posto nella lista delle offese e dei dissensi. Agli

occhi dei nostri contemporanei, queste nuove piaghe possono apparire ripugnanti quanto i patimenti sofferti dai loro antenati – patimenti che gli individui dei nostri giorni, non avendone mai fatta esperienza diretta, possono facilmente sminuire, dileggiare e sottovalutare. Occorre osservare, inoltre, che il “programma del comunismo” (per prendere a prestito un’espressione di Jürgen Habermas) ad oggi non è ancora stato portato a termine. La maggior parte degli aspetti sgradevoli, rivoltanti e immorali della condizione umana (quali la distribuzione palesemente iniqua della ricchezza, la diffusione della povertà, la fame, le umiliazioni e la negazione della dignità umana), che resero quel modello tanto attraente agli occhi di milioni di cittadini della “modernità solida”, sopravvivono tra noi oggi come duecento anni fa, e forse in maniera addirittura più esplicita, continuando a crescere in volume, intensità, orrore e ripugnanza. In India ad esempio – fulgido brillante del diadema liquido-moderno, un Paese universalmente considerato il più magnifico caso di potenziale umano libero e svincolato dalla nuova realtà liquido-moderna – una manciata di prosperi miliardari convive accanto a circa duecentocinquanta milioni di individui costretti a vivere con meno di un dollaro al giorno; il 42,5 per cento dei bambini al di sotto dei cinque anni sono denutriti, e otto milioni soffrono una fame acuta, intensa, continua e debilitante che ne compromette lo sviluppo fisico e mentale e causa ogni anno la morte di due milioni di loro14. Eppure la povertà, insieme all’umiliazione e alla mancanza di prospettive, sue devote compagne di strada, non solo persiste in quei Paesi che da tempo immemore conoscono miseria e malnutrizione, ma sta riaffiorando anche in regioni dalle quali sembrava essere stata definitivamente debellata senza possibilità di ritorno. In Gran Bretagna, ad esempio, nel tentativo di mitigare le conseguenze della malnutrizione causata dalla povertà, l’offerta di pasti gratuiti nelle scuole è stata estesa nel 2009 a 14.000 bambini in più rispetto all’anno precedente. Dalla terza vittoria elettorale di Tony Blair, le entrate del 10 per cento più povero delle famiglie si sono ridotte di circa 9 sterline a settimana, mentre quelle del 10 per cento più ricco sono aumentate in media di circa 4515. E ciò che è in gioco, nel caso della disuguaglianza, è molto più che solo un problema di fame e di mancanza di cibo – per quanto penoso possa essere per chi ne è afflitto. Delle molteplici, nefaste conseguenze della disuguaglianza umana oggi

sappiamo più di quanto non sapessero coloro che, spazientitisi di fronte alle inanità della cattiva gestione capitalista, si unirono ai partiti comunisti per trovarvi più in fretta un rimedio. Sappiamo, ad esempio, che nelle società più disuguali del pianeta, come gli Stati Uniti o la Gran Bretagna, l’incidenza delle malattie mentali è tre volte maggiore rispetto ai Paesi agli ultimi posti nella stessa classifica; analogamente, nei Paesi dove la disuguaglianza è più accentuata anche il numero di carcerati e l’incidenza di gravidanze adolescenziali sono maggiori, così come i tassi di obesità e (malgrado la ricchezza complessiva!) di mortalità in tutte le classi sociali, compresi gli strati più ricchi della popolazione. Benché nei Paesi più ricchi le condizioni di salute generali siano di norma migliori, tra i Paesi di pari ricchezza i tassi di mortalità sono inversamente proporzionali al livello di uguaglianza sociale. Un dato davvero sorprendente è che, mentre un livello crescente di spesa sanitaria non ha quasi alcun impatto sulle aspettative generali di vita, quello della disuguaglianza ne ha uno fortemente negativo. L’elenco dei “mali sociali” riconosciuti che tormentano le società cosiddette “sviluppate” è lungo e, malgrado tutti gli sforzi (autentici o presunti) di invertirne la rotta, continua ad accrescersi. Oltre alle piaghe già menzionate, comprende voci quali omicidio, mortalità infantile, aumento dei disturbi mentali o emotivi e progressivo affievolimento della fiducia reciproca, senza la quale la coesione e la cooperazione sociali appaiono inconcepibili. Passando dalle società più disuguali a quelle meno disuguali, i risultati per ciascuna di queste voci si fanno meno allarmanti; le differenze tra società ad alto e basso tasso di disuguaglianza appaiono in alcuni casi decisamente sconcertanti. In cima alla classifica della disuguaglianza troviamo gli Stati Uniti, mentre il Giappone occupa l’ultima posizione. Nei primi, per ogni centomila abitanti cinquecento sono in prigione, una percentuale che in Giappone scende sotto i cinquanta. Mentre negli Stati Uniti l’obesità affligge un terzo della popolazione, in Giappone le persone colpite rappresentano meno del 10 per cento. Negli Stati Uniti, su mille ragazze di età compresa tra i 15 e i 16 anni, più di cinquanta sono in stato interessante; in Giappone soltanto tre. E mentre i disturbi mentali negli Stati Uniti affliggono più di un quarto della popolazione, in Giappone riguardano circa il 7 per cento. In Giappone, Spagna, Italia e Germania, tutte società con una distribuzione relativamente più equa della ricchezza,

una persona su dieci dichiara di soffrire di problemi mentali, mentre in Gran Bretagna, Australia, Nuova Zelanda o Canada, dove la disuguaglianza è maggiore, il rapporto è di uno a cinque. Si tratta, naturalmente, di statistiche: somme, medie matematiche e relative correlazioni che dicono poco dei nessi causali che ne sono all’origine. Tuttavia stimolano l’immaginazione e fanno scattare un campanello di allarme. Fanno appello alla nostra coscienza, oltre che all’istinto di sopravvivenza. Sfidano l’apatia etica e l’indifferenza morale, entrambe diffusissime, ma dimostrano anche, al di là di ogni ragionevole dubbio, che la ricerca di un’esistenza felice e dignitosa non può essere perseguita da ciascun individuo per conto proprio. Che illudendoci di “fare da soli” commettiamo un errore fatale, il quale sfida la finalità insita nell’attenzione e nella cura di se stessi. Non possiamo avvicinarci a quella finalità prendendo le distanze dalle disgrazie altrui. Esistono degli ottimi motivi per celebrare l’anniversario della caduta del comunismo, ma ve ne sono di ottimi anche per fermarsi a riflettere, e riflettere a lungo, su quanto è accaduto al bambino quando l’acqua sporca è stata buttata dalla vasca... Quel bambino adesso piange perché vuole la nostra attenzione. [Sono grato di aver avuto la possibilità di attingere ad alcuni miei contributi pubblicati su «Thesis eleven», 3 (2009)]. 10 Daniel Bell, The Cultural Contradictions of Capitalism, Heinemann, London 1976, p. 4. 11 Leonidas Donskis, Troubled Identity and the Modern World, Palgrave, London 2009, p. 139. 12 F. Fehér, Á. Heller e G. Márkus, La dittatura sui bisogni: analisi socio-politica della realtà esteuropea, SugarCo, Milano 1984 (ed. or. inglese 1983). 13 Vladimir Vojnovič, Moscow 2042, Cape, London 1987 (ed. or. russa 1986). 14 Amelia Gentleman, Indian election: challenge of narrowing shaming gulf between wealth and want, in «The Guardian», 12 maggio 2009. 15 Larry Elliott e Polly Curtis, Gap between rich and poor widest since 60’s, in «The Guardian», 8 maggio 2009.

3. Il destino della disuguaglianza sociale nell’era liquido-moderna

Nel 1963 Michel Crozier pubblicò (prima in francese, poi in inglese) Il fenomeno burocratico, frutto di un attento studio delle dinamiche interne alle grandi aziende16. Il suo obiettivo era chiaramente quello di verificare l’applicabilità dell’“idealtipo di burocrazia” definito da Max Weber e considerato all’epoca paradigma indiscutibile di ogni studio sull’organizzazione aziendale. La principale scoperta di Crozier, tuttavia, fu di rilevare la presenza non di una, bensì di numerose e diverse “culture burocratiche” nazionali, ciascuna delle quali appariva profondamente influenzata dalle peculiarità sociali e culturali del proprio Paese. Crozier accusò Weber di aver trascurato tali idiosincrasie culturali, e di avere in questo modo seriamente compromesso l’universalità del modello da lui proposto. Io suggerirei, piuttosto, che per quanto l’enfasi posta da Crozier sulle peculiarità culturali possa esser stata pionieristica, la sua scoperta assolutamente e realmente epocale avvenne durante la fase di studio e codifica delle strategie messe in atto dai titolari delle cariche burocratiche che secondo Crozier si allontanavano dal modello teorizzato da Weber, minandone così la validità. La critica avanzata da Crozier nei confronti di Weber era, per così dire, “immanente”, ovvero era condotta all’ombra della visione weberiana e procedeva lungo il medesimo punto di vista: difatti accettava tacitamente il presupposto secondo cui la burocrazia sarebbe la principale incarnazione dell’idea moderna di azione “razionale-legale”, e la “razionalizzazione” l’unico obiettivo della burocrazia moderna. Accettava inoltre il postulato di Weber secondo cui sarebbe precisamente quell’obiettivo, e soltanto quello, a potere e dovere offrire la chiave di lettura della logica delle pratiche burocratiche e dei suoi requisiti. Nel suo “tipo ideale”, Weber aveva ritratto la burocrazia moderna come una sorta di “fabbrica del

comportamento razionale”, intesa come una condotta ispirata alla ricerca dei migliori mezzi per raggiungere degli obiettivi predeterminati. Se l’obiettivo dell’organizzazione burocratica corrispondeva al compito che a questa era stato imposto e affidato, la sua struttura e le sue procedure potevano essere spiegate alla luce del ruolo che svolgevano e che erano state predisposte a svolgere nel rinvenire, espletare e seguire alla lettera i metodi “più razionali” volti a soddisfare tale compito, ovvero i metodi più efficienti, meno costosi e più adatti a minimizzare il rischio di errori – e neutralizzare, o eliminare del tutto, l’insorgere nei suoi funzionari di qualsiasi attaccamento, movente o vincolo (eterogeneo o eteronomico) che potesse entrare in concorrenza o interferire con quel ruolo. Crozier si rese conto però che di fatto le organizzazioni burocratiche francesi prese in esame assomigliavano molto di più a “fabbriche del comportamento irrazionale” – dove in questo caso il significato di “irrazionalità” è un derivato “per confutazione” dell’interpretazione che Weber dava di “razionalità”. Crozier notò che, dal punto di vista del modello certamente astratto e tuttavia coerente di Weber, nelle organizzazioni francesi l’attuazione della burocrazia generava molte “disfunzioni”: un altro concetto derivato dal lessico weberiano, nella misura in cui era inteso come un insieme di fattori ostili alla sua versione del “comportamento razionale”, cioè all’indiscutibile primato della soddisfazione dell’obiettivo finale rispetto a ogni altra considerazione. Crozier scoprì che, anziché concentrare tempo ed energie sull’adempimento dell’obiettivo esplicito, il personale dedicava molto tempo e molte energie ad attività che con quello non avevano nulla a che vedere, o a iniziative che ne ostacolavano il raggiungimento o addirittura ne rendevano impossibile l’implementazione. La disfunzione principale che Crozier osservò e registrò in abbondanza riguardava la lotta per il potere, l’influenza e i privilegi all’interno del gruppo. Nelle organizzazioni da lui prese in esame, Crozier notò che tale lotta appariva endemica; ciascuna categoria di funzionari aspirava a ottenere maggior potere, e tentava di assicurarselo piegando a proprio vantaggio le regole formali, sfruttando delle zone d’ombra nei codici di condotta o ricorrendo a espedienti affatto informali, non previsti o addirittura esplicitamente vietati dal regolamento aziendale. Nel tentare di trovare una spiegazione a questo allontanamento culturale e prettamente francese dal

modello ideale della vocazione e della prassi della burocrazia moderna, “razionalizzanti” in maniera compulsiva e ossessiva, a mio avviso Crozier (come per seguire l’invito di William Blake a “vedere un mondo in un granello di sabbia”) scoprì e registrò la strategia universale di ogni lotta di potere: il processo in base al quale la sperequazione del potere – la “madre di tutte le disuguaglianze”, per così dire – si genera e viene istituzionalizzata. Una strategia che, come appresi all’epoca dallo stesso Crozier, consiste sempre e in ogni luogo nella manipolazione dell’insicurezza. L’incertezza, che dell’insicurezza è la causa principale, rappresenta di gran lunga lo strumento di potere più incisivo, anzi, la sua essenza stessa. Come scrive Crozier, chiunque si trovi “vicino alle fonti dell’incertezza” prevale. E questo perché chiunque sia relegato a bersaglio dell’insicurezza (ovvero, chiunque si trovi di fronte a un avversario le cui mosse sono imprevedibili e sfidano le attese) è indifeso e disarmato nei suoi tentativi di resistere e opporsi alla discriminazione. I gruppi o le categorie di individui che non hanno alcuna opzione a loro disposizione, o ne hanno un numero limitato, e sono quindi obbligati ad attenersi a una routine monotona ed estremamente prevedibile, nella lotta per il potere non hanno alcuna possibilità di sconfiggere avversari mobili e liberi di scegliere, che dispongono di tante opzioni e sono quindi, di fatto, imprevedibili. È una lotta tra flessibilità e staticità: i gruppi flessibili, che dispongono di numerose opzioni, rappresentano una fonte di incertezza debilitante e suscitano uno schiacciante senso di insicurezza in chi è bloccato all’interno di una routine. Al contrario, chi è flessibile non deve preoccuparsi delle minacce che le possibili mosse e reazioni di chi è bloccato potrebbero rappresentare per la sua posizione e le sue prospettive. All’interno di un’organizzazione, dunque, una categoria di funzionari ambisce a imporre alla categoria che desidera subordinare un codice di comportamento estremamente dettagliato e minuzioso, volto a rendere ripetitivamente regolare e dunque estremamente prevedibile la condotta dei gruppi che desidera “bloccare”; al tempo stesso, però, si sforza di tenere libere le proprie mani (e le proprie gambe...), in modo che le sue mosse siano impossibili da indovinare e possano continuare a sfidare i calcoli e le previsioni della categoria destinata alla subordinazione. Tenendo a mente che “strutturare” significa manipolare le probabilità (ovvero rendere alcuni eventi altamente probabili e ridurre al contempo la

probabilità che altri si verifichino), si potrebbe affermare in breve che la principale strategia di qualsiasi lotta per il potere consiste nello strutturare la posizione della controparte e “destrutturare” – ovvero deregolamentare – la propria. Nella lotta per il potere gli avversari mirano a lasciare i loro attuali o futuri subordinati senza alcuna scelta se non quella di accettare con docilità la routine che i loro attuali o futuri superiori hanno stabilito o intendono imporre loro. E accettandola, il loro comportamento non sarebbe più fonte di incertezza, ma diventerebbe invece una “costante”, una variabile priva di rischi e quindi trascurabile agli occhi dei superiori intenti a calcolare le loro mosse. Ci sono ovviamente dei limiti “naturali” alla libertà di scelta di cui anche i più liberi gruppi di potere o in cerca di potere godono: limiti imposti dal contesto socio-economico nel quale operano questi gruppi e dalla sostanza del loro operato; limiti che restano immuni anche ai più ingegnosi e sofisticati stratagemmi, e quindi praticamente inattaccabili. Con il passaggio dalla fase “solida” a quella “liquida”, attuale, dell’era moderna, i contesti entro i quali la lotta per il potere viene combattuta hanno subìto una trasformazione veramente drastica e radicale. Trovandosi assediato dai giornalisti che gli domandavano dei motivi che lo avevano improvvisamente portato a sfidare le più comuni pratiche commerciali dell’epoca, raddoppiando il salario dei propri dipendenti, Henry Ford rispose con una battuta rimasta famosa: per permettere ai suoi operai di acquistare le automobili che vendeva. Di fatto, la sua decisione era dettata da considerazioni ben più realistiche e anzi razionali: benché i suoi operai dipendessero da lui per il proprio mantenimento, anche Ford dipendeva a sua volta da loro (la manodopera locale, gli unici lavoratori di cui egli poteva servirsi per tenere in funzione le catene di montaggio) per la sua ricchezza e il suo potere. La dipendenza era reciproca. A causa del volume e della fissità di quel tipo di ricchezza e del potere di cui godeva, Ford non aveva molte possibilità oltre a quella di trattenere in fabbrica la propria forza-lavoro già sottomessa e disciplinata, anziché lasciare che fosse attratta da offerte migliori della concorrenza. A differenza degli imprenditori che si sono affacciati nel mercato un secolo più tardi, a Henry Ford era preclusa la suprema “arma dell’insicurezza”: la possibilità di trasferire altrove la propria ricchezza – in luoghi che pullulano di individui pronti ad accettare senza fiatare qualsiasi regime di lavoro, per quanto duro, in cambio di una paga sufficiente per vivere, per quanto misera. Proprio come la sua forza-lavoro,

il capitale di Ford era “fissato” al territorio, legato a macchinari pesanti e ingombranti, raccolti all’interno delle alte mura delle fabbriche. Che la dipendenza fosse per questi motivi reciproca, e che le due parti fossero quindi destinate a rimanere insieme per moltissimo tempo, era un segreto di Pulcinella, di cui entrambe erano acutamente consapevoli. Di fronte a un’interdipendenza così stretta e a un’aspettativa di vita così lunga, entrambe dovettero prima o poi giungere alla conclusione che fosse loro interesse elaborare, negoziare e osservare un modus vivendi – ovvero una modalità di coesistenza che comprendesse l’accettazione intenzionale degli inevitabili limiti alla loro libertà di manovra e alle pressioni che si potevano esercitare sulla controparte durante il conflitto di interessi. L’unica alternativa di cui Henry Ford e i suoi sempre più numerosi ammiratori, seguaci ed emuli disponevano sarebbe stata paragonabile al gesto di segare il ramo sul quale, volenti o nolenti, erano seduti, e al quale erano legati così come i suoi operai erano legati alle loro postazioni di lavoro, da cui non potevano allontanarsi per trasferirsi in luoghi più comodi e invitanti. Trasgredire i limiti imposti dall’interdipendenza avrebbe significato distruggere le fonti di guadagno o esaurire rapidamente la fertilità del terreno in cui le reciproche ricchezze si erano accresciute e avrebbero presumibilmente continuato ad accrescersi in futuro, anno dopo anno – forse per sempre. Riassumendo: esistevano dei limiti alla disuguaglianza che il capitale poteva tollerare. Entrambe le parti in causa avevano interessi personali nell’evitare che la disuguaglianza andasse fuori controllo. In altre parole, c’erano dei limiti “naturali” alla disuguaglianza, che sono stati i motivi principali per cui la profezia di Karl Marx sull’assoluta pauperizzazione del proletariato si smentì da sola, e per cui l’introduzione dello Stato sociale (uno Stato che si premura di mantenere la forza-lavoro sempre pronta all’impiego) divenne una questione non faziosa, ma “al di là della contrapposizione tra destra e sinistra”. Erano anche i motivi per cui lo Stato aveva bisogno di proteggere l’assetto capitalista dalle conseguenze suicide che la decisione di lasciare a briglia sciolta le morbose predilezioni dei capitalisti – la loro rapacità e la ricerca di rapidi guadagni – avrebbe inevitabilmente determinato. Nonché i motivi per cui lo Stato rispose a quell’esigenza tramite l’introduzione dei minimi salariali o limitando la durata delle giornate e delle settimane lavorative, promuovendo la tutela legale dei sindacati e di altri strumenti di garanzia dei lavoratori. Ed essi

spiegano anche perché il divario tra ricchi e poveri non continuò a crescere o addirittura, come si direbbe oggi, “volse al contrario”. Per sopravvivere, la disuguaglianza dovette inventare l’arte di autolimitarsi. Cosa che fece e nella quale perseverò, anche se a singhiozzo, per oltre un secolo. Tutto sommato, quei fattori contribuirono a un rovesciamento almeno parziale della tendenza in atto attenuando il grado di incertezza che affliggeva le classi subordinate, e quindi a un relativo livellamento delle forze e delle opportunità sui fronti opposti. Tali furono i fattori “macro-sociali” che determinarono la portata e le tendenze di sviluppo della moderna versione della disuguaglianza e le prospettive della guerra che le è stata dichiarata. Ad essi si aggiunsero anche i fattori micro-sociali già menzionati e attivi all’interno di ciascuno dei campi di battaglia nelle singole fabbriche dove veniva combattuta la guerra contro la disuguaglianza. A entrambi i livelli, tuttavia, l’incertezza rimaneva la principale arma della lotta per il potere, e la manipolazione dell’incertezza la sua strategia suprema. All’inizio degli anni Quaranta, in un libro opportunamente intitolato La rivoluzione manageriale, James Burnham suggerì che i manager, inizialmente assunti dai proprietari dei macchinari e istruiti ad addestrare, disciplinare e sorvegliare la forza-lavoro e ad esigere il massimo impegno da essa, avevano sottratto ai loro datori di lavoro il potere effettivo – mentre costoro si erano progressivamente ritrasformati in azionisti17. I manager erano stati assunti e retribuiti per svolgere lo spinoso e ingrato compito di vigilare quotidianamente su una forza-lavoro negligente ed essenzialmente maldisposta e risentita: un incarico noioso a cui i proprietari degli stabilimenti industriali e dei macchinari non avevano alcun desiderio di dedicarsi e che erano ben felici di delegare ad altri, pagandoli profumatamente purché li sollevassero da tale incombenza. Non sorprende che i proprietari spendessero le proprie ricchezze per pagare servizi che speravano li avrebbero sollevati da un compito tanto inviso e così poco gratificante. Intanto la funzione del manager – che consisteva nell’obbligare o indurre altri individui a sottoporsi docilmente a una routine monotona, che stordisce, e nel ripetere giorno dopo giorno dei gesti che avrebbero preferito non dover compiere (ricorrere alla coercizione per assicurarsi una condotta solerte da parte degli operai, e inculcare in loro le esigenze della produzione sino a farne un tratto caratteriale) – si affermò come il vero

potere, il potere che in definitiva contava. I manager presi a servizio si trasformarono in veri e propri capi, e il potere si concentrò nelle mani di coloro che gestivano i “rapporti di produzione”, ovvero ciò che facevano altri individui, anziché in quelle di chi possedeva i “mezzi di produzione”. Con una svolta che Karl Marx, nella sua visione dell’imminente scontro tra capitale e lavoro, non aveva previsto, i manager divennero così i veri detentori del potere. Nella sua interpretazione originale, così com’era stato tramandato all’epoca in cui il processo industriale era stato concepito come un congegno omeostatico che attraversa stati predeterminati, assolutamente ripetitivi, e mantiene una rotta costante e immutabile, il ruolo del manager era un compito davvero ingrato e seccante. Richiedeva una meticolosa irreggimentazione e una sorveglianza attenta e continua, in stile panottico. Obbligava a imporre una routine monotona, destinata ad atrofizzare gli impulsi creativi tanto in chi dirige quanto in chi viene diretto. Generava noia e un costante, profondo rancore che minacciava di sfociare da solo in aperto conflitto. Era anche un modo costoso di procedere: anziché assicurarsi le potenzialità non regolamentate degli operai pagati per svolgere un certo lavoro, impiegava risorse preziose per reprimerli e badare che non facessero guai. La posizione di manager non prevedeva, tutto sommato, il tipo di attività che persone dotate di risorse o al potere avrebbero potuto facilmente amare e apprezzare: era, al contrario, un ruolo che questi non avrebbero svolto un minuto in più del necessario, e che grazie alle loro disponibilità e al loro potere cercavano di delegare quanto prima ad altri. La “grande trasformazione fase 2” (per riprendere la memorabile definizione di Karl Polanyi), attualmente in atto, la comparsa della tanto celebrata e attesa “economia dell’esperienza”, che si basa sulla totalità delle risorse della personalità individuale, difetti compresi, segnala che è arrivato per i manager il momento di “emanciparsi dall’onere del proprio compito”. Per citare James Burnham, si potrebbe parlare di “rivoluzione manageriale fase 2”, benché, per come vanno le rivoluzioni, non abbia praticamente prodotto alcun avvicendamento ai vertici del potere. Si è trattato – si tratta – infatti più di un colpo di Stato che di una rivoluzione: un proclama diffuso dall’alto per annunciare che le dinamiche sono cambiate e che ormai vigono nuove regole. Coloro che avviarono e

portarono a termine la rivoluzione rimangono ai posti di comando, e semmai si sono ancorati alle proprie poltrone anche meglio di prima. Questa rivoluzione è stata inaugurata e combattuta proprio per ampliare i loro poteri, rafforzare ulteriormente la loro presa e salvaguardare il loro dominio contro il risentimento e la ribellione che un tempo, prima della rivoluzione, questo generava. A partire dalla seconda rivoluzione manageriale, il potere dei manager si è accresciuto fino a renderli praticamente invulnerabili, liberandosi al tempo stesso dalla maggior parte degli importuni lacci e lacciuoli che ne limitavano l’azione. Durante questa seconda rivoluzione, i manager hanno abbandonato la ricerca della routine e invitato le forze della spontaneità a occupare le stanze dei supervisori, rimaste ormai vuote. Si sono rifiutati di dirigere, esigendo invece che i dipendenti si autogestissero, sotto la minaccia di essere cacciati. La continuità del loro impiego dipendeva dal prosieguo della gara: coloro che di volta in volta conseguivano i migliori risultati si aggiudicavano un rinnovo del contratto, benché ciò non rappresentasse una garanzia, né aumentasse le probabilità di uscire indenni dalla prova successiva. Iscritto a grandi lettere sulla parete della sala banchetti dell’“economia dell’esperienza”, il motto “il valore di una persona si misura in base al suo ultimo (ma non al penultimo) successo” ha preso il posto dell’iscrizione “Mené, Tekel, Peres”: contati, pesati, distribuiti (Daniele, 5, 25). Prediligendo soggettività, giocosità e performatività, le organizzazioni dell’epoca dell’“economia dell’esperienza” hanno dovuto, desiderato e sono riuscite a scoraggiare la pianificazione a lungo termine e l’accumulo dei meriti. E questo al fine di obbligare i dipendenti a tenersi costantemente in moto e indaffarati – alla febbrile ricerca di conferme che dimostrino loro di essere ancora benvenuti. Nigel Thrift, acutissimo osservatore delle élites imprenditoriali dei nostri giorni, ha notato un rilevante cambiamento nel vocabolario e nel contesto cognitivo che contraddistinguono i nuovi capitani dell’industria, del commercio e della finanza, e in particolare quelli di maggior successo, le persone che “danno il tono” e stabiliscono modelli di condotta che i membri meno capaci e quelli che aspirano a diventare come loro possono emulare18. A differenza dei loro nonni, o anche dei loro padri, per comunicare le regole delle loro strategie e la logica delle loro azioni, i dirigenti di oggi non parlano più di “progettare” (una nozione che implica

una separazione o una giustapposizione tra coloro che “progettano” e ciò che viene “progettato”), bensì di “culture”, “reti”, “squadre”, “coalizioni” e “influenze” – anziché di controllo, leadership o, al limite, management. A differenza di quei concetti ormai banditi o evitati, questi nuovi termini esprimono un senso di volatilità, fluidità, flessibilità, breve durata. Le persone che ricorrono a simili termini inseguono degli aggregati molto laschi (alleanze, cooperazioni, convivenze, squadre create per uno scopo preciso), suscettibili di essere montati, smontati e rimontati con breve preavviso o senza alcun preavviso, in base a ciò che le mutevoli circostanze richiedono. È il tipo di contesto fluido che meglio si adatta alla loro percezione di un mondo circostante “multiplo, complesso e in veloce movimento, quindi ‘ambiguo’, ‘confuso’ e ‘plastico’, incerto, paradossale, addirittura caotico”. Oggi le organizzazioni imprenditoriali (ammesso che ci si possa ancora permettere di usare tale espressione, sempre più un “termine-zombie”, come direbbe Ulrich Beck) tendono ad avere un considerevole elemento di disorganizzazione inserito deliberatamente al loro interno. Meno sono solide, più sono modificabili, e meglio è. I manager rifuggono la “scienza manageriale” che suggerisce norme di condotta permanenti e stabili. In un mondo liquido qual è il nostro, qualsiasi conoscenza e know-how sono destinati, come ogni altra cosa, a invecchiare rapidamente e a prosciugare ed esaurire altrettanto rapidamente i vantaggi che un tempo offrivano; nella ricerca di efficacia e di produttività osserviamo quindi il rifiuto di accettare le conoscenze costituite, l’indisponibilità ad attenersi a quanto un tempo accettato e un sospetto corrosivo nei confronti del valore delle tradizioni che il tempo ci ha tramandato. I manager preferirebbero poter “scorrere rapidamente la rete delle possibilità”, liberi di fermarsi per un attimo ogni qual volta l’opportunità sembri bussare alla loro porta, e liberi di ripartire una volta che quella opportunità si presenti altrove. Sono impazienti di giocare la partita dell’incertezza; ricercano il caos, anziché l’ordine. Agli spiriti mutevoli e avventurosi, così come agli individui forti e pieni di risorse, il caos promette maggiori opportunità e più gioia. Ciò che vogliono sapere dai loro consulenti, quindi, è come fare a riciclare e riutilizzare quelle risorse sino a oggi destinate al cestino dei rifiuti: ovvero, come sviluppare di nuovo competenze in precedenza trascurate e cancellate (come i loro impulsi emotivi, un tempo scartati perché “irrazionali”), e recuperare delle

risorse interiori una volta represse – risorse delle quali chi adesso è condannato a nuotare in acque agitate sente molto la mancanza. Il fenomeno dei manager che prendono le distanze dalla relazione amorosa che avevano con l’ordine, la consuetudine, l’ordine consuetudinario e la consuetudine ordinata, per innamorarsi invece del caos e dell’incertezza cronica, potrebbe essere spiegato come un prudente (o “razionale”) adeguamento alle condizioni della globalizzazione odierna, che spicca per la capacità di vanificare il potenziale difensivo dello spazio ignorando qualsiasi Linea Maginot e smantellando ogni Muro di Berlino, che un tempo si sperava avrebbero protetto le oasi dell’ordine contro l’invasione dell’incertezza. Oppure si potrebbe insistere, invece, che l’attuale rivoluzione della filosofia manageriale sia in sé la causa prima, anziché l’effetto, di tale globalizzazione. Anziché unirmi a questo dibattito poco promettente sull’uovo e la gallina, preferisco suggerire che il nuovo assetto globale e i nuovi modelli di comportamento sono tra loro strettamente collegati, tanto da diventare l’uno il necessario complemento dell’altro; e che, di conseguenza, le barriere istituzionali capaci di evitare che le forze che promuovono la disuguaglianza superino i limiti “naturali” della disuguaglianza, con tutte le disastrose (anzi: suicide) conseguenze che ciò comporterebbe, sono sospese – almeno per il momento. Benché non siano ancora state smantellate, le barriere erette in passato a quello scopo si sono dimostrate singolarmente inadeguate al nuovo compito. All’epoca in cui furono progettate, non erano destinate ad affrontare un’incertezza della portata di quella attuale, alimentata da fonti globali all’apparenza inesauribili che gli strumenti politici a disposizione non sono in grado di arginare più di quanto la tecnologia di quegli anni non sia riuscita a contenere la perdita di greggio che inquinò il Golfo del Messico e le zone limitrofe. In breve, la nuova filosofia manageriale è quella della deregulation generale: mira a smembrare l’azienda e gli stabili modelli procedurali che la moderna burocrazia cercò di imporre. Predilige i caleidoscopi alle carte geografiche, e un tempo puntinista a quello lineare. Privilegia l’intuito, l’impulso e l’estro del momento alla pianificazione a lungo termine e ai progetti dettagliati. Le pratiche che si ispirano a tale filosofia hanno l’effetto di trasformare l’incertezza (un tempo considerata transitoria, fastidiosa e destinata a essere eliminata dalla condizione umana più presto che tardi) in

un tratto onnipresente, problematico e irremovibile di quella condizione, diffusamente ricercato e accettato, anche se non alla luce del sole. Ne consegue che le opportunità di cui godono coloro che si trovano “vicini alle fonti dell’incertezza” rispetto agli altri bloccati all’estremità opposta si sono moltiplicate radicalmente. Sono invece gli sforzi di ridurre quello scarto, di mitigare la polarizzazione delle probabilità e la discriminazione che ne deriva a essere diventati marginali ed effimeri: sforzi divenuti ormai platealmente inefficaci, per non dire impotenti ad arrestare la rapidissima ascesa della fortuna e della miseria alle due opposte estremità dell’asse del potere nel nostro tempo. E mentre quegli sforzi risentono della cronica mancanza di potere di agire e sistemare le cose, le forze che spingono nella direzione opposta continuano ad ammassare e accumulare potere. I governi statali tentano invano delle soluzioni locali per porre rimedio a povertà e miserie costruite a livello globale, proprio come gli “individui per volere del destino” (si legga: per l’impatto della deregulation) cercano invano soluzioni individuali a problemi costruiti a livello sociale. “La disuguaglianza tra la popolazione mondiale è impressionante”, afferma Branko Milanović, economista capo nel settore ricerca della Banca Mondiale. “All’inizio del XXI secolo al più ricco 5 per cento della popolazione spettava un terzo del reddito globale complessivo: la stessa cifra che si destinava all’80 per cento più povero”. E mentre alcuni Paesi poveri riescono a raggiungere il mondo ricco, a livello planetario le differenze tra gli individui più poveri e quelli più ricchi rimangono smisurate e sono probabilmente destinate ad accrescersi. Secondo la relazione sulla disuguaglianza nel mondo stilata nel 2005 dalle Nazioni Unite, “i 2,8 miliardi di individui che vivono con meno di due dollari al giorno non saranno mai in grado di eguagliare i livelli di consumo dei ricchi”. Vi si legge inoltre che negli ultimi dieci anni, malgrado alcune regioni abbiano conosciuto una considerevole crescita economica, la disuguaglianza planetaria è aumentata e “le principali beneficiarie dello sviluppo economico sono le nazioni ricche”. In condizioni di deregulation planetaria dei movimenti di capitale, la crescita economica non si traduce in crescita dell’uguaglianza. È semmai vero il contrario, cioè che la crescita economica è un fattore determinante nell’accrescimento della ricchezza dei ricchi e nell’ulteriore impoverimento dei poveri. Nel 2008 Glenn Firebaugh fece notare che “è in atto l’inversione di

una tendenza da tempo nota: stiamo passando da una crescente disuguaglianza tra nazioni accompagnata a livelli di disuguaglianza stabili o in calo all’interno delle nazioni, a una diminuzione della disuguaglianza tra le nazioni e un aumento della disuguaglianza al loro interno. È questo il messaggio contenuto nel mio libro del 2003 The New Geography of Global Income Inequality”19, che da allora ha trovato nuove conferme. Le scoperte di Firebaugh si accordano con l’impostazione qui appena abbozzata per cogliere e spiegare le tendenze e le prospettive attuali della disuguaglianza sociale. Non resta che ripetere, insieme a Crozier, che “prevale chi è vicino alla fonte dell’incertezza”, e naturalmente trae significativi guadagni dal proprio, indiscusso dominio. Il capitale, che fluisce liberamente nello “spazio dei flussi” globale (per ricorrere alla celebre e azzeccata definizione di Manuel Castells), “liberato dalla politica”, è ansioso di cercare aree del globo dove gli standard di vita siano bassi e suscettibili di essere trattate come “terre vergini” – trattamento che prevede lo sfruttamento a fini di lucro del differenziale (temporaneo e autodistruttivo) tra regioni del pianeta in cui le paghe sono basse e non esistono istituti di autodifesa e tutela statale dei poveri e altre regioni che sono sfruttate da sempre e risentono della “legge dei ritorni decrescenti”. L’immediata conseguenza di quel “libero fluttuare” del capitale, ormai emancipato dal controllo della politica, sarà molto probabilmente la riduzione di quel differenziale, che ha messo in moto l’attuale tendenza verso un “livellamento” degli standard di vita tra Paesi diversi. I Paesi che hanno immesso capitali nello “spazio dei flussi” si trovano a loro volta in una situazione che li rende oggetto di incertezze generate dalla finanza globale, e in cui la loro capacità di reagire è minata dalla nuova mancanza di potere – che in assenza di una regolamentazione globale li obbliga a ripercorrere un po’ per volta a ritroso la strada che aveva portato a quella tutela che un tempo (prima del divorzio tra potere e politica e della privatizzazione dell’incertezza) promettevano (e il più delle volte garantivano) ai propri poveri. Ciò potrebbe spiegare l’inversione di rotta evidenziata da Firebaugh. Svincolati da un sistema interno di controlli ed equilibri e catapultati nella terra di nessuno di quella zona globale senza politica, i capitali accumulati nelle regioni “sviluppate” del mondo sono liberi di ricreare in luoghi remoti le condizioni che vigevano nei loro Paesi di origine ai tempi dell’“accumulo primitivo”; a condizione, però, che questa volta i capi

siano dei “proprietari assenteisti”, lontani migliaia di miglia dalla forzalavoro che assumono. I capi hanno troncato unilateralmente la reciprocità della dipendenza e al tempo stesso moltiplicato a volontà il numero di coloro che sono esposti alle conseguenze delle loro nuove libertà loro, e ancor di più il numero di coloro che muoiono dalla voglia di esserlo. Tutto questo non può non riflettersi a propria volta sulle condizioni della forza-lavoro urbana che la secessione del capitale si è lasciata alle spalle. Quella forza-lavoro adesso è vincolata non solo dalla nuova incertezza sorta in seguito alla crescente gamma di opzioni a disposizione dei suoi capi, ma anche dai costi incredibilmente bassi del lavoro in quei Paesi dove il capitale, libero di muoversi, decide di stabilirsi temporaneamente. Di conseguenza, come osserva Firebaugh, la distanza tra Paesi “sviluppati” e “poveri” tende a contrarsi, mentre nei Paesi che non molto tempo fa sembravano aver superato una volta per tutte le stridenti disuguaglianze sociali l’inarrestabile crescita della distanza tra “chi ha” e “chi non ha”, a cui già si assistette nell’Europa del primo Ottocento, sta riemergendo più forte che mai. 16

Michel Crozier, Il fenomeno burocratico, Etas, Milano 1989 (ed. or. 1963). James Burnham, La rivoluzione manageriale, Bollati Boringhieri, Torino 1992 (ed. or. 1941). 18 Nigel Thrift, The rise of capitalism, in «Cultural Values», aprile 1997, p. 52. 19 Glenn Firebaugh, The New Geography of Global Income Inequality, Harvard University Press, Cambridge (MA) 2003. 17

4. Gli sconosciuti sono pericolosi... Ne siamo proprio sicuri?

L’incertezza e la vulnerabilità umane sono alla base di ogni potere politico: è contro queste due compagne della condizione umana, mal tollerate e tuttavia assidue, e contro la paura e l’ansia che esse tendono a generare, che lo Stato moderno ha promesso di proteggere i propri cittadini; ed è soprattutto a quella promessa che deve la sua raison d’être – oltre che l’obbedienza e al sostegno elettorale dei cittadini. In una società moderna “normale” la vulnerabilità e l’insicurezza dell’esistenza e la necessità di vivere e agire in condizioni di acuta e irrimediabile incertezza sono garantite dall’esposizione delle imprese umane alle forze di mercato, tristemente note per essere capricciose ed endemicamente imprevedibili. Per contribuire alla produzione dell’incertezza e allo stato d’insicurezza esistenziale che da questa deriva, il potere politico non deve quindi fare altro che stabilire e tutelare le condizioni legali per la libertà di mercato, dal momento che le bizzarrie del mercato bastano a erodere le fondamenta della sicurezza esistenziale e a far aleggiare sulla maggior parte dei membri della società lo spettro del degrado, dell’umiliazione e dell’esclusione sociale. Nell’esigere da essi l’obbedienza e l’osservanza delle leggi, lo Stato potrebbe quindi basare la propria legittimità sulla promessa di mitigare la vulnerabilità e la fragilità della condizione dei propri cittadini: limitare le ingiurie e i danni perpetrati dal libero gioco delle forze di mercato, proteggere i deboli dalle batoste peggiori e mettere quelli incerti al riparo dai rischi che la libera concorrenza necessariamente comporta. Tale legittimazione ha trovato la massima espressione nell’autodefinizione della moderna forma di governance come «État providence»: una comunità che si fa carico, per la propria gestione e amministrazione, degli obblighi e delle garanzie un tempo attribuiti alla divina provvidenza: proteggere i fedeli dalle inclementi

vicissitudini del fato, soccorrerli in caso di disgrazie personali e sofferenze. Oggi quella formula di potere politico – la sua missione, il suo compito e la sua funzione – stanno sparendo nel passato. Le istituzioni dello “Stato provvidenziale” sono state progressivamente ridotte, smantellate o cancellate, e i limiti un tempo imposti alle attività d’impresa, alla libera concorrenza di mercato e alle sue conseguenze sono stati rimossi. Le funzioni protettive dello Stato sono sempre più ridotte e “mirate”, al punto da soddisfare ormai solo una piccola minoranza di persone invalide o inabili al lavoro, anche se quest’ultima tende a trasformarsi un po’ per volta da oggetto di cura sociale in problema di ordine pubblico; l’incapacità di lasciarsi coinvolgere dal gioco del mercato e dalle sue regole statutarie esibita da coloro che puntano sulle proprie risorse e agiscono a proprio rischio tende sempre più spesso a essere criminalizzata, sospettata di intenzioni scellerate o quanto meno considerata potenzialmente illecita. Lo Stato si lava le mani della vulnerabilità e dell’incertezza che scaturiscono dalla logica (o, più precisamente, dall’assenza di logica) del libero mercato. La funesta fragilità dello status sociale è oggi ridefinita come questione privata, una faccenda di cui occuparsi e da fronteggiare ciascuno per sé, facendo leva sulle risorse personali. Come afferma Ulrich Beck, gli individui oggi devono trovare soluzioni biografiche a contraddizioni sistemiche20. Queste nuove tendenze generano un effetto collaterale: minano le fondamenta sulle quali per la maggior parte dell’era moderna il potere dello Stato, che rivendica un ruolo cruciale nella lotta e nell’eliminazione della vulnerabilità e dell’incertezza che tormentano i suoi cittadini, ha fatto sempre più affidamento. L’aumento dell’apatia politica osservato da più parti, la mancanza di interesse, di impegno politico (“la salvezza non viene più dalla società”, secondo la celebre e succinta affermazione di Peter Drucker) e il massiccio rifiuto da parte dei cittadini di prendere parte alla politica istituzionale testimoniano lo sgretolamento delle basi del potere statale. Dopo aver rescisso la sua interferenza programmatica con l’incertezza e l’insicurezza esistenziali causate dal mercato, e avendo proclamato che il compito principale di ogni potere politico che abbia a cuore il benessere dei propri sudditi sta nella progressiva eliminazione dei vincoli imposti alle attività volte al profitto, lo Stato contemporaneo deve cercare altre varietà,

non legate all’economia, di vulnerabilità e incertezza su cui basare la propria legittimità. La scelta sembra essere caduta (come dimostra innanzitutto e in maniera più evidente la recente amministrazione statunitense, ma non solo) sull’ambito della incolumità personale: sulle paure reali o presagite, manifeste od occulte, effettive o apparenti delle minacce ai corpi, ai beni e agli habitat degli uomini, che possono derivare da pandemie, da regimi alimentari o stili di vita poco sani, dalla condotta antisociale delle “sottoclassi” o, più recentemente, dal terrorismo globale. A differenza dell’insicurezza esistenziale determinata dal mercato, semmai fin troppo autentica, diffusa, manifesta e palese per poterne trarre conforto, questa insicurezza alternativa con cui lo Stato spera di ripristinare il proprio antico monopolio sulle possibilità di redenzione esige di essere rimpolpata artificialmente, o quanto meno assai esasperata, così da incutere un volume sufficiente di paure e al tempo stesso superare, mettere in ombra e far passare in secondo piano l’insicurezza di origine economica, di fronte alla quale l’amministrazione statale non può fare praticamente nulla, non essendoci nulla che abbia granché voglia di fare. A differenza di quanto accade quando i fattori inerenti al mercato mettono a rischio la sussistenza e il benessere degli individui, se ad essere minacciata è l’incolumità personale, la gravità e la portata del rischio devono essere presentate a tinte estremamente fosche, così che il mancato avverarsi delle minacce annunciate e delle disgrazie e sofferenze previste possa essere salutato come una grande vittoria della ragione di governo sul fato ostile: un risultato dell’encomiabile azione di vigilanza, cura e buona volontà da parte degli organi statali. Nel 2002 il duello presidenziale tra Chirac e Jospin degenerò sin dalle fasi preliminari in un’asta pubblica in cui i due rivali si contendevano il sostegno dell’elettorato francese a colpi di proposte vieppiù intransigenti contro criminali e immigrati, ma soprattutto contro gli immigrati che commettono reati e i reati commessi dagli immigrati21. Per prima cosa, però, entrambi i candidati fecero del proprio meglio per convogliare l’ansia che scaturiva dal senso corrente di précarité (la frustrante insicurezza della propria posizione sociale, abbinata all’acuta incertezza circa le prospettive future dei propri mezzi di sostentamento) verso una paura per l’incolumità individuale (in cui a rischio sono l’integrità fisica, i beni personali, la casa, i rapporti coi vicini). A mettere in moto la macchina infernale fu Chirac,

che il 14 luglio del 2001, alla luce di un aumento di quasi il 10 per cento degli episodi di delinquenza verificatisi nei primi sei mesi di quell’anno (un dato che fu reso noto in quella stessa circostanza), annunciò la necessità di combattere “quella progressiva minaccia alla sicurezza, quella marea crescente” affermando che se fosse stato rieletto avrebbe tradotto in legge la “tolleranza zero”. Jospin si adeguò rapidamente ai toni della campagna elettorale, presentando alcune personali variazioni su quello stesso tema (benché, con grande sorpresa dei due principali contendenti ma certo non degli osservatori avvezzi alla sociologia, a imporsi su tutte fu la voce del leader di estrema destra Le Pen, che risultò la più pura, e quindi la più udibile). Il 28 agosto Jospin annunciò che avrebbe perseguito “senza lassismo” la “lotta all’insicurezza”, mentre il 6 settembre Daniel Vaillant e Marylise Lebranchu, rispettivamente suoi ministri dell’Interno e della Giustizia, giurarono che avrebbero risposto a qualsiasi forma di delinquenza senza dimostrare alcuna tolleranza. La reazione di Vaillant agli attacchi dell’11 settembre contro gli Stati Uniti fu immediata, e consistette nell’affidare maggiori poteri alle forze dell’ordine, nell’intento di colpire soprattutto le frange giovanili delle banlieues, i quartieri di case popolari alla periferia di Parigi, nelle quali – stando alla vulgata ufficiale (la versione che più conviene alle autorità) – fermentava quella diabolica miscela di incertezza e insicurezza che avvelenava la vita dei francesi: le etnie straniere. Dal canto suo, Jospin prese a condannare e dileggiare in modo ancor più caustico la “scuola angelica” di quell’approccio estremamente cauto che egli giurava di non aver (e che non avrebbe) mai sposato. Con il passare del tempo le “offerte” di quella singolare asta si fecero sempre più azzardate. Chirac promise di istituire un ministero per la Sicurezza nazionale, proposta a cui Jospin replicò impegnandosi ad affidare a un apposito ministero “la sicurezza pubblica” e “il coordinamento delle operazioni di polizia”. Quando Chirac avanzò l’idea di creare dei centri di detenzione nei quali confinare i giovani delinquenti, Jospin rilanciò proponendo delle “strutture carcerarie” analoghe, ma superò il rivale con la prospettiva di processare gli imputati “seduta stante”. Non occorre ricordare che da allora poco, o forse nulla, è cambiato. Nicolas Sarkozy, il successore di Chirac, deve il suo convincente successo elettorale all’aver fatto leva sulle paure della gente comune e al desiderio di un potere forte, in grado di arrestare e sconfiggere nuove paure destinate

ad affliggere il futuro. Sono gli stessi strumenti di cui Sarkozy continua a servirsi per tenere lontani dalle prime pagine dei giornali i dati sulla disoccupazione (in inesorabile crescita) e del calo (altrettanto inesorabile) del reddito della maggioranza dei francesi. A tale scopo, egli ricorre al collaudato espediente di ricondurre il tema della sicurezza esistenziale a quello della violenza nelle strade, e quest’ultimo alla presenza di nuovi immigrati provenienti dalle zone più povere del pianeta. Appena trent’anni fa il Portogallo era (insieme alla Turchia) il principale esportatore di quei “lavoratori ospiti” che i cittadini tedeschi temevano avrebbero saccheggiato il loro gradevole paesaggio urbano e minacciato il tessuto sociale che era alla base della loro sicurezza e del loro agio. Oggi, grazie al deciso miglioramento della sua situazione, il Portogallo si è trasformato da esportatore a importatore di manodopera. Gli stenti e le umiliazioni portoghesi quando si guadagnavano il pane in terre straniere sono stati rapidamente dimenticati: a preoccupare il 27 per cento di loro, oggi, sono soprattutto i quartieri infestati da criminalità e da stranieri. Il politico emergente Paulo Portas ha contribuito all’insediamento al governo della coalizione di estrema destra puntando su un atteggiamento decisamente ostile all’immigrazione, proprio come accaduto in Danimarca con il Partito Popolare di Pia Kjærsgaard, in Italia con la Lega Nord di Umberto Bossi, in Norvegia con il Partito del Progresso, assolutamente contrario all’immigrazione, e praticamente con tutti i principali partiti dei Paesi Bassi: in altre parole, proprio in quei Paesi che sino a non molto tempo fa spedivano i propri figli in terre lontane in cerca dei mezzi di sussistenza che non erano in grado di fornire a loro. È facile che notizie del genere finiscano sulle prime pagine dei giornali (come il titolo xenofobo apparso sul «Guardian» del 13 giugno 2002, pensato per suscitare polemiche e scatenare il panico: “Allo studio nel Regno Unito nuove restrizioni all’asilo politico”; senza menzionare i titoli a tutta pagina sui tabloid...). Il maggior serbatoio di fobia antiimmigrazione su scala planetaria continua però a rimanere per lo più celato all’attenzione (anzi: alla consapevolezza) dell’Europa occidentale. “Prendersela con gli immigrati” – gli stranieri, i nuovi arrivati, e in particolare gli stranieri appena arrivati – per ogni aspetto del disagio sociale (e in primo luogo per la nauseante, frustrante sensazione di Unsicherheit, incertezza, précarité, insecurity) sta rapidamente diventando una

consuetudine globale. Come ha detto Heather Grabbe, direttrice della ricerca presso il Centre for European Reform, “i tedeschi se la prendono con i polacchi, i polacchi con gli ucraini, gli ucraini con i kirghisi e gli uzbeki”22, mentre Paesi troppo poveri per attrarre dai Paesi vicini un numero significativo di lavoratori alla disperata ricerca di mezzi di sussistenza, come Romania, Bulgaria, Ungheria o Slovacchia, rivolgono la propria rabbia contro i soliti sospetti e i colpevoli di riserva: gli zingari. I quali sono stanziali ma in continuo movimento, refrattari alla fissa dimora e quindi perpetui “nuovi arrivati” ed estranei, sempre e ovunque. Un permanente stato di allerta: l’annuncio di pericoli che si nascondono dietro a ogni angolo, che si infiltrano e si insinuano dai campi di addestramento per terroristi mascherati da scuole e congregazioni islamiche, dalle banlieues popolate di immigrati, dalle strade malfamate infestate dalla sottoclasse, i “quartieri difficili” inesorabilmente contaminati dalla violenza, le zone delle grandi città in cui è proibito addentrarsi; pedofili e altre varietà di maniaci sessuali a piede libero, mendicanti importuni, bande di ragazzi assetati di sangue, vagabondi e stalkers... i motivi per avere paura sono tanti, e il fatto che la limitata prospettiva dell’esperienza personale renda impossibile calcolarne il numero e l’intensità offre un’ulteriore causa di spavento, forse la più influente: nessuno sa quando e dove i rischi annunciati si materializzeranno. Le minacce dei nostri giorni, e in particolare le più terrificanti tra queste, sono di norma praticamente invisibili: remote, occulte e furtive; di rado è possibile osservarle direttamente, e ancor più di rado possono essere esaminate dai singoli individui. La maggior parte di noi non ne sarebbe mai venuto a conoscenza della loro esistenza se non fosse per il panico ispirato e alimentato dai mass media e dagli allarmanti vaticini pronunciati da “esperti” e prontamente sottoscritti, fatti propri e amplificati da membri dell’esecutivo e imprese commerciali – desiderosi di tradurre quanto prima tutta quella emotività in guadagno politico o economico. Poiché noi, “persone normali”, intente alle nostre piccole, personali faccende quotidiane, conosciamo solo indirettamente quei rischi terrificanti ma remoti, è possibile (anzi: sin troppo facile) manipolare i nostri atteggiamenti pubblici; minimizzare o sottacere i pericoli che non promettono alcun beneficio politico o economico e al tempo stesso ingigantire a dismisura, o addirittura inventarne di sana pianta, altri che

meglio si prestano ad essere vantaggiosamente sfruttati a fini politici o commerciali. Moazzam Begg, un musulmano britannico arrestato nel gennaio del 2002 e rilasciato tre anni più tardi dopo essere stato internato nelle prigioni di Bagram e Guantánamo senza un solo capo d’accusa, nel suo libro Enemy Combatant ha però notato giustamente che un’esistenza vissuta in uno stato di allarme praticamente continuo, tra minacce di guerra, apologie della tortura, incarcerazioni arbitrarie e un’atmosfera di diffuso terrore, ha come risultato complessivo quello di “rendere il mondo assai peggiore”. Peggiore o no, aggiungerei: “nemmeno un po’ più sicuro”; quasi certamente, rispetto a una dozzina o una ventina di anni fa, il mondo oggi appare considerevolmente meno sicuro. Si direbbe che l’effetto prevalente delle estese, straordinarie e costosissime misure di sicurezza adottate nell’ultimo decennio sia stato quello di intensificare la nostra sensazione di pericolo, di rischio e di insicurezza. E ben poco nella tendenza attuale sembra promettere un rapido ritorno alla tranquillità della sicurezza. Spargendo i semi della paura si producono raccolti abbondanti nei campi della politica e del commercio; e il fascino di quelle messi copiose induce chi è alla ricerca di guadagni politici e commerciali a fare spazio a terre sempre nuove da adibire a piantagioni della paura. In linea di principio, le preoccupazioni per la sicurezza e i moventi etici sono inconciliabili: le aspettative di sicurezza e l’intensità delle intenzioni etiche sono in contrasto tra loro. A porre sicurezza ed etica in diretta contrapposizione (una contrapposizione estremamente difficile da superare e sanare) è il contrasto esistente tra diversità e comunione: l’impulso a separare ed escludere che è caratteristico della prima contro la tendenza inclusiva e unificatrice, tipica della seconda. La sicurezza genera un interesse a individuare e classificare i rischi al fine di poterli eliminare, e perciò prende di mira fonti potenziali di pericolo come oggetti di sterminio “preventivo” unilaterale. Gli obiettivi di tale azione sono esclusi per ciò stesso dall’universo degli obblighi morali. Gli individui, i gruppi o le categorie di persone presi di mira vengono spogliati della propria soggettività umana e considerati alla stregua di oggetti nudi e crudi, irrimediabilmente destinati a subire l’azione. Diventano entità la cui unica rilevanza (il solo aspetto preso in esame quando se ne progetta la cura) agli occhi di chi applica le “misure di

sicurezza” per conto di coloro la cui sicurezza si presume o si afferma sia a rischio è rappresentata dalla minaccia che già costituiscono, potrebbero costituire, o potrebbero credibilmente essere accusati di costituire. La negazione della soggettività priva chi ne è oggetto del ruolo di potenziale interlocutore. Qualsiasi cosa possano dire, o avrebbero potuto dire se fosse stata data loro la parola, è dichiarato a priori irrilevante – sempre ammesso che qualcuno lo abbia sentito. La negazione dell’umanità in chi è fatto bersaglio dell’azione supera di gran lunga quella passività che Emmanuel Lévinas, il più grande filosofo etico francese, ascriveva all’Altro come oggetto di responsabilità etica (stando a Lévinas, l’Altro mi domina con la sua debolezza, e non con la sua forza; mi dà ordini trattenendosi dal darne; sono la mancanza di pretese e il silenzio dell’Altro a scatenare in me l’impulso etico). Per mutuare il vocabolario di Lévinas, potremmo dire che considerare gli altri alla stregua di “problemi di sicurezza” ci porta a cancellarne il “volto” – un termine metaforico che simboleggia tutti quegli aspetti dell’Altro che ci pongono in una condizione di responsabilità etica e ci spingono a una condotta etica. Interdire quel volto in quanto forza (non armata e non coercitiva) che evoca o risveglia l’impulso morale rappresenta il fulcro di ciò che chiamiamo “deumanizzazione”. Alla luce dell’“universo degli obblighi morali”, i tre anni di prigionia subiti da Moazzam Begg in assenza di reato e le torture a cui egli fu sottoposto per estorcergli un’ammissione di colpa che potesse (retroattivamente) giustificarli equivarrebbero a un oltraggio e un’atrocità. Privato di un “volto” di rilevanza etica perché considerato una minaccia alla sicurezza e quindi sfrattato dall’universo degli obblighi morali, Begg era invece un legittimo oggetto delle “misure di sicurezza”, dichiarate per definizione eticamente indifferenti o neutre (“adiafore”, stando al mio vocabolario). Lo sterminio degli ebrei, degli zingari o degli omosessuali fu per chi lo perpetrò un’opera di “pulizia” (gli addetti alle camere a gas immettevano all’interno di queste dei cristalli di Zyklon B, che in origine era impiegato come antiparassitario). I Tutsi erano sommariamente descritti dagli Hutu, i loro assassini, come “scarafaggi”. Una volta spogliata del proprio “volto”, la debolezza dell’Altro invita alla violenza, in maniera spontanea e priva di forzature, proprio come, quando al contrario il volto è visibile, quella stessa debolezza rivela un’infinita distesa sulla quale può manifestarsi la capacità etica di soccorrere

e prendersi cura. Come ha scritto Jonathan Littell, “i deboli minacciano i forti e li spingono alla violenza e all’omicidio che li colpiscono senza pietà”23. Occorre sottolineare la spietatezza che caratterizza l’attività di travolgerli – dal momento che la pietà è una delle sensazioni principali e salienti che definiscono la posizione morale. Jonathan Littell tenta di ricostruire la traiettoria ingannevolmente invitante e agevole che un tempo condusse masse di uomini e donne ignari – confusi, ingenui e sprovveduti, frastornati dagli sconvolgimenti di una grande guerra e dal crollo economico che ne seguì, e quindi eccezionalmente facili da manipolare e fuorviare – verso i “limiti logici” dell’ossessione umana per la sicurezza. Begg, dal canto suo, racconta il destino di quei pochi prescelti che accidentalmente e inavvertitamente caddero vittima o divennero “vittime collaterali” di “misure di sicurezza” estreme (persone alle quali, come spiegarono in un secondo tempo i loro aguzzini, “era capitato di trovarsi nel posto sbagliato al momento sbagliato”). Il punto, tuttavia, è che il danno causato dalle smanie per la sicurezza si diffonde addirittura di più e più profondamente di quanto i casi più atroci e immorali, e quindi più reclamizzati, deplorati e condannati, estremi e/o “eccezionali”, farebbero supporre. Le ossessioni che nascono dalla sicurezza sono inesauribili e insaziabili; una volta affermatesi e lasciate libere, non c’è modo di fermarle; sono dotate di moto proprio e della capacità di auto-esacerbarsi. Una volta presa velocità, non hanno bisogno di altre spinte da parte di fattori esterni: riescono a produrre da sole, a dimensione sempre crescente, tutte le proprie ragioni, spiegazioni e giustificazioni. La febbre scatenata e acuita dall’introduzione, il radicamento, l’assecondamento e l’inasprimento delle “misure di sicurezza” costituisce l’unica spinta di cui paure, ansie e tensioni legate a insicurezza e incertezza hanno bisogno per riprodursi, crescere e proliferare. Per quanto radicali, gli stratagemmi e gli strumenti progettati, realizzati e implementati in nome della sicurezza difficilmente potranno dimostrarsi abbastanza radicali da placare le paure – e in ogni caso non a lungo. Ciascuno di loro può essere raggirato, rimpiazzato e vanificato dagli infidi cospiratori che imparano a evitarli o ignorarli, schivando così qualsiasi successivo ostacolo si presenti sul loro cammino. Ogni città ha la propria storia, ma tutte hanno un tratto che le accomuna: quello di essere luoghi in cui degli estranei risiedono e si

muovono a stretto contatto fra loro. La costante presenza di estranei, visibili e raggiungibili in ogni momento, infonde una dose di perpetua incertezza in ogni aspetto della vita di tutti i cittadini; quella presenza è una prolifica e incessante fonte di ansia e di un’aggressività che solitamente rimane allo stato dormiente, salvo poi erompere di quando in quando. Gli estranei forniscono anche una concreta e pratica valvola di sfogo alla nostra innata paura dell’ignoto e di tutto quanto è incerto e imprevedibile. Cacciando gli estranei dalle nostre case e dalle nostre strade lo spettro terrificante dell’insicurezza viene esorcizzato, anche se soltanto per un attimo fugace: si brucia l’immagine di quel mostro orribile. Malgrado simili esorcismi, però, la nostra vita liquido-moderna rimane ostinatamente discontinua, volubile e assolutamente insicura; qualunque sollievo tende a essere di breve durata, e persino le speranze riposte nelle misure più drastiche si infrangono appena formulate. L’estraneo è, per definizione, un individuo mosso da intenzioni che nel migliore dei casi possiamo solo ipotizzare, ma delle quali non possiamo mai essere sicuri. In tutte le equazioni formulate per decidere cosa fare e come comportarsi, l’estraneo rappresenta una variabile ignota. Un estraneo è, dopotutto, “strano”; un essere singolare e sconcertante, le cui intenzioni e reazioni potrebbero essere del tutto dissimili da quelle della gente normale (comune, familiare). Per questo, anche quando gli estranei non si dimostrano aggressivi, o vengono deliberatamente ed esplicitamente disprezzati, ci creano un disagio “inconscio”: la loro presenza basta, da sola, a rendere ancora più ardui gli avvilenti tentativi di predire gli effetti delle nostre azioni e le loro probabilità di riuscita. Tuttavia, quella di condividere i propri spazi con degli estranei e vivere vicino a loro è una condizione (di norma non incoraggiata né gradita) a cui gli abitanti delle città trovano difficile, e probabilmente impossibile, sottrarsi. Poiché l’ostinata vicinanza degli estranei rappresenta un aspetto non negoziabile del destino di chi abita in città, occorre progettare, sperimentare e collaudare un modus vivendi che possa rendere tale convivenza accettabile e l’esistenza vivibile. Il modo in cui decidiamo di soddisfare una simile esigenza dipende da una scelta. E di scelte se ne fanno ogni giorno, tramite azioni od omissioni, deliberatamente o in maniera implicita. Si fanno in base a una decisione consapevole, o semplicemente attenendosi in maniera cieca e stereotipata ai consueti modelli di comportamento; a seguito di

lunghe riflessioni e discussioni o semplicemente affidandosi a modelli attendibili perché conformi alla moda del momento e ampiamente seguiti. Tra le possibili scelte vi è anche quella di rinunciare del tutto a cercare un modus co-vivendi. A proposito di San Paolo, la città brasiliana più grande, vitale e in rapida espansione, Teresa Caldeira scrive: “San Paolo oggi è una città di mura. Ovunque sono sorte barriere fisiche – attorno alle case, ai complessi residenziali, ai parchi, alle piazze, agli uffici e alle scuole [...]. Una nuova estetica della sicurezza caratterizza tutti i generi di costruzione, e impone una nuova logica di controllo e distanza [...]”24. Chiunque possa permetterselo si stabilisce in un complesso residenziale – una sorta di eremo: situato di fatto all’interno della città, ma socialmente e spiritualmente al di fuori di essa. “Le comunità isolate dovrebbero essere dei mondi separati. Le loro pubblicità propongono uno ‘stile di vita’ completo, che rappresenterebbe un’alternativa alla qualità della vita in città, con i suoi spazi urbani degradati”. Una caratteristica molto importante di tali complessi residenziali è rappresentata dal loro “isolamento e distanza dalla città [...]. Isolamento equivale a separazione da coloro che sono considerati socialmente inferiori” e, come ribadiscono i costruttori e gli agenti immobiliari, “il fattore-chiave che garantisce tutto ciò è la sicurezza. Ovvero recinzioni e mura che circondano il complesso, guardie che vigilano sugli ingressi ventiquattr’ore al giorno e una quantità di strumenti e servizi per tenere fuori gli altri”. Tutti sappiamo che le recinzioni creano due fronti: dividono uno spazio che altrimenti sarebbe continuo, differenziando tra “dentro” e “fuori”, dove ciò che per chi si trova su uno dei due fronti è “dentro” è invece considerato “fuori” da coloro che vivono sul fronte opposto. Chi abita in questi complessi residenziali si sottrae alla vita caotica e disagevole della città per trincerarsi in un’oasi di calma e incolumità. Così facendo, però, impedisce a tutti gli altri di accedere a luoghi dignitosi, gradevoli e sicuri, relegandoli nelle loro strade, chiaramente squallide e miserevoli. La recinzione separa il “ghetto volontario” dei ricchi e dei potenti dai ghetti nei quali sono costretti a vivere i poveri e gli sventurati. Per chi abita nel ghetto volontario, i ghetti forzati sono zone in cui “non si desidera entrare”. Chi vi è confinato li considera invece spazi “da cui non si può uscire”.

Di questi tempi le città, costruite in origine per garantire l’incolumità a tutti i loro abitanti, sono paradossalmente più spesso associate al pericolo che alla sicurezza. “Il fattore paura è certamente cresciuto”, afferma Nan Ellin, “come suggeriscono l’aumento del numero di automobili e di abitazioni chiuse a chiave, il diffondersi dei sistemi di sicurezza, la popolarità dei comprensori ‘recintati’ e ‘sicuri’ destinati a persone di ogni età e livello di reddito, e la crescente sorveglianza degli spazi pubblici; per non parlare degli infiniti resoconti di pericoli diffusi dai mass media”25. Che siano autentiche o immaginarie, le minacce all’incolumità fisica o alla proprietà degli individui si stanno rapidamente affermando come un fattore importante, forse il principale, da considerare quando si valutano i vantaggi o gli svantaggi del vivere in un dato luogo, e hanno quindi un peso importante nelle strategie di marketing immobiliare. Anche quando affondano le proprie radici e traggono la propria forza in/da luoghi remoti, l’incertezza riguardo al futuro, la precarietà della propria posizione sociale e l’insicurezza esistenziale – corredi onnipresenti dell’esistenza nel mondo liquido-moderno – generano ansie e passioni che tendono a focalizzarsi sugli obiettivi più prossimi e a sfociare in preoccupazioni riguardanti l’incolumità personale: il tipo di preoccupazioni che a loro volta si condensano in impulsi segregazionisti ed esclusionisti, e conducono inesorabilmente a guerre per la contesa dello spazio urbano. Nelle città statunitensi, come apprendiamo dai perspicaci scritti di Steven Flusty, esperto americano di architettura e urbanistica, lo sviluppo urbano e l’innovazione tecnologica poggiano precisamente sulla volontà di far fronte a queste “guerre”, e in particolare sulla ricerca di nuove modalità con cui impedire che gli avversari riescano ad accedere agli spazi che riteniamo ci spettino26. Le novità reclamizzate con maggior orgoglio sono gli “spazi scostanti”: “progettati per intercettare, respingere o selezionare gli aspiranti utenti”. Scopo esplicito degli “spazi scostanti” è quello di dividere, segregare ed escludere – e non di costruire ponti o creare passaggi agevoli e accoglienti luoghi di incontro; non di facilitare le comunicazioni, bensì di interromperle. In definitiva, di separare le persone anziché avvicinarle. Le innovazioni urbanistiche e architettoniche elencate da Flusty non sono che equivalenti tecnologicamente avanzati dei fossati dei castelli, delle torri d’avvistamento e delle feritoie nelle mura cittadine: tutti accorgimenti risalenti all’epoca premoderna. Anziché difendere la città e

tutti i suoi abitanti dal nemico che ne è fuori, simili accortezze sono pensate per isolare i residenti della città. Flusty cita, tra gli altri, anche lo “spazio scivoloso” – irraggiungibile perché la via che vi conduce è contorta, lunga o addirittura assente; lo “spazio ostico” – “che scoraggia l’insediamento tramite alcuni espedienti, quali l’attivazione di impianti di irrigazione a muro con cui tenere lontani i vagabondi, o la presenza di superfici inclinate sulle quali è difficile sedersi”; lo “spazio assillante” – “all’interno del quale è impossibile sottrarsi alla costante sorveglianza di ronde e/o impianti di sicurezza collegati a centrali operative”. Scopo comune di tutti questi spazi, e di altri ancora, è di ritagliare delle enclave extraterritoriali ed erigere piccole fortezze all’interno delle quali i membri dell’élite globale sovraterritoriale possano affinare, coltivare e assaporare la propria indipendenza e il proprio isolamento spirituale dall’ambiente circostante. Gli sviluppi descritti da Steven Flusty rappresentano manifestazioni tecnologicamente avanzate dell’onnipresente mixofobia: una diffusa reazione all’incredibile, impressionante, debilitante varietà di tipologie di individui e stili di vita che popolano le strade delle città contemporanee e i loro luoghi “normali” (non protetti da “spazi scostanti”). Dare libero sfogo agli impulsi segregazionisti potrebbe alleviare la crescente tensione; le differenze – sconcertanti e ambigue – possono essere forse insanabili e irrisolvibili, ma assegnando a ciascuna forma di vita un proprio spazio separato, isolato, ben delimitato e, soprattutto, sorvegliato si potrebbe renderle inoffensive. Forse è possibile ritagliare (per se stessi, per i propri amici, parenti e altre persone “come noi”) una zona lontana dalla confusione e dal disordine che immancabilmente avvelenano altre zone della città. La mixofobia, che si manifesta con la tendenza a costituire delle isole di affinità e uniformità nel mare della varietà e delle differenze, nasce da ragioni banali e facili da comprendere – anche se non necessariamente facili da perdonare. Come suggerisce Richard Sennett, il “sentimento del noi”, che esprime il desiderio di sentirsi uguali, fornisce alle persone una scusa per evitare di guardare in profondità nell’altro e promette una sorta di sollievo spirituale: la possibilità di facilitare la convivenza rendendo vano ogni tentativo di capire, negoziare e accettare compromessi. “Il desiderio di evitare la partecipazione è innato al processo di formare un’immagine

coerente della comunità. Il sentimento comune unisce senza che si verifichi l’esperienza comune, in primo luogo perché gli individui sono intimoriti dalla partecipazione, impauriti dai pericoli e dalle sfide, spaventati dalla sofferenza”27. La propensione verso una “comunità di somiglianza” è sintomo di allontanamento non solo dall’estraneità che ci circonda, ma anche dall’impegno verso un’interazione interiore vivace e tuttavia burrascosa, coinvolgente ma indubbiamente impegnativa. Optando per la fuga, sull’onda della mixofobia, si incorre in una conseguenza insidiosa e deleteria: più la strategia è auto-inflitta e autorafforzata e meno risulta efficace. Più tempo le persone trascorrono in compagnia di altre “simili a loro”, “socializzando” svogliatamente e meccanicamente senza quasi mai rischiare di essere fraintese o (evenienza addirittura più sgradita e deprimente) di dover tradurre tra diversi universi del significato, e maggiore è il rischio che “dis-imparino” l’arte del negoziare significati condivisi e modalità di convivenza reciprocamente gratificanti. Avendo dimenticato (o tralasciato di acquisire) le competenze necessarie a convivere con la differenza, gli individui provano un crescente senso di apprensione di fronte alla prospettiva di incontrarsi “faccia-afaccia” con estranei. Gli estranei tendono ad apparire tanto più minacciosi quanto più risultano “strani” – alieni, diversi, incomprensibili – e quanto più la comunicazione reciproca che potrebbe facilitare e assimilare la loro “alterità” rispetto al nostro mondo perde sostanza, si affievolisce o non decolla. La mixofobia spinge a ricercare un ambiente omogeneo e territorialmente isolato, e trova nella separazione territoriale una fonte di sostentamento e perpetuazione. Tuttavia, la mixofobia non è l’unico guerrigliero intento a combattere nel tormentato panorama urbano. Le città com’è noto offrono ai loro residenti un’esperienza ambivalente, nella quale un medesimo aspetto può attrarre o respingere, a intermittenza o simultaneamente. La caotica varietà dell’ambiente urbano è fonte di paura, ma al tempo stesso lo splendore e sfolgorio delle città, sempre nuove e sorprendenti, esercitano un fascino e un potere seduttivo a cui è difficile resistere. Sperimentare lo spettacolo infinito e costantemente ammaliante della città non è quindi un’esperienza paragonabile univocamente a una condanna; né il sottrarvisi è da considerare necessariamente una fortuna. La città favorisce tanto la mixofilia quanto la mixofobia. La vita cittadina offre

un’esperienza intrinsecamente e irreparabilmente ambivalente; più una città è grande ed eterogenea e maggiori sono le occasioni che è in grado di offrire e facilitare. E se da un lato la massiccia concentrazione di estranei respinge, dall’altro esercita il richiamo di un potentissimo magnete, che attrae continuamente verso le città moltitudini sempre nuove di uomini e donne stanchi della monotonia della vita di campagna o di provincia e sconfortati dalla ripetitività della routine e dalla mancanza di possibilità che queste offrono. La varietà promette invece opportunità numerose e diversificate, capaci di soddisfare ogni gusto e inclinazione. Sembra che la mixofilia, al pari della mixofobia, si auto-alimenti, auto-propaghi e autorafforzi, senza mai esaurirsi o perdere parte del proprio vigore. Mixofobia e mixofilia coesistono in ogni città e in ciascuno dei suoi residenti. La loro convivenza, non certo facile, tutta fervore e scintille, esercita un impatto significativo su coloro che si trovano a dover fare le spese dell’ambivalenza liquido-moderna. Negli Stati Uniti si è diffusa da tempo la tendenza, approdata in seguito anche in Europa e osservabile oggi nella maggior parte dei Paesi europei, che spinge i cittadini più agiati a sottrarsi all’imprevedibile caos della strada – dove può accadere di tutto – per stabilirsi all’interno di “comunità circoscritte”: comprensori residenziali il cui accesso è rigorosamente sorvegliato; aree recintate, circondate da guardie armate e dotate di telecamere a circuito chiuso e sistemi di allarme. Chi ha la fortuna di abitare in un luogo del genere sborsa cifre esorbitanti per fruire del “servizio di sicurezza”, che permette di scongiurare qualsiasi possibilità di doversi “mischiare”. Si tratta di agglomerati di gusci privati, sospesi in un vuoto sociale. All’interno di queste comunità le strade sono per lo più deserte, al punto che un qualsiasi estraneo – uno sconosciuto – vi verrebbe immediatamente identificato prima ancora di avere il tempo di compiere scherzi o danni. In realtà, chiunque si trovi a passare di fronte alle nostre finestre o al nostro portone potrebbe essere considerato un estraneo: appartenente cioè a quella temibile categoria di individui di cui è impossibile discernere con certezza le intenzioni e prevedere le mosse. Chiunque, a nostra insaputa, potrebbe essere un malintenzionato o uno stalker: un infiltrato, animato da intenzioni malvagie. Dopotutto viviamo in un’epoca di telefoni cellulari (per non parlare di MySpace, Facebook o

Twitter), in cui gli amici hanno la possibilità di scambiarsi messaggi anziché visite, e tutti i nostri conoscenti sono costantemente “connessi” e in grado di annunciare con debito anticipo l’intenzione di farci visita. Per questo l’inaspettato scampanellio della porta o lo squillo del citofono rappresentano eventi straordinari e annunciano un potenziale pericolo. All’interno dei comprensori residenziali le strade rimangono volutamente deserte, così che gli sconosciuti, o chiunque si comporti come tale, risaltino e appaiano facilmente identificabili, scoraggiando in definitiva la loro presenza. Viste le circostanze, parlare di “comunità” in casi simili non è certo appropriato: un rapporto pubblicato nel 2003 dall’Università di Glasgow ha evidenziato come in questi comprensori “non si nota alcun apparente desiderio di entrare in contatto con la ‘comunità’ dei residenti”. E ancora, che al loro interno “il senso di comunità è meno sentito che altrove”. Quale che sia il pretesto con cui chi vi si stabilisce giustifica la propria scelta, i residenti di questi comprensori non pagano prezzi esorbitanti per il semplice privilegio di far parte di una “comunità” – quell’entità collettiva invadente e importuna che ti accoglie a braccia aperte, salvo poi trattenerti come una morsa d’acciaio. Benché siano pronti a dichiarare altrimenti (talvolta in buona fede), ciò che li spinge a sborsare grosse somme di denaro è il desiderio di liberarsi dalla compagnia di persone indesiderate. Di essere lasciati in pace. Oltre quelle recinzioni e quei cancelli vivono degli individui solitari, capaci di tollerare solo la “comunità” che interessa loro, e solo quando ne hanno voglia. Secondo la grande maggioranza degli studiosi, ciò che (consapevolmente o meno, esplicitamente o no) spinge le persone a stabilirsi entro lo spazio recintato e sorvegliato da telecamere a circuito chiuso di un comprensorio residenziale è il desiderio di tenere il lupo cattivo fuori dall’uscio di casa – ovvero, tenere gli sconosciuti a debita distanza. Gli estranei rappresentano un’incognita, e ciascuno di loro è presagio di pericolo. Per lo meno questo è quanto credono. E ciò che desiderano più di ogni cosa è di tenersi al riparo dai pericoli o, più precisamente, sottrarsi alla spaventosa, straziante, debilitante paura dell’insicurezza. Sperano che le recinzioni possano risparmiare loro questo terrore. Peccato che i motivi all’origine delle nostre insicurezze siano

molteplici, e che le voci – reali o immaginarie – sull’aumento della criminalità e la presenza di orde di ladri o maniaci sessuali che aspettano solo il momento buono per colpire non rappresentino che uno di questi. Se ci sentiamo insicuri, infatti, è anche perché a essere minacciato è il nostro impiego, e quindi il nostro reddito, la nostra posizione sociale e la nostra dignità. Non siamo assicurati contro la possibilità di essere licenziati, o esclusi, o contro l’eventualità che la posizione a cui teniamo e che riteniamo di esserci guadagnati definitivamente ci venga sottratta. Neanche i nostri rapporti più cari sono garantiti: persino nei momenti di maggiore serenità proviamo forse delle insicurezze e temiamo che una scossa possa bastare a portarceli via. Il nostro quartiere, familiare e accogliente, potrebbe essere raso al suolo per far posto a qualche progetto edilizio. In definitiva, sarebbe sciocco sperare che circondandosi di mura, guardie armate e telecamere tutte queste preoccupazioni (ben fondate, o del tutto irrealistiche) possano attenuarsi e svanire. Che dire, infine, del motivo (all’apparenza) principale che spinge a scegliere una comunità di questo tipo? Mi riferisco alla paura di subire un’aggressione, una violenza, una rapina, il furto dell’auto o di imbattersi in mendicanti importuni. Un comprensorio residenziale non garantisce forse di eliminare almeno quel tipo di paura? Anche su questo fronte, purtroppo, i vantaggi non giustificano le rinunce. Come segnalato dai più acuti osservatori della vita urbana contemporanea, trincerandosi dietro a un recinto le probabilità di subire un attacco o una rapina potrebbero forse ridursi (benché da uno studio recentemente condotto in California, forse la principale roccaforte dell’ossessione dei “comprensori residenziali”, non sia emersa alcuna differenza “statisticamente rilevante” tra spazi circoscritti e non). La paura tuttavia permane, immutata. Anna Minton, autrice di un approfondito studio dal titolo Ground Control: Fear and happiness in the Twenty-First Century City, cita il caso di Monica, che una sera, quando “il cancello elettrico si inceppò e dovette essere aperto con la forza”, “non chiuse occhio per tutta la notte, rimanendo in preda al panico più di quanto non fosse mai stata nei venti anni in cui aveva vissuto in una strada normale”. Dietro le mura l’ansia anziché dissiparsi si fa più intensa, di pari passo con la dipendenza da soluzioni tecnologiche che promettono di tenere lontani i pericoli e la paura dei pericoli. Più ci si circonda di simili congegni e maggiore è la paura che questi possano fare cilecca. Più ci

preoccupiamo delle minacce che si possono nascondere dietro a ogni sconosciuto e meno tempo trascorriamo in sua compagnia, evitando quindi di verificare la fondatezza dei nostri timori. Più la nostra capacità di tollerare e apprezzare l’imprevisto diminuisce e più diventiamo incapaci di affrontare, gestire e apprezzare la vivacità, la varietà e il rigoglio della vita urbana. Rinchiudersi in un comprensorio residenziale per scacciare le proprie paure equivale al gesto di chi svuota una piscina per insegnare ai bambini a imparare a nuotare in tutta tranquillità. Nel 1972, in un articolo e in seguito in un libro dal titolo Defensibile Space: People and Design in the Violent City28, l’urbanista e architetto americano Oscar Newman suggeriva che per prevenire la paura della violenza urbana occorre tracciare dei confini netti – un gesto che scoraggerà gli estranei dall’oltrepassarli. La città è violenta e brulica di pericoli perché piena di estranei: è questa la conclusione a cui giunse Newman, insieme a decine di suoi entusiasti seguaci e accoliti. Volete evitare le disgrazie? Tenete gli estranei a distanza di sicurezza. Illuminate a giorno lo spazio che vi circonda, rendetelo ben visibile e facilmente sorvegliabile: le vostre paure svaniranno, e finalmente potrete gustare il meraviglioso sapore dell’incolumità. Come l’esperienza ha dimostrato, però, la preoccupazione di rendere lo spazio “difendibile” conduce a un drastico aumento delle preoccupazioni per la sicurezza. I simboli e gli indizi della sicurezza sono un “problema” in quanto ci ricordano ogni attimo delle nostre insicurezze. Come ha scritto Anna Minton: “Il paradosso della sicurezza è che più è efficace e meno dovrebbe essere necessaria. L’esigenza di sentirsi sicuri può creare invece assuefazione”29. Di sicurezza e protezione non ve n’è mai a sufficienza. Una volta che si inizia a tracciare e fortificare i confini, fermarsi è impossibile. Principale beneficiario di tale dinamica è la nostra paura: prospera e abbonda alimentandosi dei nostri tentativi di tracciare e blindare le linee di demarcazione. Agli antipodi del pensiero di Newman troviamo le raccomandazioni di Jane Jacobs, secondo la quale è precisamente nell’affollamento delle strade cittadine e nella profusione di estranei che troviamo sollievo e ci liberiamo dalla paura che stilla dalla città, la “grande sconosciuta”. La parola che richiama quell’associazione, scrive, è fiducia. La fiducia nella rassicurante incolumità assicurata dalle strade cittadine emana dalla moltitudine di

incontri e contatti fugaci che si succedono sui suoi marciapiedi. Il sedimento e la traccia duratura di quei contatti casuali ordisce una trama di “condivisione in pubblico”, intessuta di rispetto civile e fiducia. L’assenza di fiducia, conclude Jacobs, si traduce per le strade cittadine in una vera e propria catastrofe30. Nella sua installazione del 2009, commissionata per la Turbine Hall del Tate Modern, a Londra, Mirosław Bałka è ripartito da dove Jane Jacobs si era fermata, e con un’unica, audace installazione è riuscito in ciò che una lunga sfilza di studiosi che lo hanno preceduto aveva tentato di spiegare e rappresentare attraverso centinaia di libri dotti e fumosi. I cancelli che conducono alla sala, lunga trenta metri e simile a un tunnel, sono spalancati e invitanti, segnalano la presenza di uno spazio pubblico. La fine del tunnel, però, che l’opera di Bałka invitava a esplorare, era buia. Nero come la pece, l’interno non poteva essere più scuro. Il buio è l’epitome di quel fantastico e spaventoso ignoto che è in agguato nell’esperienza della città. Lo spazio buio è il vuoto, il baratro, la rappresentazione del nulla. Si potrebbe supporre che appaia vuoto solo perché abbiamo la vista corta, perché la nostra capacità di sondare le tenebre è inadeguata e la nostra immaginazione limitata. Quel vuoto dei sensi potrebbe essere soltanto un trucco e una copertura per dei contenuti corporei assolutamente terrificanti. Sospettate – sapete – che in uno spazio buio può accadere qualsiasi cosa, e non sapete cosa aspettarvi e men che meno come affrontarlo quando accadrà. Nessuno dunque potrà biasimarvi se esitate ad avventurarvi in quella zona d’ombra, casomai vi trovaste da soli all’interno della Turbine Hall. Immergersi da soli in quel buco nero, selvaggio e inesplorato è un gesto in cui oserebbero cimentarsi solo i più imprudenti fra noi o gli avventurieri più noncuranti. Fortunatamente, però, attorno a noi ci sono tante persone, tutte impazienti di entrare! E tante altre sono già dentro. Raggiungendole sentiremo la loro presenza. Una presenza non fastidiosa e invadente, bensì lenitiva e incoraggiante... Una presenza di estranei miracolosamente trasformati in esseri umani simili a noi. Una presenza che emana fiducia, e non ansia. Quando si è immersi nel vuoto del grande incognito che paralizza la mente e i sensi, l’unico salvagente ci viene dall’umanità condivisa; il calore della vicinanza umana è la nostra salvezza. Per lo meno, questo è quanto l’opera di Mirosław Bałka mi ha trasmesso e insegnato –

cosa di cui gli sono grato. Le strade degli “spazi difensivi” e delle comunità circoscritte dovrebbero idealmente essere svuotate dagli estranei, anche se i ragionamenti e gli sforzi che l’opera di pulizia richiederebbe ci impedirebbero di ignorare anche per un solo attimo la nostra paura. Il tunnel allestito nella Turbine Hall della Tate Modern è invece affollato di estranei ma anche svuotato dal terrore – una zona priva di paura come non ne esistono altre. Il più buio degli spazi è stato trasformato miracolosamente nel luogo più esente da paure. Immagino che il termine “paura” non vi verrebbe in mente nel descrivere la vostra esperienza all’interno di quel tunnel. Forse, a casa, vi esprimereste invece in termini di allegria e di piacere. Riassumendo: il più pernicioso, seminale e duraturo effetto dell’ossessione per la sicurezza (il “danno collaterale” perpetrato da questa) sta forse nell’esaurire la fiducia negli altri e nell’instillare e promuovere il sospetto reciproco. In assenza di fiducia si tracciano dei confini, che il sospetto, attraverso pregiudizi reciproci, rafforza sino a trasformare in veri e propri sbarramenti. La mancanza di fiducia conduce inevitabilmente all’indebolimento della comunicazione; in assenza di comunicazione, e in assenza di interesse a ripristinarla, l’“estraneità” degli estranei è destinata ad accrescersi fino ad acquisire toni vieppiù tetri e sinistri, il che a sua volta declassa in maniera ancor più irrimediabile gli sconosciuti come interlocutori in un confronto dialettico sulle modalità di una convivenza reciprocamente sicura e condivisibile. Trattare gli estranei alla stregua di un vero e proprio “problema di sicurezza” equivale ad adottare un modello d’interazione umana “a moto perpetuo”, in cui la sfiducia negli estranei e la tendenza a usare nei confronti di loro tutti e di alcune categorie degli stereotipi paragonandoli a bombe ad orologeria destinate prima o poi ad esplodere, si alimentano da sole, in base alla loro logica interna e al loro abbrivio, senza alcun bisogno di dimostrare la loro fondatezza, né di ulteriori incitamenti sotto forma di atti ostili da parte del nemico in questione (che di tali dimostrazioni e incitamenti appare invece produrne in abbondanza). Tutto sommato, il principale effetto dell’ossessione per la sicurezza sta nel rapido intensificarsi (anziché scemare) del clima di insicurezza, con tutto ciò che questo comporta: paura, ansia, ostilità, aggressività e il dissolversi o il tacere degli impulsi morali.

Tutto questo non significa che la sicurezza e l’etica siano tra loro irreconciliabili e destinate a rimanere tali, ma annuncia soltanto le insidie che l’ossessione per la sicurezza è destinata a produrre nel nostro mondo di diaspore globalizzate lungo il suo cammino verso una convivenza (nonché cooperazione) pacifica, reciprocamente vantaggiosa e incolume tra denominazioni, etnie e culture diverse. Purtroppo, nonostante con l’acuirsi e il radicarsi delle differenze umane in quasi ogni insediamento contemporaneo e ogni quartiere un dialogo ben disposto e rispettoso tra diaspore stia diventando una condizione sempre più importante, anzi cruciale, della nostra comune sopravvivenza planetaria, per i motivi che ho tentato di descrivere esso è anche più difficile da conseguire e proteggere dalle forze presenti e future. Il fatto che sia difficile indica unicamente la necessità di tanta buona volontà, disponibilità al compromesso, dedizione e rispetto reciproco, nonché di una comune avversione verso qualsiasi forma di umiliazione umana. E, naturalmente, di una ferma determinazione a ripristinare l’equilibrio perduto tra i valori della sicurezza e della correttezza etica. Una volta che tutte queste condizioni saranno state soddisfatte – e solo allora –, il dialogo e l’accordo (la “fusione degli orizzonti” di HansGeorg Gadamer) potrebbero (ripeto: potrebbero) imporsi come il “moto perpetuo” dominante tra i modelli di convivenza umana. Una trasformazione, questa, che non produrrà alcuna vittima, ma andrà soltanto a vantaggio degli individui. 20

Ulrich Beck, La società del rischio. Verso una seconda modernità, Carocci, Roma 2000 (ed. or. 1986). 21 Cfr. Nathaniel Herzberg e Cécile Prieur, Lionel Jospin et le “piège” sécuritaire, in «Le Monde», 5-6 maggio 2002. 22 Citato in Donald G. McNeil Jr, Politicians pander to fear of crime, in «The New York Times», 56 maggio 2002. 23 Così il narratore di Jonathan Littell, Le benevole, Einaudi, Torino 2007, pp. 378 sgg. (ed. or. 2006). 24 Teresa Caldeira, Fortified enclaves: the new urban segregation, in «Public Culture» (ed. or. 2006) 8 (1996) 2, pp. 303-328. 25 Nan Ellin, Shelter from the storm, or form follows fear and vice versa, in Id. (a cura di), Architecture of Fear, Princeton Architectural Press, New York 1997, pp. 13, 26. 26 Steven Flusty, Building paranoia, ivi, pp. 48-52. 27 Richard Sennett, Usi del disordine. Identità personale e vita nella metropoli, Costa & Nolan, Genova 1999, pp. 47 e 49 (ed. or. 1996). 28 Oscar Newman, Defensibile Space: People and Design in the Violent City, Architectural Press, London 1973.

29

Anna Minton, Ground Control: Fear and Happiness in the Twenty-First Century City, Penguin, London 2009, p. 171. 30 Si veda Jane Jacobs, Vita e morte delle grandi città. Saggio sulle metropoli americane, Einaudi, Torino 1969 (ed. or. 1961).

5. Consumismo e moralità

Bisognerebbe guardarsi dal pronunciare giudizi troppo netti sulla relazione contorta fra consumismo e moralità. Sulla base di quanto è attualmente possibile osservare, tale rapporto non appare molto diverso da quello che caratterizza tanti matrimoni moderni, in cui i due coniugi, pur trovando la convivenza difficoltosa e ostica, tempestosa e molto spesso nauseante e intollerabile, quasi non riescono a vivere l’uno senza l’altro, tanto che il divorzio rimane per loro un’opzione di fatto irrealistica. Di certo, il rapporto tra consumismo e moralità non è affatto simmetrico. Uno dei due (il mercato dei beni di consumo) profonde all’altro (la moralità) lodi senza riserve; come tutti gli spasimanti degni di questo nome, glorifica le virtù dell’amato ma chiude gli occhi di fronte alle sue occasionali mancanze; le sue dichiarazioni pubbliche, note con il nome di “messaggi pubblicitari”, o “réclame”, sono tra gli esempi più rapsodici e sublimi della poesia d’amore. L’altro partner – la moralità – intuisce quale duplicità si nasconda dietro quelle dichiarazioni di incrollabile lealtà e devozione, e le intenzioni malevole e interessate che si celano dietro a ogni manifestazione di premura, interessamento e sostegno. Parafrasando il Laocoonte di Virgilio, la moralità potrebbe affermare: timeo mercatores et dona ferentes (“Temo i mercanti anche quando portano doni”). E tuttavia, per quanto la sua diffidenza nei confronti del donatore sia profonda, non osa rifiutarne le offerte. D’altronde, quali sarebbero le sue possibilità di sopravvivenza se decidesse di disdegnarle? Uno dei più grandi filosofi etico del nostro tempo, Emmanuel Lévinas, può fare un po’ di luce sull’interazione controversa, e per molti versi sconcertante e apparentemente illogica, tra questi due partner inseparabili e irreconciliabili. Mentre l’opinione comune – sia popolare che dotta – si schiera con il famoso verdetto hobbesiano che considera la società un marchingegno che salva gli esseri umani dalle proprie inclinazioni morbose

(le quali, se non fossero sottoposte ai suoi poteri coercitivi, renderebbero la vita umana “solitaria, misera, ostile, animalesca e breve”), Lévinas sostiene che l’indispensabilità della società è da ricercare altrove, in un altro ruolo che questa è chiamata a svolgere. Un atteggiamento di incondizionata responsabilità verso l’Altro, fondamento di ogni moralità, è secondo Lévinas qualcosa che ci si potrebbe aspettare dai santi, e non da individui comuni quali per lo più tutti siamo. Sono poche le persone capaci di elevarsi al livello dei santi, eguagliandone la propensione al sacrificio, la disponibilità a mettere i propri interessi in secondo piano (o addirittura ignorarli e trascurarli, come quella responsabilità tanto spesso richiederebbe di fare se lasciata allo stato originario e incontaminato di “incondizionalità”). Ammesso poi che fossimo capaci e disposti a farci realmente, interamente carico di una responsabilità incondizionata e senza limiti, questa ci sarebbe di scarso aiuto nel risolvere gli innumerevoli conflitti di interesse che giorno dopo giorno la comunanza umana immancabilmente ci sottopone, e quindi nel rendere vivibile la vita condivisa. Dal punto di vista pratico, una società di soli santi non è concepibile, per il semplice motivo che una responsabilità piena e incondizionata non può essere esercitata simultaneamente nei confronti di due persone i cui interessi, come spesso accade, non coincidono. Di fronte a un simile dilemma non ci si può esimere dal soppesare e raffrontare i diritti delle parti in contrasto e accordare qualche preferenza agli interessi di una rispetto a quelli dell’altra. In altre parole: la responsabilità deve porsi dei limiti per non entrare in conflitto con l’incondizionalità. È esattamente questo il motivo per cui Lévinas considera la società imprescindibile. La società, insiste il filosofo, è un marchingegno che rende possibile la vicinanza tra esseri provvisti di impulsi morali e gravati dall’incondizionata responsabilità verso l’altro. La società rende la convivenza possibile in quanto riduce la supposta incondizionalità della responsabilità verso l’altro e sostituisce agli impulsi morali delle norme etiche e delle regole procedurali. A dire il vero, nemmeno le soluzioni sociali più originali possono né potrebbero eliminare l’inconciliabilità tra le esigenze del vivere in società e l’esigenza etica. Malgrado ogni concepibile sforzo, quella di essere un individuo morale rimane una sfida straziante e tormentosa che non trova soluzioni e rimedi realmente soddisfacenti e/o definitivi e risolutivi. È la società che, codificando i doveri morali (in tal

modo sottraendo gran parte delle interazioni umane agli obblighi morali e alla censura) e riducendo quindi una responsabilità infinita all’esecuzione di un numero finito di regole, rende possibile la vita in comune nonostante l’irrisolvibilità del conflitto. Tale effetto (certo un palliativo e non una cura, e tanto meno una cura definitiva) può essere ottenuto tramite due espedienti strettamente collegati tra loro. Il primo consiste, come già suggerito, nel sostituire alla responsabilità infinita e incondizionata, diffusa e irrimediabilmente vaga, una lista dettagliata di doveri specifici – estromettendo così dall’ambito degli obblighi morali tutto ciò che non vi è esplicitamente menzionato. In altre parole, la società traccia dei limiti e definisce delle condizioni laddove la responsabilità incondizionata non prevedeva né consentiva gli uni o le altre. Si tratta essenzialmente di un’opera di ridimensionamento: alleggerita da un gran numero di fronde fitte e infinitamente ramificate, la “responsabilità verso l’Altro” – o, più precisamente, ciò che ne resta – viene sottratta all’ambito delle imprese eccessive, “che superano le capacità umane”, e ridotta alle dimensioni di doveri alla nostra portata, praticabili e plausibili. Il codice etico che emerge da un simile trattamento dovrebbe presumibilmente facilitare la promozione della coscienza e del dovere morale; il suo reale merito, però, è quello di escludere dall’universo degli obblighi morali alcune tipologie di “altro” e alcuni elementi di “alterità”, verso i quali alle persone morali sarà consentito di rifiutarsi di dare dimostrazione di responsabilità etica, senza per questo essere accusate o afflitte dal senso di colpa – ponendole di fatto al riparo dagli scrupoli di coscienza che un simile rifiuto altrimenti provocherebbe. Permettetemi tuttavia di ripetere che tale espediente è un semplice palliativo, e non una cura contro i dilemmi e i tormenti che nascono dall’endemica incondizionalità della responsabilità morale: una responsabilità che si risveglia in ciascuno di noi ed è silenziosamente (ma con grande intensità) sollecitata dalla semplice vista di un Altro bisognoso di aiuto, cure e amore. L’espediente di codificare le norme etiche può forse risparmiare a un individuo negligente di incorrere in denunce legali, o di essere fatto oggetto di pubblica disapprovazione: difficilmente però inganna la coscienza ed estirpa la consapevolezza – e quindi i tormenti – del senso di colpa. Per dirla con un proverbio inglese: “una coscienza sporca non ha bisogno di accusatori”. Addurre come buona scusa per le

proprie manchevolezze ciò che fanno anche gli altri (“Guardatevi attorno: chiunque al mio posto avrebbe fatto altrettanto!”) non basta a placare il senso di colpa; come insiste Lévinas, la mia responsabilità nei tuoi confronti è sempre un passo avanti a quella che tu hai nei miei. Questo è il motivo per cui l’espediente in questione deve essere abbinato a dei surrogati di quell’immolazione di sé che l’esercizio dell’incondizionata responsabilità verso l’Altro molte volte richiede. Si tratta di surrogati che rappresentano (e che si ritiene compensino) manifestazioni d’interessamento “genuine” e tuttavia alquanto onerose – come l’offerta del proprio tempo, di compassione, empatia, comprensione, cura o affetto (tutti doni che richiedono un certo livello di sacrificio di sé); che testimoniano l’assunzione di responsabilità, da utilizzare nei casi in cui questa non sia stata assunta o non si sia potuto o voluto di fatto assumerla; espressioni di forma, da utilizzare nei casi in cui la sostanza scarseggi. È in questo secondo espediente – nell’ideazione, produzione e fornitura di “surrogati morali” – che il mercato dei consumi gioca un ruolo fondamentale, benché esclusivamente di mediatore. Esso infatti, tramite l’offerta di dimostrazioni tangibili di interessamento, simpatia, compassione, solidarietà, amicizia e affetto, svolge diverse funzioni indispensabili all’attuazione e all’efficacia di quell’espediente. Il mercato dei consumi adotta e assimila la sfera sempre più ampia dei rapporti umani, compresa la cura dell’Altro – che ne è il principio guida morale. E così facendo assoggetta il progetto e la trama di quei rapporti a delle categorie ideate per soddisfare il regolare sovrapporsi tra beni di consumo e acquirenti, assicurando in questo modo la continua circolazione delle merci. È così che il mercato dei beni di consumo favorisce la manifestazione, la percezione, la comprensione e l’accettazione dei tratti caratteristici della condotta morale come ennesima istanza di quella circolazione, qualitativamente non dissimile dalle altre, o più precisamente scambiata o confusa per un suo equivalente. Questo espediente rende il “sacrificio di sé per il bene di un altro” (una nozione morale notoriamente nebulosa e mal definita, al punto da risultare fastidiosa) tangibile e misurabile attraverso l’applicazione di criteri monetari di rilevanza universalmente comprensibili e facilmente interpretabili, e attribuendo alle buone azioni un prezzo ben definito. L’espediente in questione agisce in definitiva come un’istituzione psicoterapeutica, capace di combattere, e

talvolta addirittura prevenire, le afflizioni e i disturbi che nascono dalla frustrazione dell’impulso morale e vengono alimentati dal senso di colpa e dagli scrupoli. Tutti conosciamo più che bene, dall’autopsia della nostra esperienza quotidiana diretta, le virtù benefiche e terapeutiche del mercato dei beni di consumo. Conosciamo altresì il senso di colpa che deriva dal non riuscire a trascorrere abbastanza tempo con le persone a noi più vicine e care, i parenti e gli amici, per ascoltare i loro problemi con l’attenzione e la compassione che ciò richiederebbe; dall’impossibilità di “essere sempre disponibili nei loro confronti”, pronti ad abbandonare qualsiasi cosa stiamo facendo per correre in loro aiuto, o semplicemente condividere i loro dolori e consolarli. È una sensazione che la frenesia della nostra esistenza ha reso semmai più comune. Basti pensare che vent’anni fa le famiglie americane cenavano di solito insieme nel 60 per cento dei casi, mentre oggi solo il 20 per cento di loro si raccoglie la sera attorno al desco familiare. Quasi tutti noi siamo schiacciati dalle preoccupazioni che sorgono dalle relazioni quotidiane con i nostri capi, colleghi o clienti, e ce le portiamo dietro ovunque andiamo: nei computer, nei cellulari, a casa, durante le gite del fine settimana, in vacanza. L’ufficio è sempre a portata di telefono o di sms, e rimaniamo in ogni momento a totale disposizione degli altri. Essendo perennemente connessi alla rete aziendale, non abbiamo scuse per non dedicare anche il sabato e la domenica alla stesura di una relazione o a un progetto da consegnare il lunedì. L’“orario di chiusura dell’ufficio” non arriva più. Quei confini un tempo sacrosanti che separavano la casa dal luogo di lavoro e il tempo da dedicare alla carriera da quello cosiddetto “libero”, o di “svago”, sono praticamente svaniti, e dunque ogni singolo attimo della nostra vita diventa una scelta: seria, dolorosa e spesso seminale tra carriera e obblighi morali, tra impegni di lavoro ed esigenze di tutti coloro che hanno bisogno del nostro tempo, della nostra compassione, della nostra cura, del nostro aiuto e della nostra assistenza. Ovviamente il mercato dei beni di consumo non intende risolverci tutti questi dilemmi, e ancor meno può scacciarli o verificarli. Né ci aspettiamo che lo faccia. Può però aiutarci a mitigare (ed è desideroso di farlo), o addirittura mettere a tacere, le dolorose fitte causate dal senso di colpa. E vi riesce mettendo a nostra disposizione dei doni preziosi e

allettanti, esibiti nelle vetrine dei negozi o su internet, pronti per essere acquistati e portare un sorriso e un po’ di felicità, ancorché fugace, alle persone che hanno fame del nostro affetto. Ci hanno insegnato ad aspettarci che i doni provenienti dai negozi possano compensare quelle persone di tutto il tempo che avremmo dovuto dedicare loro faccia a faccia, mano nella mano. Più quei doni sono costosi, più chi li acquista ha la sensazione di offrire un cospicuo risarcimento a coloro che li riceveranno e più avranno l’effetto di lenire e temperare i rimorsi di coscienza del donatore. Fare shopping diventa quindi una sorta di atto morale (e viceversa: spesso gli atti morali ci guidano per il tramite dei negozi). Alleggerire il portafoglio o addebitare delle spese sulla carta di credito si sostituiscono all’abbandono e al sacrificio di sé che esige la responsabilità verso l’Altro. L’effetto collaterale, naturalmente, è che reclamizzando e distribuendo degli analgesici morali di tipo commerciale, il mercato dei beni di consumo non fa che facilitare, anziché prevenire, l’inaridirsi, l’appassire e lo sgretolarsi dei legami fra gli esseri umani. Anziché aiutare a opporre resistenza alle forze che hanno causato lo sgretolarsi di quei legami, contribuisce al loro affievolimento e alla loro distruzione graduale. Come il dolore fisico suggerisce l’esistenza di un problema organico e induce a intervenire d’urgenza per porvi rimedio, così gli scrupoli morali segnalano pericoli che minacciano i legami fra gli esseri umani. E se non fossero leniti da tranquillanti e analgesici morali forniti dal mercato, esorterebbero a una riflessione più profonda e a un intervento più energico. Le nostre intenzioni di fare del bene agli altri sono state commercializzate; tuttavia, la colpa di ciò non va attribuita soprattutto (e ancor meno esclusivamente) al mercato dei beni di consumo: premeditatamente o per inerzia, il mercato risulta complice nel reato di sfaldare i legami fra gli esseri umani: complice prima e dopo che sia commesso quel reato. La seconda interfaccia tra mercato e etica è da ricercare all’interno della vasta area delle ansie che investono il senso d’identità e degli sforzi d’identificazione sui quali gran parte delle nostre strategie di vita e preoccupazioni tende a focalizzarsi. Poiché uno dei tratti salienti di un’esistenza vissuta in un contesto liquido-moderno è l’endemica e apparentemente incurabile instabilità della collocazione sociale (non più

immutabile, né riconosciuta in modo inequivocabile e definitivo), abbinata alla poca chiarezza del criterio in base al quale la posizione di una persona nel mondo può essere valutata con autorevolezza, e delle credenziali delle entità a cui si riconosce la facoltà di rendere vincolanti tali valutazioni, non sorprende che per la maggior parte degli individui la questione dell’identità risulti ai primi posti sulla scala delle cose importanti. Analogamente a quanto accade nel caso di quell’altra questione che genera acuta incertezza (l’indebolimento e la crescente fragilità dei legami fra gli esseri umani), anche l’instabilità e l’insicurezza della posizione che gli individui occupano all’interno della società suscitano l’interesse del mercato – poiché si tratta di un aspetto della condizione umana dal quale i fornitori di beni di consumo possono trarre abbondanti guadagni, come infatti accade. Il trucco sta nel conciliare ciò che, se ci limitassimo a ricorrere a risorse individuali (ovvero in assenza di mezzi garantiti, o la cui garanzia è assicurata da forze sovra-individuali, universalmente riconosciute e accettate), rimarrebbe inconciliabile: ovvero la sicurezza (per quanto di breve durata) di una data identità con la certezza, o almeno con un’alta probabilità, che quando l’identità attuale inizierà a vacillare e a perdere attrattiva un’altra ne prenderà prontamente il posto. Si tratta, in breve, di conciliare la capacità di mantenere un’identità con la capacità di modificarla in base alle esigenze; la capacità di “essere se stessi” con la capacità di “diventare qualcun altro”. Il contesto liquido-moderno richiede il simultaneo possesso di entrambe le capacità, e il mercato dei beni di consumo promette di fornire gli strumenti e i mezzi per conseguirlo. Come già osservato nei rapporti tra consumismo e alleggerimento della responsabilità morale, anche in questo caso il nesso che unisce le esigenze dell’individuo a ciò che offre il mercato è lo stesso che lega l’uovo alla gallina, in cui uno non è concepibile senza l’altro – benché sia impossibile decretare quale dei due sia la causa e quale l’effetto. Tuttavia, bisogna addurre prove convincenti dell’indispensabilità, desiderabilità, affidabilità ed efficacia dei servizi che il mercato dei beni di consumo offre. A tal fine il riconoscimento del nesso tra cura morale e beni di consumo ci ha già spianato la strada: non resta ora che trasferire le tendenze radicate e sviluppate nell’ambito della “responsabilità verso l’Altro” all’ambito della “responsabilità verso se stessi”. “Te lo sei guadagnato”, “te lo meriti”, “lo devi a te stesso”, tutte espressioni prese a prestito o sottratte all’ambito

degli obblighi morali, vanno, e sono, messe al servizio della legittimazione dell’auto-indulgenza consumistica. Qualunque traccia di anomalia etica affiori da un riutilizzo così incongruo dei concetti di responsabilità e cura morale tende a essere mascherata o eliminata stendendo una vernice morale sull’autoindulgenza: per fare qualcosa occorre prima essere qualcuno; ne deriva che prima di potersi prendere cura degli altri occorre acquisire, tutelare e mantenere le risorse che tale impegno richiede. Una condizione impossibile da soddisfare a meno di non attingere ai mezzi che il mercato mette a nostra disposizione per fare di noi “qualcuno”; ovvero, a meno di non essere capaci e disposti ad adattarci al progresso (leggi: all’ultima moda) e dimostrarci flessibili, adattabili e determinati a cambiare repentinamente, ogni qualvolta le condizioni lo richiedano, a restare solidi nel nostro attaccamento alla fluidità; in breve, a meno di non essere ben posizionati e quindi ben equipaggiati per prenderci cura degli altri con efficacia e assicurare il loro benessere. Poiché già sapete quanto quest’ultimo dipenda dal vostro accesso ai beni di consumo, è ovvio che per seguire le vostre inclinazioni morali occorrerà tradurre il postulato di “essere qualcuno” nell’imperativo di riuscire a ottenere tutti i beni (nella giusta quantità e della giusta qualità) di cui avrete bisogno per far fronte alle vostre responsabilità verso gli altri. Margaret Thatcher, infallibile esegeta della filosofia del mercato, riscrisse il Vangelo affermando pubblicamente che senza denaro il Buon Samaritano non avrebbe potuto essere un buon samaritano... Riassumendo: per essere delle persone morali occorre acquistare dei beni; per acquistare dei beni occorre denaro; per procurarsi del denaro, occorre vendersi – a buon prezzo, e con ragionevole profitto. Non si può essere un compratore a meno di non diventare a propria volta una merce allettante. E dunque ciò di cui si ha bisogno è un’identità attraente e vendibile. La dobbiamo a noi stessi – perché, come volevasi dimostrare, la dobbiamo agli altri. Smettiamola di preoccuparci di quei ficcanaso che ci accusano di essere mossi da riprovevoli impulsi egoistici o addirittura iniqui ed edonistici. Se siamo davvero egoisti, lo siamo per motivi altruistici. Ciò che qualche ingenuo potrebbe scambiare per autoindulgenza non è che un’implementazione del dovere morale; o quanto meno così potremmo rispondere, sdegnati, a chi ci accusa di concentrare

tutta la nostra energia morale nella cura della nostra persona e del nostro aspetto. Ovviamente possiamo ricorrere con efficacia a simili argomentazioni sia quando siamo rimproverati a gran voce dagli altri, sia quando a riprenderci, con toni sommessi, è la nostra stessa coscienza. Nel ribattere a simili accuse possiamo poi attingere ulteriore sicurezza dalla convinzione, indotta dal mercato, che l’unica raison d’être delle merci è, dopotutto, la soddisfazione che queste ci regalano – e che il loro compito si esaurisce e il loro diritto a esistere viene meno quando quella soddisfazione cessa, o quando si può ricavare una soddisfazione maggiore sostituendole con altre. Tale convinzione incoraggia una circolazione più rapida dei beni utilitari, invitando al tempo stesso a non sviluppare un attaccamento o una dedizione duraturi verso alcuno di loro. Adesso che il boomerang della cura morale è tornato nelle mani di colui che la dispensa, la differenza tra il trattamento raccomandato per le merci “animate” e quello per le tradizionali merci “inanimate” si è praticamente dissolta, o ha perso rilievo morale. In entrambi i casi il venir meno della soddisfazione che una “merce” ci procura, o un suo rapido declino, equivale alla cessazione del diritto di permanenza di tale merce nell’universo degli obblighi morali. Reindirizzati al miglioramento di sé, gli impulsi morali si trasformano in una delle principali cause dell’erosione e dell’infiacchimento dei legami fra esseri umani, oltre che della nostra indifferenza collettiva verso la presenza di pratiche di esclusione sempre più diffuse e “naturalizzate”. La terza interfaccia tra consumismo ed etica deriva dalle due appena descritte, o ne è la “conseguenza involontaria”: si tratta dell’impatto del consumismo sulla nostra casa comune, il pianeta Terra. Sappiamo sin troppo bene che le risorse del pianeta sono limitate e non possono essere estese all’infinito. Sappiamo anche che queste risorse non possono bastare a far fronte al livello dei consumi che, trainati dagli standard già raggiunti nelle zone più ricche del pianeta, vanno innalzandosi ovunque. Quegli stessi standard rispetto ai quali – nell’era delle autostrade dell’informazione – i sogni, le prospettive, le ambizioni e i postulati del resto del pianeta tendono a misurarsi (stando ad alcuni calcoli, affinché tutto il mondo possa eguagliare il livello dei consumi già raggiunto dai Paesi più ricchi, le risorse della Terra andrebbero quintuplicate: ci vorrebbero cinque pianeti, al posto dell’unico che abbiamo). Senza contare che, in seguito all’invasione e

all’annessione dell’ambito della moralità da parte del mercato, ai consumi sono state affidate delle funzioni che è possibile espletare solo a costo di incrementare ulteriormente il livello dei consumi. Questo è il motivo principale che spinge a considerare la “crescita zero” (così com’è misurata dal prodotto interno lordo, basato sulla percentuale di denaro che passa di mano nelle transazioni di compravendita) poco meno che una catastrofe – non solo economica, ma anche sociale e politica. È soprattutto a causa di quelle funzioni aggiuntive, non legate al consumo né per propria natura né per “affinità naturale”, che la possibilità di stabilire dei limiti all’aumento dei consumi, o addirittura di ridurli, portandoli a un livello ecologicamente sostenibile, appare incerta e ripugnante: qualcosa che nessuna forza politica “responsabile” (leggasi: nessun partito interessato ad affermarsi nelle prossime elezioni) includerebbe nella propria agenda politica. Da tutto ciò si potrebbe dedurre che la mercificazione delle responsabilità etiche (i materiali e gli strumenti da costruzione che sono alla base della comunanza umana), abbinata al graduale eppur inesorabile degrado di qualsiasi modo alternativo e non commerciale di manifestarle, rappresenta per il contenimento e la moderazione degli appetiti consumistici un ostacolo decisamente più formidabile delle pre-condizioni non contrattabili della sopravvivenza biologica e sociale. Invero, mentre il livello dei consumi necessari alla sopravvivenza biologica e sociale è per sua natura stabile quello dei consumi necessari a gratificare gli altri bisogni che i consumi promettono, auspicano ed esigono di soddisfare è, sempre per la natura di tali bisogni, intrinsecamente destinato ad aumentare. La soddisfazione di quei bisogni ulteriori non dipende dal mantenimento di standard stabili, bensì dalla rapidità e dal grado della loro ascesa. I consumatori che si rivolgono al mercato in cerca di soddisfazione per i propri impulsi morali e di realizzazione per i loro doveri di auto-identificazione (ovvero, di auto-mercificazione) sono costretti a trovare continui scarti tra valori e volumi, e quindi questo tipo di “domanda di consumo” è un fattore soverchiante e irresistibile nella spinta verso l’alto. Così come la responsabilità etica verso gli Altri non tollera limiti, analogamente il consumo a cui è affidato il compito di esprimere e soddisfare gli impulsi morali resiste a qualsiasi tipo di vincolo che si voglia imporre alla sua estensione. Una volta irretiti nell’economia consumistica, gli impulsi morali e le responsabilità etiche si trasformano,

per ironia della sorte, in un’immane zavorra per l’umanità, che si trova di fronte a quella che rappresenta con ogni probabilità la più formidabile minaccia alla sua sopravvivenza: una minaccia contro la quale non si può combattere senza un bel po’, forse una quantità senza precedenti, di autocontrollo e di disponibilità al sacrificio. Una volta messa e mantenuta in moto dall’energia morale, l’economia consumistica non ha altro limite che il cielo. Per riuscire nel compito che ha accettato di svolgere, non può permettersi di rallentare il passo, e men che mai di fermarsi e restare immobile. Di conseguenza, e a dispetto dell’evidenza dei fatti, tacitamente o al massimo con poche parole deve presumere l’illimitatezza della resistenza del pianeta e l’infinità delle sue risorse. Sin dall’inizio dell’epoca consumistica, il rimedio ritenuto più ovvio o forse la profilassi infallibile con cui porre fine ai conflitti e alle schermaglie che sorgevano attorno alla distribuzione dei mezzi di sussistenza era quello di “ingrandire la pagnotta”. Una strategia che, a prescindere dal fatto che fosse o meno efficace nel sospendere le ostilità, doveva presupporre la disponibilità di scorte infinte di farina e lievito. Ci stiamo però avvicinando al giorno in cui l’erroneità di quel presupposto e i pericoli che derivano dell’attenervisi diventeranno probabilmente evidenti. Così forse arriverà il momento di riassestare la responsabilità morale indirizzandola verso la sua vocazione primaria: quella di assicurare, reciprocamente, la sopravvivenza. E in ogni caso la demercificazione dell’impulso morale sembra la condizione più rilevante fra quelle necessarie al riassestamento. Il momento della verità è forse più vicino di quanto potrebbe apparire dagli scaffali dei supermercati stracolmi di merci, dai siti web che pullulano di annunci pubblicitari, dai cori di esperti e consulenti che ci suggeriscono come fare nuove amicizie e influenzare gli altri. Occorre che quel momento sia preceduto e prevenuto dal nostro tempestivo risveglio. Un compito di certo non facile, che richiede che l’universo degli obblighi morali si estenda nientemeno che all’umanità intera, con tutta la sua dignità e il suo benessere, sino ad abbracciare la sopravvivenza del nostro pianeta, sua casa comune.

6. «Privacy», riservatezza, intimità, legami umani e altre vittime collaterali della modernità liquida

Alain Ehrenberg, osservatore straordinariamente acuto della contorta traiettoria che caratterizza la breve ma avvincente storia dell’individuo moderno, ha tentato di stabilire con precisione la data del primo manifestarsi dell’ultima, moderna rivoluzione culturale (quanto meno nella sua variante francese), che ci ha introdotto nel mondo liquido-moderno in cui viviamo ancora oggi: un episodio che si potesse considerare paragonabile alle cannonate con cui l’incrociatore Aurora diede il via all’assalto e alla presa del Palazzo d’Inverno, segnando così l’inizio dei settant’anni di dominio bolscevico. La scelta di Ehrenberg è caduta sulla sera di un mercoledì d’autunno degli anni Ottanta, quando una certa Vivienne, una “donna francese come tante”, dichiarò nel corso di un popolare talk show televisivo – e quindi di fronte a diversi milioni di spettatori – di non aver mai provato l’orgasmo durante la sua vita matrimoniale, perché suo marito Michel soffriva di eiaculazione precoce. Cosa conteneva di così rivoluzionario quell’affermazione, al punto da giustificare la scelta di Ehrenberg? La risposta è da ricercarsi in due fattori strettamente collegati tra loro. Per cominciare, l’episodio segnò la prima volta in cui informazioni squisitamente, addirittura per antonomasia, private venivano sciorinate e discusse in pubblico – ovvero di fronte a chiunque volesse sentirle o fosse per caso in ascolto. In secondo luogo la pubblica arena, ossia uno spazio aperto senza accessi controllati, veniva utilizzata per affrontare e sviscerare una questione con significato, risvolti ed emozioni assolutamente privati. Questi due aspetti autenticamente rivoluzionari legittimavano l’impiego pubblico di un linguaggio che fino a quel momento era stato esclusivamente riservato alle conversazioni private, che intercorrono tra un numero rigorosamente ristretto di persone selezionate: un linguaggio la cui funzione primaria era stata, fino ad allora,

di separare l’ambito del “privato” da quello del “pubblico”. Più precisamente, queste due svolte tra loro connesse inaugurarono l’impiego pubblico, a uso e consumo di una platea pubblica, di un vocabolario pensato per descrivere delle esperienze private, vissute soggettivamente (le Erlebnisse, ben distinte dalle Erfahrungen). Con il passare degli anni apparve evidente che il vero significato di quell’evento fosse da ricercarsi nell’annullamento della separazione un tempo inviolabile tra la sfera “privata” e la sfera “pubblica” dell’esistenza fisica e spirituale dell’uomo. Dal punto di vista odierno e col beneficio del senno di poi, possiamo affermare che l’intervento di Vivienne di fronte a milioni di uomini e donne francesi che lo seguirono incollati agli schermi dei loro televisori servì anche ad accompagnare gli spettatori, e tutti noi con loro, in una società confessionale: un tipo di società fino a quel momento inaudita e inconcepibile, caratterizzata dalla presenza di microfoni collocati all’interno di confessionali (ricettacoli blindati, depositari dei segreti più reconditi, come quelli che potremmo confidare solo a Dio o ai suoi messaggeri e plenipotenziari sulla Terra) e collegati ad altoparlanti disposti nelle pubbliche piazze, in luoghi precedentemente intesi per brandire e sviscerare argomenti di interesse, rilevanza e impellenza comuni. L’avvento della società confessionale ha segnato il trionfo definitivo della privacy, invenzione squisitamente moderna, e inaugurato al tempo stesso l’inizio della sua vertiginosa caduta dal sommo della sua gloria. Suonò così l’ora di una vittoria che si rivelò di Pirro, se si pensa che la privacy ha invaso, conquistato e colonizzato l’ambito pubblico, ma a scapito dell’autonomia, suo tratto caratteristico e privilegio diletto, difeso più caparbiamente di ogni altro. Ma partiamo dall’inizio, così da comprendere al meglio le recenti svolte di una trama che è iniziata con la nascita dell’epoca moderna. Che vuol dire “privato”? Tutto quanto pertiene all’ambito della privacy. Per intenderci sull’attuale significato di questa parola si veda la definizione che ne dà Wikipedia: il sito noto per cogliere e registrare con prontezza e diligenza tutto ciò che la saggezza comune considera o accetta per vero in un dato momento, e per aggiornare giorno per giorno i propri contenuti tallonando degli obiettivi tristemente noti per superare in velocità anche gli inseguitori più motivati. Il 14 luglio del 2010, l’edizione in lingua inglese del sito dava di “privacy” la seguente definizione:

la capacità di un individuo o di un gruppo di rendere inaccessibile se stesso o le informazioni che lo riguardano, e rivelarsi quindi selettivamente. Talvolta la privacy è collegata all’anonimato, al desiderio di passare inosservati o di non farsi riconoscere in pubblico. Solitamente consideriamo “privato” qualcosa che riveste per noi un’importanza intrinsecamente speciale, o ci tocca personalmente... La privacy può essere considerata una componente della sicurezza – nella quale i compromessi fra gli interessi di un gruppo e quelli di un altro possono emergere con particolare evidenza.

Cos’è, invece, un’“arena pubblica”? Uno spazio a cui chiunque desideri entrare, guardare e ascoltare può accedere liberamente. Tutto quanto è udito o visto in un’arena pubblica può, in linea di principio, essere udito o visto da chiunque. Se consideriamo che (per citare ancora una volta Wikipedia) “il grado con cui le informazioni private sono rese pubbliche dipende dal modo in cui il pubblico le riceve – che varia in funzione dei luoghi e dei momenti”, il tentativo di mantenere privato un pensiero, un evento o un’azione e la decisione di renderli pubblici sono chiaramente tra loro tanto inconciliabili quanto interdipendenti (poiché definiscono l’uno i limiti dell’altra). Il territorio del “privato” e del “pubblico” tendono ad essere in contrasto tra loro, così come le leggi e le norme di buona creanza che prevalgono al loro interno. Per ciascuno dei due ambiti, l’atto di auto-definizione e auto-affermazione viene compiuto in contrapposizione all’altro ambito. Di norma i campi semantici delle due nozioni non sono tenuti separati da argini che invitano o consentono scambi reciproci, bensì da limiti invalicabili, meglio se sigillati ermeticamente e pesantemente fortificati su entrambi i fronti, a protezione contro gli invasori, i voltagabbana e tutti coloro che, indecisi, preferiscono restare seduti sulle barricate – ma in particolare contro i disertori di entrambe le fazioni. Tuttavia, anche quando nessuna azione è annunciata o prevista (o se le ostilità sono state sospese), il confine che separa le questioni pubbliche da quelle private non ammette di norma che un selezionato traffico a doppio senso; un transito aperto a tutti metterebbe infatti in dubbio la nozione stessa di confine, rendendola ridondante. Il controllo, e il diritto di decidere chi o cosa possa oltrepassare la linea di demarcazione e chi o cosa debba invece rimanere da una sola parte (ovvero: a quali elementi di un’informazione si può accordare il privilegio della riservatezza e a quali possiamo invece permettere, imporre o ingiungere di essere resi pubblici), sono di norma aspramente dibattuti. Se si desidera sapere quale fronte oggi si trovi

sull’offensiva e quale stia invece tentando di difendere (con forza, o senza nerbo) i propri diritti ereditati o acquisiti contro gli invasori, basta riflettere sul profetico presagio espresso da Peter Ustinov nel 1956: “Questo è un Paese libero, signora. Noi abbiamo il diritto di condividere la sua privacy in uno spazio pubblico” (i corsivi sono miei). Per la maggior parte dell’era moderna si è ritenuto, o temuto, che il rischio di un attacco al confine che separa il pubblico dal privato (o l’eventualità addirittura più grave di una revoca unilaterale o di arbitrarie modifiche delle norme comuni che ne regolano il traffico) potesse giungere quasi esclusivamente dal “fronte pubblico”: le istituzioni pubbliche erano infatti ampiamente sospettate di voler invadere e conquistare la sfera del privato e sottometterla alla propria giurisdizione, limitando severamente l’ambito del libero arbitrio e della libera scelta, e privando così di tutela (e, di conseguenza, della sicurezza personale o collettiva) gli esseri umani o i gruppi di individui. I demoni più sinistri e sconvolgenti che infestano l’epoca della “modernità solida” sono stati ritratti in maniera sintetica ma assai efficace da George Orwell con l’immagine dello “stivale che calpesta un volto umano”. Sentimenti contrastanti e tuttavia non privi di fondamenta attribuivano alle istituzioni pubbliche intenzioni malvagie o pratiche malevole volte a ergere delle barricate capaci di impedire a molte questioni private di raggiungere l’agorà o altri luoghi di libero scambio delle informazioni, in cui avrebbe potuto essere negoziato l’innalzamento di problemi privati al livello di temi pubblici. L’atroce esperienza delle due forme di totalitarismo del ventesimo secolo, analogamente rapaci e crudeli (che sembravano aver esaurito nel complesso lo spettro delle possibili scelte: se uno di loro rivendicava il retaggio dell’Illuminismo e il suo progetto moderno, l’altro biasimava quell’atto fondante della modernità come un crimine o un patetico errore, e rifiutava il progetto moderno, considerandolo destinato alla catastrofe), ha naturalmente fornito credibilità a tali sospetti, giustificando l’ansia che da questi derivava. E benché siano ormai in parte scemati, tali sospetti permangono e l’ansia rifiuta di attenuarsi – ripetutamente galvanizzata, risuscitata e rinvigorita all’annuncio dell’ennesima istituzione pubblica che trasferisce arbitrariamente gran parte delle proprie funzioni e dei propri obblighi dall’ambito “pubblico” a quello “privato” (in aperta violazione delle

norme saldamente radicate nella mentalità democratica, quantunque mai esplicitamente codificate), trasferendo al tempo stesso nella direzione opposta, apertamente o furtivamente, quantità addirittura maggiori di informazioni innegabilmente private, raccogliendole e mettendole da parte per destinarle successivamente a un uso scellerato. Tuttavia, quali che siano i motivi della presunta rapacità e voracità della sfera pubblica, e della sua presunta o prevista aggressività, e benché con il tempo la percezione di queste sia forse cambiata, i timori di un’imminente invasione e conquista della sfera pubblica da parte di interessi e questioni privati sono rimasti tutt’al più rari e sporadici. A spingere molti dei nostri antenati e delle generazioni che ci hanno preceduti a imbracciare le armi è stato il desiderio di proteggere la sfera privata, e quindi l’autonomia individuale, da ogni indebita ingerenza da parte dei potenti. Per lo meno così era sino a tempi recenti: perché oggi gli annunci trionfali della progressiva “liberazione” di nuovi territori pubblici da parte delle truppe del privato in marcia, salutati con giubilo e applausi dalle folle festanti che assistono avidamente allo spettacolo, si accompagnano a tetre premonizioni (sinora flebili) e moniti (ad oggi rari e incerti): l’apparente “liberazione” presenta infatti i tratti distintivi di una conquista imperialista, di una spietata occupazione, dell’avido colonialismo. A proposito della segretezza (e quindi, indirettamente, della privacy, dell’individualità, dell’autonomia, dell’auto-determinazione e dell’autoaffermazione – di cui la segretezza è ingrediente indispensabile, fondamentale e inscindibile), Georg Simmel, il più arguto e lungimirante dei fondatori della sociologia, ebbe a dire che per assicurarsi delle realistiche probabilità di sopravvivere intatta questa deve essere riconosciuta dagli altri31. Occorre rispettare la regola secondo cui “ciò che è intenzionalmente o involontariamente tenuto nascosto debba essere intenzionalmente o involontariamente rispettato”. Il rapporto tra queste due condizioni (la privacy da un lato, e la possibilità di auto-determinarsi e auto-affermarsi dall’altro) tende però ad essere instabile e teso. E “l’intenzione di tenere nascosto qualcosa [...] richiede uno sforzo ben maggiore quando si scontra con l’intenzione di rivelarlo”. Dalle osservazioni di Simmel consegue che in mancanza di tale “maggiore sforzo”, se la volontà di difendere con le unghie e con i denti la segretezza dai ficcanaso, dagli impiccioni e dagli intriganti che non rispettano i segreti

altrui viene meno, la privacy è a rischio. Ed è esattamente ciò a cui assistiamo oggi, come Peter Ustinov, rielaborando l’affermazione di Georg Simmel, ha arguito dal clima dei nostri giorni – giorni che seguono solo di pochi decenni lo studio di Simmel. Gli occasionali moniti circa i rischi letali che la privacy e l’autonomia individuale corrono a causa dello spalancamento dell’arena pubblica a questioni di carattere privato, e la graduale ma inesorabile trasformazione di quest’ultima in una sorta di teatrino di varietà, producono sull’agenda pubblica, e in particolare sull’attenzione generale, scarse ripercussioni (o forse nessuna). Il paradosso della “deregolamentazione” (ovvero la volontaria cessione da parte dello Stato di molte delle competenze che in passato serbava gelosamente), abbinata all’“individualizzazione” (ovvero la cessione all’ambito della “politica della vita”, gestita su base individuale, di un gran numero dei doveri che un tempo spettavano allo Stato) – entrambe reclamizzate come unica autorevole via che conduce al trionfo dei diritti individuali, ma di fatto intente a prosciugare le fondamenta stesse dell’autonomia individuale, privandola così dell’antica attrattiva che faceva di questa un valore ambitissimo –, rimane di fatto occultato, richiama ben poca attenzione e non suscita pressoché alcuna reazione. Un segreto è, per definizione, quella porzione della conoscenza che non vogliamo o non possiamo condividere con gli altri, o la cui condivisione è attentamente controllata. In un certo senso, la segretezza definisce e stabilisce i confini della privacy, che dovrebbe essere un ambito personale, uno spazio su cui dominare soli e indisturbati, all’interno del quale si detiene il potere assoluto e indiviso di decidere “chi e cosa si è” e da cui lanciare e rilanciare a piacimento delle campagne personali volte a far sì che le nostre decisioni siano riconosciute e accettate. Con una drastica inversione di rotta rispetto alle consuetudini dei nostri antenati, abbiamo perso il coraggio, la resistenza e soprattutto la volontà di persistere nella tutela di quei diritti –mattoni insostituibili indispensabili per la costruzione dell’autonomia individuale. A spaventarci, oggi, non è tanto la possibilità che la privacy sia tradita o violata, ma l’opposto: ovvero la chiusura di ogni varco. Il territorio della privacy si sta trasformando in un luogo di detenzione, una cella d’isolamento che condanna chi è segregato al suo interno a cuocere per sempre nel proprio brodo, costringendolo a una condizione in cui nessuno lo ascolta con avidità, desideroso di carpire i

suoi segreti, strappandoli alla protezione dei bastioni della privacy per poi ostentarli apertamente, renderli di pubblico dominio e trasformarli quindi in un bene che tutti vogliono condividere. Custodire segreti sembra non darci più alcuna gioia, a meno che non si tratti di quel tipo di segreti capaci di lusingare il nostro ego perché richiamano l’attenzione di studiosi e autori dei talk show televisivi, delle prime pagine dei tabloid e delle riviste patinate. Ne consegue che oggi è la sfera pubblica ad essere inondata, affollata, sopraffatta e presa di mira dalla continua invasione, occupazione e colonizzazione delle truppe della privacy. Queste lasciano i loro antichi rifugi – caserme, palizzate, fortezze – spinte forse dall’esigenza di conquistare nuovi avamposti e stanziare nuovi presidi, o forse per fuggire, tra panico e disperazione, dalle loro recinzioni abituali e sicure divenute ormai inabitabili? Il loro zelo è forse sintomo di un nuovo spirito di esplorazione e conquista, o è invece il prodotto e la testimonianza dell’espropriazione e della vittimizzazione? Il compito che è stato loro assegnato nella nostra epoca liquido-moderna – ovvero di scoprire e/o decidere “chi e cosa io sono” – è forse troppo arduo per poter essere adeguatamente affrontato entro gli esigui terreni della privacy? Dopotutto, ogni giorno si accumulano nuove prove del fatto che più ci sforziamo di cimentarci in nuovi esperimenti e di costruirci laboriosamente nuove immagini pubbliche, minori sono le probabilità di conquistare la sicurezza in se stessi e l’autostima, la cui promessa ha messo in moto quegli sforzi. Questa non è che una delle domande che non trovano un’ovvia risposta. Ne esiste però un’altra, anch’essa in vana attesa di soluzione. Dopotutto, la segretezza non è solo uno strumento della privacy che consente di ritagliare uno spazio dedicato esclusivamente a se stessi, per isolarsi dagli intrusi e dalle compagnie indesiderate; essa rappresenta anche un mezzo molto efficace per costruire e facilitare un senso di comunanza, per stringere e proteggere i legami tra gli esseri umani forse più solidi che si conoscano e si possano concepire. Confidando i propri segreti a pochi, “specialissimi” individui, e tenendoli al tempo stesso fuori dalla portata di tutti gli altri, tessiamo delle reti di amicizia, nominiamo e manteniamo i nostri “migliori amici”, assumiamo e teniamo fede a un numero infinito di impegni (in realtà firmiamo degli assegni in bianco, dal momento che tali impegni sono indeterminati e non prevedono la possibilità di ritrattare);

aggregati sconnessi di individui si trasformano in gruppi coesi, ben integrati e forse duraturi. In breve: ritagliamo dal mondo alcune zone franche all’interno delle quali il penoso e irritante scontro tra appartenenza e autonomia viene per una volta messo a tacere; in cui le scelte tra interessi privati e il benessere degli altri, tra altruismo ed egoismo, tra amore di sé e cura degli altri smettono di tormentarci e di fomentare e alimentare i rimorsi della coscienza, dolorosi ed esasperatamente insistenti. Come già osservava Thomas Szasz nel suo The Second Sin (1973), basato sull’analisi di un unico (ma estremamente efficace) strumento di aggregazione: “il sesso è stato tradizionalmente un’attività molto privata e riservata. In questo risiede forse la sua potente capacità di creare un forte legame tra le persone. Privando il sesso della sua riservatezza potremmo spogliarlo anche del potere che ha di tenere uniti uomini e donne”. Sino a tempi recenti, la vita sessuale era epitome di riservatezza e intimità, qualcosa da condividere con estrema discrezione e solo con persone scelte con la massima cura e attenzione. In altre parole, era considerata un esempio preminente dei legami più forti tra gli esseri umani: quelli più difficili da troncare e scomporre, e quindi più affidabili. Tuttavia, ciò che vale per l’arma più efficace (nonché principale paladina) della privacy vale, a maggior ragione, per i suoi compagni meno degni, i suoi sostituti di grado inferiore, le sue copie sbiadite. L’attuale crisi della privacy appare inestricabilmente collegata all’indebolimento e al decadimento dei legami fra gli esseri umani. Così come accade con l’uovo e la gallina, anche nel caso del crollo della privacy e del venir meno dei legami, discutere per stabilire quale dei due ha preceduto l’altro e quale invece è venuto dopo equivale a una perdita di tempo. Un discreto numero di osservatori, e la saggezza popolare che si basa sulle loro opinioni, ha recentemente affidato la duplice speranza di riuscire a soddisfare sia le esigenze dell’affermazione di sé sia quelle del “community building” (disinnescando al tempo stesso il conflitto tra autonomia e appartenenza) alla tecnologia d’avanguardia, con la sua sorprendente capacità di facilitare i contatti umani e la comunicazione. Ma la frustrazione di tale speranza sta guadagnando terreno e si va estendendo. Quella frustrazione rappresenta forse il prezzo inevitabile della repentina accelerazione che l’informazione ha subìto in seguito alla nascita

dell’“autostrada dell’informazione”, ovvero internet. Le autostrade di nuova costruzione, di qualsiasi tipo esse siano, spingono un numero crescente di persone a munirsi di un veicolo e percorrerle e ripercorrerle con frequenza. Per questo tendono a congestionarsi rapidamente (in un certo senso invitano, creano e contribuiscono alla congestione), a dispetto di quanto sembrino promettere. L’obiettivo di far giungere i viaggiatori alla meta desiderata in minor tempo e con il minor sforzo possibile potrebbe rivelarsi molto più arduo del previsto. Nel caso delle “autostrade dell’informazione”, tuttavia, la frustrazione è dovuta anche a un altro buon motivo: meta dei messaggi (che rappresentano i “veicoli” che sfrecciano su questo tipo di autostrada) è l’attenzione umana, che internet è incapace di espandere, così come non può accrescere la propria capacità di consumare e digerire. Al contrario, l’adattamento alle condizioni create da internet rende l’attenzione fragile e soprattutto incostante, incapace di concentrarsi a lungo; allenata e abituata a “navigare”, ma non a spingersi in profondità; a “fare zapping” tra i canali, ma non ad aspettare che una qualsiasi delle trame percorse si riveli in tutta la sua ampiezza e profondità. In breve, l’attenzione tende ad abituarsi a scivolare sulla superficie molto più rapidamente del tempo che le sarebbe necessario per farsi un’idea di ciò che si nasconde più in fondo. Per riuscire a farsi notare, i messaggi elettronici devono quindi essere abbreviati e semplificati, così da comunicare tutto il loro contenuto prima che l’attenzione si esaurisca, s’interrompa e scivoli altrove; è questa esigenza che li rende estremamente inadatti a comunicare delle idee profonde, che richiedono riflessione e meditazione. La tendenza ad abbreviare e semplificare i messaggi, rendendoli vieppiù superficiali e quindi più agevoli da “navigare”, ha caratterizzato sin dall’inizio la breve ma burrascosa storia della rete mondiale. Da lunghe, elaborate e premurose lettere alla posta elettronica, da brevi ma succose e-mail ai messaggi ancora più stringati dell’iPhone fino al “cinguettio” di Twitter, che non consente di impiegare più di 140 caratteri... Applicando al mondo elettronico il principio darwiniano della “sopravvivenza del più adatto” (o la percezione di Copernico o la legge di Gresham, secondo la quale “il denaro cattivo scaccia quello buono”), ad avere maggiori probabilità di far breccia nell’attenzione umana sono le informazioni più brevi, più superficiali, meno gravate di significato: frasi anziché elaborate argomentazioni, singole

parole chiave al posto di frasi, spezzoni invece di parole. Il prezzo che noi tutti paghiamo per avere l’informazione a portata di mano è il contrarsi del suo contenuto; il prezzo della sua pronta disponibilità è una radicale riduzione del suo significato. L’altra ambivalenza endemica di questa nuova tecnologia dell’informazione, per altro strettamente collegata alla prima, sta nella sua immensa capacità di formare, così come di smantellare, una comunità. Gli utenti di Facebook si fanno vanto di poter fare in un giorno cinquecento “nuove amicizie” – più di quante io sia riuscito a stringerne in ottantacinque anni di vita. Ciò significa forse che quando parliamo di “amici” abbiamo in mente lo stesso tipo di relazione? A differenza dei raggruppamenti per i quali il termine “comunità” (o qualsiasi altro concetto che si riferisca all’aspetto pubblico dell’esistenza umana, alla “totalità” della congregazione umana) fu originariamente coniato, le “comunità” che si formano su internet non sono pensate per durare, e ancor meno per essere commensurate alla durata del tempo. Accedervi è facile, ma altrettanto facile è abbandonarle nell’attimo in cui l’attenzione, le simpatie o le antipatie, lo stato d’animo o le mode ci spingono altrove; o nel momento in cui si instaura la noia del “sempre uguale, sempre lo stesso”, facendoci apparire la nostra situazione monotona e poco stimolante – come prima o poi accade in un mondo continuamente bombardato da nuove offerte (sempre più allettanti e seducenti). Le comunità di internet (di recente, e più accuratamente, chiamate “network”) si formano e si sfaldano, si ampliano o si contraggono sulla spinta di molteplici decisioni e impulsi individuali di “collegarsi” e “scollegarsi”. Sono quindi estremamente modificabili, fragili e inguaribilmente fissipare – ed è proprio per questo che tante persone immerse nel contesto liquido-moderno salutano con gioia il loro avvento, preferendole alle comunità “vecchio stile” che monitoravano la condotta quotidiana dei loro membri, tenendoli sotto stretto controllo e opponendosi a qualsiasi indizio di slealtà e a ogni piccolo misfatto, e rendendo impossibile o incredibilmente dispendioso cambiare idea o decidere di andarsene. A renderle così attraenti agli occhi di tante persone – in considerazione della fluidità che caratterizza l’esistenza liquidomoderna – è precisamente la loro perpetua transitorietà, la loro natura temporanea perché eternamente provvisoria, il loro astenersi dall’imporre

impegni a lungo termine (e ancor meno incondizionati) o una lealtà assoluta e una rigorosa disciplina. In molti hanno salutato l’avvento di network su internet e il loro sostituirsi alle comunità vecchio stile come un grosso passo in avanti nella storia della libertà di scelta individuale. Tuttavia, le stesse caratteristiche che rendono tanto desiderabili i network impongono un caro prezzo, che molte e sempre più persone trovano sgradevole e intollerabile; un prezzo da pagare in termini di sicurezza, che le comunità di un tempo erogavano e che i network non riescono invece a garantire credibilmente. Ma non si tratta semplicemente di barattare un valore per un altro, “un po’ di sicurezza in cambio di un po’ di libertà”. La scomparsa delle comunità vecchio stile contribuisce alla liberazione dell’individuo – eppure, una volta liberati, gli individui potrebbero ritenere impossibile, o quanto meno superiore alle proprie capacità individuali e alle risorse di cui dispongono individualmente, riuscire a fare un uso sensato di tale libertà. Essere liberi non solo de jure, ma anche de facto. Molti dei suoi presunti beneficiari considerano tale scambio, presumibilmente equo, qualcosa che li rende ben più impotenti e scontenti, e per questo più insicuri. Riassumendo, si potrebbe supporre che il compito di rendere genuina la libertà individuale richieda il rafforzamento, anziché l’indebolimento, dei legami di solidarietà che uniscono gli esseri umani. L’impegno a lungo termine che una forte solidarietà promuove potrebbe essere considerato tanto un bene che un male – così come l’assenza di impegni, che rende la solidarietà inaffidabile e disinibita. La coesistenza di pubblico e privato è «piena di rumore e di furore», come per Macbeth. E tuttavia, senza la loro contemporanea presenza la comunanza umana non sarebbe più concepibile dell’acqua senza la contemporanea presenza di idrogeno e ossigeno. Ciascuno dei due elementi ha bisogno dell’altro per mantenere una condizione sostenibile e sana. In convivenze di questo tipo, una guerra di logoramento equivale al suicidio di entrambi. Adesso, come in passato e nel futuro, la cura di sé e del bene dell’altro vanno nella medesima direzione e suggeriscono un’unica filosofia e strategia di vita. È questo il motivo per cui difficilmente la ricerca di un assetto definitivo tra privato e pubblico si fermerà del tutto. Come l’apparente turbolenza che ne caratterizza il rapporto. [Sono grato per aver avuto la possibilità di attingere parte del materiale dal mio saggio Privacy,

secrecy, intimacy, human bonds, utopia – and other collateral casualties of liquid modernity, in Harry Blatterer, Pauline Johnson e Maria R. Markus (a cura di), Modern Privacy: shifting boundaries, new forms, Palgrave Macmillan, New York 2010]. 31 Vedi Georg Simmel, La moda, in Id., La moda e altri saggi di cultura filosofica, a cura di M. Monaldi, Longanesi, Milano 1985, poi Guanda, Parma 1993, pp. 29-52 (ed. or. 1885 e 1904).

7. La sfortuna e l’individualizzazione dei rimedi

Secondo l’Oxford English Dictionary la parola “fortuna” potrebbe essere stata in origine un termine del gioco d’azzardo, inventato e introdotto per descrivere qualcosa che sarebbe potuto accadere a un giocatore incallito, benché avrebbe potuto avere esiti diversi, o non accadere affatto. In altre parole, per definire un evento il cui verificarsi non è né certo né prevedibile, e che, soprattutto, non dipende in alcun modo da ciò che il giocatore in questione poteva o doveva fare – se non unirsi al gioco e in tal modo “correre il rischio”, al pari degli altri giocatori. Per meglio dire, “fortuna” era un avvenimento che non poteva essere attribuito a una “causa” specifica: a un atto o un evento che la determinasse, la rendesse inevitabile, ineluttabile o necessaria, a meno di essere annullato o modificato dall’interferenza di qualche potere importuno e tuttavia invisibile, come Fortuna, la dea del caso, o di un’entità segreta o di una banda di intriganti dotati della facoltà di decidere in qualche modo misterioso le sorti dell’umanità, per una specie di forza onnipotente, sovrumana e divina, la stessa evocata dal popolare detto: “l’uomo propone, Dio dispone”. Una vincita era dunque un esempio di buona fortuna, mentre una sconfitta (e in particolare una successione insolitamente protratta di sconfitte) un caso di cattiva fortuna; ma sia l’una che l’altra si manifestavano senza alcun ovvio motivo, né potevano essere previste con sicurezza, e ancor meno con certezza. Buona o cattiva che sia, la fortuna è l’esatto contrario della certezza, e implica anzi un contesto essenzialmente incerto: non ben determinato né ben definito, non preordinato né previsto (senza una “conclusione scontata”), ma soprattutto immune e insensibile alle nostre intenzioni e iniziative. In altre parole, un contesto in cui può accadere di tutto, ma nel quale nessuna conseguenza può essere attendibilmente prevista. L’“incertezza” sfida la nostra capacità di comprendere la situazione, agire

con passo sicuro e perseguire e raggiungere gli obiettivi che ci siamo prefissi. Lo stato d’incertezza, terreno naturale del gioco d’azzardo e della buona o cattiva sorte, è in altre parole un prodotto congiunto dell’ignoranza e dell’impotenza: due draghi che gli eredi illuministi di san Giorgio promisero, decisero e si sforzarono di uccidere, o quanto meno di cacciare dal mondo degli esseri umani, impedendone il ritorno. “Ignoranza” in questo caso è la discrepanza tra ciò che ci aspettiamo, speriamo e desideriamo che accada e ciò che di fatto accade. “Impotenza” è invece la discrepanza tra ciò che siamo in grado di fare e ciò che dovremmo o vorremmo riuscire a compiere. Ci sentiamo incerti quando non capiamo esattamente quali sono i fattori che rendono la nostra situazione quella che è, e quindi non sappiamo quali fattori occorra mettere in campo e attivare per rendere la situazione più propizia – o di quali fattori abbiamo bisogno per evitare che la situazione peggiori; ci sentiamo impotenti quando ci rendiamo conto o giungiamo a sospettare che anche se avessimo stilato un inventario completo di quei fattori non avremmo comunque avuto gli strumenti, le competenze o le risorse necessarie ad attivarli, o a disabilitarli nel caso se ne fosse presentata la necessità. Anziché darci forza e renderci più audaci, dunque, la conoscenza che acquisiamo ci mortificherà, rivelando tutta la nostra inadeguatezza di fronte al compito da svolgere. È per questo che sentirsi a un tempo incerti e impotenti è una condizione assolutamente sgradevole, irritante, imbarazzante, infamante e umiliante. Ed è questo inoltre il motivo per cui abbiamo imparato a considerare la duplice promessa avanzata dalla scienza (di riuscire a sostituire la conoscenza all’ignoranza) e dalla tecnologia (di rimpiazzare l’impotenza con la capacità di agire efficacemente) come uno dei più straordinari successi dell’era moderna – se non il più straordinario. La modernità si è affermata come la promessa e la risoluzione di conquistare l’incertezza – o quanto meno di dichiarare contro quel mostro dalle numerose teste una guerra totale di logoramento. I filosofi illuministi attribuivano l’improvvisa abbondanza di sorprese sgradevoli, sfortune e disgrazie inflitte da forze fuori controllo scatenatesi in seguito alle protratte guerre di religione, e capaci di sottrarsi ostinatamente alla presa sempre più debole dei sistemi di controllo locali, all’abbandono da parte di Dio della

gestione quotidiana del suo Creato, oppure a una tara nel Creato stesso; ovvero, alle bizze e ai capricci a cui la Natura al suo stato primitivo (tanto chiaramente estraneo e sordo alle esigenze e ai desideri dell’uomo) era soggetta a meno di non essere domata e imbrigliata dall’ingegno, dalla ragione e dall’operato dell’uomo. Benché le singole spiegazioni differissero le une dalle altre, alla fine si affermò la convinzione secondo la quale la gestione corrente delle cose terrene avesse fallito il test, e quindi il mondo andava posto urgentemente sotto una nuova amministrazione, questa volta di natura umana. La nuova gestione era incaricata e determinata a mettere fine una volta per tutte ai più fantastici demoni dell’incertezza: l’imprevedibilità, la casualità, la mancanza di chiarezza, l’ambivalenza e la scarsa determinazione. Scopo dichiarato del cambiamento di gestione era quello di subordinare la Natura (compresa quella dell’uomo) indocile e cieca alle regole della ragione; per essere precisi, di reimpostare la Natura (di nuovo, compresa quella dell’uomo) sul modello della Ragione – la quale, come tutti dovrebbero sapere, è animata e guidata dall’innata e incondizionata avversità per la contraddizione, l’ambiguità e ogni sorta di anomalia, oltre che dall’incrollabile lealtà verso i precetti dell’ordine, della norma e dell’obbedienza alla legge; in breve, un regno della ragione in grado di stabilire per tempo quali fossero i mezzi necessari a imporre sul mondo naturale e su quello umano un modello ideato a misura delle esigenze e delle preferenze degli uomini. Una volta assolto quel compito, il mondo umano non sarebbe più stato alla mercé dei colpi di fortuna, e la felicità, anziché essere un dono del destino, gradito e tuttavia inspiegabile e non richiesto, avrebbe costantemente trionfato come il prodotto di una pianificazione basata sulla conoscenza e sulle sue applicazioni. Una volta che la modernità avesse mantenuto la propria promessa, non ci sarebbe più stato bisogno di affidarsi alla fortuna per il proprio benessere e la propria felicità. La gestione umana non ha saputo però soddisfare queste aspettative, che pure erano state amplificate dalle generose rassicurazioni dei suoi dotti paladini e poeti di corte. È vero: molte delle consuetudini ereditate dal passato e accusate di aver contaminato l’esistenza degli uomini tramite l’incertezza furono smantellate ed eliminate, ma i modelli che ne hanno preso il posto hanno dimostrato di produrre altrettanta incertezza, e le raccomandazioni delle nuove regole di condotta hanno sortito esiti la cui

riuscita è risultata casuale. Il numero delle incognite presenti nelle equazioni che caratterizzano la vita umana non accennava quindi a diminuire. La certezza tanto auspicata e promessa, ritenuta così accessibile, non si scorgeva da nessuna parte e rimaneva caparbiamente lontana dalla portata dei suoi inseguitori. Per i primi cento o duecento anni della guerra contro l’incertezza è stato possibile trascurare, o quanto meno minimizzare, la mancanza di una convincente vittoria. Il sospetto che l’incertezza potesse essere una compagna permanente, indelebile e inseparabile dell’esistenza umana tendeva a essere sminuito perché “sbagliato” per principio, o quanto meno decisamente prematuro. Malgrado le prove a dimostrazione del contrario fossero sempre più numerose, si poteva ancora pronosticare l’imminente avvento della certezza, considerata appena dietro l’angolo, o forse dietro l’angolo successivo. L’obiettivo si dimostrava forse più sfuggente di quanto non si fosse ritenuto durante gli inebrianti esordi dell’era moderna, ma il suo ritardo, per quanto deludente, non lo screditò né fu preso a dimostrazione della sua irraggiungibilità. Tutt’al più rendeva il compito più difficile di quanto fosse stato precedentemente ritenuto, e quindi tale da richiedere una dose maggiore di ingegno, di sforzi, di risorse e di sacrifici. La continua presenza dell’imprevedibilità poteva sempre essere giustificata e risolta motivandola con l’insufficienza delle conoscenze raggiunte fino a quel momento, o con deplorevoli e tuttavia rettificabili errori da parte della gestione – che tuttavia non richiedevano una sostanziale riconsiderazione della meta presunta e postulata dell’avventura moderna. Negli ultimi cinquant’anni, però, un drastico cambiamento ha vieppiù investito il modo in cui vediamo il ruolo che l’imprevisto occupa nella storia dell’umanità e nella traiettoria esistenziale degli individui, e la certezza dell’imminente mitigarsi del suo impatto grazie al progresso della conoscenza e della tecnologia. Nelle teorie più recenti sulle origini e sullo sviluppo dell’universo, o sulle origini e sull’evoluzione della vita sulla Terra, così come nelle nostre descrizioni delle unità elementari della materia, alcuni eventi casuali irregolari – essenzialmente imprevedibili perché indeterminati o del tutto contingenti – sono stati promossi dal rango di “disturbi” o “anomalie” curiose e marginali a quello di fattori costantemente presenti e cardinali. L’era moderna dell’ingegneria sociale poggiava la propria credibilità

sulla presupposta esistenza di alcune indomite “regole profonde”, non ancora scoperte o ferree poco comprese, ma destinate ad emergere grazie all’opera della ragione; leggi di ferro che governano la natura e che, una volta eliminate le contingenze responsabili di causare i “disturbi”, avrebbero conferito all’esistenza umana ordine e regolarità assoluti. Nell’ultimo mezzo secolo, o giù di lì, ad essere messa sempre più in dubbio è stata invece proprio l’esistenza di simili “leggi”, e la plausibilità (o meglio la concepibilità) di catene ininterrotte di cause ed effetti. Stiamo arrivando a comprendere che l’imprevedibilità, la contingenza, la casualità, l’ambiguità e l’irregolarità non sono il frutto di cantonate occasionali e in linea di principio rettificabili, bensì tratti inalienabili di ogni esistenza – e quindi impossibili da eliminare dalla vita sociale e individuale degli esseri umani. Per una volta, le scienze naturali e le scienze umane sembrano convergere su opinioni considerevolmente simili circa la modalità esistenziale dei rispettivi obiettivi. È come, se per effetto dei drastici cambiamenti nell’esperienza del vivere umano e nelle pratiche e ambizioni di vita, il treno del pensiero scientifico nella sua totalità fosse stato, intenzionalmente o meno, convogliato su un binario diverso. A partire da quel momento, il treno del pensiero accademico sembra aver imboccato una direzione che lo avvicina alle stesse conclusioni a cui molto tempo fa giunse Jorge Luis Borges nella sua riflessione filosofica sulla casualità delle ricompense e dei castighi, distribuiti tra gli uomini senza il benché minimo nesso con ciò che essi fanno od omettono di fare. Borges scrive nel suo racconto La lotteria a Babilonia, che da qualche parte negli scantinati della città sembrava si nascondesse una compagnia clandestina che distribuiva la buona e la cattiva sorte per estrazione, come nelle lotterie. Borges elenca le teorie formulate da alcuni beneficiari e vittime delle estrazioni per tentare di cogliere un qualche ordine in quelle che a prima vista non apparivano essere altro che disordinate sequenze di eventi, per poi giungere alla conclusione che “è indifferente affermare o negare la realtà della tenebrosa corporazione, perché Babilonia, essa stessa, non è altro che un infinito gioco d’azzardo”32. Ciò che Borges suggerisce – e che noi non abbiamo alcun buon motivo per negare, né ragioni convincenti per confutare – è che, quale che sia la Babilonia in cui viviamo, siamo destinati a rimanere per sempre immersi in quella sgradevole mistura di ignoranza e impotenza da cui queste nostre

riflessioni hanno avuto origine. Per quanto ci sforziamo di subordinare gli effetti delle nostre azioni alle nostre intenzioni e alla nostra condotta, questi differiscono continuamente, e di molto, dalle nostre aspettative, lasciandoci incapaci di decidere anticipatamente in quali circostanze e in che modo questa o quella conseguenza delle nostre azioni differirà dall’effetto che ci eravamo prefissi. È davvero come se esistesse una compagnia segreta intenta a tenere ben separati gli effetti dalle cause, le conseguenze delle azioni dalle intenzioni che le hanno prodotte. O forse tra cause ed effetti, intenzioni ed esiti non esiste alcun nesso – o esiste solo nella nostra immaginazione, affamati come siamo di ordine e di logica; forse non vi è nulla da scoprire, nessuna “conoscenza” capace di liberarci dalla nostra ignoranza, nessuna “legge fondamentale” o elemento invariabile da individuare e mandare a memoria così da non dover più incorrere in errori e frustrazione, e da assicurarci che le buone opportunità si presentino a noi ogni qual volta allunghiamo le mani per coglierle? Come risponderebbe Borges: “è indifferente”. Quale che sia la sua origine e chiunque sia a dirigerlo, l’“infinito gioco d’azzardo” non lascia scampo. Il raggiungimento di uno stato di certezza è la fantasiosa creazione dell’immaginazione, coadiuvata, favorita e alimentata dagli orrori dell’onnipresente e continua incertezza: un sogno sognato da persone incerte e insicure, consapevoli forse che si tratti di un sogno ma incapaci di trattenersi dal sognarlo. Meno certi e quindi meno sicuri ci sentiamo, e più i nostri sogni sono intensi e la nostra ricerca di sostituti, palliativi, stratagemmi, tranquillanti – qualunque cosa sia in grado di attenuare la nostra paura dell’ignoto e ritardare il momento in cui guarderemo negli occhi la nostra impotenza – sarà disperata. La “fortuna” figura ai primi posti nell’elenco di simili espedienti. Nella nostra epoca liquido-moderna, i motivi per sentirsi incerti e insicuri sono numerosi, molto più di cinquant’anni fa. Dico “sentirsi” perché non possiamo essere sicuri che la quantità delle incertezze sia aumentata: possiamo invece constatare che a essere aumentati sono i nostri crucci e le nostre preoccupazioni. E sono aumentati perché di questi tempi la discrepanza tra i nostri effettivi mezzi di intervento e la grandiosità dei compiti che ci troviamo davanti e a cui siamo obbligati a fare fronte è più evidente, più ovvia, e addirittura più lampante e spaventosa di quanto non fosse ai tempi dei nostri padri e dei nostri nonni. L’impotenza che oggi

percepiamo in noi stessi ci fa apparire la nostra incertezza più terribile e minacciosa che mai. Due di queste discrepanze appaiono particolarmente abissali e incolmabili. Una ci sovviene ogni volta che solleviamo la testa verso l’alto, speranzosi di scorgere “lassù” nuove forze da invocare (nella speranza!) che accorrano in nostro aiuto e ci proteggano dai rovesci della fortuna. Scrutiamo terra e cieli con scarso successo, senza quasi mai trovare ciò che cerchiamo, mentre le nostre invocazioni di aiuto rimangono per lo più senza risposta. L’altra discrepanza con cui siamo costretti a convivere giornalmente si estende invece tra il punto in cui ci troviamo e quello dove ci piacerebbe essere, dove pensiamo che dovremmo essere o siamo tentati od obbligati a essere; nella maggior parte dei casi, però, ci accorgiamo che la distanza tra le due sponde del precipizio è troppo ampia per poterla superare con un balzo. La prima discrepanza è apparsa in seguito al divorzio tra potere e politica. Mentre la parola “potere” è un’abbreviazione per la possibilità di fare cose, “politica” indica la capacità di decidere quali cose andrebbero fatte (ovvero, a servizio di quali scopi occorra impiegare il potere esistente). Sino a tempi recenti, potere e politica risiedevano e collaboravano strettamente all’interno degli uffici dello Stato nazionale: ciò rendeva potente la politica dei sovrani dello Stato nazionale e sottoponeva il potere al controllo della politica. La loro separazione e l’imminente divorzio sono subentrati di sorpresa: dopotutto, sia le forze desiderose di riformare lo status quo sia quelle decise a conservarlo così com’era contavano sugli organi statali in quanto affidabili e opportuni esecutori delle loro intenzioni, nonché veicoli adatti per le azioni che intendevano intraprendere. Forze “progressiste” e forze “conservatrici” si scontravano nel decidere cosa andasse fatto, mentre la questione di chi avrebbe dovuto farlo non le preoccupava quasi mai. Per entrambe, le istituzioni che stabiliscono i programmi politici rappresentavano gli organi più potenti e congrui a cui affidare l’azione, e destinati a restare tali – dal momento che la sovranità dello Stato all’interno del proprio territorio era considerata assoluta, indivisibile e incontestabile. Tutto questo però non vale più, e molti o forse la maggioranza dei poteri che un tempo venivano esercitati dalle istituzioni politiche dello Stato sono “evaporati” nello “spazio dei flussi” (come lo definisce Manuel

Castells): quella terra di nessuno che si estende al di là della portata di qualsiasi Stato, o combinazione di Stati. Sono diventati abbastanza forti e mobili da trascurare o ignorare i confini statali, gli interessi locali e le leggi e le norme legate a un certo territorio. I poteri che segnano il confine tra opzioni realistiche e non realistiche si sono emancipati dalla maggior parte dei vincoli che i poteri territoriali degli Stati nazionali possono imporre o addirittura contemplare. A quel livello globale, lo scarto tra i mezzi a disposizione e gli obiettivi prefissi assume l’aspetto di un perpetuo scontro tra la politica, prostrata da un deficit cronico di potere e il potere svincolato dalle limitazioni che la politica impone. La seconda discrepanza è emersa all’estremo opposto della gerarchia del potere: al livello della “politica della vita” (per usare un’espressione di Anthony Giddens). Mentre le capacità di agire con efficacia scivolavano loro di mano, gli Stati, indeboliti, furono obbligati a cedere alle pressioni dei poteri globali e a “delegare” all’ingegno, alla cura e alla responsabilità degli individui un numero crescente di funzioni da loro precedentemente svolte. Adesso, come fa notare Ulrich Beck, spetta agli individui, ciascuno per conto proprio, cercare e trovare risposte ai problemi di origine sociale, nonché intervenire facendo leva sulle risorse di cui personalmente dispongono, assumendosi la responsabilità delle proprie scelte e del successo o del fallimento delle proprie azioni; in altre parole, oggi siamo tutti “individui per imposizione”: obbligati a (e ritenuti capaci di) progettare la nostra vita e mobilitare qualsiasi risorsa necessaria a inseguire e raggiungere i nostri obiettivi. La maggior parte di noi guarda con sospetto alla presunta capacità di riuscire a cavarsela da soli – considerandola, in parte o del tutto, un’invenzione. La maggior parte di noi non dispone delle risorse necessarie a elevarsi dal livello di “individui per imposizione” al rango di “individui di fatto”. Non possediamo né le conoscenze necessarie né la forza che un tale sforzo richiederebbe. La nostra ignoranza e la nostra impotenza nel trovare soluzioni individuali a problemi di natura sociale si traducono in una perdita di autostima, nella vergogna della propria inadeguatezza e nell’angoscia dell’umiliazione. Tutto ciò crea un perpetuo, incurabile clima di avvilimento, alimentato dall’incertezza: l’incapacità di assumere il controllo della propria esistenza e vedersi quindi condannati a una condizione non molto diversa da quella del plancton, che è continuamente

agitato da correnti di cui non conosce l’origine né può prevedere l’arrivo, la direzione e l’intensità. Vivere sotto una cappa d’ignoranza e impotenza e in un ambiente che trasuda incertezza ha facilitato enormemente l’attuale rinascita della categoria della “fortuna”, la quale ha ritrovato il favore che un tempo le era precluso e negato in virtù della sua stretta affinità con l’imprevedibilità, gli incidenti, la casualità e altre aberrazioni che la modernità aveva giurato di rendere superflue e di eliminare dall’esistenza umana. L’affinità tra fortuna e fattori del disordine e della sorte cieca è passata dall’essere considerata un handicap a rappresentare un vantaggio. Anzi, da quando le istituzioni onniscienti e onnipotenti (che avevano promesso di semplificare la contorta traiettoria del destino umano fino a ridurla a una sequenza di mosse preordinate e controllabili, facili da insegnare e da apprendere, schematizzate e prevedibili) sono venute meno alle loro promesse, la richiesta di idee alternative in grado di rendere l’esistenza (almeno in parte, se non del tutto) comprensibile, gestibile e vivibile è aumentata. Fortuna, fato e opportunità erano degli ovvi candidati al ruolo di sostituti. La clamorosa risonanza tra le immagini da loro evocate e l’esperienza vissuta quotidianamente in prima persona parlava – e continua a parlare – a loro favore. Oggi, dopotutto, tutti sembriamo vivere nella Babilonia di Borges, alla mercé di una misteriosa e invisibile lotteria allestita da una compagnia altrettanto misteriosa e invisibile. Viviamo, per usare la definizione di George Steiner, in una “cultura da casinò”. Poiché l’ideale della certezza è al di fuori della nostra portata individuale o collettiva, ed è sempre più riconosciuto in tal senso, la probabilità appare essere il miglior surrogato di cui possiamo disporre. Non siamo in grado di sapere esattamente quali effetti questa o quella nostra azione potrà produrre in determinate circostanze, ma possiamo essere “piuttosto sicuri” del fatto che, ripetendo più volte di seguito l’una o l’altra, una calcolabile quantità di tentativi ci porterà al successo (ad esempio, più volte tiriamo i dadi e maggiori sono le possibilità di ottenere un dodici; non sorprende dunque che per indicare una persona assolutamente onesta e cristallina gli inglesi ricorrano all’espressione “schietto come un dado”). Non possiamo prevedere l’esito di nessuna delle nostre mosse, ma possiamo calcolare le probabilità che tali esiti abbiano successo o falliscano; in altre parole, possiamo prevedere il “rischio

di fallire”. Il tacito presupposto alla base di questa speranza è che, dato un numero sufficientemente alto di tentativi, gli effetti dei fattori negativi, come gli incidenti, si annullino vicendevolmente, per così dire. E una volta compiuti i nostri calcoli possiamo optare per la mossa che più di ogni altra rende probabile il nostro successo. Non era forse questo che Seneca aveva in mente quando affermò che “la fortuna arriva a chi è pronto ad accoglierla”? E mentre la categoria della certezza non lascia spazio a colpi di fortuna o scherzi del destino, il concetto di rischio non può fare a meno di loro – come ogni giocatore di roulette può testimoniare, avendo imparato a proprie spese che, malgrado le probabilità a favore del nero e del rosso siano esattamente le stesse, chi si intestardisce a scommettere sul rosso dopo che il nero è uscito per quindici o più volte di seguito può comunque perdere una spaventosa quantità di denaro. Anche se il calcolo delle probabilità suggerisce che su mille giri di roulette il rosso uscirà cinquecento volte, continuiamo ad avere bisogno della fortuna perché un numero rosso esca quando scommettiamo su di lui. Ricordate: la precisione (e quindi l’affidabilità) del calcolo dei rischi aumenta con il numero dei tentativi; tuttavia, è assai improbabile che voi possiate permettervi di giocare mille volte di seguito, e ancor meno all’infinito. E pur ammettendo che possiate farlo, alla fine non sareste in grado di sapere se il denaro vinto copre il costo dei tentativi “sfortunati”. Ma non è questo l’unico impedimento che rende l’affidarsi al calcolo del rischio un’alternativa assai mediocre alla fiducia nelle leggi inflessibili della natura, i cui effetti sono predeterminati e prevedibili, o in una società umana “ordinata”. Dopotutto, non è l’infinito ripetersi degli eventi che ci ispira a ricorrere a nozioni come la buona o la cattiva sorte per cogliere almeno una certa verosimiglianza di logica nelle sorprendenti svolte degli eventi. Ciò che ci spaventa più di ogni altra cosa è la probabilità di essere colti di sorpresa, trovarci all’oscuro di fronte a una catastrofe eccezionale e a fenomeni che sfuggono a qualsiasi calcolo del rischio basato sul gran numero di eventi ripetuti, e capaci inoltre di mettere alla prova le nostre capacità di difesa anche nel caso in cui potessero essere previsti con anticipo. L’improvviso trasferimento in un luogo lontano di una linea di produzione da cui voi e i vostri vicini traete la vostra sussistenza non può essere resa meno probabile nemmeno dai calcoli più minuziosi: non più

del prossimo tsunami, o eruzione vulcanica, o terremoto o fuoriuscita inquinante di greggio. Il calcolo del rischio può forse essere d’aiuto in un mondo improntato alla regolarità. Ma l’irregolarità è il marchio di fabbrica del mondo in cui viviamo. Così, dopo tutte le battaglie che la modernità ha ingaggiato contro la regola della “mera casualità”, oggi rischiamo di assistere al trionfante ritorno della “fortuna”, richiamata a noi molto prima che potesse raggiungere il luogo di esilio dove era stata condannata a restare da qui all’eternità. [Sono grato della possibilità concessami da Michelina Borsari di riutilizzare qui parte del mio intervento «Sorte individuale», presentato il 17 settembre 2010 a Modena, in occasione della decima edizione del Festivalfilosofia]. 32 Jorge L. Borges, La lotteria a Babilonia, in Id., Finzioni (ed. or. 1944); trad. it. in Id., Tutte le opere, a cura di D. Porzio, Mondadori, Milano 19865, p. 673.

8. Nella moderna Atene, in cerca di una risposta alla domanda dell’antica Gerusalemme

La Teologia politica, che Carl Schmitt concepì nel 1922 e rielaborò dieci anni più tardi in un volume dal titolo Il concetto di “politico”, avrebbe dovuto rappresentare per la teoria politica ciò che il Libro di Giobbe era stato per il giudaismo, e tramite il giudaismo per il cristianesimo. L’opera era intesa, pensata e scritta per dare risposta a una delle più persistenti domande “nate a Gerusalemme”: il tipo di domanda alla quale la più rinomata delle idee nate a Gerusalemme – quella di un mondo monocentrico, governato da un Dio, e un Dio solo, onnipresente e onnipotente, creatore delle stelle, delle montagne e dei mari, giudice e salvatore di tutta la Terra e tutta l’umanità – non avrebbe potuto non condurre. Una domanda che non è affiorata quasi in nessun altro luogo, e in particolare tra gli Ateniesi, i quali vivevano in un mondo affollato da grandi e piccole divinità appartenenti a nazioni grandi e piccole; né emerse tra gli antichi Ebrei dal “dio tribale”, per lo meno non fino a quando il loro dio, al pari del dio dei Greci, condivise la Terra (e persino la Cananea, la loro patria) con gli innumerevoli altri dei appartenenti a tribù ostili. Gli Ebrei tuttavia non si sarebbero posti quella domanda nemmeno se il loro Dio avesse reclamato il dominio sull’intero pianeta, dal momento che il Libro di Giobbe ne prefigurava la risposta prima ancora che la domanda fosse stata del tutto formulata e potesse iniziare ad assillarli seriamente. Quella risposta, vale la pena ricordarlo, non avrebbe potuto essere più elementare: Il Signore ha dato, il Signore ha tolto, sia benedetto il nome del Signore. Non esigeva discussioni né dibattiti, ma solo una rassegnata obbedienza. Non aveva bisogno di un dotto commento per risultare convincente, né di profuse note a piè di pagina. La domanda a cui l’idea di un Dio e un Dio solo avrebbe condotto sarebbe invece emersa dopo che Gesù, profeta ebreo, ebbe dichiarato che il Dio onnipotente era anche il

Dio dell’Amore, e dopo che san Paolo, suo discepolo, ebbe portato la Lieta Novella ad Atene – un luogo in cui le domande, una volta sollevate, sembravano destinate a trovare una risposta coerente con le leggi della logica. La mancanza di una risposta estemporanea testimonia l’accoglienza piuttosto fredda che gli Ateniesi riservarono a san Paolo, e spiega perché nel rivolgersi “ai Greci” egli preferisse inviare le proprie missive ai Corinzi, ben meno sofisticati da un punto di vista filosofico. Nel mondo dei Greci – un mondo policentrico, come quelli degli altri innumerevoli popoli politeistici, in cui a ogni proposito e ogni esperienza umana, così come a ogni situazione e occasione, corrispondeva un dio – si trovava la risposta ad ogni interrogativo passato e futuro – e soprattutto una spiegazione per qualsiasi incongruenza emersa dalle azioni divine passate e future, e una ricetta per improvvisare nuove spiegazioni (aprioristicamente sensate) nel caso si presentassero nuove incongruenze. Per prevenire, o quanto meno neutralizzare retroattivamente lo scetticismo della logica umana, occorrevano molte divinità, che avessero finalità contraddittorie, al pari degli uomini. Divinità litigiose, che intralciavano la buona riuscita delle imprese degli altri dei, si tenevano il broncio e si vendicavano degli scherzi e delle vessazioni subite proprio come accade tra gli esseri umani. Dei le cui saette potevano essere deviate dai bersagli desiderati tramite il lancio di altre saette, scoccate dagli archi di altri arcieri, anch’essi divini. Gli dei potevano sostenere la propria autorità divina e assicurarsi che rimanesse indiscussa e incontestata solo collettivamente, facendo fronte comune con il loro gruppo, il più possibile numeroso – così che il motivo per cui un dio o una dea aveva mancato di mantenere le proprie promesse divine potesse sempre essere attribuito a una maledizione altrettanto divina di un altro tra i residenti dell’affollato Pantheon, in modo che nessuno potesse prendersela con una divinità in quanto tale, o che la sua sommaria saggezza potesse essere messa in dubbio. Tutte queste comode interpretazioni dell’irritante casualità che governava la distribuzione della grazia e della riprovazione divine – casualità che era evidentemente sorda e immune alla devozione e all’empietà, ai meriti e ai peccati degli uomini – divennero inservibili una volta che l’idea stessa di Pantheon fu negata, e che il Dio “uno e solo” ebbe rivendicato il proprio dominio assoluto e indivisibile, totale e indiscusso, screditando qualsiasi altra divinità (gli dei tribali, “parziali” o

“specializzati”) in quanto falsa e impostora, e facendo di tutto per dimostrarne l’impotenza. Assumendo il potere assoluto e la sovranità intera e indivisibile dell’universo, il Dio della religione monoteista si fece completamente carico della buona e della cattiva sorte che il destino riservava agli uomini – delle avversità che si abbattono sui derelitti come della (per dirlo con Goethe) “lunga serie di belle giornate” che rallegra coloro che godono del favore della fortuna. Potere assoluto significa nessuna scusa: oltre a non avere rivali, il Dio premuroso e protettivo non ha una spiegazione sensata e tanto meno ovvia da offrire per le sciagure che tormentano gli esseri umani a lui sottoposti. Nel Libro di Giobbe, la spaventosa casualità della Natura è presentata come espressione della spaventosa arbitrarietà di Colui che la governa; vi si proclama che Dio non è tenuto a dar conto delle proprie azioni ai suoi devoti, né tanto meno a scusarsi con loro: come affermò succintamente Leszek Kołakowski, “Dio non ci deve nulla” (né giustizia, né una scusa per l’assenza di giustizia). L’onnipotenza di Dio contempla la licenza di cambiare posizione, dire una cosa e farne un’altra; implica la volubilità e il capriccio, il potere di compiere miracoli e ignorare la logica della necessità alla quale gli esseri a Lui inferiori non hanno altra scelta che sottostare. Dio può colpire a suo piacimento, e se si trattiene dal farlo è solo perché tale è la sua (buona, benevola, amorevole) volontà. L’idea che gli esseri umani possano controllare l’agire di Dio tramite qualsiasi mezzo, compresi quelli che Dio stesso raccomanda (la totale e incondizionata sottomissione, una docile e devota obbedienza ai suoi ordini e la perfetta aderenza alla legge divina), è blasfema. In radicale contrapposizione con la Natura muta e insensibile che Egli governa, incarna e personifica, Dio parla e impartisce ordini. E si accorge se i suoi ordini sono eseguiti o no, e premia gli obbedienti e punisce i ribelli. Egli non è indifferente a ciò che gli uomini, deboli come sono, pensano e fanno, ma – al pari della Natura muta e insensibile – non è vincolato da ciò che gli uomini pensano o fanno. Può fare eccezioni, e la logica della coerenza e dell’universalità non gli impedisce di esercitare quella divina prerogativa (“miracolo” significa in definitiva la violazione di una regola, la dipartita dalla coerenza e dall’universalità). La vincolatività incondizionata di una norma è infatti per definizione inconciliabile con l’autentica sovranità – con il potere assoluto di decidere. Per essere assoluto, il potere deve

includere il diritto e la capacità di trascurare, sospendere o abolire la norma, ovvero commettere atti che agli occhi di chi li riceve appaiono come miracoli. L’idea di Schmitt della sovranità di colui che governa tende a imprimere una concezione prestabilita dell’ordine divino sullo sfondo dell’ordine legislativo dello Stato: “Lo stato di eccezione ha per la giurisprudenza un significato analogo al miracolo per la teologia. [...] Anche l’ordinamento giuridico, come ogni altro ordine, riposa su una decisione e non su una norma”33. Il potere di esentare è al tempo stesso fondamento dell’assoluto potere di Dio e della continua, incurabile paura umana che deriva dall’insicurezza – paura che nessuna pietà basta a dissipare, eliminandola per sempre. E questo, secondo Schmitt, è esattamente ciò che accade quando il sovrano umano non è più vincolato da norme. Quel potere di esenzione rende gli esseri umani vulnerabili e incerti quanto lo erano all’epoca che precedette la Legge. Adesso però la loro paura non li indurrà a nutrire scellerati dubbi sull’onnipotenza della sovranità, ma, al contrario, renderà quell’onnipotenza ancora più palese e imperiosa. E questo ci conduce al tema della paura “cosmica”, o primigenia, che secondo Michail Bachtin è all’origine tanto della religione che della politica. Nell’affrontare il mistero del potere terreno e sin troppo umano, Michail Bachtin, uno dei più grandi filosofi russi dello scorso secolo, prese le mosse da una descrizione del “timore cosmico”: quell’emozione squisitamente umana che si prova di fronte alla celestiale, ultraterrena magnificenza dell’universo; quel tipo di paura che precede il potere creato dall’uomo, di cui pure è fondamento, prototipo e ispirazione34. Il timore cosmico, nelle parole di Bachtin, è la trepidazione che si prova di fronte all’incommensurabilmente grande e incommensurabilmente potente: di fronte alla volta stellata, alla massa imponente delle montagne, al mare e alla paura degli sconvolgimenti cosmici e delle catastrofi naturali. Al cuore del timore cosmico troviamo, è bene ricordarlo, la pochezza dell’essere spaventato, fragile ed effimero di fronte all’enormità dell’eterno universo; la totale debolezza, l’incapacità di resistere, la vulnerabilità del corpo umano assolutamente mortale, fragile e indifeso che la vista della “volta stellata” e della “massa imponente delle montagne” rivelano; ma anche la consapevolezza che non è nel potere degli uomini afferrare, comprendere

o assimilare quella potenza che si manifesta nell’assoluta grandiosità dell’universo. Quell’universo sfugge a ogni comprensione. Le sue intenzioni sono sconosciute, le sue future mosse imprevedibili e, anche se indovinate, irresistibili. Ammesso che la sua azione segua una logica o un piano predefiniti, questi sfuggono alla capacità umana di comprendere. E così il timore cosmico è anche il terrore dell’ignoto e di ciò che è indomito: in breve, il terrore dell’incertezza. Vulnerabilità e incertezza sono anche le due qualità della condizione umana su cui è modellata l’altra paura, la “paura ufficiale” – paura del potere umano, creato e detenuto dagli uomini. La “paura ufficiale” è costruita sul modello del potere sovrumano così com’è riflesso (o emanato) dal “timore cosmico”. Bachtin suggerisce che tutti i sistemi religiosi ricorrono al timore cosmico. L’immagine di Dio, sovrano supremo dell’universo e dei suoi abitanti, è modellata sulla base della familiare emozione della paura della vulnerabilità e del timore di fronte all’impenetrabile e irreparabile incertezza. Tuttavia, una volta che è stato fatto proprio da una dottrina religiosa, il timore cosmico primitivo e primordiale subisce una fatidica trasformazione. Nella sua forma originaria e spontanea, è la paura di una forza anonima e muta. L’universo fa paura, ma non parla. Non esige nulla. Non fornisce istruzioni su come procedere, non è minimamente interessato a ciò che gli esseri umani, spaventati e vulnerabili, fanno o si esimono dal fare. Non possono essergli rivolte adulazioni o offese né offerti sacrifici. Parlare alla volta stellata, alle montagne o al mare e tentare di ingraziarsi i loro favori non ha alcun senso. Non possono sentirci, e anche se potessero non ci ascolterebbero, e tanto meno ci risponderebbero. È inutile provare a guadagnarsi il loro perdono o la loro benevolenza. Né, malgrado tutta la loro terrificante potenza, potrebbero esaudire i desideri dei penitenti, pur ammesso che avessero a cuore la loro condizione; a far loro difetto non sono solo gli occhi, le orecchie, le menti e i cuori, ma anche la capacità di scegliere e il potere della discrezionalità, e quindi anche la capacità di agire secondo la propria volontà e accelerare o rallentare, interrompere o capovolgere il corso degli eventi. Le loro mosse sono imperscrutabili ai piccoli esseri umani, ma anche a loro stessi. “Sono”, come dichiara il Dio della Bibbia all’inizio della sua conversazione con Mosè, “ciò che sono”.

Punto. Senza tuttavia affermare nemmeno questo. “Io sono Colui che sono” sono le prime parole che la fonte sovrumana di timore cosmico pronuncia in quel memorabile incontro avvenuto in cima al monte Sinai. Una volta che queste parole furono pronunciate, proprio per il fatto di essere state pronunciate, quella fonte sovrumana cessò di essere anonima, benché si astenesse dal presentarsi per nome e rimanesse al di là del controllo e della comprensione degli uomini. Gli esseri umani rimasero vulnerabili e incerti quanto prima, e dunque terrorizzati – ma qualcosa di enormemente importante era accaduto alla fonte del loro timore cosmico: aveva smesso di essere sorda e muta, aveva acquisito il controllo della propria condotta. Da quel momento in avanti, poteva essere benevola o crudele, poteva premiare o punire. Poteva avanzare delle richieste e subordinare la propria condotta al fatto che queste venissero o meno soddisfatte. Non solo poteva parlare, ma era possibile anche parlarle, compiacerla o irritarla. E così quella straordinaria trasformazione dell’Universo in Dio, che trasformò anche degli esseri terrorizzati in schiavi degli ordini divini, ebbe altresì, indirettamente, l’effetto di rafforzare gli uomini. Da quel momento in poi gli esseri umani dovettero essere docili, sottomessi e condiscendenti – ma potevano anche, almeno in linea di principio, fare qualcosa per assicurarsi di uscire illesi dalle terribili catastrofi da loro temute, o per propiziarsi ciò che desideravano. Poterono godere di notti senza incubi e piene di speranza in cambio di giorni pieni di accettazione. “Vi furono tuoni e lampi, una nube densa sul monte [...] tutto il monte tremava molto” tanto che “tutto il popolo che era nell’accampamento fu scosso da tremore”. Ma tra tutto quel tumulto e quel frastuono agghiacciante e prodigioso si udì la voce di Dio: “Ora, se darete ascolto alla mia voce e custodirete la mia alleanza, voi sarete per me una proprietà particolare tra tutti i popoli”. “E tutto il popolo rispose insieme e disse: ‘Quanto il Signore ha detto, noi lo faremo!’” (Esodo, 19). Ovviamente soddisfatto da quella promessa di incrollabile obbedienza, Dio promise al popolo di condurlo in una “terra dove scorrono latte e miele” (Esodo, 33), e propose al suo popolo un patto: voi mi ascolterete e mi obbedirete, e io vi renderò felici. Una promessa è un contratto che una volta accettato vincola entrambe le parti. O almeno questo è ciò che dovrebbe accadere, e che ci si aspetta che accada.

Tuttavia, vediamo che, se questo racconto ha lo scopo di descrivere in che modo il timore cosmico si è trasformato in paura “ufficiale” (come suggerisce Bachtin), esso non soddisfa, o forse appare incompleto. Vi si legge che gli uomini giunsero a essere limitati in ogni loro azione da un codice di leggi (che fu spiegato loro nei minimi dettagli dopo che essi ebbero firmato un assegno in bianco in cui promettevano di obbedire ai desideri di Dio, qualunque essi fossero), ma suggerisce anche che Dio, una volta trasformato nella fonte di paura “ufficiale”, è a sua volta limitato e vincolato dalla pietà per il suo popolo. E quindi, paradossalmente, che Dio (o la Natura che Egli rappresentava) aveva acquisito volontà e discrezione per poi cederle a sua volta! Con il semplice espediente di essere docile, il popolo poteva obbligare Dio a dimostrarsi benevolo. Gli uomini acquisirono così un rimedio evidente (si è tentati di dire: infallibile) contro la vulnerabilità, liberandosi dello spettro dell’incertezza – o almeno tenendolo a distanza di sicurezza. A patto di osservare la Legge alla lettera, non sarebbero stati più né vulnerabili né tormentati dall’incertezza. Senza vulnerabilità e incertezza però non vi sarebbe la paura; e senza la paura non vi sarebbe stato il potere... Se vincolato a delle norme, Dio l’onnipotente rischia di diventare una contradictio in adiecto – una contraddizione in termini –, un Dio senza poteri. Ma un Dio senza poteri non è una forza sulla quale si può fare affidamento per adempiere alla promessa di rendere il popolo sua “proprietà particolare tra tutti i popoli”. Era quel paradosso che il Libro di Giobbe era determinato a risolvere. La storia di Giobbe, che viola apertamente una dopo l’altra le norme dell’alleanza di Dio con la sua “proprietà particolare”, appariva praticamente incomprensibile ai cittadini di uno Stato moderno concepito come un Rechtsstaat. Inconciliabile con ciò che questi erano stati abituati a credere fosse il significato degli obblighi contrattuali che ispiravano la loro vita, e quindi anche con l’armonia e la logica della vita civilizzata. Per i filosofi, la storia di Giobbe rappresentava un dilemma irrisolto e irrisolvibile; spazzava via le speranze di scoprire, o imporre, una logica e un’armonia nel caotico flusso degli eventi chiamato “storia”. Generazioni di teologi si sono lambiccate nel vano tentativo di coglierne il mistero: come a tutti gli uomini e le donne moderni (e a chiunque altro abbia mandato a memoria il messaggio del Libro dell’Esodo), anche a loro era stato insegnato di cercare una regola e una norma, ma il messaggio del

Libro era che non si può fare affidamento su nessuna regola e nessuna norma; e precisamente su nessuna regola e nessuna norma che limiti il potere supremo. Il Libro di Giobbe anticipa il drastico verdetto di Carl Schmitt, secondo il quale il sovrano è colui che detiene il potere dell’esenzione. Il potere di imporre delle regole deriva dalla prerogativa di poterle sospendere, invalidare o rendere nulle. Carl Schmitt, forse il più lucido e disincantato osservatore dello Stato moderno e delle sue innate tendenze autoritarie, afferma: “Chi determina un valore fissa sempre eo ipso un disvalore; il senso di questa determinazione di disvalore è l’annientamento del disvalore”35. Determinare il valore stabilisce i limiti di ciò che è normale, dell’ordinario, dell’ordine. Il non-valore è un’eccezione che traccia questo confine. L’eccezione è ciò che non è riconducibile; essa si sottrae all’ipotesi generale, ma nello stesso tempo rende palese in assoluta purezza un elemento formale specificamente giuridico: la decisione. [...] Non esiste nessuna norma che sia applicabile ad un caos. Prima dev’essere stabilito l’ordine: solo allora ha un senso l’ordinamento giuridico. Bisogna creare una situazione normale, e sovrano è colui che decide in modo definitivo se questo stato di normalità regna davvero. [...] non solo [l’eccezione] conferma la regola: la regola stessa vive solo dell’eccezione36.

Giorgio Agamben, brillante filosofo italiano, commenta: La norma si applica all’eccezione disapplicandosi, ritirandosi da essa. Lo stato di eccezione non è, quindi, il caos che precede l’ordine, ma la situazione che risulta dalla sua sospensione. In questo senso l’eccezione è veramente, secondo l’etimo, presa fuori (ex-capere) e non semplicemente esclusa37.

In altre parole, non esiste alcuna contraddizione tra stabilire una regola e fare un’eccezione. È anzi vero il contrario: senza il potere di esentare dalla regola, non esisterebbe il potere di imporla. Tutto ciò appare confuso e contrario alla logica comune, e rappresenta tuttavia la verità del potere; occorre quindi tenerne conto quando si tenta di comprendere le dinamiche del potere. La comprensione è in contraddizione con il credere: rende la fede condizionale alla comprensione dettata dalla logica, e quindi perpetuamente transitoria. Solo ciò che è incomprensibile può essere incondizionatamente creduto. Senza il Libro di Giobbe, il Libro dell’Esodo non potrebbe gettare le fondamenta dell’onnipotenza di Dio e dell’obbedienza di Israele. La storia della vita di Giobbe narrata in quel Libro rappresentava la sfida più complessa e insidiosa (e la meno facile da confutare) all’idea di un ordine che poggia su una norma universale anziché su delle decisioni (arbitrarie). Dati gli strumenti e le modalità di cui la ragione generalmente dispone, la storia della vita di Giobbe rappresentava una sfida alle capacità

stesse delle creature dotate di ragione, e quindi desiderose di logica, a proprio agio nel mondo. Così come gli astronomi del passato tracciavano continuamente e disperatamente nuovi epicicli per difendere l’ordine geocentrico dai contraddittori avvistamenti del cielo notturno, i dotti teologi citati nel Libro di Giobbe facevano di tutto per difendere l’indistruttibilità del nesso esistente tra peccato e castigo, virtù e ricompensa contro le prove sempre più frequenti delle sofferenze inflitte a Giobbe – uomo esemplare, da ogni punto di vista, oltre che creatura devota e timorata di Dio, vero esempio di virtù. Come se non bastasse, oltre al clamoroso fallimento dei tentativi volti a dimostrare che le consuete spiegazioni del male emergevano intatte dalle disgrazie del pio Giobbe, dopo che Dio stesso si unì al dibattito la fitta nebbia che avvolgeva la distribuzione della buona e della cattiva sorte non si dissipò. La supplica di Giobbe “Istruitemi e allora io tacerò, fatemi capire in che cosa ho sbagliato. [...] Perché mi hai preso a bersaglio e sono diventato un peso per me?” (Giobbe, 6, 24; 7, 20) non ricevette alcuna risposta da parte di Dio. Giobbe questo se lo aspettava: “In verità io so che è così: e come può un uomo aver ragione dinanzi a Dio? Se uno volesse disputare con lui, non sarebbe in grado di rispondere una volta su mille. [...] io, anche se avessi ragione, non potrei rispondergli [...]. Se fossi innocente, egli mi dichiarerebbe colpevole [...]. Per questo io dico che è la stessa cosa: egli fa perire l’innocente e il reo!” (Giobbe, 9, 2-3, 15 e 22). Giobbe non aspettava alcuna risposta alla sua lamentela, e almeno su questo evidentemente aveva ragione. Dio ignorò infatti la sua domanda, e anzi mise in dubbio lo stesso diritto di Giobbe a porla: “Cingiti i fianchi come un prode: io ti interrogherò e tu mi istruirai! Oseresti tu cancellare il mio giudizio, dare a me il torto per avere tu la ragione? Hai tu un braccio come quello di Dio e puoi tuonare con voce pari alla sua?” (Giobbe, 40, 79). Naturalmente le domande di Dio erano solo retoriche; Giobbe sapeva sin troppo bene di non possedere delle braccia o una voce paragonabili a quelle di Dio, ed era quindi consapevole del fatto che non fosse Dio a dovergli una spiegazione, ma di essere lui a dovere a Dio una scusa. (Si noti che, secondo le Sacre Scritture, erano le domande di Dio, e non quelle di Giobbe, che giungevano “dalla tempesta” – archetipo di tutte le catastrofi note per colpire a caso, sorde alle suppliche di misericordia...). Giobbe forse non era ancora consapevole del fatto che nei secoli a

venire tutti gli aspiranti umani all’onnipotenza quasi divina avrebbero trovato nell’imprevedibilità e nella casualità del proprio tuonare le armi di gran lunga più prodigiose, terrificanti e invincibili. Chiunque avesse voluto appropriarsi della tempesta del sovrano avrebbe dovuto innanzitutto dissipare la nebbia d’incertezza che l’avvolgeva, e ricondurre la casualità a regolarità, lo stato di “anomia” (la mancanza di norme, o una fluidità dei limiti che definiscono i regolamenti normativi) a norma. Tutto questo però Giobbe non avrebbe potuto prevederlo; non era figlio della modernità. Susan Neiman e Jean-Pierre Dupuy hanno recentemente suggerito che i terremoti, gli incendi e le maree che in rapida successione distrussero Lisbona nel 1755 segnarono gli inizi della moderna filosofia del male38. I filosofi moderni separavano i disastri naturali dai mali morali, diversi tra loro esattamente per via della randomicità dei primi (adesso considerata cecità) e l’intenzionalità o la deliberatezza dei secondi. Neiman fa notare che “a partire da Lisbona, i mali naturali non hanno più nessuna apparente relazione con i mali morali; non hanno quindi più significato” (Husserl suggerì che Meinung – “significato” – deriva da meinen, “intendere”; i filosofi delle generazioni successive a Husserl avrebbero in seguito dato per scontato che in assenza di intenzione non vi è significato). Lisbona fu una sorta di rappresentazione teatrale della storia di Giobbe, allestita sulle coste dell’Atlantico, sotto gli occhi di tutta l’Europa – benché questa volta Dio, le sue prerogative e le sue credenziali rimanessero per lo più assenti dalla disputa che fece seguito a quell’evento. Come sempre accade nelle dispute, i partecipanti sostenevano posizioni in contrasto tra loro. Secondo Dupuy, a toccare la corda più moderna di quel dibattito fu, paradossalmente, Jean-Jacques Rousseau, che celebrando la primitiva saggezza di tutto ciò che è “naturale” veniva molto spesso considerato un pensatore pre- e anti-moderno. Nella sua lettera aperta a Voltaire, Rousseau insiste che la colpa, se non proprio del disastro di Lisbona, quasi certamente delle sue catastrofiche conseguenze e della loro terrificante portata, è da attribuire agli esseri umani e non alla natura (si noti: colpa, e non peccato – a differenza di Dio, la Natura non possedeva le facoltà necessarie a valutare la qualità morale delle azioni umane). Quella catastrofe, afferma Rousseau, fu il risultato della miopia umana, e non della cecità della Natura; il prodotto dell’avidità terrena degli uomini, e non dell’altezzosa indifferenza della Natura. Se solo “gli abitanti di quella

grande città fossero stati distribuiti più equamente sul territorio e alloggiati in edifici di minor imponenza, il disastro sarebbe stato meno violento o, forse, non ci sarebbe stato affatto [...]. Quanti infelici sono morti in questo disastro per voler prendere chi i propri abiti, chi i documenti, chi i soldi?”39. A lungo andare, le argomentazioni alla Rousseau hanno avuto la meglio. La filosofia moderna ha seguito il modello proposto da Pombal, primo ministro portoghese all’epoca della catastrofe di Lisbona, le cui preoccupazioni e azioni si concentrarono sullo “sradicare quei mali che sono a portata di mano umana”40. Aggiungiamo inoltre che i filosofi moderni si aspettavano, speravano e credevano che le mani umane, una volta provviste di estensioni tecnologiche e scientificamente progettate, avrebbero potuto spingersi oltre – tanto da riuscire a far fronte, in definitiva, a qualsiasi ostacolo. Confidavano inoltre che con l’“allungarsi” delle mani, il numero di mali destinati a restare fuori dalla loro portata si sarebbe ridotto, e che con il tempo e la determinazione non ne sarebbe rimasto alcuno. Due secoli e mezzo più tardi, però, possiamo affermare che ciò che i pionieri filosofici (e non) della modernità credevano sarebbe accaduto non si è verificato. Neiman riassume con queste parole le lezioni intercorse nei due secoli che separano Lisbona – detonatore delle ambizioni moderne – da Auschwitz, in cui tali ambizioni andarono a picco: A Lisbona l’umanità perde la fiducia nel mondo e ad Auschwitz la fiducia in se stessa [...] Se districare il naturale dall’umano è parte del progetto moderno, la distanza tra Lisbona ed Auschwitz ha mostrato quanto difficile sia mantenerli separati. [...] Se con Lisbona si inizia a riconoscere l’inutilità della teodicea tradizionale, con Auschwitz si riconosce che nessun sostituito ha potuto fare meglio41.

Sino a quando si era posta di fronte agli uomini sotto forma di Dio onnipotente e tuttavia benevolo, la Natura era un mistero che sfidava la comprensione umana; come si poteva conciliare la benevolenza cum onnipotenza di Dio con la profusione del male presente nel mondo che Egli stesso ha disegnato e messo in moto? Le soluzioni più comunemente offerte a tale dilemma – che i disastri naturali che si abbattono sull’umanità sono altrettante punizioni inflitte da Dio (al tempo stesso supremo legislatore etico, corte ultima di giustizia e ramo esecutivo della legge morale) ai peccatori – non prendevano in considerazione la realtà palese, riassunta laconicamente da Voltaire nella poesia che egli compose per

commemorare il terremoto e l’incendio di Lisbona del 1755: “l’innocent, ainsi que le coupable, / subit également ce mal inévitable”42. Quello sconcertante dilemma ha ossessionato i Philosophes dell’emergente modernità e generazioni di teologi. L’evidente abbondanza del male nel mondo non poteva essere conciliata con la combinazione di benevolenza e onnipotenza attribuite al creatore e supremo gestore del mondo. La contraddizione appariva insolvibile, e se fu estromessa dall’ordine del giorno fu solo grazie a ciò che Max Weber ha descritto come l’Entzauberung (il “disincanto”) della Natura, che significa privare la Natura della sua maschera di divinità – un gesto considerato il vero atto di nascita dello “spirito moderno”: ovvero, l’arroganza che poggia sul nuovo atteggiamento di sicurezza di sé e di fiducia all’insegna del motto “possiamo farcela, ce la faremo”. In una sorta di punizione per l’inefficacia dell’obbedienza, della preghiera e della pratica della virtù (i tre strumenti raccomandati come mezzo sicuro per evocare risposte desiderabili dal Soggetto divino benevolo e onnipotente), la Natura è stata affrancata dalla propria sudditanza, e quindi dalla capacità stessa di scegliere tra benevolenza e malizia. Gli uomini potevano sperare di ingraziare se stessi agli occhi di Dio, e potevano addirittura protestare contro i suoi verdetti e argomentare le loro cause, ma tentare di discutere e mediare con la Natura “disincantata” nella speranza di ingraziarsela era evidentemente inutile. Tuttavia, la Natura non era stata spogliata della soggettività al fine di ripristinare e mettere in salvo la soggettività di Dio, bensì per preparare la strada a una deificazione dei suoi sudditi umani. Naturalmente, una volta che gli uomini hanno assunto il comando, l’incertezza e i “timori cosmici” che essa alimentava non sono svaniti, e la Natura, privata del suo travestimento divino, è apparsa non meno tremenda, minacciosa e spaventosa di prima; tuttavia, laddove le preghiere non erano arrivate sicuramente sarebbe giunta la techne, una volta che questa avesse accumulato capacità e se ne fosse servita per ottenere dei risultati, con l’aiuto della scienza e mirando a trattare con la Natura cieca e muta e non con un Dio onnisciente e parlante. Adesso ci si poteva aspettare che la casualità e l’imprevedibilità della Natura non sarebbero state altro che un temporaneo elemento di irritazione, e credere che prima o poi la Natura sarebbe stata costretta ad obbedire alla volontà umana. I disastri naturali potevano (e dovevano!) essere sottoposti allo stesso trattamento

previsto per i mali sociali, il tipo di avversità che con le dovute capacità e sforzi adeguati potevano essere allontanate dal mondo umano e bandite dal farvi ritorno. I disagi causati dai capricci della Natura sarebbero stati alla fine risolti altrettanto efficacemente (almeno in linea di principio) delle calamità causate dalla malizia e dalla dissolutezza umane. Prima o poi, tutte le minacce, sia naturali che morali, sarebbero divenute prevedibili ed evitabili, riconducibili al potere della ragione. Quanto presto ciò sarebbe accaduto dipendeva esclusivamente dalla determinazione con cui i poteri della ragione umana sarebbero stati impiegati. La Natura sarebbe diventata allora uno dei tanti aspetti della condizione umana evidentemente determinati dagli uomini e quindi in teoria gestibili e “rettificabili”. Come implicava l’imperativo categorico di Immanuel Kant, quando impieghiamo la ragione, nostra inalienabile prerogativa, possiamo elevare a livello di legge naturale il giudizio morale e il tipo di comportamento che vorremmo fossero seguiti universalmente. Questa è la direzione che si sperava le vicende umane avrebbero imboccato all’inizio dell’era moderna e per buona parte della sua durata. Invece, come suggerisce l’esperienza attuale, hanno preso la direzione opposta. Il comportamento guidato dalla ragione non è stato promosso al rango di legge naturale, e le sue conseguenze sono state anzi declassate a livello di Natura irrazionale. Le catastrofi naturali non sono diventate più simili a misfatti morali “teoricamente gestibili”. Al contrario, sono sempre più simili alle “classiche” catastrofi naturali, e al pari di queste pericolose, imprevedibili, ineluttabili, incomprensibili e immuni alla logica e ai desideri degli uomini. Oggi i disastri causati dall’azione dell’uomo arrivano da un mondo opaco, colpiscono a caso, in luoghi impossibili da prevedere, e rifuggono o sfidano quelle spiegazioni che distinguono tra azioni umane e ogni altro evento: spiegazioni basate sui dei moventi o degli scopi. In particolare, le calamità causate dalle azioni immorali degli uomini appaiono sempre più ingestibili in linea di principio. Questo è ciò che Carl Schmitt notò nel mondo in cui era nato e cresciuto, un mondo diviso tra Stati secolari che, secondo una sintesi retrospettiva redatta da Ernst-Wolfgang Böckenförde, vivevano di presupposti che essi di per sé non potevano garantire43. La moderna visione di uno “Stato potente e razionale”, uno “Stato di vera sostanza”, “che si erge al di sopra della società e resta immune dagli interessi settari”44, uno

Stato capace di ergersi a presupposto o determinante dell’ordine sociale – una prerogativa che in passato era appartenuta a Dio ma che Egli ormai ha abbandonato – sembrava dissolversi ed evaporare in una realtà fatta di lotte settarie, rivoluzioni, poteri incapaci di agire e società riluttanti a subire i loro interventi. Le idee che avevano accompagnato la nascita dell’era moderna speravano e promettevano di eliminare ed estirpare una volta per tutte i capricciosi ribaltamenti e sconvolgimenti del fato, insieme alla conseguente opacità e imprevedibilità della condizione e delle prospettive umane che caratterizzavano il governo del Dio di Gerusalemme. Quelle idee ripudiavano “il caso di eccezione in ogni sua forma”45. Cercavano nello Stato costituzionale liberale un presupposto alternativo, solido e affidabile dell’ordine sociale, che si riteneva avrebbe sostituito al dito capriccioso della divina provvidenza l’invisibile, ma stabile mano del mercato. Tali speranze, così come quelle promesse, hanno miserabilmente fallito. Nelle sue vesti di Stato moderno “potente e razionale”, il Dio di Gerusalemme si è ritrovato ad Atene, quel caotico crocevia di dei mascalzoni e intriganti – che al pari di Platone avrebbero accolto con grandi risate la sua pretesa di imporsi come “il solo e l’unico”, accertandosi al tempo stesso (per sicurezza) che le loro faretre fossero ben fornite di frecce. Ovviamente, fino a quando i teoreti e i panegiristi dello Stato moderno hanno seguito l’esempio del Dio di Gerusalemme, che valorosamente si rifiutava di riconoscere altri pretendenti allo stato divino, i loro vangeli non hanno incluso le pagine del Libro di Giobbe. La riconciliazione degli spensierati Ateniesi con la pluralità degli dei chiassosi, irascibili e litigiosi (una condizione a cui contribuì l’usanza romana di aggiungere con ogni nuova conquista nuovi busti al Pantheon) non si addiceva agli sfortunati cittadini del mondo moderno, quel luogo precario che poggia sulla (non) santa alleanza una e trina tra Stato, nazione e territorio. Nel mondo moderno esistevano forse molte divinità, come ad Atene o a Roma, ma mancavano luoghi come l’Areopago o il Partenone dove queste potessero incontrarsi e fraternizzare in pace, luoghi realizzati per soddisfare la loro affabile convivialità. I loro incontri trasformavano qualunque luogo in un campo di battaglia, poiché, seguendo la linea tracciata dal Dio di Gerusalemme, ogni “uno e trino” reclama sul proprio dominio una sovranità assoluta, inalienabile e indivisibile. Il mondo in cui

era nato Schmitt non era il mondo politeistico degli Ateniesi o dei Romani, bensì un mondo basato sul principio cuius regio eius religio, nel quale si assisteva all’ostile convivenza di entità brutalmente competitive e intolleranti, ciascuna delle quali si proclamava “sola e unica”. Il mondo popolato da “Stati alla ricerca di nazioni” e “nazioni alla ricerca di Stati” poteva essere (e probabilmente per qualche tempo sarebbe rimasto) politeistico, ma ciascuna delle sue parti difendeva con le unghie e con i denti la propria prerogativa (religiosa, secolare o entrambe, come nel caso del nazionalismo moderno) al monoteismo. Quel principio e quella intenzione sarebbero stati fissati nello Statuto delle Nazioni Unite e riaffermati con maggiore enfasi nelle regole e nei regolamenti dell’Onu, istituite per tutelare con tutto il suo potere (autentico o putativo) il sacrosanto diritto di ogni Stato membro alla propria irremovibile sovranità sul fato e sulle vite dei suoi sudditi in patria. La Lega delle Nazioni e in seguito le Nazioni Unite vollero allontanare gli Stati nazionali in cerca di sovranità dal campo di battaglia – che fino a quel momento era stato il loro abituale e collaudato terreno di convivenza e genocidio reciproco e farli invece sedere a un tavolo, costringendoli a dialogare; intendeva allettare le belligeranti tribù di Atene con la promessa di rendere le loro divinità tribali più sicure, nello stile di Gerusalemme – ciascuna all’interno della propria tribù. Carl Schmitt riuscì a intuire la futilità di quell’intento. Le accuse che gli si potrebbero (e dovrebbero) muovere sono di aver apprezzato ciò che intuì e, cosa ancora più grave, di averlo abbracciato con entusiasmo, nonché (fatto assolutamente imperdonabile) di aver provato a fare del proprio meglio per elevare il modello da lui distillato dalle pratiche dell’Europa del ventesimo secolo al rango di legge eterna di ogni politica; l’accusa di conferire a quel modello la prerogativa di solo e unico attributo di un processo politico che elide e trascende il potere del sovrano di esentare e stabilisce un limite al suo potere decisionale; limite che egli può ignorare soltanto a rischio della propria vita. Tuttavia non avrebbe senso rivolgergli l’accusa di non averci visto bene: tale accusa andrebbe invece rivolta a coloro che la pensarono diversamente, e la cui visione Schmitt tentò di correggere. Accostando l’asserzione di Schmitt secondo cui il sovrano è “colui che decide sullo stato di eccezione” (e, cosa più importante, decide arbitrariamente – dal momento che “l’elemento decisionistico e

personalistico” è assolutamente cruciale nel concetto di sovranità)46 al suo insistere che la distinzione che definisce il “politico” nelle azioni e nei motivi è quella “di amico e nemico”47, un’opposizione alla quale possono essere ridotti, ne deriva che la sostanza e la caratteristica di ogni detentore di sovranità e di ogni agenzia sovrana è “l’associazione e la dissociazione”; e precisamente, l’associazione tramite la dissociazione – l’utilizzo della “dissociazione” nella produzione e nel soddisfacimento dell’“associazione”, nominare il nemico che deve essere “dissociato” così che gli amici possano rimanere “associati”. In breve: identificare, separare, etichettare e dichiarare guerra a un nemico. Nella visione che Schmitt aveva della sovranità, l’associazione è inconcepibile senza la dissociazione, l’ordine senza l’espulsione e l’estinzione, la creazione senza la distruzione. La strategia della distruzione al fine e a favore della costruzione dell’ordine è il tratto caratteristico della sovranità. Nominare un nemico è un atto “decisionistico” e “personalistico”, dal momento che “non v’è bisogno che il nemico politico sia moralmente cattivo, o esteticamente brutto” – anzi, non occorre che sia colpevole di avere intenzioni avverse o di compiere atti ostili: “egli è semplicemente l’altro, lo straniero [...], qualcosa d’altro e di straniero”48. Tuttavia, considerata la natura decisionistica della sovranità, deve essere chiaro che qualcuno diventa “l’altro” o “lo straniero”, e in definitiva “un nemico”, alla fine e non all’inizio dell’azione politica, definita come atto del nominare il nemico e del combattere il nemico. Infatti, un’“oggettività” dell’inimicizia, in cui la condizione dell’“essere un nemico” viene determinata dagli attributi e dalle azioni del nemico stesso, non si sposerebbe bene con una sovranità che consiste nel diritto a fare eccezioni; sarebbe non dissimile da un accordo altrettanto vincolante tra Yahweh e il popolo di Israele: una condizione inaccettabile tanto per i sovrani moderni quanto lo era per il Dio geloso e vendicativo del Libro di Giobbe. Così come era Yahweh e solo Yahweh a decidere che Giobbe andava torturato, è il sovrano alla guida di uno Stato, e solo lui, che decide chi deve essere esentato dalla legge e distrutto. Almeno, also sprach Carl Schmitt, dopo aver osservato attentamente le pratiche dei più decisi e spregiudicati ricercatori di sovranità del suo tempo; e forse anche dopo aver notato come “la propensione totalitaria” fosse endemica, come suggerisce Hannah Arendt, a tutte le forme di potere statale.

Uno dei pazienti descritti in Divisione cancro di Aleksandr Solženicyn è un dignitario locale di partito che inizia ogni giornata con l’attenta lettura dell’editoriale della «Pravda». È in attesa di essere operato, e le sue probabilità di sopravvivenza sono in bilico – eppure ogni giorno, appena il nuovo numero della «Pravda», con un nuovo editoriale, viene consegnato in corsia, egli non ha motivo di preoccuparsi: fino all’arrivo del numero successivo sa esattamente cosa fare, cosa dire e come dirlo, e di quali argomenti non fare parola. Nelle questioni più importanti, nelle scelte che davvero contano, ha il conforto della certezza: non può sbagliare. Gli editoriali della «Pravda» erano noti per cambiare tono da un giorno all’altro. Nomi e interventi che solo ieri erano sulla bocca di tutti nel giro di una notte diventavano tabù. Opere o frasi che il giorno prima erano giuste e accettate potevano diventare sbagliate e abominevoli il giorno successivo, mentre azioni fino a ieri impensabili l’indomani potevano diventare obbligatorie. Tuttavia, durante il regno decisionista e personalista di Stalin non vi fu un attimo, per quanto breve, in cui la differenza tra giusto e sbagliato, obbligatorio e proibito, fosse ambigua. Per questo, a patto che si ascoltasse e ci si attenesse a ciò che si era sentito, non era possibile sbagliare (perché, come sottolineò Ludwig Wittgenstein, “capire” significa sapere come procedere), si era al sicuro, protetti da fatali malintesi. E la salvezza era un dono del partito e di Stalin, suo leader e infallibile guida (era certamente a suo nome che parlava l’editoriale della «Pravda»). Indicando ogni giorno cosa fare, Stalin sollevava i cittadini dalla responsabilità di affrontare da soli l’inquietante compito di capire. Egli era, infatti, onnisciente. Non necessariamente nel senso di sapere tutto quanto vi fosse da sapere, ma in quello di dire tutto ciò di cui si aveva bisogno di sapere, e si sarebbe dovuto sapere. Non necessariamente nel senso di distinguere infallibilmente tra verità ed errore, ma di tracciare l’autorevole confine che separa la verità dall’errore, e a cui occorreva attenersi. Nel film Il giuramento di Cˇiaureli il personaggio principale – una madre russa, epitome della nazione russa che combatte valorosamente, lavora duro, ama Stalin e ne è a sua volta amata – si reca un giorno in visita da Stalin e gli chiede di porre fine alla guerra. Il popolo russo ha sofferto tanto, dice, ha compiuto sacrifici orribili; tante mogli hanno perso i mariti, tanti figli i loro padri – tutto quel dolore deve finire. Stalin risponde: sì, madre, è giunto il momento di metter fine alla guerra. E così fa.

Stalin non era solo onnisciente, ma anche onnipotente. Se voleva porre fine alla guerra lo faceva. Se non assecondava i desideri o le richieste della nazione non era per mancanza di potere o di capacità, bensì perché aveva qualche motivo importante per rimandare l’azione o astenersi del tutto dal compierla (spettava a lui, dopotutto, tracciare l’autorevole confine tra ciò che era giusto e ciò che era sbagliato). Si poteva dunque stare certi che un’idea, se fosse stata una buona idea, sarebbe stata attuata. Gli uomini erano forse troppo inetti per cogliere, elencare e valutare tutti i pro e i contro di una faccenda, ma Stalin li proteggeva contro le terribili conseguenze degli errori che derivavano dalla loro ignoranza. Alla fine quindi non importava se a te, o ad “altri come te”, sfuggissero il significato e la logica di ciò che stava accadendo. Quello che avrebbe potuto sembrare un ammasso di eventi, accidenti e atti casuali scollegati tra loro aveva una logica, un piano, una coerenza. Il fatto che la gente comune non riuscisse a vedere questa coerenza con i propri occhi era un’ulteriore prova (forse l’unica di cui vi fosse bisogno) di quanto la perspicacia di Stalin fosse cruciale per la loro sicurezza, quanto loro dovessero alla sua saggezza e alla sua disponibilità a condividerne i frutti con loro. Le due storie contribuiscono, nell’insieme, a fare luce sul segreto del potere che Stalin esercitava sulle menti e sui cuori dei suoi sudditi. Ma non del tutto. La grande domanda, che non solo è rimasta senza risposta, ma addirittura non è mai stata posta, è: perché il bisogno di rassicurazione dei sudditi era così schiacciante da spingerli a sacrificare le proprie menti in suo nome, e a colmare i loro cuori di gratitudine in cambio dell’accettazione del proprio sacrificio? Perché la certezza possa diventare esigenza, desiderio e sogno supremi deve innanzitutto mancare. Non essere ancora stata acquisita, essere andata perduta o rubata. In accordo con la natura del sovrano di Schmitt, Stalin dimostrò ripetutamente di avere il potere di intraprendere purghe e cacce alle streghe, o di interromperle e sospenderle inspiegabilmente così come le aveva iniziate. Non c’era modo di dire quale attività sarebbe stata presto stigmatizzata come stregoneria; e poiché i colpi cadevano a caso, e la prova materiale di un nesso con il tipo di stregoneria messa al bando era un lusso non visto di buon occhio, se non addirittura considerata un passo pericoloso che indirettamente richiamava “l’obiettività” dal proprio esilio,

non vi era modo di dire se esistesse un nesso intelligibile tra ciò che gli individui facevano e la sorte che toccava loro di patire. (Ciò era espresso dalla saggezza popolare sovietica nella storia della lepre, che venuta a sapere che i cammelli vengono arrestati scappa in cerca di riparo: prima ti arrestano, e poi dovrai dimostrare di non essere un cammello...) In realtà, in nessun altro luogo e tempo è mai esistita una dimostrazione così abbondante e convincente della credibilità dell’immagine calvinista di un Essere Supremo (che indubbiamente ispirò Schmitt) che distribuisce grazia e condanne a suo imperscrutabile arbitrio, a prescindere dalla condotta di coloro a cui queste erano indirizzate e che non ammette appello o petizione contro i suoi verdetti. Quando tutti, in ogni momento, sono vulnerabili perché non conoscono ciò che l’indomani può portare, sono la sopravvivenza e la sicurezza, e non un’improvvisa catastrofe, a sembrare l’eccezione. Anzi: un miracolo che sfida la comprensione degli esseri ordinari e richiede lungimiranza, saggezza e potere sovrumani. Stalin esercitò su una scala raramente riscontrata altrove il potere sovrano dell’esenzione dal trattamento che spettava di diritto ai soggetti giuridici, o, per meglio dire, agli esseri umani per il fatto di essere umani. Ma riuscì anche a rovesciare le apparenze: mentre le esenzioni (la sospensione o la revoca dei diritti, che per gli homines sacri di Giorgio Agamben erano compiti), fino ad allora considerate eccezioni, diventavano la norma, lo schivare i colpi distribuiti a caso sembrava essere un’eccezione, un dono eccezionale, una dimostrazione di grazia. Si dovrebbe essere grati per i favori che si ricevono. E infatti lo si era. La vulnerabilità e l’incertezza umane costituiscono la base di ogni potere politico. Il potere esige il riconoscimento dell’autorità e l’obbedienza tramite la promessa fatta ai suoi sudditi di proteggerli efficacemente contro queste due afflizioni della condizione umana. Nella variante staliniana del potere totalitario, ovvero in una condizione umana non soggetta alla casualità prodotta dal mercato, era lo stesso potere politico a dover produrre e riprodurre la vulnerabilità e l’incertezza. Non fu una semplice coincidenza se in un’epoca in cui gli ultimi residui della Nep – la “nuova politica economica”, che promuoveva il ritorno del mercato, bandito negli anni di “comunismo di guerra” – erano stati smantellati il terrore arbitrario era esercitato su scala imponente.

Nella maggior parte delle società moderne, la vulnerabilità e l’insicurezza dell’esistenza e la necessità di perseguire gli obiettivi della propria vita in condizioni di acuta e irreparabile incertezza era garantito sin dall’inizio dall’esposizione di tali obiettivi ai capricci delle dinamiche del mercato. Oltre a proteggere le libertà del mercato e aiutare di quando in quando a resuscitarne il declinante vigore, il potere politico non aveva bisogno di interferire. Nell’esigere dai suoi sudditi disciplina e osservanza della legge, poteva basare la propria legittimità sulla promessa di mitigare la portata della loro vulnerabilità e incertezza: per limitare il danno e le sofferenze causate dal libero gioco delle forze del mercato, proteggere i vulnerabili da colpi mortali o eccessivamente dolorosi, e garantire contro almeno alcuni dei tanti rischi che la libera concorrenza necessariamente comporta. Tale legittimazione ha trovato la propria suprema espressione nell’autodeterminazione della moderna forma di Stato in quanto “Stato sociale”. Questa formula di potere politico sta attualmente recedendo nel passato. Le istituzioni dello Stato sociale vengono progressivamente smantellate e ridotte, mentre le limitazioni un tempo imposte alle attività imprenditoriali e al libero gioco della concorrenza del mercato e alle sue disastrose conseguenze vengono eliminate una ad una. Le funzioni protettive dello Stato si riducono sino a interessare solo una piccola minoranza di individui inabili al lavoro o invalidi, benché anche quella minoranza tenda ad essere considerata una questione non più di “interesse sociale”, bensì di “ordine pubblico”: l’incapacità di partecipare al gioco del mercato tende ad essere vieppiù criminalizzata. Lo Stato si sta lavando le mani dalla vulnerabilità e dall’incertezza che emergono dalla logica (o dalla mancanza di logica) del libero mercato, per ridefinirle come questione privata, alla quale spetta agli individui far fronte impiegando le risorse di cui dispongono. Come ha scritto Ulrich Beck, adesso ci si aspetta che gli individui cerchino soluzioni biografiche a contraddizioni sistemiche49. Queste nuove tendenze presentano inoltre un effetto collaterale: minano le fondamenta su cui sempre più spesso in tempi moderni poggia il potere statale, che reclama un ruolo cruciale nella lotta alla vulnerabilità e all’incertezza che ossessionano i suoi sudditi. Il diffondersi dell’apatia politica, un fenomeno ampiamente osservato, l’erosione degli interessi e delle lealtà politiche (basta con la “salvezza per mano della società”,

secondo la nota affermazione di Peter Drucker, o “la società non esiste; esistono soltanto individui e famiglie”, come dichiarò in maniera altrettanto drastica Margaret Thatcher) e un imponente allontanamento della popolazione dalla partecipazione alla politica istituzionale testimoniano tutti lo sfaldamento delle affermate fondamenta del potere statale. Avendo rescisso l’interferenza programmatica del passato con l’insicurezza prodotta dal mercato, e avendo viceversa proclamato che il perpetuarsi e l’intensificarsi di quell’insicurezza sono la missione di ogni potere politico che abbia a cuore il benessere dei propri sudditi, lo Stato contemporaneo deve cercare altre varietà, non economiche, di vulnerabilità e incertezza su cui fondare la propria legittimità. Un’alternativa sembra essere stata recentemente individuata (forse in modo più spettacolare ma certo non esclusivo dall’amministrazione statunitense) nell’ambito della sicurezza personale: dalle attività criminali, dalla condotta anti-sociale di parte della “sottoclasse”, e più recentemente dal terrorismo globale e, sempre più spesso, dagli “immigrati clandestini” giungono minacce all’incolumità fisica, ai beni e agli habitat degli uomini. A differenza dell’insicurezza generata dal mercato, sin troppo visibile e palese, questa insicurezza alternativa con cui lo Stato spera di ripristinare il suo perduto monopolio sulla redenzione ha bisogno di essere alimentata artificialmente, o quanto meno estremamente amplificata, così da ispirare una “paura ufficiale” sufficiente a porre in ombra e relegare in secondo piano l’insicurezza che nasce dai fattori economici, sulla quale l’amministrazione statale non può – e non desidera – fare nulla. A differenza delle minacce prodotte dal mercato e rivolte alla posizione sociale, all’autostima e alle capacità di sostentamento, la portata dei rischi volti alla sicurezza personale deve essere presentata a tinte quanto più fosche, così che (similmente a quanto accadeva sotto il regime staliniano) la mancata materializzazione delle minacce possa essere salutata come un evento straordinario, dovuto alla vigilanza, all’impegno e alla buona volontà degli organi statali. Non sorprende allora che il potere dell’esenzione, la proclamazione dello stato di emergenza e la nomina di nemici stiano vivendo un momento d’oro. Che il potere di esentare rappresenti una prerogativa eterna di ogni sovranità e che la selezione e la messa alla gogna dei nemici siano un’estemporanea prerogativa del “politico” sono affermazioni di cui è

possibile discutere; mentre non ci sono dubbi sul fatto che oggi il potere, ogni potere, sia più che mai deciso a fomentare quelle paure. È proprio questo intento che negli ultimi anni ha tenuto particolarmente impegnati la Central Intelligence Agency e il Federal Bureau of Investigation: mettere in guardia gli americani sugli imminenti attentati alla loro sicurezza, porli e mantenerli in uno stato di costante allerta e tensione, allentata la quale di fronte al mancato verificarsi dell’attentato subentra un senso di sollievo che può essere attribuito agli organi incaricati del mantenimento e della tutela dell’ordine pubblico a cui l’amministrazione statale è progressivamente ridotta. Il 10 giugno del 2002 i massimi funzionari statunitensi (il direttore dell’Fbi Robert Mueller, il vice ministro della Giustizia Larry Thompson e il vice ministro della Difesa Paul Wolfowitz, tra gli altri) annunciarono l’arresto di un sospetto terrorista di al-Qa’ida. Stando alla versione ufficiale dei fatti José Padilla (il cui nome evoca origini ispaniche, collegandolo a una delle etnie migratorie più recenti e relativamente mal adattate degli Stati Uniti), nato e cresciuto negli Stati Uniti, era stato catturato a Chicago al suo ritorno da un campo di addestramento in Pakistan50. Dopo essersi convertito all’Islam e aver adottato il nome di Abdullah al-Muhajir, l’uomo si era incontrato con i suoi nuovi correligionari per farsi dare istruzioni su come recare danno a quella che non considerava più la propria patria. Gli fu insegnata l’arte di confezionare delle “dirty bombs”: bombe radioattive “spaventosamente facili da realizzare”, che richiedono solo pochi etti di materiale esplosivo convenzionale, facilmente reperibili e “praticamente qualsiasi tipo di materiale radioattivo” su cui gli aspiranti terroristi “riescono a mettere le mani” (non era chiaro perché la preparazione di questi ordigni “spaventosamente facili da costruire” avesse richiesto un addestramento sofisticato, ma quando si tratta di fare leva su delle paure diffuse quanto i fertilizzanti con cui si concima la vigna dell’ira la logica non esiste). “Un nuovo termine è entrato a far parte del vocabolario postundici settembre di molti americani medi: ‘dirty bomb’”, annunciarono i cronisti Nichol, Hall e Eisler dalle pagine di «Usa Today». Come divenne evidente negli anni successivi, non era che l’inizio di una tendenza possente e travolgente. L’ultimo giorno del 2007 il «New York Times» pubblicò un editoriale nel quale si insisteva che gli Stati Uniti non potevano più essere pienamente definiti una “società democratica”.

L’editoriale elencava alcuni abusi che lo Stato avallava, tra cui la tortura (praticata dalla Cia) e le numerose violazioni delle Convenzioni di Ginevra: una vera e propria rete di illegalità legalizzata che consentiva all’amministrazione Bush di spiare illegalmente gli americani, oltre alla propensione dei funzionari di governo a violare diritti civili e costituzionali senza nemmeno scusarsi, il tutto con il pretesto della guerra al terrorismo. Il comitato di redazione del «New York Times» affermò che a partire dall’undici settembre 2001 il governo degli Stati Uniti aveva adottato una “condotta illegale”. Il «New York Times» non era il solo a dare voce a simili preoccupazioni. Il noto scrittore Sidney Blumenthal, già senior adviser del presidente Clinton, affermò che il governo americano era ormai paragonabile a uno “Stato di sicurezza nazionale basato su tortura, detenuti fantasma, carceri segrete, ammissioni e intercettazioni”51. Bob Herbert, opinionista del «New York Times», affermò che il cupo panorama di esclusioni, segretezza, sorveglianza illegale e tortura prodotto dal regime di Bush indicava agli americani niente meno che la “strada verso il totalitarismo”52. Come ha recentemente fatto notare Henry A. Giroux, tuttavia, sarebbe un errore suggerire che all’amministrazione Bush spetta tutta la responsabilità di aver trasformato gli Stati Uniti al punto di renderli irriconoscibili a se stessi in quanto nazione democratica. Simili affermazioni rischiano di ridurre le gravi piaghe sociali che attualmente affliggono gli Stati Uniti alle politiche reazionarie del regime Bush – un gesto che con l’avvicinarsi della scadenza del suo mandato, il 20 gennaio del 2009, rischia di lasciare spazio a un senso di compiacimento. Il compiacimento che nasce dal clima di imminente cambiamento di regime non può offrire una risposta realmente politica all’attuale crisi, poiché ignora sino a che punto le politiche di Bush non fanno che riassumere la politica sociale ed economica dell’era Clinton. In verità, ciò che gli Stati Uniti sono diventati nell’ultimo decennio lascia intravedere non tanto una rottura quanto l’intensificarsi di numerose forze politiche, economiche e sociali soggiacenti che hanno introdotto una nuova epoca, nella quale le tendenze repressive e anti-democratiche che si nascondevano dietro al retaggio degli ideali democratici sono emerse prontamente e vigorosamente come il volto nuovo di un autoritarismo profondamente inquietante. Ciò che contraddistingue l’attuale stato della “democrazia” americana è la Natura squisitamente bipolare dell’assalto degenerativo sferrato contro il corpo politico, in cui elementi di avidità prima d’ora sconosciuti si mescolano a un capitalismo fanatico, che alcuni chiamano la nuova “età dell’oro”, e a un nuovo tipo di politica, più spietata e brutale nella sua disponibilità ad abbandonare – o addirittura mortificare – quegli individui e gruppi che all’interno delle “nuove geografie di esclusione e dei nuovi paesaggi di ricchezza” che caratterizzano il nuovo ordine mondiale appaiono ormai sacrificabili”53.

Tutto questo è accaduto negli Stati Uniti, ma tentativi analoghi, volti ad aumentare il volume della paura e fornire degli obiettivi su cui scaricare l’ansia che da quella deriva, si possono notare in tutto il mondo. A

proposito delle recenti trasformazioni in atto nello spettro politico europeo, Donald G. McNeil Jr ha affermato che “i politici sfruttano la paura della delinquenza”54. In tutto il mondo governato da governi democraticamente eletti, infatti, la “tolleranza zero verso la criminalità” ha dimostrato di essere la carta vincente in grado di affermarsi su tutte le altre, mentre la strategia vincente è quasi invariabilmente una combinazione della promessa “più prigioni, più poliziotti e condanne più lunghe” e dell’assicurazione “no all’immigrazione, no al diritto d’asilo, no alla naturalizzazione”. Come ha detto McNeil, per collegare l’odio etnico, ormai fuori moda, alla più appetibile paura per la propria incolumità, “i politici di tutta Europa ricorrono allo stereotipo ‘la criminalità è causata dai forestieri’”. Mentre tentava invano di fuggire dall’Europa nazista, Walter Benjamin notò che l’eccezione legale e la norma legale si erano invertite, e che lo stato di eccezione era diventato la norma55. Poco più di mezzo secolo dopo, nel suo studio sugli antecedenti storici dello stato d’emergenza56, Giorgio Agamben giunse alla conclusione che nella politica contemporanea lo stato di eccezione (che lo si chiami “stato d’emergenza”, “stato d’assedio” o “legge marziale”) “tende sempre più a presentarsi come il paradigma di governo dominante”. Leggi, decreti e ordini vieppiù profusi tendono a “cancellare radicalmente ogni statuto giuridico di un individuo, producendo un essere innominabile e inclassificabile”. E mentre le modalità impiegate da Stalin per piegare la “paura ufficiale” a servizio del potere statale appartengono, speriamo, al passato, non possiamo dire altrettanto del desiderio di sfruttare quella paura a vantaggio del potere. Un desiderio che a cinquant’anni dalla morte di Stalin continua a emergere quotidianamente nell’agenda dei poteri moderni, impegnati come sono a trovare nuovi modi in cui impiegarlo, in sostituzione della formula di auto-legittimazione originaria la cui rinuncia è stata imposta ma anche perseguita entusiasticamente. Il segreto della sovranità evidenziato da Carl Schmitt potrebbe essere estemporaneo, ma il ricorso sempre più frequente alle prerogative dell’esenzione ha cause storiche, determinate dal tempo. E, auspicabilmente, una durata dettata anch’essa dalla storia. [Sono grato per aver avuto la possibilità di attingere parte del materiale dal mio articolo Seeking in modern Athens an answer to the ancient Jerusalem question, apparso su «Theory, Culture & Society», 26 (2010) 1, pp. 71-91].

33

Carl Schmitt, Teologia politica. Quattro capitoli sulla teoria della sovranità (1922), in Id., Le categorie del “politico”. Saggi di teoria politica, a cura di G. Miglio e P. Schiera, il Mulino, Bologna 1972, pp. 61 e 37; il corsivo è mio. 34 Vedi Michail Bachtin, L’opera di Rabelais e la cultura popolare. Riso, carnevale e festa nella tradizione medievale e rinascimentale, Einaudi, Torino 2001, pp. 102 sgg. (ed. or. 1965). E l’ottima sintesi di Ken Hirschkop, Fear and democarcy: an essay on Bakhtin’s theory of carnival, in «Association», 1 (1997), pp. 209-234. 35 Carl Schmitt, Teoria del partigiano. Integrazione al concetto del politico, Adelphi, Milano 2005, p. 155 (ed. or. 1963). Si veda anche la discussione in Giorgio Agamben, Homo Sacer. Il potere sovrano e la nuda vita, Einaudi, Torino 1995, p. 151. 36 Schmitt, Teologia politica cit., pp. 39 e 41. Si veda anche la discussione in Agamben, Homo Sacer cit., pp. 19 sgg. 37 Agamben, Homo Sacer cit., p. 22. 38 Susan Neiman, In cielo come in terra. Storia filosofica del male, Laterza, Roma-Bari 2011 (ed. or. 2002). Jean-Pierre Dupuy, Piccola metafisica degli tsunami. Male e responsabilità nelle catastrofi del nostro tempo, Donzelli, Roma 2006 (ed. or. 2005). 39 Jean-Jacques Rousseau, “Lettre à Monsieur de Voltaire”, in Id., Oeuvres complètes, Pléiade, Paris 1959, vol. 4, p. 1062. 40 Neiman, In cielo come in terra cit., p. 237; il corsivo è mio. 41 Ivi, pp. 234, 227 e 267. 42 In altre parole, l’inevitabilità del male aveva colpito tanto gli innocenti che i colpevoli. 43 Ernst-Wolfgang Böckenförde, La nascita dello Stato come processo di secolarizzazione (1967), in Id., Diritto e secolarizzazione Dallo Stato moderno all’Europa unita, Laterza, Roma-Bari 20102, p. 53. 44 Jan-Werner Müller, A Dangerous Mind: Carl Schmitt in Post-war European Thought, Yale University Press, New Haven 2003, pp. 4-5. 45 Schmitt, Teologia politica cit., p. 61. 46 Ivi, p. 71. 47 Id., Il concetto di “politico”, in Id., Le categorie del “politico” cit., p. 108. 48 Ivi, p. 109. 49 Ulrich Beck, La società del rischio: verso una nuova modernità, Carocci, Roma, 2000, p. 137 (ed. or. 1986). 50 Vedi Al-Qaeda operative tipped off plot, US: dirty bomb plot foiled and Dirty bomb plot: The future is here, I’m afraid, in «USA Today», 11 giugno 2002. 51 Sidney Blumenthal, Bush’s war on professionals, in «Salon.com», 5 gennaio 2006, reperibile all’indirizzo internet http://www.salon.com/opinion/blumenthal/2006/01/05/spying/index.html?x. 52 Bob Herbert, America the fearful, in «New York Times», 15 maggio 2006, p. 25. 53 Henry A. Giroux, Beyond the biopolitics of disposability: rethinking neoliberalism in the new gilded age, in «Social Identities», 14 (5), settembre 2008, pp. 587-620. 54 Donald G. McNeil Jr, Politicians pander to fear of crime, in «New York Times», 5-6 maggio 2002. 55 Vedi Walter Benjamin, Sul concetto di storia, Einaudi, Torino 1997. 56 Giorgio Agamben, Stato di eccezione, Bollati Boringhieri, Torino 2003, p. 11.

9. Storia naturale del male

È assai improbabile che un lettore del ventunesimo secolo possa non rimanere sconcertato e affascinato di fronte a Les dieux ont soif, il romanzo di Anatole France pubblicato per la prima volta nel 191257. Con ogni probabilità, il lettore sarà sopraffatto quanto me dall’ammirazione nei confronti di un autore che non solo è riuscito – come direbbe Milan Kundera – a “strappare il sipario della preinterpretazione” che “era sospeso davanti al mondo”, per liberare “i grandi conflitti umani dalla semplicistica interpretazione che li riconduce alla lotta fra il bene e il male, [al fine di] comprenderli alla luce della tragedia”58 (che, stando a Kundera, rappresenta la missione degli scrittori e la vocazione della stesura di ogni romanzo), ma ha anche ideato e collaudato, a beneficio dei suoi lettori non ancora nati, gli strumenti con cui tagliare e strappare i sipari che non erano ancora stati tessuti, ma che una volta che il suo romanzo fosse stato completato – e con particolare diligenza dopo la sua morte – avrebbero di certo iniziato ad essere diligentemente orditi e sospesi “davanti al mondo”. All’epoca in cui Anatole France poggiò la penna e diede un ultimo sguardo al suo romanzo ormai completato, i dizionari, francesi o di altre lingue, non riportavano parole come “bolscevismo”, “fascismo” e nemmeno “totalitarismo”, e i nomi di Stalin e Hitler non apparivano in alcun libro di storia. L’attenzione di Anatole France era concentrata su Évariste Gamelin: un giovane artista alle prime armi, promettente e di grande talento, ma disgustato da Watteau, Boucher, Fragonard e altri dittatori del gusto popolare, dei quali egli spiegava “il cattivo gusto, la brutta forma, il cattivo disegno”, la completa assenza “di buono stile [... e] della linea pura”, “nessuna naturalezza né verità”, l’amore per “maschere, fantocci, cenci e smorfie” con la loro disponibilità a “lavorare per dei tiranni e per degli schiavi”. Gamelin era certo che “fra cent’anni, tutti i quadri di Watteau saranno miseramente finiti nei solai”, e prediceva che

“nel 1893, gli studiosi di pittura copriranno con i loro abbozzi le tele di Boucher”. La Repubblica francese, all’epoca tenera, incerta e fragile figlia della Rivoluzione, sarebbe cresciuta sino a recidere una dopo l’altra le numerose teste dell’idra della tirannia e della schiavitù – eliminando anche la mancanza di uno stile ben definito negli artisti e la cecità di questi di fronte alla Natura. Non vi è pietà per chi cospira contro la Repubblica, così come non vi è libertà per i nemici della libertà, né tolleranza per i nemici della tolleranza. Ai dubbi espressi dalla sua incredula madre, Gamelin rispondeva senza esitare: “Confidiamo in Robespierre: egli è virtuoso. Ma speriamo soprattutto in Marat, che ama il popolo, sa discernere i suoi veri interessi e li serve. Egli fu sempre il primo a smascherare i traditori, a sventare i complotti”. In uno dei suoi rari e rarefatti interventi nelle vesti di autore, France spiegò ed etichettò i pensieri, le azioni e i gusti del suo eroe come il sereno fanatismo degli “uomini di bassa condizione che avevano distrutto la regalità, rovesciando il vecchio mondo”. Lungo il cammino che da fascista rumeno lo portò a diventare un filosofo francese, Emil Cioran ha così riassunto la sorte dei giovani dell’epoca di Robespierre e Marat, e di Stalin e di Hitler: “La cattiva sorte è il loro destino. Sono loro che esprimono la dottrina dell’intolleranza e che la mettono in pratica. Sono loro che hanno sete – di sangue, di tumulti, di barbarie”59. Beh, tutti i giovani? E solo i giovani? E solo all’epoca di Robespierre o di Stalin? Per Kant, il rispetto e la benevolenza verso gli altri rappresentano un imperativo dettato dalla ragione; il che significa che se un essere umano, una creatura dotata da Dio o dalla Natura di ragione, riflette sul pensiero di Kant sicuramente riconoscerà e accetterà il carattere categorico di quell’imperativo e lo adotterà come principio della propria condotta. Nella sua essenza, l’imperativo categorico in questione si riduce al comandamento di trattare gli altri come vorremmo che gli altri trattassero noi; in altre parole, a una versione dell’ingiunzione biblica di amare il prossimo come se stessi – che Kant basa su un’elaborata e sofisticata serie di argomentazioni logiche, le quali richiedono l’autorità della ragione umana in quanto capace di giudicare ciò che deve essere e occorre che sia, anziché quella del volere di Dio che stabilisce cosa deve essere. In questa transizione da linguaggio sacro a linguaggio secolare, tuttavia, qualcosa dei poteri persuasivi del comandamento è andata perduta. Il

volere di Dio, sfacciatamente “decisionista”, può conferire un potere apodittico e insindacabile all’ipotesi di una simmetria essenziale, preordinata e ineluttabile dei rapporti tra esseri umani; un’ipotesi indispensabile tanto alla versione sacra che a quella profana. La ragione, invece, avrebbe molte difficoltà a dimostrare la veridicità di tale ipotesi. Dopotutto l’affermazione della simmetria dei rapporti interumani appartiene all’universo delle convinzioni, di ciò che viene dato per scontato o stipulato (e che può quindi essere accettato sulla base del fatto che “sarebbe meglio se...” o “dobbiamo obbedienza al volere di Dio”), ma che non trova posto nell’universo della conoscenza empirica – dominio, o meglio habitat naturale della ragione. Che si riferiscano all’infallibilità della ragione nella sua ricerca per la verità (per “come le cose sono e non potrebbero che essere”), o ai meriti utilitaristici della ragione (ovvero, la sua abilità a separare le intenzioni realistiche, fattibili e plausibili dal semplice sognare a occhi aperti), i propugnatori dei poteri legislativi della ragione troveranno difficile argomentare in modo convincente a favore della simmetria, e ancora più difficile dimostrarne l’utilità. Il problema è dato dalla scarsità – per non dire dall’assenza – di prove sperimentali a sostegno dell’ipotesi in questione, mentre la ragione poggia il proprio diritto all’ultima parola, là dove vi è dissenso, sulla decisione di basare il suo giudizio esattamente su quel tipo di prova – e non riconosce la validità di nessun altro presupposto. Un altro problema, strettamente collegato al primo, deriva dall’abbondanza di prove contrarie: ovvero, promuovendo l’efficacia delle imprese umane e l’abilità degli uomini nel raggiungere i loro obiettivi, la ragione si concentra sul liberare coloro che ne sono oppressi dai vincoli che la simmetria, la reciprocità, la reversibilità delle azioni e degli obblighi impongono alle loro scelte; in altre parole, si concentra nel creare situazioni nelle quali gli esecutori della ragione possano tranquillamente eliminare dalla lista di fattori rilevanti per le proprie scelte la preoccupazione che il corso degli eventi da loro scelto possa ripercuotersi su di loro – o, per dirla brutalmente, ma con maggiore precisione, che il male possa ripercuotersi come un boomerang su chi lo commette. In opposizione a quanto auspicato da Kant, la ragione comune sembra dedicare la maggior parte del proprio tempo e delle proprie risorse allo scopo di disarmare e disinnescare le richieste e le pressioni dell’imperativo (presunto) categorico. Stando ai precetti della ragione, i

principi più ragionevoli, più meritevoli di attenzione e più encomiabili dell’agire sono quelli che aboliscono o prevengono la simmetria tra gli attori e gli oggetti delle loro azioni; o quanto meno quegli stratagemmi che, una volta messi in campo, riducono al minimo le possibilità di essere contraccambiati. Troppo spesso ciò che dal punto di vista della ragione risulta accettabile si rifiuta senza mezzi termini di soddisfare i parametri della moralità. Tuttavia, pur fallendo il test della moralità, mantiene intatta la propria ragionevolezza. La ragione è uno strumento del potere. È, innanzitutto e soprattutto, una fabbrica del potere (Macht, pouvoir), definito come la capacità di un soggetto di raggiungere degli obiettivi malgrado una resistenza – che può essergli opposta dalla materia inerte o da soggetti che perseguono obiettivi diversi. “Essere potente”, in altre parole, significa avere l’abilità di superare l’inerzia di un oggetto recalcitrante all’azione o di ignorare le ambizioni di altre dramatis personae (ossia, godere dell’esclusiva soggettività e dell’esclusiva intenzionalità effettiva del dramma a più voci, riducendo quindi gli altri soggetti allo stato di oggetti dell’azione, o di sfondo neutrale). Per loro propria natura, potere e autorità sono asimmetrici (si sarebbe tentati di affermare: così come la natura non sopporta il vuoto, il potere non tollera la simmetria). L’autorità non unifica e non appiana le differenze; l’autorità divide e oppone. L’autorità è nemica giurata e annulla la simmetria, la reciprocità e la vicendevolezza. Il potere dell’autorità consiste nella sua capacità di manipolare le probabilità e differenziare le possibilità, le potenzialità e le opportunità; il tutto, ricomponendo le risultanti divisioni e immunizzando le disparità della distribuzione contro le proteste e le rivendicazioni di coloro che si trovano a subire l’operazione. In breve, l’autorità e il potere di agire, la cui produzione e cura rappresentano la vocazione della ragione, equivalgono di fatto a ignorare o rifiutare esplicitamente il presupposto che rende l’imperativo di Kant categorico. Come ha vividamente e appassionatamente osservato Friedrich Nietzsche: Che cos’è buono? – Tutto ciò che eleva il senso della potenza [...]. Che cos’è cattivo? – Tutto ciò che ha origine dalla debolezza. [...] I deboli e i malriusciti devono perire: questo è il principio del nostro amore per gli uomini. E a tale scopo si deve anche essere loro d’aiuto. Che cos’è più dannoso di qualsiasi vizio? – Agire pietosamente verso tutti i malriusciti e i deboli [...]60.

“Mi piace fare piazza pulita”, ammetteva Nietzsche con orgoglio, “passare per spregiatore par excellence”61. Diverse generazioni di altri “spregiatori par excellence”, forniti di armi adatte a trasformare le parole in carne (e, più opportunamente, a far sì che le parole uccidessero la carne), che hanno lavorato sodo per trasformare in realtà la visione di Nietzsche, poterono trarre ispirazione da lì, e molte di loro lo hanno fatto. Trovarono assoluzione dalle loro intenzioni nell’esortazione di Nietzsche ad aiutare i deboli e i malriusciti a perire. Per dirla con Zarathustra, portavoce autorizzato e plenipotenziario di Nietzsche: “Il più grande dei miei pericoli fu sempre quello di risparmiare gli altri e di averne compassione; e ogni natura umana vuol essere risparmiata e sopportata”62. I verdetti della Natura possono essere alterati solo a rischio e pericolo di colui che li manipola. Per evitare la rovina, gli esseri umani devono essere liberati: gli alti e possenti dalla pietà, dalla compassione, da un (ingiusto) senso di colpa e da scrupoli (immotivati) – e i volgari e umili dalla speranza. I tentativi di risolvere il mistero dell’unde malum (da dove proviene il male?), che assilla i filosofi etici forse più di ogni altro, e quello addirittura più impellente del “perché i buoni diventano cattivi”63 (o, per la precisione, il segreto della trasformazione misteriosa, come per magia, di premurosi uomini di famiglia e vicini di casa cordiali e benevoli in mostri), furono inaugurati e ricevettero un primo, possente impulso dall’ondata di totalitarismo che investì il ventesimo secolo, successivamente febbrilmente implementati sulla scia delle rivelazioni sull’Olocausto, e ulteriormente accelerati in seguito alle prove sempre più numerose delle analogie vieppiù evidenti tra il mondo post-Olocausto e un campo minato, nel quale si è certi che prima o poi si verificherà un’esplosione, senza però sapere né dove né quando. Sin dall’inizio, i tentativi di penetrare quel mistero hanno seguito tre strade diverse, e con ogni probabilità continueranno a seguirle per molto tempo ancora, dal momento che nessuna di loro lascia intravedere un punto di arrivo dove sia possibile riposare, soddisfatti per aver raggiunto la meta prefissa. Dopotutto, il proposito di coloro che esplorano queste strade è di cogliere nella rete della ragione quei fenomeni che Günther Anders definiva “sovraliminali” (überschwellige): che non possono cioè essere afferrati e assimilati intellettualmente in quanto eccedono qualsiasi rete di sensi o di concetti, e che in virtù di ciò condividono il fato dei fenomeni

“subliminali” (unterschwellige), che all’apparenza sono il loro contrario – minuti e abbastanza rapidi da sfuggire persino alle reti a maglie più fitte e svanire prima di poter essere colti e spediti al cospetto della ragione per essere destinati a un riciclo intelligente. La prima strada (che sembra essere stata recentemente imboccata con poche, e men che cruciali riserve da Jonathan Littell nel suo libro Le benevole64) porta ad approfondire e scandagliare delle peculiarità fisiche (o sedimenti fisici di peculiarità biografiche) di cui si è notata o ipotizzata l’esistenza in individui che hanno notoriamente commesso crudeltà, o sono stati addirittura colti in flagrante. Individui che si presume possiedano rispetto alle persone normali una più spiccata propensione e un maggiore desiderio di commettere atrocità se spinti a farlo. Quella strada era stata tracciata già prima che le mostruose azioni umane dell’era post-Olocausto rivelassero tutta l’atrocità e la potenziale portata del problema: a inaugurarla fu infatti l’indimenticabile e importantissimo studio di Theodor Adorno sulla “personalità autoritaria”, nel quale si promuoveva l’idea di un’“autoselezione” dei malvagi e si suggeriva che l’auto-distruzione in questione fosse determinata da predisposizioni individuali innate, anziché acquisite. La seconda strada, forse la più ampia e di gran lunga la più frequentata, fu tracciata lungo la linea del condizionamento comportamentale e conduce a una ricerca dei contesti o delle situazioni sociali capaci di spingere individui che in circostanze normali (o più comuni) appaiono “normali” a unirsi ad altri nella perpetrazione di atti malvagi; o, per dirla diversamente, delle condizioni che risvegliano in tali individui delle predisposizioni abiette che altrimenti rimarrebbero allo stato latente. Per gli studiosi che abbracciano questa teoria, a sedere sul palco degli imputati era un certo tipo di società, e non un certo tipo di tratti individuali. Siegfried Kracauer, ad esempio, o Hans Speier, hanno studiato l’origine del clima moralmente ignobile che favorisce il reclutamento nell’esercito del male di coloro che appartengono all’infinita categoria degli Angestellten (impiegati). Poco tempo più tardi Hannah Arendt attribuì quell’atmosfera maleodorante e moralmente tossica alle predisposizioni “proto-totalitarie” dei borghesi, o al filisteismo e alla volgarità di quelle classi che erano state costrette a ricompattarsi in “masse” (in base al principio di “erst kommt das Fressen, dann kommt die Moral”, come notò succintamente Bertolt Brecht)65. Hannah Arendt, probabilmente la più eminente portavoce di questa

linea di pensiero, che è in netta e inconciliabile contrapposizione con la riduzione del fenomeno sociale alla psiche individuale, osservò che il vero genio tra gli ammaliatori nazisti fu Himmler, il quale – pur non essendo “un bohémien come Göbbels, o un delinquente sessuale come Streicher [...], o un ciarlatano come Rosenberg, o un fanatico isterico come Hitler, o un avventuriero come Göring” – riuscì a “organizzare le masse fino al dominio totale” partendo dal (corretto) presupposto che “la maggioranza della gente non è formata da bohémiens, fanatici, avventurieri, maniaci sessuali, ciarlatani o falliti, ma da uomini preoccupati soprattutto [...] del benessere della propria famiglia”66. Il suo libro La banalità del male mostra sino a che punto tale considerazione la condusse. La più nota delle sue conclusioni è condensata nel succinto verdetto sulla banalità del male, con cui Arendt intendeva affermare che le mostruosità non richiedono mostri e le offese non richiedono personaggi offensivi, e che il problema di Eichmann sta precisamente nel fatto che, in base al giudizio di luminari ben noti della psicologia e della psichiatria, egli (insieme a tanti suoi complici) non era un mostro o un sadico, bensì un uomo sfacciatamente, terribilmente, spaventosamente “normale”. Conclusione che Littell sposerebbe almeno in parte, aggiungendo che Eichmann non era altro che un “automa senza volto e senza anima”. L’effetto Lucifero, di Philip Zimbardo, è uno dei più recenti studi ispirati a questa teoria. L’opera, agghiacciante e inquietante, si basa sulle esperienze di un gruppo di bravi ragazzi e ragazze americani: dei giovani normali, apprezzati e apprezzabili, che si trasformano in mostri dopo essere stati spediti in una sorta di “non luogo”, nel lontano Iraq, e là incaricati di sorvegliare dei prigionieri accusati di essere mossi da cattive intenzioni e sospettati di appartenere a una categoria umana inferiore, o di essere addirittura men che umani. Come sarebbe sicuro e rassicurante, accogliente e confortevole il mondo, se a compiere atti mostruosi fossero solo i mostri – e nessun altro. Contro i mostri siamo protetti abbastanza bene, e possiamo considerarci al sicuro dalle malvagie azioni di cui questi sono capaci e che minacciano di perpetrare. Dopotutto, abbiamo dalla nostra gli psicologi, capaci di individuare psicopatici e sociopatici, e i sociologi, che ci indicano gli ambienti dove questi tendono a manifestarsi, propagarsi e concentrarsi; abbiamo i giudici, che li condannano al carcere e all’isolamento, e le guardie carcerarie e gli psichiatri che si assicurano che vi restino.

Purtroppo, però, i normali, simpatici bravi ragazzi e ragazze americani del libro non erano dei mostri, né dei pervertiti. Se non gli fosse stato chiesto di tiranneggiare i prigionieri di Abu Ghraib non saremmo mai venuti a sapere (sospettare, supporre, immaginare, concepire) quali orrende azioni fossero in grado di architettare. A nessuno di noi sarebbe venuto in mente di pensare che una volta trasferita al di là dell’oceano quella ragazza sorridente si sarebbe contraddistinta per la creatività con cui escogitava trovate sempre più astute e raffinate, oltre che malvagie e perverse, per vessare, molestare, torturare e umiliare i prigionieri che le erano stati affidati. Ancora oggi, nelle cittadine da cui questi giovani provengono, i vicini di casa di un tempo si rifiutano di credere che quei deliziosi ragazzi e ragazze conosciuti sin da bambini siano i mostri che appaiono nelle foto scattate nelle stanze di tortura di Abu Ghraib. E invece sono proprio loro. A conclusione dell’accurato e meticoloso profilo psicologico di Chip Frederick, il presunto capo nonché “guida” del branco di aguzzini, Philip Zimbardo dichiara di non essere riuscito a cogliere nel suo passato il benché minimo indizio che avrebbe potuto indicare che un giorno egli avrebbe adottato un comportamento vessatorio e sadico. Al contrario, numerosi indizi lasciano supporre che, se non fosse stato obbligato a vivere e lavorare in una situazione così anomala, Chip Frederick avrebbe potuto essere il tipico bravo soldato, di quelli che appaiono sui manifesti che invitano ad arruolarsi nell’esercito. Chip Frederick avrebbe infatti superato a pieni voti ogni test psicologico immaginabile, così come superò l’attento scrutinio a cui l’esercito immancabilmente sottopone i candidati alle missioni di maggiore responsabilità e più delicate da un punto di vista etico – come quelle che vengono affidate ai tutori dell’ordine e della giustizia. Nel caso di Chip Frederick e di Lynndie England, la sua più cara e nota complice, si potrebbe insistere (anche a dispetto delle prove) che essi si siano limitati a obbedire agli ordini e siano stati obbligati a compiere atrocità che aborrivano e consideravano ripugnanti – umili agnelli, anziché lupi rapaci. Se così è stato, l’unica accusa che si potrebbe rivolgere loro sarebbe quella di codardia, o di eccessivo rispetto nei confronti dei superiori, o, tutt’al più, di aver accantonato con troppa facilità, senza la minima rimostranza, quei principi morali che li avevano guidati nella loro vita “normale”. Che dire invece di chi è ai vertici della piramide burocratica? Delle persone che

impartivano gli ordini, pretendevano obbedienza e punivano chi non vi si atteneva? Dev’essersi certamente trattato di mostri. Le indagini sulle atrocità di Abu Ghraib però non si sono mai spinte fino alle alte sfere del comando militare americano. I pezzi grossi che impartiscono gli ordini non possono essere trascinati in giudizio e processati per crimini di guerra, a meno di non figurare tra gli sconfitti nella guerra da loro stessi intrapresa. Adolf Eichmann invece, che presiedette agli strumenti e alle procedure impiegati nella “soluzione finale” del “problema ebraico” e impartì gli ordini ai suoi esecutori, si è trovato in una situazione simile – essendo stato catturato dai vincitori e portato di fronte ai loro tribunali. In passato, dunque, si è presentata l’occasione di sottoporre “l’ipotesi del mostro” a un attento (anzi: meticoloso) scrutinio da parte dei più autorevoli rappresentanti della psicologia e della psichiatria. E le conclusioni tratte da quelle analisi assolutamente accurate e affidabili non sono affatto ambigue. Le riportiamo di seguito, nelle parole di Hannah Arendt: Una mezza dozzina di psichiatri lo aveva dichiarato “normale”, e uno di questi, si dice, aveva esclamato addirittura: “Più normale di quello che sono io dopo che l’ho visitato”, mentre un altro aveva trovato che tutta la sua psicologia, tutto il suo atteggiamento verso la moglie e i figli, verso la madre, il padre, i fratelli, le sorelle e gli amici era “non solo normale, ma ideale”[...] il guaio del caso Eichmann era che di uomini come lui ce n’erano tanti, e che questi tanti non erano né perversi né sadici, bensì erano, e sono tuttora, terribilmente normali. Dal punto di vista delle nostre istituzioni giuridiche e dei nostri canoni etici, questa normalità è più spaventosa di tutte le atrocità messe insieme67.

Dev’essersi davvero trattato di una scoperta assolutamente terrificante: se a compiere simili atrocità e macchiarsi di un comportamento così perverso e sadico non sono degli orchi, ma degli individui normali (e qui sono tentato di aggiungere: “come te e come me”), tutti i filtri che ci siamo inventati e abbiamo posto in essere per separare i portatori di disumanità dal resto della specie umana o sono stati applicati male o si basano su presupposti del tutto errati – e sicuramente inefficaci. Ciò significa, ber farla breve, che siamo tutti vulnerabili (e, si è tentati di aggiungere, “privi di difese contro la nostra potenziale morbosità”). Nell’impiegare al massimo l’ingegno e sforzandosi quanto più possibile di “civilizzare” i comportamenti umani e i modelli di convivenza, i nostri antenati, e tutti coloro che hanno seguito la loro linea di pensiero, avrebbero dunque preso un abbaglio.

Un’attenta lettura delle Benevole mostra una velata critica alla comune interpretazione, sottoscritta dalla stessa Arendt, della tesi della “banalità del male”: ovvero la supposizione che il malvagio Eichmann fosse un “uomo che non pensa”. Dal ritratto tracciato da Littell, Eichmann non emerge affatto come un uomo che si attiene a degli ordini senza pensare, o che è schiavo dei propri istinti primari. “Non era certo il nemico del genere umano che è stato descritto a Norimberga”, “e non era nemmeno un’incarnazione del male banale”. Al contrario, era “un burocrate di grande talento, molto competente nelle proprie funzioni, di grande levatura e con un considerevole spirito di iniziativa personale”68. In veste di dirigente, Eichmann sarebbe quasi certamente stato l’orgoglio di qualsiasi stimata azienda europea (comprese quelle di proprietà di ebrei o dirette da ebrei). La voce narrante di Littell – il dottor Aue – afferma di non avere mai riscontrato, durante i suoi numerosi incontri personali con Eichmann, alcun indizio di pregiudizi personali e ancor meno un odio intenso nei confronti degli ebrei, che egli considerava alla stregua di pratiche che la sua carica gli imponeva di evadere a dovere. Niente di più (e niente di meno). Tanto a casa che sul posto di lavoro, Eichmann era coerentemente se stesso, lo stesso uomo che insieme ai suoi compagni delle SS si esibiva in due quartetti di Brahms: “Eichmann suonava con calma, metodico, gli occhi incollati allo spartito; non commetteva un errore”69. Se Eichmann era “normale”, nessuno può essere considerato a priori esente dal dubbio. Nessuno dei nostri amici e conoscenti, così splendidamente normali. E nemmeno noi. I Chip Frederick e gli Adolf Eichmann percorrono le nostre strade in pieno giorno, fanno la fila alle casse dei supermercati, affollano i cinema e le tribune degli stadi, viaggiano in treno e sugli autobus delle nostre città o rimangono imbottigliati nel traffico nella corsia vicina alla nostra. Potrebbero addirittura abitare nell’appartamento accanto, o sedere al nostro desco. Tutti loro, se le circostanze lo permettono, potrebbero comportarsi come Chip Frederick e Adolf Eichmann. E io? Se così tanti individui sono potenzialmente capaci di commettere atti disumani, io potrei facilmente, per caso, per un semplice capriccio del destino, diventare una delle loro vittime. Loro potrebbero compiere gesti atroci – questo lo so già. Ma io stesso potrei a mia volta, e con altrettanta facilità, diventare uno di “loro”: l’ennesimo caso di “persona normale” capace di fare ad altri ciò che hanno fatto loro.

John M. Steiner ha coniato la definizione di “dormiente”70, tratta dalla terminologia dello spionaggio, per indicare una personale inclinazione alla violenza che non si è (ancora) manifestata, o la vulnerabilità di un individuo alla tentazione di compiere atti violenti. Si tratta di un potenziale detestabile, che potrebbe ipoteticamente esistere in particolari individui senza che per molto tempo se ne sospetti l’esistenza. Una propensione o una vulnerabilità che possono (o forse sono destinate a) emergere solo in presenza di circostanze particolarmente “propizie”, presumibilmente quando quei fattori che le avevano represse e occultate all’improvviso si risvegliano o vengono meno. Ervin Staub ha compiuto un ulteriore (gigantesco) passo in avanti, sia eliminando dalla teoria di Steiner i riferimenti alla “particolarità”, sia ipotizzando la presenza di “dormienti” malevoli nella maggior parte – o forse nella totalità – degli esseri umani. “Il male [...] commesso da persone comuni rappresenta la norma, e non un’eccezione”. Ha ragione? Non lo sappiamo né lo sapremo mai, quanto meno non con certezza, dal momento che non esiste un modo di dimostrare o contraddire empiricamente tale ipotesi. Le possibilità non sono diverse dalle galline: si possono contare in modo affidabile e definitivo solo dopo che le uova si sono schiuse. Cosa sappiamo allora con certezza? Zimbardo aveva già dimostrato con quale facilità il comportamento sadico poteva essere instillato in individui che non avevano una “tipologia sadica”, tramite alcuni esperimenti condotti precedentemente presso l’Università di Stanford su studenti scelti a caso per interpretare il ruolo di “guardie carcerarie” e altri scelti (anch’essi a caso) per vestire quello di prigionieri71. Attraverso altri esperimenti condotti a Yale e basati sulla richiesta ad alcuni soggetti (scelti a caso) di infliggere ad altri quelle che erano state fatte loro credere essere delle dolorose scosse elettriche di crescente intensità, Stanley Milgram ha scoperto che “l’obbedienza verso l’autorità” – un’autorità qualsiasi, a prescindere dalla natura degli ordini che essa impartisce, e anche quando coloro che sono sottoposti ad essa considerano ripugnanti e abominevoli le azioni che si chiede loro di eseguire – è “una tendenza comportamentale profondamente radicata”72. Se a ciò si aggiungono sedimenti di socializzazione pressoché universali, quali la lealtà, il senso del dovere e la disciplina, ne risulta che gli uomini possono essere portati a uccidere senza difficoltà. In altre parole, è facile indurre, spingere, sollecitare e allettare

degli individui non malvagi a commettere atti malvagi. Christopher R. Browning ha studiato il tragitto, contorto e invariabilmente cruento, compiuto dagli uomini del Battaglione 101 della polizia di riserva tedesca, giudicati non idonei al combattimento in prima linea e ai quali fu assegnato il compito di uccidere in massa gli ebrei polacchi73. Questi individui, che a quanto è dato sapere fino a quel momento non avevano mai compiuto atti violenti e tanto meno omicidi, né sembravano capaci di commetterne, si dimostrarono pronti (non tutti, ma una considerevole maggioranza di loro) ad eseguire l’ordine di uccidere, sparando a bruciapelo a uomini e donne, vecchi e bambini disarmati e palesemente innocenti poiché non accusati di alcun reato, e che non nutrivano la benché minima intenzione di far del male a loro o ai loro commilitoni. Browning scoprì (come espone nel volume dal titolo Uomini comuni, che la dice lunga sulla questione) che solamente una percentuale compresa tra il 10 e il 20 per cento di loro chiese di poter essere esonerato dall’eseguire gli ordini. Vi era poi “un nucleo di aguzzini sempre più fanatici che si offrivano volontari per i plotoni di esecuzione e le pattuglie di ‘caccia all’ebreo’”, ma il gruppo di gran lunga più nutrito era quello formato da uomini che senza sollevare la minima rimostranza si prestavano a vestire i panni di assassini e “spazzini” del ghetto quando gli veniva chiesto di farlo, benché non cercassero di loro iniziativa l’opportunità di uccidere. Dal mio punto di vista, l’aspetto più sorprendente di tale scoperta sta nella sconcertante somiglianza tra la suddivisione statistica evidenziata da Browning, che distingue gli uomini in esaltati, renitenti e “altri” (che non appartenevano né al primo né al secondo gruppo), e le reazioni dei soggetti degli esperimenti condotti da Zimbardo e Milgram sull’obbedienza agli ordini impartiti dall’autorità. In tutti e tre i casi vi è stato chi si è dimostrato desideroso di avere un pretesto per dare sfogo ai propri istinti malvagi, e altri – in percentuale più o meno analoga – che si sono rifiutati di compiere atti malvagi a prescindere dalle circostanze o dalle conseguenze che il loro rifiuto avrebbe potuto avere. Tra questi due estremi troviamo poi degli individui indifferenti, tiepidi, e non particolarmente convinti e coinvolti né dall’una né dall’altra estremità dello spettro attitudinale; si tratta di persone che evitano di prendere posizione, a favore o contro la moralità, preferendo attenersi alla linea di minor resistenza e fare ciò che la prudenza detta loro e l’indifferenza consente di

fare nelle circostanze in oggetto. In altre parole, in tutti e tre i casi (e probabilmente in innumerevoli altri appartenenti alla stessa nutrita categoria, di cui i tre citati rappresentano gli esempi più spettacolari e convincenti), la distribuzione delle probabilità che un’ingiunzione a fare del male sia o meno obbedita segue la funzione statistica nota con il nome di curva di Gauss (o anche come “curva a campana”, “distribuzione o funzione gaussiana”), che si ritiene sia il diagramma di distribuzione delle probabilità più comune, prototipico e quindi “normale”. Leggiamo su Wikipedia che la nozione della gaussiana si riferisce alla tendenza dei risultati a “raggrupparsi attorno a una media”. Il relativo “grafico della funzione di densità di probabilità associata è simmetrica e a forma di campana” il cui culmine rappresenta la media. Leggiamo inoltre che “in base al teorema centrale del limite, qualsiasi variabile che è la somma di un ampio numero di fattori indipendenti è probabilmente distribuita in maniera normale”. Poiché la distribuzione statistica delle riposte comportamentali da parte di individui spinti a fare del male evidenzia una chiara tendenza a presentarsi sotto forma di curva di Gauss, possiamo azzardare che anche in questo caso i risultati sono dovuti alla reciproca interferenza di un ampio numero di fattori indipendenti. Gli ordini imposti dall’alto, il rispetto o la paura (istintivi o profondamente radicati) nei confronti dell’autorità, il sentimento della lealtà – rafforzato da considerazioni imperniate sul senso del dovere e/o su una disciplina fortemente inculcata – sono alcuni di tali fattori, ma non necessariamente gli unici. Il possibile risvolto positivo in questa nube uniformemente cupa è che in condizioni di modernità liquida, caratterizzate dall’affievolirsi o dalla scomparsa delle gerarchie burocratiche dell’autorità, oltre che dal moltiplicarsi dei luoghi da cui si levano le raccomandazioni competitive (i due fattori responsabili dell’aumento dell’incoerenza e del calo dell’udibilità di simili voci), appare plausibile (ma solo plausibile) che altri fattori, più individuali, idiosincratici e soggettivi, come ad esempio il carattere personale, possano giocare un ruolo nella scelta delle reazioni. Se così fosse, l’umanità forse ne guadagnerebbe. Ad oggi, tuttavia, la nostra esperienza collettiva offre poche o forse nessuna ragione di ottimismo. Come suggerisce W.G. Sebald (nel suo Luftkrieg und Literatur, scritto nel 1999 e tradotto con il titolo di Storia

naturale della distruzione), “si affaccia il sospetto che la disgrazia di cui siamo noi stessi causa non possa insegnarci nulla: ecco perché continuiamo ad avanzare, incorreggibili, su piste battute che si ricollegano – appena accennate – all’antica rete di comunicazione”74. Essendo inclini, per natura o abitudine, a cercare e trovare la via più breve per raggiungere gli scopi che perseguiamo e che crediamo valga la pena di perseguire, le “disgrazie” (e in particolare le disgrazie altrui) non ci sembrano un prezzo eccessivamente alto da pagare per abbreviare la via, limitare i costi e ottimizzare gli effetti. Sebald cita inoltre un’intervista condotta dal giornalista tedesco Kunzert al generale di brigata dell’ottava flotta aerea statunitense Frederick L. Anderson e tratta da Unheimlichkeit der Zeit, di Alexander Kluge. Alla domanda di Kunzert, che gli chiedeva se sarebbe stato possibile prevenire la distruzione di Halberstadt, sua città natale, e scongiurare che fosse bombardata a tappeto dagli americani, Anderson rispose che le bombe erano, dopotutto, “merce costosa... All’atto pratico non la si può buttare via scaricandola sui monti o in aperta campagna, dopo tutte le risorse profuse in patria per realizzarla”75. Replicando con insolita schiettezza, Anderson aveva centrato l’obiettivo. Non era stata la necessità di danneggiare Halberstadt a determinare l’impiego degli ordigni, ma era stata l’esigenza di impiegare gli ordigni che aveva determinato il destino di Halberstadt. La città fu semplicemente un “danno collaterale” (per ricorrere alla terminologia militare contemporanea) del successo delle fabbriche di armamenti. Come spiega Sebald, “abbandonare lì, inutilizzati sui campi d’aviazione dell’Inghilterra orientale i materiali ormai prodotti, ovvero gli aerei con il loro carico prezioso, era un’idea cui si ribellava il sano istinto economico”76. Quell’“istinto economico” ebbe forse la prima, e certamente l’ultima, parola nel dibattito sulla convenienza e l’utilità della strategia di Sir Arthur (“Bomber”) Harris: la distruzione delle città tedesche procedeva a ritmi sostenuti e inarrestabili ancora molto tempo dopo la primavera del 1944, quando i legislatori e coloro che impartiscono gli ordini avevano compreso che, a differenza dell’obiettivo ufficialmente proclamato della campagna aerea e della sua protratta, decisa, prodiga e entusiastica esecuzione, “il morale della popolazione tedesca era ovviamente intatto, la produzione industriale era nel migliore dei casi compromessa solo marginalmente, e la

fine della guerra non era affatto più vicina”. All’epoca di quella scoperta (e rivelazione), “il materiale” in questione era già stato prodotto e ammassato nei magazzini; lasciarlo inutilizzato sarebbe stato, invero, “contrario a qualsiasi sano istinto economico”, o, per dirla semplicemente, non avrebbe avuto alcun senso (stando a una stima compiuta da A.J.P. Taylor e citata da Max Hastings a pagina 349 del suo studio Bomber Command, del 1979, la campagna di bombardamento impegnò e “inghiottì” un terzo della produzione bellica complessiva della Gran Bretagna). Sin qui abbiamo tratteggiato e paragonato due percorsi lungo i quali la ricerca di una risposta all’unde malum si è sviluppata in tempi recenti. Esiste, tuttavia, anche un’altra traiettoria, che merita di essere definita antropologica in ragione dell’universalità e dell’estemporaneità dei fattori che invoca e mette in gioco nel tentativo di comprendere quel mistero. Una prospettiva che con il passare del tempo acquista maggiore importanza e appare sempre più promettente, proprio mentre le due sopra descritte si avvicinano all’esaurimento del proprio potenziale cognitivo. La direzione seguita da questa terza via può essere intuita già dalle ricerche di Sebald, benché fosse già apparsa nello studio seminale (per qualche decennio trascurato o ignorato) compiuto da Günther Anders a proposito del fenomeno della “sindrome di Nagasaki”, a cui Anders attribuiva il potenziale interamente e completamente apocalittico di “globocidio”. La “sindrome di Nagasaki”, suggerisce Anders, implica che “ciò che ieri è veramente accaduto può accadere ancora e di nuovo anche oggi fino a che non ne avremo cambiato fondamentalmente i presupposti [... poiché] il ripetersi del mostruoso non solo è possibile, ma è probabile [... e] la probabilità di vincere la lotta contro la ripetizione è minore della probabilità di perderla”77. La decisione di sganciare la bomba atomica su Hiroshima il 6 agosto del 1945, e tre giorni più tardi su Nagasaki, fu spiegata ufficialmente con il bisogno di accelerare la capitolazione del Giappone in modo da poter salvare le innumerevoli vite umane che quasi certamente sarebbero andate perse nel caso in cui l’esercito americano fosse stato costretto a invadere l’arcipelago nipponico. La storia non ha ancora emesso un verdetto, ma la versione ufficiale delle motivazioni, che giustifica la perfidia e la scelleratezza dei mezzi utilizzati a favore della grandiosità e della nobiltà dei fini da raggiungere, è stata recentemente messa in dubbio da alcuni storici americani. Questi, dopo aver preso visione di documenti resi da poco

accessibili e riguardanti le circostanze in cui tale decisione fu ponderata, presa e attuata, hanno messo in dubbio la versione ufficiale non solo da un punto di vista morale, ma anche fattuale. Stando ai critici della versione ufficiale, già un mese, o quasi, prima del lancio della prima bomba atomica i governanti del Giappone erano pronti a capitolare; a convincerli ad abbandonare le armi sarebbero stati due fattori: il consenso dato da Truman all’esercito sovietico di unirsi alla guerra contro il Giappone e la promessa fatta dagli Alleati di mantenere l’imperatore sul trono all’indomani della resa del Giappone. Truman però procrastinava, in attesa dei risultati dell’esperimento che stava per essere condotto ad Alamogordo, nel Nuovo Messico, dove le prime bombe atomiche venivano intanto messe a punto. La notizia di quei risultati giunse a Potsdam il 17 luglio: l’esperimento non solo era riuscito, ma l’impatto dell’esplosione aveva eclissato le più rosee aspettative. Contrariato dall’idea di lasciare inutilizzate quelle tecnologie dal costo esorbitante, Truman iniziò a temporeggiare. Il vero motivo del suo procrastinare può essere facilmente dedotto dal suo trionfale discorso, pubblicato sul «New York Times» all’indomani della distruzione di un centinaio di migliaia di vite umane a Hiroshima: “Abbiamo puntato sulla più audace scommessa scientifica della storia, una scommessa da due milioni di dollari – e l’abbiamo vinta”. Due milioni di dollari non potevano andare sprecati, non credete? Se l’obiettivo originale è raggiunto prima che il prodotto abbia avuto la possibilità di essere utilizzato, occorre prontamente trovare un altro obiettivo che mantenga o ripristini il “senso economico” della spesa. Il 16 marzo 1945, quando la Germania nazista era già in ginocchio e l’imminenza della fine del conflitto non era più in dubbio, Arthur “Bomber” Harris ordinò a 225 bombardieri Lancaster e 11 aerei da combattimento Mosquito di sganciare 289 tonnellate di esplosivo e 573 tonnellate di sostanze incendiarie su Würzburg, una cittadina di medie dimensioni che contava 107.000 abitanti e vantava un ricco passato e numerosi tesori artistici ma era povera di industrie. Tra le 9.20 e le 9.37 di sera, circa cinquemila abitanti (il 66 per cento dei quali erano donne e il 14 per cento bambini) furono uccisi, e 21.000 abitazioni furono date alle fiamme. Quando gli aerei si allontanarono, solo 6.000 abitanti avevano ancora un tetto sopra la testa. Hermann Knell, che è riuscito a ricostruire

queste cifre dopo una scrupolosa ricerca negli archivi storici78, si domanda perché mai una città priva di qualsiasi importanza strategica (un’opinione confermata, benché in modo indiretto, dall’omissione di qualsiasi menzione del toponimo nella storia ufficiale della Royal Air Force, che pure elenca meticolosamente ogni missione, per quanto irrilevante) fu scelta per essere distrutta. Avendo preso in esame ogni possibile causa, ed escludendole una ad una, a Knell non rimase che una sola, logica risposta alla sua domanda: all’inizio del 1945 Arthur Harris e Carl Spaatz (il comandante della Us Air Force in Gran Bretagna e in Italia) erano a corto di obiettivi: Il bombardamento progrediva secondo i piani, senza considerare la mutata situazione militare. La distruzione delle città tedesche andò avanti sino alla fine di aprile. Si sarebbe detto che una volta messa in moto, la macchina militare non potesse essere arrestata. Aveva vita a sé. Tutti gli equipaggiamenti e i soldati erano pronti. Deve essere stato quest’aspetto a far decidere a Harris di attaccare Würzburg...

Ma perché proprio Würzburg? Per pura convenienza. Come evidenziato dalle sortite di ricognizione, “la città poteva essere facilmente localizzata con gli strumenti elettronici di cui all’epoca si disponeva”, ed era sufficientemente distante dalle truppe alleate in avanzata da ridurre la minaccia di nuovi casi di “fuoco amico” (ossia di colpire anche le proprie truppe). In altre parole, Würzburg rappresentava un obiettivo facile e privo di rischi, ed era questa la sua involontaria e inconsapevole colpa; una colpa che una volta “entrata in azione la macchina militare” non avrebbe potuto essere perdonata a nessun obiettivo. Nel suo libro sulla Violenza nazista Enzo Traverso introduce il concetto di “potenzialità barbarica” della civiltà moderna. Nel suo studio, egli giunge alla conclusione che le atrocità in stile nazista erano “uniche” solo nel senso che sintetizzavano un gran numero dei mezzi di asservimento e annientamento che nella storia della civiltà occidentale erano già stati separatamente collaudati. Le bombe atomiche sganciate su Hiroshima e Nagasaki indicano che il contro-illuminismo non costituisce una premessa indispensabile ai massacri tecnologici e che l’umanità non è al riparo da una ripetizione di tali catastrofi. Sia la bomba atomica sia i campi nazisti si inscrivono nel “processo di civilizzazione”, in seno al quale non agiscono come una controtendenza e non sono un’aberrazione [...] ma l’espressione di una delle sue potenzialità, di uno dei suoi volti, di una delle sue derive possibili79.

Traverso conclude la propria ricerca con un monito, affermando che non esiste alcun motivo che possa portarci ad escludere la possibilità che in futuro possano verificarsi altre sintesi – non meno omicide di quelle

compiute dai nazisti. Dopotutto, l’Europa liberale e civilizzata dei secoli diciannovesimo e ventesimo aveva dimostrato di essere un’incubatrice di violenza. E, aggiungerei, non abbiamo alcuna prova del fatto che con il sopraggiungere del ventunesimo secolo quell’incubatrice sia stata chiusa o dichiarata fuori uso. In quest’epoca di macchine, domanda Günther Anders, noi rappresentiamo forse le ultime vestigia del passato che non sono ancora riuscite a eliminare i sedimenti tossici delle atrocità trascorse? E risponde: le atrocità di cui parliamo furono commissionate allora non perché a quell’epoca fossero ancora ammissibili (o non fosse ancora stato possibile sradicarle), ma, al contrario, erano perpetrate già allora perché già divenute ammissibili e plausibili80. Vorrei riassumere: dev’esserci stato un “primo momento” in cui le atrocità tecnologicamente assistite che fino ad allora erano considerate inconcepibili divennero ammissibili. Quelle atrocità devono aver avuto un loro esordio, un loro punto d’inizio. Ciò non significa che debbano avere anche una fine, o che siano entrate a far parte dell’esperienza umana solo per una fugace visita, e ancor meno che portino con sé o mettano in moto dei meccanismi destinati prima o poi a causare la loro dipartita. È vero semmai il contrario: una volta entrato in azione, un meccanismo che permette di separare le capacità tecnologiche dall’immaginazione morale si perpetua, si rafforza e si rigenera da solo. La capacità umana di adattarsi a ripartire oggi dal punto raggiunto la sera prima, e trasformare ciò che fino a ieri era inconcepibile in qualcosa che oggi appare banale e scontato, farà in modo che ciò accada. Le atrocità, in altre parole, non si auto-condannano, né si autodistruggono. Al contrario: si auto-riproducono: ciò che un tempo era considerato con sorpresa un orrifico ribaltamento degli eventi (una scoperta orribile, una rivelazione raccapricciante) è trasformato dall’abitudine in riflesso condizionato. Hiroshima fu un trauma dagli echi assordanti e apparentemente inestinguibili. Tre giorni più tardi Nagasaki non provocò quasi nessuno choc, ed ebbe scarsa risonanza. Joseph Roth ha così descritto uno dei meccanismi di tale adattamento desensibilizzante: Quando scoppia una catastrofe, i vicini, sconvolti, si dimostrano soccorrevoli. Tale è l’effetto di gravi catastrofi. Sembra che gli uomini sappiano che le catastrofi non durano a lungo. Le catastrofi croniche, invece, sono così mal sopportate che a poco a poco sia di esse che delle loro vittime non importa più niente a nessuno, quando addirittura non sono vissute come qualcosa di molesto. [...] Se però la follia dura a lungo, le braccia soccorrevoli si paralizzano e si spegne il fuoco della

misericordia81.

In altre parole, una catastrofe che si protrae nel tempo facilita la propria perpetuazione consegnando lo stupore e lo sdegno iniziali all’oblio, scheletrendo e affievolendo la solidarietà umana nei confronti delle sue vittime, e prosciugando in questo modo la possibilità che gli uomini uniscano le proprie forze al fine di scongiurare future vittimizzazioni. Ma come e perché simili atrocità si sono verificate? È ancora Anders che tenta un approccio, che potremmo definire metafisico, per gli studiosi delle origini del male. Gli antecedenti di tale approccio possono essere rintracciati nel concetto di techne di Heidegger, benché sia curioso come quell’acclamato metafisico dell’“essere nel tempo” abbia deciso di porre la techne al di là del tempo storico, nella metafisica del Sein – essere – in quanto tale, presentandolo quindi come un attributo immune alla storia, intrattabile e non modificabile di ogni essere. Anders, invece, è intensamente consapevole dell’intima interdipendenza tra techne e storia, e della sensibilità della techne alle storiche trasmutazioni delle forme di vita. Anders si è concentrato su una metafisica del male costruita a misura della nostra epoca; un male specifico, squisitamente endemico nella nostra forma di convivenza presente e ancora in atto: una forma definita e separata da altre forme da una techne (un prodotto, in definitiva, del potere dell’immaginazione umana) che fugge ben oltre i poteri dell’immaginazione umana e che a sua volta travolge, asservisce e disattiva quella capacità umana che l’ha resa possibile. Un prototipo della storia convoluta e complessa della techne andersiana dev’essere ricercato, forse, nell’antico racconto del caparbio apprendista stregone, nella fisiologia dell’alienazione di Hegel e Marx e, in tempi più recenti, nell’idea di “tragedia della cultura” di Georg Simmel – prodotti dello spirito umano che raggiungono un livello che trascende e si lascia alle spalle il potere umano di assorbimento, comprensione, assimilazione e controllo. Secondo Anders, negli ultimi decenni la capacità umana di produrre (herstellen: realizzare cose, implementare progetti) si è emancipata dai limiti imposti dalla capacità (molto meno espandibile) che gli uomini hanno di immaginare, rappresentare e rendere intellegibile (vorstellen). Si tratta di un fenomeno relativamente nuovo: lo iato (Diskrepanz) che separa le capacità umane di creare e immaginare, nel quale la moderna varietà del male pone le proprie radici. La calamità morale del nostro tempo non sta “nella

sensualità o nell’infedeltà o nella disonestà o nella dissolutezza e nemmeno nello sfruttamento, ma nella mancanza di immaginazione”; quest’ultima, come Anders non si stanca di ripetere, coglie la “verità” (nimmt mehr “wahr”) più di quanto non sappia fare la nostra percezione empirica (Wahrnehmung), guidata dalle macchine82. Io aggiungerei: l’immaginazione coglie anche infinitamente più della verità morale, di fronte alla quale la nostra percezione empirica è particolarmente cieca. La realtà che la percezione (rimasta orfana dell’immaginazione) coglie e oltre la quale è incapace di spingersi è sempre preconfezionata, tecnologicamente prefabbricata e attivata; non ha posto per quelle migliaia o milioni di individui che sono condannati a subirla e a essere distrutti da bombe atomiche, napalm o gas venefici. È una realtà fatta di tasti e tastiere. E, come fa notare Anders, “non si può digrignare i denti premendo un tasto”83. Che il tasto attivi una gelatiera da cucina, azioni un impianto elettrico o scateni i Cavalieri dell’Apocalisse non fa differenza. “Il gesto che scatenerà l’Apocalisse non differirà in nulla dagli altri gesti – e come ogni altro gesto identico, sarà compiuto da un individuo altrettanto pilotato e annoiato dalla propria routine”. “Se c’è qualcosa che simbolizza la natura satanica della nostra situazione, è precisamente l’innocenza del gesto”84; la trascurabilità dello sforzo e del pensiero necessari a scatenare un cataclisma – un cataclisma qualsiasi, compreso il globocidio. Siamo tecnologicamente onnipotenti a causa di, e grazie a, l’impotenza della nostra immaginazione. Talmente impotenti da essere onnipotenti, dal momento che possiamo mettere in atto delle forze capaci a loro volta di causare effetti che per “dotazione naturale” (le nostre mani e i nostri muscoli) non saremmo in grado di produrre. Ma essendo diventati onnipotenti in quel senso, guardando e ammirando la potenza e l’efficienza e gli effetti sconvolgenti delle entità da noi create e architettate, scopriamo la nostra stessa impotenza. Questa scoperta giunge insieme a un’altra: quella dell’orgoglio dell’inventare e mettere in moto macchine magnifiche capaci di compiere gesti erculei di cui altrimenti non saremmo capaci. Al tempo stesso, però, ci sentiamo sfidati dagli standard di perfezione che abbiamo stabilito per le macchine da noi stessi create, alle quali non siamo in grado di tenere testa. E quindi, infine, scopriamo la vergogna: l’ignominia della nostra inferiorità e l’umiliazione che ci travolge quando siamo posti di fronte alla nostra stessa impotenza.

Prese insieme, queste tre scoperte formano, come suggerisce Anders, il “complesso di Prometeo”. Anders ha un nome per gli oggetti di ciascuna scoperta: orgoglio prometeico, sfida prometeica e vergogna prometeica85. Quest’ultima è il senso della propria, innata inferiorità e imperfezione, entrambe palesi una volta che si giustappongono alla perfezione, o meglio onnipotenza, degli oggetti ideati; il risultato dell’indegnità che ci investe a causa del nostro fallimento di auto-reificare, di diventare come le macchine: indomiti, irresistibili, inarrestabili, indipendenti e di fatto ingovernabili, come le macchine “al loro meglio”. Per mitigare tale infamia, abbiamo bisogno di dimostrare la nostra abilità a compiere, con i nostri mezzi naturali e sforzi fisici e senza l’aiuto delle macchine, azioni che le macchine compiono agevolmente, senza problemi: trasformandoci, in altre parole, in mezzi per i mezzi, strumenti per gli strumenti. Dopo aver osservato avidamente e da vicino, volando basso, le distruzioni causate dagli strumenti dell’omicidio e la devastazione prodotta sul villaggio di My Lai, i soldati del tenente Calley non seppero resistere alla sfida o alla tentazione di fare personalmente, a mani nude, ciò che le loro armi erano riuscite a compiere meccanicamente: la tentazione di eguagliare i mezzi di distruzione e superarli nell’inseguimento della perfezione – se pure per un solo momento e in un solo luogo, adesso, in questo villaggio86. La vista di oggetti inanimati a servizio di quell’azione sanguinosa ampliò gli orizzonti dei soldati, lasciando loro intravedere delle possibilità mai sospettatate prima; stimolò la loro immaginazione – ma si trattava di orizzonti che le macchine avevano già tracciato, di possibilità aperte dalla condotta meccanica, e di un’immaginazione prefabbricata nelle industrie. Nella sua lettera aperta a Klaus Eichmann, Anders scrive del rapporto tra lo Stato criminale dei nazisti e il regime mondiale contemporaneo, post-nazista: “La somiglianza tra questo minaccioso regno tecnicototalitario e il mostruoso di ieri è evidente”87. Si affretta poi ad aggiungere che tale affermazione è da intendersi come una provocazione contro l’opinione diffusa (perché rassicurante) che il Terzo Reich fosse stato un fenomeno unico, un’aberrazione insolita ai nostri tempi e in particolare nel nostro mondo occidentale; un’opinione che deve la sua popolarità all’ingannevole capacità di assolvere e legittimare il gesto di chi distoglie lo sguardo dalla propria potenzialità macabra e terrificante. Sono profondamente rammaricato di non essere stato a conoscenza delle

conclusioni di Anders mentre lavoravo al mio Modernità e olocausto. In risposta alle affermazioni di un giornalista che diceva di annoverarlo nella categoria dei “creatori di panico”, Anders disse di considerare tale qualifica un “appellativo onorifico”, da ostentare con orgoglio – aggiungendo che “il compito morale più importante consiste oggi nello spiegare alla gente che deve aver paura e che deve proclamare apertamente la propria legittima paura”88. 57

Anatole France, Gli dei hanno sete, Einaudi, Torino 1975 (ed. or. 1912); le citazioni riportate nel capoverso successivo sono tratte dalle pp. 26, 15 e 7. 58 Si veda Milan Kundera, Il sipario, Adelphi, Milano 2005, pp. 104, 122 (ed. or. 2004). 59 Emil Cioran, Sommario di decomposizione, Adelphi, Milano 2009. 60 Friedrich Nietzsche, L’anticristo. Maledizione del cristianesimo, Adelphi, Milano 1992, pp. 4-5 (ed. or. 1895). 61 Id., Ecce homo, Come si diventa ciò che si è, Adelphi, Milano 1992, p. 123 (ed. or. 1888). 62 Id., Così parlò Zarathustra. Un libro per tutti e per nessuno, Adelphi, Milano 1992, p. 217 (ed. or. 1883-1885). 63 Il sottotitolo del libro di Philip Zimbardo, L’effetto Lucifero. Cattivi si diventa?, Cortina, Milano 2008 (ed. or. 2007). 64 John Littell, Le benevole, Einaudi, Torino 2007 (ed. or. 2006). 65 Per parafrasare Brecht: “Prima il mangiare, poi la morale”. 66 Hannah Arendt, Le origini del totalitarismo, Einaudi, Torino 2009, pp. 468-469 (ed. or. 1951). 67 Ead., La banalità del male. Eichmann a Gerusalemme, Feltrinelli, Milano 2002, pp. 33-34 e 282 (ed. or. 1964). 68 Littell, Le benevole cit., pp. 550. 69 Ivi, p. 545. 70 John M. Steiner, The SS yesterday and today: a sociopsychological view, in Joel E. Dimsdale (a cura di), Survivors, Victims and Perpetrators, Hemisphere, Washington 1980, p. 431. 71 Craig Haney, Curtis Bank e Philip Zimbardo, Interpersonal dynamics in a simulated prison, in «International Journal of Criminology and Penology», 1 (1983), pp. 69-97. 72 Per un dibattito completo, si veda Zygmunt Bauman, Modernità e olocausto, il Mulino, Bologna 2010, cap. 6 (ed. or. 1989). 73 Christopher R. Browning, Uomini comuni. Polizia tedesca e soluzione finale in Polonia, Einaudi, Torino 2009 (ed. or. 1992). 74 Winfried G. Sebald, Storia naturale della distruzione, Adelphi, Milano 2004, p. 72 (ed. or. 1999). 75 Ivi, p. 70. 76 Ivi, p. 30. 77 Günther Anders, Noi figli di Eichmann. Lettera aperta a Klaus Eichmann, Giuntina, Firenze 1995, p. 25 (ed. or. 1964 e 1988). 78 Hermann Knell, To Destroy a City: Strategic Bombing and its Human Consequences in World War II, Da Capo Press, Cambridge (MA) 2003, in particolare pp. 25 e 330-331. 79 Enzo Traverso, La violenza nazista: una genealogia, il Mulino, Bologna 2002, p. 182.

80

Anders, Noi figli di Eichmann cit., p. 66. Joseph Roth, Ebrei erranti, Adelphi, Milano 1985, pp. 120-121 (ed. or. 1927; il brano è però tratto dalla Premessa che Roth scrisse nel 1937 per una nuova edizione olandese). 82 Günther Anders, Opinioni di un eretico, a cura di S. Velotti, Theoria, Roma-Napoli 1990, p. 74 (ed. or. 1979). 83 Id., Essere o non essere. Diario di Hiroshima e Nagasaki, Einaudi, Torino 1961, p. 116 (ed. or. 1959). 84 Id., Le Temps de la fin, L’Herne, Paris 2007, pp. 52-53 (ed. or. 1960). 85 Id., L’uomo è antiquato, vol. I: Considerazioni sull’anima nell’epoca della seconda rivoluzione industriale, Bollati Boringhieri, Torino 2003, pp. 57 sgg. (ed. or. 1956). 86 Id., Opinioni di un eretico cit., pp. 76-77. 87 Id., Noi figli di Eichmann cit., p. 60. 88 Id., Opinioni di un eretico cit., p. 99. 81

10. «Wir arme Leut’»

Wir arme Leut’ (Noi povera gente), afferma Wozzeck nel primo atto dell’opera omonima di Alban Berg, intonando la propria difesa contro le accuse di immoralità e depravazione che gli vengono mosse dal Capitano e dal Dottore – persone istruite, ricche e rispettate. Wozzeck non ha saputo dimostrarsi all’altezza dei loro parametri di decenza e decoro, a cui entrambi ritengono di attenersi e verso i quali esigono obbedienza e rispetto. I due scherniscono Wozzeck, deridendolo e oltraggiandolo perché considerevolmente diverso da loro: una colpa abominevole e imperdonabile, che attribuiscono alla sua bassezza, grossolanità e volgarità. Wir arme Leut’, replica allora Wozzeck, non potremmo vivere come voi, per quanto ci sforzassimo. Le regole della virtù e del vizio sono state stabilite da voi e altri come voi: per questo seguirle vi è tanto facile. Ma se foste poveri come wir, die arme Leute, non vi riuscireste con altrettanta facilità. Si noti che Wozzeck dice wir (“noi”), e non ich (“io”). In altre parole, sembra voler affermare che “la colpa di cui mi accusate non è personale. Non sono il solo a non essere all’altezza degli standard da voi fissati: esistono tanti falliti, proprio come me. E prendendovela con me ve la prendete con tutti loro – con tutti noi”. Ma chi sono quei “noi” a cui allude Wozzeck? Essere poveri significa essere soli... Wozzeck non si riferisce a una classe sociale, una razza, un’etnia, una fede, una nazione... a nessuna di quelle entità che tacitamente ritengono (e a gran voce dichiarano) di formare una comunità: gruppi che si considerano uniti, nel bene e nel male. Legati da un passato, un presente e un destino comune; da qualche gioia e tanti dolori, da rari colpi di fortuna e numerose disgrazie. Gruppi che esigono dai propri membri lealtà, poiché è da questa che sono nati e da cui ogni giorno risorgono, grazie alla continua devozione dei loro componenti. Gruppi accomunati dall’aspettativa che ciascuno dei propri membri

condivida la responsabilità del benessere degli altri e combatta le avversità che li affliggono. Gruppi che sanno chi è dentro (“uno di noi”) e chi è fuori (“uno di loro”), tracciano una linea di demarcazione tra “noi” e “loro” e tentano con ogni mezzo di controllare chi entra e chi esce. Nell’invocazione di Wozzeck a “wir arme Leut’”, di una simile comunità non si scorge che lo spettro della (deplorevole, rimpianta) assenza. Vi prego di notare che ciò che più conta nel dramma di Georg Büchner non sono i pochi, frugali e irrilevanti discorsi di Wozzeck, bensì i suoi silenzi: interrotti di rado, abbondanti, densi ed eloquenti (sic!). Nei suoi discorsi non si scorge alcuna invocazione alla comunità. È come se Wozzeck obbedisse all’ingiunzione di Ludwig Wittgenstein: “di ciò di cui non si può parlare si deve tacere”. E infatti, a proposito di comunità, Wozzeck tace, poiché non vi erano, né vi sono, comunità di cui egli possa parlare. Nella sua disperata ricerca di un’apologia e un’auto-difesa, egli invoca quindi gli arme Leut’, che tuttavia non costituiscono una comunità: anziché unirli, infatti, la loro miseria li separa e li divide. I poveri soffrono individualmente, poiché è individualmente che sono accusati delle loro sconfitte e della loro miseria (prodotte e sofferte individualmente). Ciascuno di loro è stato relegato nella categoria degli arme Leut’ a causa delle proprie colpe individuali, e ognuno di loro si lecca le ferite per conto proprio. Gli arme Leute potrebbero provare invidia, temersi reciprocamente, talvolta commiserarsi o addirittura piacersi (benché non capiti sovente). Nessuno di loro tuttavia potrebbe mai rispettare una creatura simile a sé. Se quegli individui sono realmente “come” me, al pari di me non possono che meritare sprezzo e derisione! Gli arme Leute hanno buoni motivi per rifiutarsi di mostrare rispetto e non aspettarsi a loro volta di riceverne: l’Armut, l’Ärmlichkeit e l’Armseligkeit (povertà, miseria, indigenza) che li affliggono testimoniano privazioni materiali – una condizione indubbiamente avvilente e penosa – ma sono, soprattutto, tracce indelebili, prove evidenti di indegnità e disistima sociale, dimostrazioni del fatto che coloro che detengono l’autorità, le persone a cui spetta la prerogativa di concedere o negare diritti, si sono rifiutate di accordare loro i privilegi che vengono riconosciuti ad altri uomini, “normali”. Testimoniano inoltre, indirettamente, l’umiliazione e il disprezzo di sé che inevitabilmente fanno seguito al riconoscimento sociale dell’ignominia e dell’abiezione personali.

Che il termine arme Leute sia l’unico a cui Wozzeck può ricorrere per definire le “persone come lui” tradisce (consapevolmente o meno) il suo non appartenere alla famiglia degli uomini “normali” né alle comunità a lui note, di cui egli conosce l’esistenza ma alle quali non è invitato a unirsi – e l’impossibilità che possa mai essere ammesso a fare parte di altre. ...Tra coloro che son soli... Se Andreas Kriegenburg, che ha curato l’allestimento del Wozzeck per l’Opera statale bavarese, potesse riscrivere il canto di Wozzeck nella lingua del pubblico a lui contemporaneo, sostituirebbe forse Wir arme Leut’ con Wir, die Unterklasse. La “Unterklasse” (sottoclasse) non è una comunità, bensì una categoria. L’unico attributo comune a chiunque ne faccia parte è il marchio infamante dell’alienazione, dell’essere stato estromesso. È lo stigma di un’esclusione assoluta, che preclude l’accesso a luoghi e situazioni in cui ogni altra identità umana e ogni titolo di riconoscimento sono creati, negoziati, prodotti o smantellati. Essere totalmente esclusi perché relegati alla “sottoclasse” significa vedersi privare di qualsiasi simbolo esteriore socialmente prodotto e socialmente accettato, e di qualsiasi segno distintivo che eleva la semplice esistenza biologica al livello di esistenza sociale e trasforma i branchi in comunità. La sottoclasse non è semplicemente l’assenza di comunità, ma la pura impossibilità di comunità. È soltanto attraverso una comunità capace di accordare e riconoscere un’identità socialmente riconosciuta e rispettata che si può entrare a far parte dell’umanità. Come fece notare Aristotele quasi duemila e cinquecento anni fa, non si può essere umani – o, ammesso che si sia umani, non è possibile sopravvivere – al di fuori di una “polis”. Solo gli angeli e le bestie, aggiunse, possono riuscirvi. Anche Socrate doveva essere di quell’avviso, se – non essendo né angelo né bestia – preferì una ciotola di cicuta all’esilio da Atene. La categoria della sottoclasse è estremamente liminale e dimostra a quale sconvolgente abisso il territorio dell’esclusione può condurre chi vi si addentra; un abisso oltre il quale non può che esservi un vuoto, un buco nero senza fondo. La sottoclasse è una vivida rappresentazione del nulla nel quale gli uomini potrebbero scendere, scivolare o essere spinti; il tormento di coloro che ne fanno parte appare disperatamente irreversibile e irreparabile, senza ritorno. Una volta entrati a farne parte è impossibile tornare indietro – così come non si può tornare dall’Ade. Un solo sguardo

basta a gettarci di nuovo in quell’oscurità ultraterrena, come insegna la dolorosa – anzi: drammatica – lezione di Orfeo ed Euridice. È questo il motivo per cui la sottoclasse è ritenuta così esecrabile e ripugnante, oltre che, come osservò Bertolt Brecht, ein Bote des Unglück (portatrice di disgrazie, menagramo). È una categoria che rivela e indica senza mezzi termini una possibilità agghiacciante, di cui preferiremmo rimanere all’oscuro. Ciò che è accaduto a loro potrebbe capitare a chiunque di noi, se non ci sforziamo di tenerci a galla. E anche se ci sforzassimo... Il Capitano e il Dottore considerano dunque Wozzeck un portatore di disgrazie, ed è per questo che qualsiasi cosa egli faccia sarà demolita e usata contro di lui. Non potendo ignorare il messaggio, possiamo trasferire sul messaggero il terrore che il messaggio evoca in noi. Wozzeck fa paura – e non potrebbe essere altrimenti. Anche se fosse l’essere più gentile, loquace e benevolo del mondo, anziché la creatura avvilita, taciturna e amareggiata che è, continuerebbe a incutere paura in quanto portatore di notizie terrificanti. ... Temuti, risentiti, umiliati Ciò che tanto spaventa in Wozzeck e nei suoi simili – die arme Leut’ – è il destino di cui sono così manifestamente vittime. “Destino” è il nome che diamo a quel tipo di eventi che non possiamo né prevedere né prevenire: eventi che non desideriamo né contribuiamo a causare; qualcosa che “ci capita”, non per nostro volere e ancor meno per nostra iniziativa; i rovesci della fortuna che si abbattono su di noi come il proverbiale fulmine a ciel sereno. Il “destino” ci spaventa esattamente perché impossibile da prevedere e da prevenire, e perché ci ricorda che esistono dei limiti a ciò che possiamo fare per imprimere alla nostra vita la direzione che vorremmo. Limiti che malgrado i nostri sforzi restano insuperabili, eventi che non possiamo controllare. Per citare ancora una volta Wittgenstein, “capire” significa “sapere come procedere”. Di fronte a qualcosa che sfugge alla nostra comprensione non sappiamo come comportarci; ci sentiamo in trappola, senza via d’uscita, impotenti. Una sensazione che sarebbe umiliante in qualsiasi circostanza, ma lo è ancora di più quando il “destino” colpisce individualmente, abbattendosi su di me e lasciando incolumi le persone che mi circondano, che continuano la propria vita come se nulla fosse. Mentre gli altri sembrano essere scampati al disastro, io ho fallito miseramente. Deve dunque esserci qualcosa in me che non va; qualcosa che ha fatto sì che la catastrofe si abbattesse su di me risparmiando

gli altri – ovviamente più intelligenti, perspicaci e industriosi di me. Il senso di umiliazione intacca sempre l’autostima e la fiducia in sé, ma soprattutto quando siamo i soli a patirlo. È in simili circostanze che al danno si unisce la beffa, e che si sospetta l’esistenza di un intimo collegamento tra un destino crudele e le mancanze individuali di chi lo subisce. È questo il motivo per cui Wozzeck tenta disperatamente di “deindividualizzare” sia la sua disgrazia che la sua inettitudine, presentandole invece come esempio della sofferenza comune alla moltitudine degli arme Leut’. Coloro che lo criticano e lo deridono tentano, al contrario, di “individualizzare” la sua indolenza e non vogliono sentir parlare degli arme Leut’ né del destino che li accomuna. Per quanto Wozzeck si sforzi disperatamente di deindividualizzare la propria sfortuna, gli altri tentano in ogni modo di attribuirgli delle responsabilità individuali, in modo da scacciare (o quanto meno soffocare temporaneamente) la terribile premonizione che un solo passo sbagliato potrebbe gettarli nella stessa situazione. Wozzeck, insistono a gran voce nella speranza di mettere a tacere le loro angosce, ha causato la propria sfortuna con le sue stesse mani, ha determinato il proprio destino tramite le sue azioni e omissioni. Noi però, i suoi detrattori, abbiamo scelto una vita diversa, e per questo la miseria di Wozzeck non può riguardarci. Sono le stesse argomentazioni alle quali ha fatto ricorso un miliardario della City di Londra, intento a convincere due giornalisti indiscreti che la disparità tra la sua ricchezza e la povertà degli altri fosse dovuta esclusivamente a cause morali: “Un bel po’ di persone desiderose di riuscire hanno successo, e altrettante che non desiderano riuscire non ne hanno”89. Proprio così: chi vuole riuscire riesce, chi non vuole, no. Dubbi, premonizioni e attacchi di ansia possono essere così messi a tacere, almeno temporaneamente (domani e dopodomani occorrerà quietarli di nuovo): i fallimenti dei falliti sono dovuti interamente alle loro carenze individuali, i miei successi sono frutto esclusivo della mia volontà e determinazione. Analogamente, per salvare quel poco che rimane della propria autostima, Wozzeck è costretto a nascondersi dietro al destino degli arme Leut’, mentre per salvare ciò che resta della loro il Capitano e il Dottore devono ricondurre il destino di Wozzeck alle sue manchevolezze individuali. E ottanta anni dopo? Gli eredi contemporanei del Capitano e del Dottore, come quel miliardario della City di Londra, oggi devono fare

altrettanto, ma con uno zelo e un impegno addirittura maggiori. Maggiori perché il “destino” oggi è ancor più manifestamente fortuito: colpisce a caso e con effetti più devastanti di quanto non sembrasse all’indomani della guerra mondiale, considerata (per un periodo di tempo troppo breve, evaporato rapidamente) la “guerra che avrebbe posto fine a tutte le guerre”: una guerra che sarebbe stata portatrice di pace, di un benessere crescente, di maggiori occasioni e meno miseria per tutti. Se la generazione di Berg sognava e sperava nell’imminente avvento della sicurezza esistenziale, le generazioni che nel 2008 accorrono all’Opera statale bavarese vivono nella certezza di un’insicurezza permanente e forse insanabile, destinata ad accompagnarli per tutta la vita. Dopo aver seguito una tortuosa traiettoria, le riflessioni del Capitano e del Dottore si sono rivelate corrette, quanto meno nel lungo periodo: una sorta di profezia che si autoavvera. Il destino sembra ormai privatizzato: colpisce alcuni individui lasciando troppo spesso illesi i loro vicini più prossimi. La sua traiettoria non è meno discontinua di quanto fosse in passato, ma i colpi che assesta sembrano avere una frequenza più regolare (monotona, persino scontata) che mai. Proprio come accade nel Grande Fratello, ufficialmente e comunemente ritenuto un «reality show», in cui ogni settimana, cascasse il mondo, uno dei protagonisti – uno solo – deve essere eliminato dal gruppo tramite voto e l’unica incognita deriva dal non sapere a chi toccherà questa settimana e a chi quella successiva. L’esclusione è nella natura delle cose: un aspetto ineluttabile dell’essere nel mondo, una legge per così dire “naturale” alla quale non ha senso ribellarsi. L’unica questione su cui valga la pena riflettere, e intensamente, è come possiamo limitare le probabilità che al prossimo giro l’escluso sia io. Nessuno può dirsi immune ai capricci del destino; nessuno può realisticamente considerarsi esente dalla minaccia dell’esclusione. Molti di noi ne hanno già saggiato l’amarezza, o sospettano che presto, in un futuro indeterminato, toccherà loro provarla. Sembra che soltanto alcuni di noi si possano ritenere immuni al Destino, ed è lecito sospettare che un giorno la maggior parte di loro dovrà ammettere di essersi sbagliata. Pochi individui possono sperare di non dover mai scoprire come ci si sente nei panni di Wozzeck (Erlebnisse!), e in particolare a essere ignorati e patirne l’umiliazione. Occorre tuttavia notare che, rispetto all’epoca in cui Berg scrisse la sua opera, oggi il significato e la principale causa dell’umiliazione sono

cambiati (così come il significato di arme Leute – coloro che hanno diritto di lamentarsi delle proprie privazioni). Oggi, nella spietata concorrenza tra individui, compresa la lotteria dell’esclusione, la posta in gioco non è più la sopravvivenza fisica (per lo meno nelle regioni che ad oggi e “fino a nuovo ordine” sono le più ricche del pianeta), né la soddisfazione delle esigenze biologiche primarie dettata dall’istinto di sopravvivenza, né il diritto all’auto-affermazione, ovvero a stabilire i propri obiettivi e scegliere il tipo di vita che si preferisce condurre. È semmai vero che l’esercizio di tali diritti è ormai ritenuto prerogativa di ogni individuo. Così come è considerato un assioma il fatto che tutto ciò che accade a un individuo non è altro che la conseguenza dell’esercizio di tali diritti, o di un abominevole fallimento o del deplorevole rifiuto di esercitarli. Tutto quanto accade a un individuo è interpretato retrospettivamente come l’ennesima conferma della sua esclusiva e inalienabile responsabilità nella scrittura del proprio destino individuale: tanto che si tratti di avversità che di successi. Oggi, trasformati in individui per volere della storia, siamo tutti incoraggiati a metterci attivamente alla ricerca di un “riconoscimento sociale” per quelle che vengono preventivamente interpretate come nostre scelte individuali; ovvero per le forme di vita che pratichiamo (per scelta deliberata o per inerzia). “Riconoscimento sociale” significa che la forma di vita di un particolare individuo trova l’accettazione di “coloro che contano”, i quali, riconoscendola meritevole e dignitosa, gli accordano il rispetto che è dovuto, e solitamente viene esteso, a tutte le persone meritevoli e dignitose. Sognando il riconoscimento, temere equivale a negare... L’alternativa al riconoscimento sociale è la negazione della dignità: l’umiliazione. Nella recente definizione di Dennis Smith, un “atto è umiliante quando nega o contraddice risolutamente l’affermazione secondo cui degli individui [...] ritengono di poter essere ciò che sono, e appartenere a un dato ambito, secondo date modalità”90. In altre parole, quando a un individuo viene negato, esplicitamente o implicitamente, il riconoscimento che egli si aspetta di ricevere per ciò che è, e/o per il tipo di vita che conduce, e quando gli sono negati diritti che a seguito di tale riconoscimento dovrebbero essergli accordati, o avrebbero dovuto continuare ad essergli accordati. Una persona si sente umiliata quando le si “dimostra senza mezzi termini, tramite parole, gesti o fatti, che non può essere ciò che

crede di essere [...]. L’umiliazione è l’esperienza di sentirsi ingiustamente, immotivatamente e senza volerlo spinti verso il basso, repressi, trattenuti o estromessi”91. Si tratta di un sentimento che suscita risentimento. In una società composta da individui come la nostra, la sofferenza, l’irritabilità e il rancore che nascono dall’umiliazione rappresentano forse la varietà di risentimento più maligna e implacabile che si possa provare, nonché la causa più comune e feconda di conflitto, dissenso, ribellione e sete di vendetta. Il mancato riconoscimento, la negazione del rispetto e la minaccia dell’esclusione hanno sostituito lo sfruttamento e la discriminazione quali espressioni più usate per spiegare e giustificare il malanimo che gli individui possono nutrire nei confronti della società, o dei settori e degli aspetti della società a cui sono direttamente esposti (personalmente o attraverso i media) e che quindi sperimentano (direttamente o indirettamente). La vergogna dell’umiliazione genera disprezzo e odio di sé – che a loro volta tendono a sopraffarci quando comprendiamo tutta la portata della nostra debolezza, o meglio della nostra impotenza, di fronte al tentativo di tenerci stretta l’identità che ci siamo scelti, il posto all’interno della comunità che rispettiamo e amiamo, il tipo di vita che tanto desideriamo sia e rimanga nostro per molto tempo a venire. Quando scopriamo quanto è fragile la nostra identità, quanto vulnerabili e instabili sono i nostri trascorsi successi e quanto incerto è il nostro futuro alla luce della grandezza delle sfide che ogni giorno ci troviamo ad affrontare. Quella vergogna, quindi anche il disprezzo di sé e il senso di umiliazione, aumentano con ogni nostra dimostrazione di impotenza. L’odio di sé è una condizione insopportabilmente straziante e intollerabile: richiede disperatamente, e cerca, una valvola di sfogo che gli permetta di essere indirizzato lontano dalla parte più interna di noi stessi, che rischierebbe di danneggiare seriamente, o addirittura di distruggere. La sequenza che a partire dall’incertezza e tramite sentimenti di impotenza, vergogna e umiliazione conduce al disgusto, al disprezzo e all’odio di sé culmina quindi con la ricerca di un capro espiatorio “là fuori, nel mondo”; quel qualcuno, ancora ignoto e innominato, invisibile o occulto, che trama contro la mia (nostra) dignità e il mio (nostro) benessere e mi (ci) fa soffrire il dolore lancinante dell’umiliazione. È estremamente importante che tale

entità venga individuata e smascherata, fornendoci un bersaglio contro il quale sfogare la nostra rabbia repressa. Le pene sofferte esigono vendetta, benché non sia affatto chiaro in quale direzione si debba cercare la propria rivalsa. Nell’esplodere, l’odio di sé colpisce dei bersagli a caso, come accade a Wozzeck. Si tratta principalmente degli obiettivi più a portata di mano e non necessariamente responsabili di aver causato la caduta, l’umiliazione, la disgrazia. Abbiamo bisogno di qualcuno da odiare perché abbiamo bisogno di qualcuno a cui attribuire la colpa della nostra condizione abominevole e intollerabile, e delle sconfitte che subiamo quando tentiamo di migliorarla e renderla più sicura. Abbiamo bisogno di qualcuno su cui scaricare (e, così facendo, mitigare) la nostra devastante sensazione di indegnità. Affinché tale operazione abbia successo, occorre che ogni indizio di vendetta personale sia accuratamente dissimulato. L’intimo nesso tra la percezione di disgusto e di odio per l’obiettivo prescelto e la ricerca di una valvola di sfogo alla nostra frustrazione deve rimanere segreto. A prescindere dalle cause che sono all’origine del nostro odio, preferiamo giustificarne la presenza agli occhi di chi ci circonda e a noi stessi attribuendolo alla nostra volontà di difendere tutto ciò di buono e di nobile che loro, quegli esseri maligni e detestabili, denigrano e contro cui cospirano; siamo pronti a batterci pur di dimostrare che il motivo per cui li odiamo e siamo determinati a liberarcene è rappresentato (e giustificato) dal nostro desiderio di favorire la sopravvivenza di una società civilizzata e ordinata. Affermiamo che il nostro odio nasce dal desiderio di liberare il mondo dall’odio. In contrasto con la logica delle cose, ma in accordo con la logica delle emozioni, tutti coloro che appartengono alla sottoclasse – come i profughi, i senzatetto, coloro che vivono in un contesto che non sentono proprio, chi è alla vana ricerca di asilo politico, i sans papiers – tendono ad essere per noi oggetto di risentimento e avversione. Sembrano essere stati creati a misura delle nostre paure, ne sono l’illustrazione vivente, alla quale i nostri incubi forniscono la didascalia; sono la testimonianza in carne ed ossa (sedimenti, emblemi, incarnazioni) di tutte quelle forze misteriose che comunemente chiamiamo “globalizzazione” e che consideriamo responsabili della minaccia di vederci strappare a forza dal luogo che amiamo (nel Paese o nella società) e finire su una strada con poche indicazioni e senza una destinazione nota. Rappresentano delle forze

straordinarie, si sa, ma sono a loro volta deboli e possono essere sconfitte con le armi di cui disponiamo. Summa summarum, si prestano perfettamente al ruolo di effigi attraverso cui quelle forze indomite e al di fuori della nostra portata possono essere date alle fiamme – ancorché indirettamente. L’aria composta da Alban Berg, adattata da Georg Büchner e introdotta da Wozzeck con le parole Wir arme Leut’ segnala l’inabilità dei personaggi di quell’opera a trascendere la propria condizione. Inabilità che accomuna i personaggi sul palco agli spettatori nel pubblico. Gli artisti romantici desideravano poter vedere l’universo in una goccia d’acqua. I detrattori di Wozzeck, così come Wozzeck stesso, forse non sono che gocce d’acqua... sforzandoci, potremmo vedere in loro, se non l’universo, sicuramente la nostra Lebenswelt. [Questo capitolo è apparso per la prima volta in lingua tedesca sotto forma di saggio destinato a una pubblicazione in occasione dell’allestimento dell’opera Wozzeck, di Alban Berg, per la Bavarian State Opera nel 2008-2009]. 89 Polly Toynbee e David Walker, Meet the rich, in «The Guardian», 4 agosto 2008. 90 Dennis Smith, Globalization: the hidden agenda, Polity, Cambridge 2006, p. 38. 91 Ivi, p. 37.

11. La sociologia: da dove viene? E dove è diretta?

Più di centoventi anni fa Albion Small affermava che la sociologia era nata dall’entusiasmo, tutto moderno, di migliorare la società. Un’osservazione che nessuno è mai riuscito a confutare con efficacia. Molto tempo dopo io stesso suggerii che è possibile affermare, retrospettivamente, che quel moderno entusiasmo di voler rendere migliore la società (non fosse altro che per la convinzione, da noi tutti condivisa, che una società in cui la sociologia esiste è migliore di una dove non esiste) non solo è all’origine della sociologia, ma è il principio che per la maggior parte della sua esistenza ne ha ispirato l’evoluzione. Il desiderio di migliorare la società infatti costituisce da sempre un fattore costante e invariabile dell’equazione sociologica. Così stando le cose, possiamo affermare che la sociologia non ha una storia, ma soltanto una narrazione di eventi; o, se invece ce l’ha, è perché oggi il significato di “migliorare” è cambiato – così come il contenuto e gli obiettivi di quel “moderno entusiasmo”. Ritengo che qualsiasi testo di “storia della sociologia” che si rispetti si dovrebbe focalizzare sull’evolversi del significato che i sociologi hanno via via attribuito, deliberatamente o meno, all’idea di “migliorare la società”, nel rispetto dei capricci e dei cambiamenti di rotta di quel “moderno entusiasmo”. Approdati al mondo accademico diversi secoli dopo che le leggi che lo governano erano state scritte (leggi pensate per essere rispettate da chi faceva già parte del sistema e tenerne lontani gli impostori e coloro che volevano entrarvi abusivamente), i sociologi dovettero dimostrarsi capaci e disponibili ad attenersi a quelle leggi, a stare al gioco che queste imponevano e seguirne i precetti. Il gioco in questione si chiamava “scienza”. Weber e Durkheim, i due rappresentanti più famosi, così diversi praticamente in ogni aspetto da non riconoscere né ammettere di essere

colleghi o di condividere il medesimo métier, tuttavia la vedevano allo stesso modo su una questione: la disciplina da loro rappresentata (la nuova arrivata, l’intrusa) era fermamente decisa ad attenersi alle uniche regole ammesse. E poiché si trattava di scienza, la sociologia si risolse a essere e a rimanere un’applicazione scientifica. Durkheim, ispirato dalla visione di Auguste Comte sui precetti universali dell’atteggiamento scientifico, uguali per tutti, decise di dimostrare che il settore sociologico della scienza non sarebbe stato affatto diverso per scopo e codice comportamentale dagli altri segmenti già affermati (che si trattasse di biologia, fisica o demografia) – ovvero quelli le cui credenziali scientifiche non erano più messe in dubbio, e che miravano a far luce sul mistero della realtà e a censire le leggi che governano i “dati di fatto”: le realtà genuine, evidenti, indomite e incontrovertibili. Dal canto suo Weber, cresciuto ed educato nella tradizione tedesca delle Geistes- o Kulturwissenschaften, riteneva che la “branca sociologica” della scienza si sarebbe discostata dalle metodologie scientifiche praticate altrove; tuttavia ribadiva che ciò non testimoniava l’inferiorità della disciplina, ma ne dimostrava al contrario il superiore potenziale scientifico, dal momento che la comprensione che la sociologia inseguiva era destinata a rimanere caparbiamente lontana dalla portata di quelle scienze a cui non era concesso ricorrere a termini quali “intenzione”, “finalità” o “scopi”, e che erano quindi costrette ad accontentarsi di semplici spiegazioni: di comporre elenchi di cause. Nessuno dei due pionieri lasciava però alcuno spazio a dubbi circa l’autorevolezza scientifica della sociologia, e ancor meno a qualsiasi titubanza sul fatto che nel mondo accademico tale autorevolezza potesse essere un sine qua non: ovvero una condizione plausibile e pienamente giustificata (oltre che degna di lode) di legittimazione. Cosa significava dunque in pratica? Sin dalla sua nascita (che coincise, non sorprendentemente, con la fuga del Dio monoteistico dell’Europa), la scienza ha tracciato il proprio ritratto a tinte monoteistiche. In modo memorabile Yahweh – quell’archetipo di autorità assoluta rispetto alla quale tutti i successivi aspiranti a qualsiasi tipo di autorevolezza hanno misurato le proprie ambizioni – “rispose a Giobbe di mezzo al turbine” (si noti che parlando, a differenza di Giobbe, “di mezzo al turbine” Yahweh scongiurò la possibilità che questi potesse replicare con pari livello di autorità):

Chi è costui che oscura il consiglio con parole insipienti? Cingiti i fianchi come un prode, io t’interrogherò e tu mi istruirai. [...] Il Signore riprese e disse a Giobbe: Il censore vorrà ancora contendere con l’Onnipotente? (Giobbe, 38, 2-3; 40, 2)

Naturalmente quest’ultima domanda, posta “di mezzo al turbine”, era puramente retorica: Yahweh non aveva lasciato a Giobbe alcun dubbio circa la propria identità quando, riassumendo la sua lunga lezione, gli rammentò che lui, e solo lui, Yahweh, “è re su tutte le belve più superbe” (Giobbe 41, 26). Al che Giobbe, in altre occasioni tanto loquace e schietto, si limitò a replicare: “perciò mi ravvedo, mi pento sulla polvere e sulla cenere” (Giobbe 42, 6). Come direbbero i tedeschi: hier liegt der Hund bergraben – qui sta il punto. Nella guerra dichiarata dai monoteisti ai loro avversari politeisti, la posta in gioco consiste nel diritto al soliloquio. Il monoteismo equivale al monologo. L’ascesa del monologo e lo screditamento del suo nemico giurato, a lui opposto, il dialogo (o più precisamente il polilogo), comporta la rigorosa e irreversibile separazione tra “soggetto” e “oggetto”, o tra “fare” e “soffrire”; equivale alla legittimazione di un’unica voce e alla squalifica di ogni altra in quanto illegittima, e si traduce nel diritto a soffocare, mettere a tacere, dichiarare fuorigioco tutte le voci ad eccezione di una – o a ignorare le altre voci nel caso in cui non si riesca a zittirle del tutto. Equivale, idealmente, a conferire a quell’unica voce la prerogativa di rendere “tutte le altre” inammissibili di fronte alla legge, e quindi di fatto non udibili – con un gesto che basta, da solo, a rendere ogni ulteriore argomentazione ridondante, se non addirittura paragonabile a un atto di profanazione e un peccato di blasfemia. I fisici nucleari, i biologi, i geologi o gli astronomi non hanno alcuna difficoltà a vedersi riconoscere una simile prerogativa, e quindi lo status monoteistico. Per assicurarselo non devono fare assolutamente nulla: l’incontestabile autorità delle loro affermazioni sulla condotta degli elettroni, delle cellule organiche, dei depositi minerari e delle lontane galassie è garantita a priori dalla semplice impossibilità dei soggetti dei loro studi di manifestare un dissenso nella stessa lingua degli scienziati. E quando la silenziosa condotta di tali oggetti smentisce le aspettative che simili affermazioni implicano, spetta ancora una volta agli scienziati, e solo a loro, trasformare ciò che hanno visto in “dati di fatto” (visti dalla e nella scienza). L’aspirazione dei sociologi a vedersi riconosciuta una dignità

scientifica esige inevitabilmente la costruzione, tramite i loro sforzi e l’ausilio di strumenti (stratagemmi, dispositivi, espedienti) da loro ideati e progettati, di una condizione che i fisici nucleari hanno il lusso di poter dare per scontata. Gli oggetti di studio dei nostri sociologi non sono per loro natura muti. Al fine di mantenere il nostro status monoteista/monologhista e garantire alle nostre affermazioni un’autorità assoluta, occorre innanzitutto rendere muti gli oggetti a cui le nostre affermazioni si riferiscono (come osservò Gaston Bachelard, il grande storico della scienza: il primo libro realmente scientifico fu quello che anziché prendere spunto da un’esperienza empirica e universalmente condivisibile, come il sussultare di un coperchio poggiato sopra una pentola d’acqua in ebollizione o il rinfrescarsi dell’aria dopo un temporale, parte da una citazione tratta dallo studio di un altro scienziato). Il mutismo dei nostri oggetti, i quali altro non sono che esseri umani come noi muniti di una propria saggezza empirica, chiamata “doxa” o “buon senso”, deve essere il nostro obiettivo. Che dobbiamo raggiungere. Ma in che modo? Essenzialmente, tramite una di queste due possibili strategie: o limitando le nostre affermazioni riguardo agli oggetti (sin troppo umani) del nostro studio a cose o eventi che tali oggetti, non avendo di questi alcuna esperienza e quindi la possibilità di verificarne la veridicità, sono costretti ad accettare per principio (come accade ad esempio con quegli enormi volumi di “dati” che non sarebbero mai stati scritti senza il cospicuo finanziamento di fondi di ricerca e borse di studio), e/o affidando le nostre affermazioni a un linguaggio che gli oggetti del nostro studio non possono comprendere, e nel quale non potrebbero replicare – nell’improbabile circostanza che desiderassero farlo. Le due strategie presentano un denominatore comune: entrambe mirano a scongiurare, nel rapporto con gli oggetti del nostro studio, quella “fusione degli orizzonti” che Hans-Georg Gadamer considerava condizione necessaria di ogni comunicazione significativa, indisturbata ed efficace. Tuttavia, a differenza degli elettroni o dei positroni, gli esseri umani non sono oggetti passivi di conoscenza, come riteneva Cartesio, costrutti del soggetto che devono al soggetto conoscente tutto il significato che sono in grado di acquisire o che viene loro assegnato. In definitiva, la nostra stessa ambizione di vederci riconosciuta un’autorevolezza scientifica è destinata in ultima analisi a trasformarli precisamente in oggetti passivi, o

quanto meno a trattarli come tali. La nostra ambizione, vederci riconosciuta un’autorevolezza scientifica presuppone un’interruzione unilaterale nella comunicazione, ed equivale di fatto alla disponibilità a rinunciare volontariamente all’opportunità cognitiva che la nostra umanità comune ci offre, in cambio dello status scientifico – ovvero monologhista – delle nostre narrazioni: a voler ottenere a qualunque costo e grazie al nostro ingegno ciò che la natura ha servito ai nostri colleghi delle scienze “naturali” su un piatto d’argento, pronto per essere consumato e goduto. Poiché l’espropriazione è il risvolto dell’appropriazione, Weber e Durkheim dovettero fare (e fecero) del loro meglio per denigrare e svalutare avant la lettre tutto ciò che gli altri esseri umani, nei panni di “non-professionisti”, potrebbero dire per dar senso alle proprie azioni. Il brusco verdetto di Durkheim (nelle Regole del metodo sociologico) fu che le rappresentazioni dei fatti “che siamo stati capaci di compiere nel corso della nostra vita sono state compiute acriticamente e non metodologicamente” (ovvero, non secondo il sistema che avremmo seguito come sociologi): per questo sono “prive di valore scientifico e vanno scartate”. A meno di ricorrere a un metodo scientificamente approvato, gli uomini sono solo capaci di impressioni “confuse, fugaci, soggettive”. “Ogni oggetto della scienza” (con la possibile eccezione della matematica) “è una cosa”, ci ricorda Durkheim. Ne consegue che per essere ammessi all’osservatorio scientifico o al laboratorio, gli esseri umani devono innanzitutto essere circoscritti, limitati e ridotti alla modalità di cose. B.F. Skinner avrebbe poi tratto dalla raccomandazione di Durkheim la giusta conclusione, dichiarando che tutto ciò che avviene nella testa degli uomini viene conservato per sempre all’interno di “scatole nere” impenetrabili all’occhio scientifico e quindi prive di rilevanza o interesse per la scienza. Paul Lazarsfeld si scuserà invece per l’indolenza e l’inettitudine della sociologia: “La sociologia non ha ancora raggiunto un livello che le permette di fornire una base sicura all’ingegneria sociale [...]. Ci sono voluti 250 anni, da Galileo all’inizio della rivoluzione industriale, perché le scienze naturali riuscissero a esercitare un impatto significativo sulla storia del mondo. La ricerca sociale empirica ha tre o quattro decenni di storia”. Mentre secondo Otto Neurath, all’epoca enormemente influente e radicale paladino del “qui come lì, nelle Kulturwissenschaften come nelle Naturwissenschaften”, “la sociologia dovrebbe poggiare su una

base materialistica, ovvero occuparsi degli uomini così come altre scienze si occupano degli animali, delle piante o delle rocce. La sociologia è eine Realwissenschaft, al pari, diciamo, dell’astronomia. I popoli sono come galassie di stelle tra loro più intimamente vicine che ad altre”. Weber non sposò sino in fondo la tesi di Durkheim, e ancor meno quella di Skinner o di Neurath; non voleva infatti che gli oggetti della scienza sociologica fossero ridotti, come essi auspicavano. Le sue ambizioni si spingevano oltre: essendosi rifiutato di ignorare l’aspetto senziente e auto-guidato degli esseri umani (anche quando questo testimonia la loro capacità di autoilludersi), egli desiderava garantire ai sociologi un diritto al soliloquio non solo in rapporto agli aspetti comportamentali delle azioni umane, ma anche agli aspetti dichiaratamente soggettivi, come i moventi, le finalità, i propositi – richiamando l’attenzione sul fatto che, nella grande maggioranza dei casi, l’azione procede in uno stato di inarticolata semi-consapevolezza, o di vera e propria inconsapevolezza del proprio significato soggettivo. Abbastanza spesso “motivi” addotti e “rimozioni”, (cioè, in primo luogo, motivi non confessati) nascondono proprio all’individuo che agisce la reale connessione nella quale si dispiega il suo agire, di modo che anche testimonianze soggettivamente sincere hanno soltanto un valore relativo. In questo caso la sociologia si trova di fronte al compito di determinare questa connessione, e di stabilirla interpretativamente, sebbene essa non sia stata resa cosciente, o non lo sia stata in maniera completa, come connessione “intenzionata” in concreto – il che costituisce un caso-limite dell’interpretazione di senso92.

In altre parole, gli esseri umani possono essere ammessi al campo dello scrutinio scientifico anche nella loro capacità di esseri intenzionali e motivati – purché rinuncino o siano privati del loro diritto a giudicare le proprie intenzioni e i propri reali moventi. Il peccato originale che Weber non riuscì a perdonare al suo contemporaneo Georg Simmel (il quale accettò di ricoprire una carica accademica solo negli ultimi tre anni della propria vita, e solo perché all’epoca molti ottimi insegnanti erano stati chiamati a combattere nella Grande Guerra) consisteva nel porre i “moventi non confessati” (inferiori) degli attori allo stesso livello delle rappresentazioni (superiori) che i loro osservatori scientifici davano delle loro intenzioni – se non addirittura di confondere le distinte modalità, anziché tenerle in ferma contrapposizione tra loro. Non occorre che io mi soffermi oltre su questo racconto, che di certo risulterà noiosamente familiare. Ne ho fatto un accenno unicamente per suggerire che, se oggi la sociologia si trova a vestire i panni di ancella della

Ragione Manageriale (o meglio, stando alle sue esplicite intenzioni, di responsabile dei quartieri della servitù), è anche per sua ambizione di vedersi riconoscere un’autorevolezza scientifica. Quella Ragione, che vide la luce nella “Casa di Salomone” di Francis Bacon, ha trascorso gli anni del proprio apprendistato nel Panopticon di Jeremy Bentham e in tempi più recenti si è stabilita negli innumerevoli edifici industriali abitati dai fantasmi delle “misurazioni dei tempi e dei metodi” di Frederick Winslow Taylor, accanto allo spettro del nastro trasportatore di Henry Ford e all’ombra dell’idea di Le Corbusier secondo cui la casa era una “macchina per vivere”. Quella Ragione riteneva che la varietà e il divergere delle intenzioni e delle propensioni umane non fossero che intralci passeggeri, destinati a essere eliminati dall’opera di order building e dall’abile manipolazione delle probabilità comportamentali, raggiunta attraverso l’opportuna disposizione di condizioni esterne e la volontà di rendere impotenti e irrilevanti tutti i tratti che resistono a tale manipolazione. All’inizio degli anni Quaranta, in un libro opportunamente intitolato La rivoluzione manageriale, James Burnham suggeriva che i manager, inizialmente assunti dai proprietari dei macchinari con il compito di addestrare, disciplinare e sorvegliare la forza-lavoro in modo da ricavare da questa il massimo sforzo, avevano sottratto il vero potere ai loro padroni – proprietari o azionisti che fossero. I manager venivano assunti e pagati perché la gestione quotidiana di lavoratori disattenti, essenzialmente maldisposti e riprovevolmente pieni di rancore era un compito pesante e molesto che i proprietari dei macchinari non amavano, al punto da essere disposti a pagare qualcuno pur di liberarsene. Non sorprende che i proprietari attingessero al proprio patrimonio pur di assicurarsi dei servizi che speravano li avrebbero affrancati da quel peso indesiderato e tutt’altro che gratificante. Tuttavia, come si comprese poco tempo dopo, era esattamente in quella funzione di “gestire” – obbligare o persuadere delle persone a cimentarsi giorno dopo giorno in un lavoro che avrebbero preferito non dover svolgere, trasformando in definitiva delle esigenze in tratti del carattere – che si concentrava il potere vero, il potere che conta. Una volta assunti, i manager divennero veri e propri capi. Il potere passò in questo modo dalle mani dei proprietari dei “mezzi di produzione” a quelle di coloro che dirigevano il lavoro di altri. I manager si affermarono dunque come i veri detentori del potere: un ribaltamento che Karl Marx, nella sua

visione di uno scontro imminente tra capitale e lavoro, non aveva previsto. Il compito del manager, la cui definizione originaria risale ai tempi in cui il processo di produzione industriale era concepito sul modello di una macchina omeostatica che ripete movimenti prestabiliti secondo una traiettoria costante e immutabile, era invero gravoso. Richiedeva un’accurata irreggimentazione e una supervisione attenta e “panottica”, oltre all’imposizione di una routine monotona destinata a ottundere gli impulsi creativi tanto in chi era gestito quanto in colui che gestiva. Generava noia e un risentimento costante e profondo che minacciava di esplodere in aperto conflitto. Rappresentava inoltre un modo di operare assolutamente dispendioso e basato su enormi sprechi: anziché puntare sulle potenzialità non irreggimentate, rappresentate dagli operai assunti per svolgere il lavoro, ricorreva infatti a risorse preziose per opprimerli, gabellarli e evitare che combinassero guai. Quello della gestione quotidiana non era tutto sommato un compito che persone piene di risorse, o potenti, avrebbero potuto facilmente apprezzare e amare: al contrario, si trattava di un incarico che queste non avrebbero svolto un attimo in più del necessario – e a giudicare dalle risorse di cui disponevano, non ci si poteva aspettare che avrebbero rimandato a lungo quel momento. Come infatti accadde. L’attuale “grande trasformazione fase 2” (per invocare la memorabile definizione di Karl Polanyi), in cui assistiamo all’emergere di una “economia dell’esperienza”, tanto decantata e ben accolta, che trae il proprio nutrimento dalla totalità delle risorse della personalità, ivi incluse quelle meno gradevoli, annuncia che è arrivato il momento dell’“emancipazione dei manager dal fardello delle loro mansioni”. Parafrasando James Burnham, si potrebbere parlare di “rivoluzione manageriale fase 2”, benché questa volta la composizione degli aspiranti alle cariche e al potere sia cambiata poco o nulla. Ciò che è accaduto – che sta accadendo – è più un colpo di Stato che una rivoluzione: la proclamazione, dall’alto, che la vecchia partita è stata interrotta e le regole sono cambiate. Coloro che hanno sollecitato e sostenuto la rivoluzione continuano a occupare posizioni di comando, anzi semmai si insediano più saldamente che mai sulle loro poltrone. Questa rivoluzione è stata intrapresa e condotta per accrescere il loro potere: per rafforzare la loro presa e immunizzare il loro dominio contro il risentimento e il senso di

ribellione che un tempo, prima della rivoluzione, questo generava. Dopo la seconda rivoluzione manageriale il potere dei manager si è rafforzato ed è stato reso praticamente invulnerabile grazie all’eliminazione della maggior parte delle condizioni limitanti e per certi versi importune che un tempo lo intralciavano. Al culmine della loro seconda rivoluzione, i manager hanno bandito la monotonia e invitato le forze della spontaneità a prendere il suo posto. Si sono rifiutati di fare i manager, esigendo invece – dietro minaccia di “sfratto” – che i lavoratori si governassero da soli. Il diritto al rinnovo del contratto di lavoro è stato reso oggetto di periodica competizione, e viene aggiudicato alla fine di ogni round al più giocoso e al più performante, ma senza alcuna garanzia, né la minima assicurazione che la prova successiva lo vedrà emergere indenne. Sulla parete della sala banchetti dell’“economia dell’esperienza”, dove un tempo campeggiava il motto “Mené, Tekel, Peres”: contati, pesati, distribuiti (Daniele, 5, 25), oggi appare a grandi lettere il monito “il valore di una persona si misura in base al suo ultimo (ma non al penultimo) successo”. Accordando la propria predilezione alla soggettività, alla giocosità e alla performatività, nell’era della “economia dell’esperienza” le organizzazioni hanno dovuto e voluto proibire la pianificazione a lungo termine e l’accumulo di meriti. È così che possono costringere i lavoratori a mantenersi in moto costante – alla febbrile ricerca di sempre nuove dimostrazioni di accettazione. Due piccioni con una fava. Per cominciare, la completa, o quanto meno parziale, emancipazione di coloro che detengono il potere dagli aspetti sgradevoli e quindi detestati della posizione manageriale. E dall’altra un’apertura allo sfruttamento (diretto o indiretto) di quella vasta zona grigia rappresentata dall’individualità e dalla personalità degli impiegati, che fino a quel momento non faceva parte del pacchetto di cui i manager entravano in possesso al momento di “procurarsi la manodopera”. Gli impiegati autogestiti, “distaccati” o “esternalizzati” possono essere utilizzati, anziché per contare le ore impiegate a raggiungere gli obiettivi dell’impresa, per sfruttare quelle risorse a cui i manager di un tempo non erano riusciti ad attingere, approfittando così di quegli aspetti della loro individualità che in base ai contratti di tipo tradizionale rimanevano preclusi ai datori di lavoro. Su questo nuovo tipo di lavoratori è possibile fare affidamento anche per controllare, rendere inoffensive o addirittura

ottimizzare quelle parti del loro carattere che, una volta ammesse allo spazio condiviso di lavoro, sotto il controllo e la diretta responsabilità dei manager, avrebbero potuto dimostrarsi potenzialmente controproducenti, importune o quanto meno difficili da gestire e disinnescare. Non è questa la sede per affrontare, se non a grandi linee, le tendenze dell’emergente “economia dell’esperienza” e di uno stile manageriale che nelle parole di Nigel Thrift, “trasmette un messaggio di volatilità, fluidità, flessibilità e fugacità”. Ma la storia delle organizzazioni nell’era liquidomoderna è appena iniziata, e per scriverne le vicende occorrerà ancora molto tempo. Sono tuttavia pronto ad azzardare una brevissima disamina sugli impatti che la “seconda fase della rivoluzione manageriale” ha avuto e probabilmente continuerà ad avere, e sullo stato e le prospettive della nostra unica vocazione: la sociologia. Il primo impatto consiste nella diffusa benché ingannevole sensazione che la sociologia e i servizi che questa offre non abbiano più accesso all’arena pubblica. Una sensazione che come ho detto è ingannevole, dal momento che l’“arena pubblica” viene tacitamente identificata con quella di un tempo (ad esempio istituzionalizzata dalle burocrazie tutte guerra e assistenzialismo), e i suoi “servizi” con quel tipo di conoscenza che la sociologia era preparata e disposta a fornire all’epoca della sua infatuazione per la scienza. La sensazione, tuttavia, è ingannevole anche per un’altra ragione, più seminale: la “seconda fase della rivoluzione manageriale”, che non è che un aspetto della “seconda fase della grande trasformazione”, assegna infatti alla sociologia un ruolo pubblico la cui portata non ha precedenti, mettendo a nostra disposizione (benché inconsapevolmente e senza volerlo) un pubblico vastissimo. Mai, in nessun altro momento della storia, un numero così imponente di individui ha avuto bisogno che la sociologia offrisse loro una tale quantità di servizi vitali. Il secondo impatto sta dunque nell’impellente esigenza (che allo stato delle cose è lungi dall’essere completamente riconosciuta) di re-orientare la definizione, l’obiettivo o missione e la strategia della sociologia. Per oltre cinquant’anni della sua storia recente la sociologia, desiderosa di venire in aiuto alla ragione manageriale, ha tentato di affermarsi come scienza/tecnologia di illibertà: un laboratorio per la progettazione di contesti sociali che avrebbero dovuto risolvere in teoria, ma soprattutto nella pratica, ciò che Talcott Parsons definì memorabilmente “la questione

hobbesiana”, ovvero riuscire a trovare il modo di insegnare agli esseri umani (confortati o afflitti dall’ambiguo dono del libero arbitrio) e indurli o costringerli a farsi guidare dalle norme e ad attenersi a una condotta manipolabile e tuttavia prevedibile; o a conciliare il libero arbitrio con la disponibilità a sottomettersi alla volontà altrui, ed elevare in questo modo la propensione alla “servitù volontaria”, già evidenziata e anticipata da La Boétie alla soglia dell’era moderna, ai ranghi di principio supremo dell’organizzazione sociale. In breve, riuscire a far sì che le persone desiderino attuare ciò che devono. Nella nostra società, individualizzata per decreto del fato, coadiuvato e favorito dalla seconda rivoluzione manageriale, la sociologia si trova di fronte all’eccitante ed esaltante opportunità di trasformarsi in una scienza/tecnologia di libertà: una scienza dei modi e dei mezzi tramite i quali gli “individui per scelta” e de jure dell’epoca liquido-moderna possano assurgere a livello di “individui per scelta” e de facto. O, per prendere esempio dalla chiamata alle armi di Jeffrey Alexander: il futuro della sociologia consiste, almeno per quanto riguarda l’immediato, nello sforzo di reincarnarsi e riaffermarsi come politica culturale al servizio della libertà umana. In conseguenza di tutto ciò, il tipo di sociologia che per molti decenni si è imposta nel mondo accademico – una sociologia a misura delle esigenze e delle attese della ragione manageriale di molto tempo fa – ha finito per trovarsi senza lavoro. I suoi prodotti caratteristici trovano ormai una scarsa clientela. Ed è a questo che dobbiamo l’attuale clima di sconforto. Alcuni illustri sociologi americani lamentano di aver perso il contatto con la “sfera pubblica”, e si domandano se sarà mai possibile ripristinare quel rapporto. Occorre tuttavia essere chiari: a dissolversi, a perdere interesse o prendere le distanze dalle dinamiche dell’“ingegneria umana” non è stato che un particolare settore della “sfera pubblica”. Le nostre attuali paure nascono da una sociologia che si è eccessivamente e unilateralmente specializzata nel gestire un’industria che ha perso, o sta rapidamente perdendo, la propria clientela. Non era che uno dei possibili modi di fare sociologia: quello, permettetemi di confessare, della cui scomparsa non sono personalmente propenso ad affliggermi e dolermi. Dal mio punto di vista, dunque, la sociologia non ha molte scelte oltre a quella di seguire da vicino, oggi come ieri, la traiettoria di un mondo in

via di trasformazione; comportandosi altrimenti rischierebbe di perdere la propria rilevanza. Suggerirei anche che l’attuale mancanza di scelte non dovrebbe esser causa di disperazione. È semmai vero il contrario: nella nostra breve storia, costellata da crisi e svolte decisive, alla nostra disciplina non è mai stata imposta con altrettanta forza una missione più elevata, moralmente lodevole, altrettanto realistica. La convalida della verità e la produzione di significato rappresentano una funzione seminale e un dovere che nel corso del recente processo di individualizzazione liquido-moderno sono stati fatti piombare dall’alto di una “totalità immaginata” nel calderone della “politica della vita” (per prendere in prestito un termine di Anthony Giddens) condotta su base individuale. Ciò non significa, naturalmente, che le verità da convalidare individualmente e i materiali grezzi a partire dai quali gli individui forgiano i significati abbiano smesso di essere forniti a livello sociale, ma che anziché essere imposti per ingiunzione collettiva tendono ad essere assegnati dai media e dalla pubblicità. E che sono strutturati per sedurre clienti, anziché costringere dei subalterni. Oggi il compito di effettuare delle scelte e la responsabilità delle conseguenze che da tali scelte derivano ricadono sulle spalle degli individui. Si tratta di regole assolutamente nuove, e non prive di aspetti positivi: non ultimo dei quali è la possibilità di trasferire “la moralità” dall’aderenza ai comandi etici a una responsabilità incondizionatamente individuale per il benessere degli altri. Le nuove regole tuttavia annunciano numerosi pericoli, e fanno presagire un’esistenza costellata da rischi, che pone gli individui (ovvero tutti noi) in uno stato di acuta, e con ogni probabilità incurabile, indeterminatezza e incertezza. Dal momento che le opinioni memorizzate e le capacità acquisite offrono un guida insufficiente e molto spesso fuorviante o addirittura ingannevole per agire, e che le conoscenze a cui è possibile attingere trascendono le capacità individuali di assimilarle (mentre la porzione di conoscenza che solitamente viene assimilata non basta affatto a comprendere la situazione, e quindi a capire come procedere), la condizione di fragilità, transitorietà e contingenza è diventata, e forse rimarrà ancora a lungo, l’habitat naturale degli uomini. Ed è con questo tipo di esperienza umana che la sociologia deve intrattenere un dialogo continuo.

Direi che i ruoli paralleli che noi sociologi siamo chiamati a svolgere in quel dialogo consistono nel de-familiarizzare ciò che è familiare e familiarizzare (ammansire, addomesticare) ciò che non lo è. Due obiettivi che richiedono la capacità di far emergere all’analisi una rete di nessi, influenze e correlazioni troppo vasta per poter essere interamente analizzata, soppesata e afferrata con le sole risorse fornite dall’esperienza individuale. Entrambi inoltre richiedono quel tipo di abilità che lo scrittore inglese E.M. Forster seppe cogliere con l’affermazione “basta connettere”, e che consiste nella capacità di ricollegare e ricomporre le immagini notoriamente frammentarie e sconnesse della Lebenswelt – il mondo in cui oggi viviamo, di episodio in episodio, e sperimentiamo a livello individuale, a nostro rischio individuale, perseguendo vantaggi individuali. Infine, ma non meno importante, entrambi richiedono la capacità di rivelare la “doxa” (la conoscenza con cui pensiamo ma a cui non pensiamo), strappandola alle torbide profondità del subconscio, e permettendo così e attivando un perpetuo processo di analisi critica, e forse anche un consapevole controllo dei suoi contenuti, da parte di coloro che ancora non hanno la consapevolezza di possederla e di adoperarla inavvertitamente. Richiedono, in altre parole, l’arte del dialogo. Un’arte indubbiamente difficile, che esige la volontà di chiarire insieme all’altro i motivi di contrasto, anziché tentare di imporre il proprio punto di vista; di moltiplicare le opinioni, anziché ridurne il numero; di ampliare le possibilità invece che tendere a un indiscriminato consenso (residuo dei sogni monoteistici ormai spogliati della coercizione, considerata politicamente scorretta); di perseguire la comprensione dell’altro, anziché mirare alla sua sconfitta; e, in definitiva, di animarsi del desiderio di tenere aperti i canali di comunicazione, anziché bloccarli. Riuscire a padroneggiare quell’arte richiede moltissimo tempo, benché molto meno che praticarla. Nessuno dei due compiti, separatamente o nell’insieme, promette di facilitare la nostra vita, ma garantisce, questo sì, di renderla più entusiasmante e gratificante per noi e più utile al nostro prossimo – e di trasformare i nostri doveri professionali in un continuo, infinito viaggio di scoperta. Non resta dunque che augurare bon voyage! [Questo capitolo si basa sullo studio preliminare per il discorso di accettazione del premio Distinguished Contribution to Sociology, conferito nell’ambito del diciassettesimo congresso

mondiale dell’Associazione internazionale di sociologia, tenuto a Göteborg nel luglio del 2010]. 92 M. Weber, Economia e società, Edizioni di Comunità, Milano 19682, vol. I, p. 9 (ed. or. 1922 e 1956); corsivi nell’originale.