511 113 2MB
Italian Pages [188] Year 2019
Table of contents :
Critica della ragione artificiale
Indice
Introduzione. Il Super-io del xxi secolo
L’insorgenza di una aletheia algoritmica
Una potenza ingiuntiva
Il tempo esponenziale
Il vitello d’oro del nostro tempo
La ristrettezza “etica”
Agonia del politico e avvento di una “data-driven society”
L’atto di forza retorico
Per un conflitto di razionalità
Capitolo 1. La svolta ingiuntiva della tecnica
1.1 Una breve storia dell’informatica [da un aumento di controllo all’assistentato automatizzato dell’azione umana]
1.2 Il divenire antropomorfico
1.3 Il machine learning: verso le tecnologie della perfezione
1.4 Interfacce ergonomiche ai dispositivi relazionali
Capitolo 2. Il potere di enunciare la verità
2.1 L’insorgere di un nuovo regime di verità
2.2 Lo stadio incentivante della verità: il più possibile vicino ai corpi e alle menti
2.3 Lo stadio imperativo della verità: dispositivi per sradicare il dubbio
2.4 Lo stadio prescrittivo della verità: ippocrate sotto il giogo del privato
2.5 Lo stadio coercitivo della verità: una potenza di siderazionei
Capitolo 3. La mano invisibile automatizzata
3.1 Un leviatano algoritmico
3.2 L’essere umano messo al bando
3.3 Il regno del comparativo
3.4 Bitcoin e blockchain: l’ultimo stadio della società del contratto
Capitolo 4. Il paradiso artificiale
4.1 La necessità fa la legge o la liquidazione dei politici
4.2 L’amministrazione automatizzata delle condotte
4.3 Teoria dell’automobile autonoma
4.4 L’avvento di un “potere-kairos”
4.5 Il sequenziamento e la scomparsa del reale
Capitolo 5. Manifesto dell’azione nell’epoca dell’esponenziale
5.1 Il fallimento della nostra coscienza
5.2 Per un conflitto di razionalità
5.3 Adesso abbiamo bisogno di armi
5.4 Il canto delle divergenze”
Epilogo. Io, polpo scettico
PENSIERO
LIBERO
Éric
Sadin
Critica
della
ragione
artificiale Una
difesa
dell’umanità
Traduzione
di
Francesca
Bononi
Critica
della
ragione
artificiale Questo
libro
è
stato
originariamente
pubblicato
in
Francia da
Éditions
L’échappée
con
il
titolo L’Intelligence
artificielle
ou
l’enjeu
du
siècle.
Anatomie
d’un
antihumanisme radical ©
Éditions
L’échappée,
Paris,
2018 Per
questa
traduzione
italiana
©
LUISS
University
Press Prima
edizione:
2019 Prima
edizione
digitale:
2019 ISBN:
978-88-6105-418-9
Indice
Introduzione Il
Superio
del
XXI
secolo L’insorgenza
di
una
aletheia
algoritmica Una
potenza
ingiuntiva Il
tempo
esponenziale Il
vitello
d’oro
del
nostro
tempo La
ristrettezza
“etica” Agonia
del
politico
e
avvento
di
una
“datadriven
society” L’atto
di
forza
retorico Per
un
conflitto
di
razionalità Capitolo
1 La
svolta
ingiuntiva
della
tecnica 1.1
Una
breve
storia
dell’informatica
[da
un
aumento
di
controllo all’assistentato
automatizzato
dell’azione
umana] 1.2
Il
divenire
antropomorfico 1.3
Il
machine
learning:
verso
le
tecnologie
della
perfezione 1.4
Interfacce
ergonomiche
ai
dispositivi
relazionali Capitolo
2 Il
potere
di
enunciare
la
verità 2.1
L’insorgere
di
un
nuovo
regime
di
verità 2.2
Lo
stadio
incentivante
della
verità:
il
più
possibile
vicino
ai
corpi
e
alle menti 2.3
Lo
stadio
imperativo
della
verità:
dispositivi
per
sradicare
il
dubbio 2.4
Lo
stadio
prescrittivo
della
verità:
ippocrate
sotto
il
giogo
del
privato 2.5
Lo
stadio
coercitivo
della
verità:
una
potenza
di
siderazione Capitolo
3 La
mano
invisibile
automatizzata 3.1
Un
leviatano
algoritmico 3.2
L’essere
umano
messo
al
bando 3.3
Il
regno
del
comparativo 3.4
Bitcoin
e
blockchain:
l’ultimo
stadio
della
società
del
contratto Capitolo
4
Il
paradiso
artificiale 4.1
La
necessità
fa
la
legge
o
la
liquidazione
dei
politici 4.2
L’amministrazione
automatizzata
delle
condotte 4.3
Teoria
dell’automobile
autonoma 4.4
L’avvento
di
un
“potere-kairos” 4.5
Il
sequenziamento
e
la
scomparsa
del
reale Capitolo
5 Manifesto
dell’azione
nell’epoca
dell’esponenziale 5.1
Il
fallimento
della
nostra
coscienza 5.2
Per
un
conflitto
di
razionalità 5.3
Adesso
abbiamo
bisogno
di
armi 5.4
Il
canto
delle
divergenze Epilogo Io,
polpo
scettico
INTRODUZIONE
Il
Super-io
del
XXI
secolo
Si
chiama
Audrey,
Kaylee,
Jasmine
o
Kimiko.
Quarant’anni,
divorziata,
due figlie
in
affidamento
condiviso,
entrambe
iscritte
al
liceo.
Abita
in
una cittadina
francese
di
medie
dimensioni,
in
una
capitale
del
Nord
Europa,
a Johannesburg,
a
Chicago
o
in
una
qualche
megalopoli
asiatica.
Per
una decina
d’anni
ha
ricoperto
l’incarico
di
consulente
finanziario
presso
un gruppo
bancario
internazionale.
Ma
la
pressione
concorrenziale
e
la crescente
razionalizzazione
dei
metodi
manageriali
hanno
costretto
le
risorse umane
a
ridurre
gli
effettivi
e
a
darle
il
benservito
nonostante
il
lodevole servizio
e
le
eccellenti
valutazioni
annuali.
La
sua
vita,
fino
a
prima
che
ciò accadesse,
è
sempre
stata
piuttosto
confortevole:
un
trilocale
alle
porte
della città
acquistato
grazie
a
un
prestito,
un’alimentazione
sana,
uscite
con
le figlie
e
con
gli
amici,
e
tutte
le
estati
qualche
settimana
al
mare.
Ma
da quando
è
stata
licenziata
la
sua
quotidianità
è
diventata
più
austera.
Ha iniziato
a
inviare
centinaia
di
CV
e
ha
ricevuto
molte
risposte
che
elogiavano le
sue
competenze,
sì,
ma
segnalavano
che
il
suo
profilo
non
corrispondeva
al cento
per
cento
ai
requisiti
ricercati.
Ha
cominciato
a
nutrire
qualche
dubbio sul
suo
futuro
professionale
e
sulla
possibilità
di
assolvere
le
proprie responsabilità,
e
piano
piano
si
è
ritrovata
schiacciata
da
una
lenta depressione. Ma,
si
sa,
dietro
ogni
inverno
rigido
si
nasconde
sempre
una
primavera radiosa.
Un
bel
giorno
riceve
via
SMS
la
convocazione
per
un
colloquio
di lavoro
che
avrà
luogo
l’indomani.
Dopo
un
primo
momento
di
agitazione, inizia
a
riordinare
le
idee
sforzandosi
di
repertoriare
e
sintetizzare
alcuni punti
fondamentali.
Il
mattino
seguente
comincia
a
prepararsi
di
buon’ora, assistita
dalla
figlia
maggiore,
grande
esperta
di
look.
Al
colloquio
viene accolta
con
cordialità
da
due
donne
e
un
uomo.
Il
posto
consiste
nel
vendere polizze
vita
a
privati.
I
tre
le
rivolgono
molte
domande,
per
lo
più
di
carattere tecnico.
Lei
risponde
in
modo
non
sempre
sicuro,
a
volte
rimane
in
silenzio per
un
po’,
ma
le
sue
parole
si
rivelano
sempre
sensate
e
appropriate.
Un improvviso
raggio
di
sole
le
illumina
il
volto,
rivelando
tutta
la
sua
affabilità. Terminato
il
colloquio,
le
dicono
che
la
richiameranno
a
breve.
Rimasti
soli,
i recruiter
discutono
il
suo
caso.
Due
di
loro
l’hanno
trovata
spenta
e
temono che
quella
sua
riservatezza
possa
rivelarsi
controproducente
all’interno
del gruppo.
Secondo
il
terzo,
invece,
quell’aspetto
non
costituisce
affatto
un problema,
perché
le
sue
risposte
si
sono
rivelate
sempre
coerenti;
anzi,
a
suo parere,
potrebbero
essere
segno
di
buona
capacità
di
ascolto
e
di
apertura
verso
gli
altri,
esattamente
quello
che
viene
richiesto
lì,
ossia
la
capacità
di intrattenere
una
relazione
autentica
ed
empatica
con
i
potenziali
clienti;
e poi
la
donna
ha
un
ottimo
percorso
alle
spalle.
Alla
fine
le
viene
assegnato
il posto.
Lei
festeggia
la
splendida
notizia
insieme
alla
famiglia
in
un
ristorante del
quartiere,
uno
dei
suoi
preferiti,
e
insieme
brindano
alla
rinascita. Ancora
lei.
Stesso
scenario,
ma
questa
volta
i
fatti
si
svolgono
più
di
recente, o
addirittura
nel
futuro.
In
questo
caso,
però,
non
è
la
nostra
“lei”
a prendersi
la
briga
di
inviare
lettere
di
motivazione;
ci
pensa
infatti
il
suo assistente
virtuale,
che
ormai
la
conosce
alla
perfezione,
a
dialogare
con
gli agenti
conversazionali
e
a
trasmettere,
su
richiesta,
qualsiasi
tipo
di informazioni
sulla
sua
protetta.
Quasi
contemporaneamente
la
donna
riceve una
notifica
che
la
invita
a
iscriversi
immediatamente
alla
piattaforma Pymetrics.
Sulla
home
page
trova
una
sessione
di
dodici
giochi
ai
quali
dovrà prestarsi
successivamente.
Uno
di
questi
consiste
nel
toccare
lo
schermo
non appena
compare
una
sfera
rossa;
un
altro
nel
muoversi
con
l’indice all’interno
di
un
labirinto;
un
altro
ancora
nel
riordinare
delle
carte
da
gioco seguendo
regole
da
scoprire
intuitivamente.
Una
volta
portate
a
termine
le varie
missioni,
compare
un
messaggio:
“I
nostri
esercizi
sono
elaborati
sulla base
di
studi
in
scienze
comportamentali
unanimemente
riconosciuti.
Ci permettono
di
raccogliere,
in
tempo
reale,
centinaia
di
migliaia
di
dati
che rilevano
con
obiettività
novanta
tratti
caratteristici
della
sua
personalità, come
creatività,
adattabilità,
reattività,
flessibilità,
livelli
di
attenzione, perseveranza
o
capacità
decisionali.
Questi
test,
frutto
della
nostra
cultura dell’innovazione
permanente,
rendono
quindi
possibile
un
recruiting efficace,
predittivo,
non
distorto
e
perfettamente
adeguato.
A
fronte
del punteggio
da
lei
ottenuto,
abbiamo
il
piacere
di
comunicarle
che
è
invitata
a passare
alla
prova
successiva”. A
quel
punto
davanti
a
lei
compare
l’immagine
digitale
di
un
pinguino
che con
un
grande
sorriso
e
una
voce
leggermente
bambinesca
le
comunica
di chiamarsi
Recrutello.
Il
pinguino
comincia
a
farle
domande
sui
suoi
gusti, sui
suoi
hobby,
sulle
sue
aspirazioni,
persino
sui
suoi
sogni
più
intimi.
Le domanda
di
ripetere
rapidamente
e
senza
intoppi
le
lettere
dell’alfabeto,
di cantare
una
melodia
a
sua
scelta
e,
infine,
di
usare
tutto
il
potere
seduttivo
di cui
è
capace
per
convincerlo
a
raggiungerla
all’istante
utilizzando
le
parole giuste
e
sfoggiando
il
suo
sguardo
più
ammaliatore
di
fronte
alla
fotocamera del
suo
smartphone.
Il
colloquio
si
interrompe
improvvisamente
con
una formula
che
la
ringrazia
per
la
disponibilità
e,
in
modo
allegro,
conclude: “Cerchiamo
la
migliore
concordanza
in
ogni
cosa”.
Lei
è
spiazzata,
prima d’ora
non
le
era
mai
capitato
di
avere
a
che
fare
con
un
simile
sistema.
Poco
dopo
le
viene
inviata
una
relazione
di
valutazione:
“In
seguito
alla prestazione
da
lei
fornita
nel
corso
di
questa
conversazione
aumentata, siamo
spiacenti
di
comunicarle
che
nonostante
il
suo
grado
di
partecipazione e
le
sue
innegabili
capacità
proattive,
non
è
stata
selezionata
perché giudicata
Recrutello-incompatibile.
La
sua
sensibilità
troppo
spiccata
le impedirebbe
di
affrontare
con
la
giusta
determinazione
gli
obiettivi
operativi definiti
giorno
per
giorno
durante
le
war
rooms
mattutine
e
di
integrarsi appieno
nella
task
force.
Per
questa
ragione,
le
consigliamo
di
lavorare
sulla neutralizzazione
delle
sue
inclinazioni
espressive”.
Una
lacrima
di
tristezza
le scende
dagli
occhi
mentre
riceve
la
proposta
di
una
start
up
che
le
offre
un mese
di
abbonamento
gratuito
a
un
coach
virtuale
specializzato
nel miglioramento
delle
competenze
emotive.
L’INSORGENZA
DI
UNA
ALETHEIA
ALGORITMICA
Di
recente,
da
neanche
un
decennio,
si
sarebbe
di
fatto
cristallizzato
un fenomeno
destinato
a
rivoluzionare
le
nostre
esistenze.
Non
riusciamo
però
a coglierlo
ancora
del
tutto,
quasi
fossimo
rimasti
scioccati
dalla
sua subitaneità
e
dalla
forza
del
suo
impatto.
Non
facciamo
che
parlare
delle
sue possibili
conseguenze,
di
quelle
che
sollecitano
la
parte
più
emotiva
di
noi, ma
non
cerchiamo
mai,
come
invece
dovremmo,
di
identificarne
le
cause
e
di comprenderle
nei
loro
concatenamenti
successivi,
in
una
prospettiva
globale. È
possibile,
tuttavia,
individuarne
l’origine,
che
è
legata
al
cambiamento
di status
delle
tecnologie
digitali.
Più
esattamente,
il
cambiamento
di
una
delle loro
ramificazioni,
la
più
sofisticata,
ora
investita
di
una
funzione
che,
fino
a poco
tempo
fa,
non
avremmo
mai
pensato
di
attribuirle.
Non
solo
perché essa
non
faceva
parte
del
nostro
immaginario,
ma
anche
perché
esistevano dei
limiti
formali.
Ora,
infatti,
certi
sistemi
computazionali
sono
dotati
–
noi li
abbiamo
così
dotati
–
di
una
singolare
e
inquietante
vocazione:
enunciare la
verità.
È
il
caso
dei
metodi
di
valutazione
con
cui
si
confronta
la
nostra Audrey,
Kaylee,
Jasmine
o
Kimiko,
capaci,
sulla
base
di
tutta
una
serie
di criteri,
di
determinare
l’idoneità
del
suo
profilo.
O
degli
assistenti
virtuali personali,
in
grado
di
consigliare
la
dieta
alimentare
più
adatta;
o
di
un sistema
di
diagnosi
dermatologica,
concepito
per
identificare
un
tumore della
pelle;
o
di
una
procedura
di
sorveglianza
di
polizia,
finalizzata
a prevenire
un
pericolo
in
una
zona
identificata. Oramai
il
compito
della
tecnologia
digitale
non
è
più
soltanto
quello
di agevolare
lo
stoccaggio,
l’indicizzazione
e
la
manipolazione
di
raccolte
di
dati
cifrati,
testuali,
sonori
o
iconici,
ma
quello
di
rivelare
in
modo
automatizzato la
composizione
di
circostanze
di
ogni
tipo.
Il
digitale
si
erge
a
potenza aletheica,
un’istanza
destinata
a
mostrare
l’aletheia,
la
verità,
nel
senso definito
dalla
filosofia
greca
antica,
inteso
come
lo
svelamento,
la manifestazione
della
realtà
dei
fenomeni
al
di
là
della
loro
apparenza.
Esso
si vuole
organo
abilitato
a
valutare
il
reale
in
modo
più
affidabile
di
noi
e
a rivelarci
dimensioni
rimaste
fin
qui
celate
alla
nostra
coscienza.
In
questo prende
la
forma
di
una
techne
logos,
un
dispositivo
“artefattuale”
dotato
del potere
di
dire,
con
sempre
maggiore
precisione
e
immediatezza,
lo
stato teoricamente
esatto
delle
cose.
Si
potrebbe
affermare
che
stiamo
entrando nello
stadio
ultimo
della
tecnologia,
intesa
non
più
come
discorso
sulla tecnica,
ma
in
quanto
termine
che
prende
atto
della
sua
facoltà
di
proferire verbo,
proferire
logos,
al
solo
scopo
però
di
garantire
il
vero.
Questo
potere costituisce
la
principale
caratteristica
di
quella
che
viene
definita “intelligenza
artificiale”
e
che
determina
poi
tutte
le
funzioni
che
le
vengono attribuite. L’assegnazione
di
questa
facoltà
non
è
la
conseguenza
di
una
congiunzione casuale,
di
un
susseguirsi
non
premeditato
di
eventi.
Al
contrario,
essa
è stata
condizionata
da
un
fattore
determinante:
un’ampia
fetta
delle
scienze algoritmiche
ha
fatto
proprio
un
orientamento
risolutamente antropomorfista
cercando
di
attribuire
ai
processori
qualità
umane,
in particolare
quelle
legata
alla
capacità
di
valutare
situazioni
e
trarne conclusioni.
Nel
corso
della
storia
nessun
artefatto
è
mai
nato
dalla
volontà di
riprodurre
in
modo
identico
le
nostre
attitudini,
ma
piuttosto
dal desiderio
di
compensare
i
nostri
limiti
corporei
al
fine
di
elaborare dispositivi
dotati
di
una
potenza
fisica
superiore
alla
nostra.
Nessuno
di
essi era
il
risultato
di
una
riproduzione
scrupolosamente
mimetica,
ma
di
una dimensione
protetica
allo
scopo
di
riscattare
le
mancanze
della
nostra condizione;
altri,
invece,
vennero
fondati
su
referenti
naturali
o
principi teorici
completamente
differenti.
Quello
che
oggi
determina
un
numero sempre
crescente
di
architetture
computazionali
è
che
esse
sono
modellate sul
cervello
umano,
considerato
una
forma
organizzativa
e
sistemica
perfetta di
elaborazione
dell’informazione
e
di
apprensione
del
reale. La
sua
struttura,
fatta
di
neuroni,
sinapsi,
segnali
elettrici
e
reti
di trasmissione,
diventa
un
modello
da
replicare.
Molte
ricerche
condotte
in laboratori
sia
pubblici
che
privati
si
sviluppano
in
questa
prospettiva
e
sono accompagnate
da
un
impianto
retorico
che
intende
trarne
un
prestigio simbolico.
Viene
dunque
a
costituirsi
tutto
un
lessico
che,
senza
vergogna
e senza
preoccuparsi
della
precisione
terminologica,
fa
proprio
il
registro
delle
scienze
cognitive.
Ecco
che
si
parla
di
chip
“sinaptici”,
“neuromorfici”,
di “reti
neurali
artificiali”,
di
“processori
neurali”.
Ormai
assegnare
a
dei sistemi
una
struttura
teoricamente
analoga
a
quella
del
nostro
cervello
è
il nuovo
Graal
tecno-scientifico
da
raggiungere. A
quanto
pare
stiamo
entrando
nell’era
antropomorfica
della
tecnica.
Ma non
dobbiamo
considerarlo
un
antropomorfismo
in
senso
letterale
e
stretto, perché
le
tre
caratteristiche
di
cui
è
dotato
gli
conferiscono
una
logica
tutta sua.
La
prima:
è
un
antropomorfismo
aumentato,
estremo
o
radicale,
che cerca,
sì,
di
modellarsi
sulle
nostre
capacità
cognitive,
ma
le
usa
come
leve
al fine
di
elaborare
meccanismi
che,
traendo
ispirazione
dai
nostri
schemi cerebrali,
sono
destinati
a
essere
più
rapidi,
efficaci
e
affidabili
di
quelli
che ci
costituiscono,
rimanendo
tendenzialmente
inalterati.
La
seconda:
è
un antropomorfismo
frammentario,
che
non
tende,
cioè,
ad
abbracciare
la totalità
delle
nostre
facoltà
cognitive
e
a
trattare,
come
le
nostre
menti, un’infinità
di
questioni,
ma
è
destinato
unicamente
a
svolgere
compiti specifici.
La
terza:
è
un
antropomorfismo
intraprendente,
dotato
non soltanto
di
attitudini
interpretative,
ma
anche
della
capacità
di
avviare,
in modo
automatico,
azioni
in
funzione
di
esiti
prestabiliti.
Questo
triplice divenire
antropomorfico
della
tecnica
porterà,
alla
lunga,
a
una
perfetta gestione
della
quasi
totalità
dei
settori
della
società.
UNA
POTENZA
INGIUNTIVA
L’intelligenza
artificiale
non
è
un’innovazione
come
tante
altre;
essa rappresenta
più
che
altro
un
“principio
tecnico
universale”
fondato
su
un modello
di
identificazione
delle
relazioni:
l’analisi
robotizzata
–
il
più
delle volte
condotta
in
tempo
reale
–
di
circostanze
di
diversa
natura,
la formulazione
istantanea
di
equazioni,
presumibilmente
le
più
adeguate,
con il
fine
in
genere
di
avviare
le
corrispondenti
azioni
appropriate,
o
mediante interventi
umani,
o,
in
modo
autonomo,
attraverso
i
sistemi
stessi.
Questa logica
è
pensata
per
essere
applicata,
sul
lungo
periodo,
a
tutti
gli
aspetti della
vita
individuale
e
collettiva,
nel
rapporto
con
il
nostro
corpo,
con
gli altri
e
con
l’ambiente,
nell’organizzazione
della
città,
nelle
reti
di
trasporti, negli
spazi
professionali,
nella
sanità,
nelle
attività
bancarie,
nella
finanza, nella
giustizia,
nelle
pratiche
militari,
nel
futuro
funzionamento
dei cosiddetti
veicoli
“autonomi”;
la
lista
potrebbe
continuare
a
lungo
e
la
verità è
che
è
potenzialmente
infinita.
Perché,
a
ben
guardare,
stiamo
assistendo all’emergere
di
una
tecnologia
dell’integrale.
I
dispositivi
aletheici
sono
destinati,
per
via
della
loro
crescente sofisticatezza,
a
imporre
la
loro
legge,
orientando
dall’alto
della
loro
autorità le
situazioni
umane.
E
questo
non
in
modo
omogeneo,
ma
a
differenti
gradi, da
un
livello
incentivante,
come
nel
caso
di
un’applicazione
per
il
fitness
che suggerisce
un
certo
integratore
alimentare,
a
un
livello
prescrittivo,
come
nel caso
della
concessione
di
un
prestito
bancario,
fino
a
raggiungere
livelli coercitivi,
in
particolare
nel
campo
del
lavoro,
con
sistemi
in
grado
di
dettare i
gesti
da
compiere.
Da
questo
momento
in
poi
la
tecnologia
riveste
un “potere
ingiuntivo”;
il
libero
esercizio
della
nostra
facoltà
di
giudizio
e
di azione
viene
sostituito
da
protocolli
destinati
a
modificare
le
nostre
singole azioni
o
i
singoli
impulsi
del
reale
al
fine
di
“infonderci”
la
giusta
traiettoria da
seguire.
L’umanità
si
sta
rapidamente
dotando
di
un
organo
che
la spossessa
di
sé
stessa,
del
suo
diritto
di
decidere,
con
coscienza
e responsabilità,
le
cose
che
la
riguardano.
Prende
forma
uno
statuto antropologico
e
ontologico
inedito
che
vede
la
figura
umana
sottomessa
alle equazioni
dei
suoi
stessi
artefatti,
con
l’obiettivo
primario
di
rispondere
a interessi
privati
e
instaurare
un’organizzazione
della
società
in
funzione
di criteri
principalmente
utilitaristici.
IL
TEMPO
ESPONENZIALE
L’intelligenza
artificiale
è
la
punta
dell’iceberg
di
tutte
quelle
tecnologie chiamate
“esponenziali”,
che
vedono
la
loro
elaborazione
e
la
loro immissione
sul
mercato
effettuarsi
a
cadenze
sempre
più
fitte.
Questa impennata
è
oggi
favorita
da
due
fenomeni
congiunti.
Il
primo
trae
origine dal
processo
di
informatizzazione
della
società,
cominciato
agli
inizi
degli anni
Sessanta,
che
ha
progressivamente
fatto
germogliare
l’idea
che
le macchine
calcolatrici
fossero
talmente
efficaci
da
apportare
benefici indiscutibili
in
tutti
i
campi,
facilitando
l’esistenza
degli
individui.
Questo modo
di
intendere,
presto
entrato
a
far
parte
del
sentire
comune,
ha condotto
alla
generalizzazione
della
nozione
acritica
di
“rivoluzione
digitale” e,
conseguentemente,
al
movimento
in
corso
di
digitalizzazione
integrale
del mondo.
Gli
attori,
tanto
economici
quanto
politici,
vi
hanno
scorto
infatti l’opportunità
storica
di
intensificare
in
modo
continuo
i
cicli
di
rotazione
del capitale
tra
aziende,
tra
aziende
e
persone
e
tra
le
persone
stesse
attraverso l’economia
dei
dati
e
delle
piattaforme,
ma
anche
la
possibilità
di ottimizzare,
alla
lunga,
il
funzionamento
della
quasi
totalità
degli
enti
privati o
pubblici,
riscontrabile
nell’espressione
emblematica
“trasformazione
digitale”,
ovvero
l’obiettivo
di
raggiungere
un’amministrazione indefinitamente
massimizzata
delle
cose. Il
secondo
fattore
che
favorisce
questa
diffusione
inarrestabile
trae
origine dal
fatto
che
la
produzione
industriale
attuale
non
rispetta
più
tutta
una
serie di
fasi
fino
a
poco
fa
segnate
da
forme
di
indeterminatezza
nella
ricerca, dall’accettazione
del
fallimento
come
rischio
consustanziale
all’elaborazione di
ogni
prototipo
o,
ancora,
dall’esigenza
di
procedere
a
molteplici
e minuziosi
test
di
qualità
–
che
notiamo
appunto
essere
sempre
più
carenti. Oggi
la
tendenza
è
quella
della
quasi
assenza
di
scarto
tra
progettazione
e commercializzazione.
La
pressione
concorrenziale
e
il
primato dell’immediato
ritorno
sugli
investimenti
impediscono
il
benché
minimo periodo
di
latenza,
così
come
qualsiasi
valutazione
concertata
sul
valore
e sulla
pertinenza
dei
prodotti.
Le
unità
di
ricerca
e
sviluppo
devono
infatti dare
prova
senza
indugi
e
senza
sosta
di
essere
leve
di
profitto.
È
il
momento dei
“cicli
d’innovazione”
sempre
più
ravvicinati
che
favoriscono
una dinamica
di
esaltazione
perenne,
autorizzata
dai
dogmi
della
crescita
e dell’aumento
del
comfort
delle
persone,
che,
per
il
bene
della
società,
non devono
mai
smettere
di
intensificarsi. D’ora
in
poi
le
tecnologie
digitali
scandiscono
il
tempo
delle
nostre
esistenze, danno
il
ritmo
alla
nostra
epoca.
Questa
frenesia
si
trova
convalidata,
quasi normalizzata,
nelle
nozioni
di
“tecnologie
di
rottura”
e
di
“disruption”,
o “disrupzione”,
conformemente
alla
neolingua
iconoclasta
dell’“innovazione” contemporanea.
È
venuto
a
costituirsi
un
vocabolario
guerriero,
come
se
la verità
del
nostro
rapporto
con
il
tempo
consistesse
in
una
forma
di
violenza, nello
sposarne
il
“corso
naturale”
che,
come
tutti
sanno,
è
fatto
di
ininterrotti flussi
eraclitei.
La
cadenza
delle
evoluzioni
tecniche
farebbe
dunque miracolosamente
tutt’uno
con
le
mutevoli
fluttuazioni
della
vita
e
sarebbe obbligata
di
fatto
a
imporsi
sul
nostro
orologio
interno
e
sulla
nostra
psiche, comportando
la
conseguenza
di
una
adattabilità
permanente.
I
computer quantistici
non
faranno
che
consolidare
e
istituzionalizzare
questa aspirazione
a
identificare
la
società
con
la
physis
eruttiva
del
mondo;
si
sta lavorando
in
questa
direzione,
principalmente
con
l’aiuto
di
fondi
pubblici. Quest’impennata
esponenziale,
che
lascia
intravedere
un
orizzonte teleologico,
riprende
l’ideologia
del
progresso
tanto
denigrata
a
partire
dalla fine
dei
“gloriosi
anni
Trenta”,
e
dà
nuovamente
corpo
alla
prospettiva
di
una sorta
di
compimento
della
Storia,
secondo
la
visione
escatologica
occidentale dell’avvento
di
un
regime
compiuto
di
perfezione. Infine,
la
misura
indefinitamente
precipitosa
dei
“cicli
d’innovazione”
è partecipe
di
una
naturalizzazione
dello
sviluppo
tecnico-economico
in
corso,
che
si
arriva
persino
a
equiparare
a
uno
“tsunami”,
ossia
a
un
fenomeno quasi
impossibile
da
arginare
per
via
di
una
forza
asimmetrica
nata
da un’analogia
inappropriata
che
contribuisce
a
imporre
la
doxa dell’ineluttabile.
Ebbene
la
peculiarità
degli
artefatti
è
che
essi
non appartengono
ad
alcun
ordine
naturale,
ma
sono
il
prodotto
dell’azione umana
e
interferiscono
nelle
questioni
umane.
Utilizzare
il
termine esponenziale
permette
ai
nuovi
“rivoluzionari”
del
nostro
tempo,
gli imprenditori
supereroi
e
altri
startupper
visionari
che
a
quanto
pare
hanno capito
tutto
della
verità
della
nostra
epoca
e
sono
persino
riusciti
a personificarla,
di
banalizzare
l’idea
secondo
cui
le
evoluzioni
tecniche,
e
in particolare
l’intelligenza
artificiale,
si
inscriverebbero
in
una
traiettoria inevitabile
e
virtuosa
delle
cose
alla
quale
sarebbe
bene
adattarsi, nell’interesse
di
tutti.
Gli
altri,
gli
scettici,
i
critici
e
in
generale
tutti
quelli che
aspirano
a
stili
di
vita
non
per
forza
fondati
su
protocolli
di
guida automatizzata,
non
sono
altro
che
degli
scorbutici
retrogradi,
incapaci
di cogliere
il
carattere
eccezionale
e
messianico
della
nostra
era,
nella
misura
in cui
è
a
essa
che
tocca,
al
cospetto
del
grande
libro
della
Storia,
eliminare tutte
le
scorie
del
reale.
Nei
fatti,
ciò
che
caratterizza
l’esponenziale
è
che esso
marginalizza,
e
alla
lunga
annichilisce,
il
tempo
umano
necessario
alla comprensione
e
alla
riflessione,
privando
gli
individui
e
le
società
del
diritto di
valutare
i
fenomeni
e
di
manifestare
o
meno
il
loro
assenso;
in
altre parole,
li
priva
del
loro
diritto
di
decidere
liberamente
del
corso
delle
loro vite.
IL
VITELLO
D’ORO
DEL
NOSTRO
TEMPO
Dal
2010
l’intelligenza
artificiale
rappresenta
la
sfida
economica
più
decisiva in
cui
investire
con
determinazione
e
senza
esitazioni.
Oltre
alle
aziende, sono
gli
stessi
Stati
a
impiegare
tutti
i
mezzi
in
loro
potere
per
posizionarsi
in prima
linea;
questo
obiettivo
è
diventato
per
ognuno
di
essi
una
grande priorità
nazionale.
Primi
fra
tutti
gli
Stati
Uniti,
che
elaborano
piani strategici
di
grande
portata,
sostenuti
in
particolare
dalla
Darpa
(Agenzia
per i
progetti
di
ricerca
avanzata
di
difesa),
dalla
NSA
(Agenzia
per
la
sicurezza nazionale),
dal
dipartimento
della
Difesa,
e
da
una
miriade
di
università
e istituti
di
ricerca
che
beneficiano
di
sovvenzioni
federali.
Sulla
scia
del dominio
pressoché
egemonico
che
esercita
su
internet
dalla
metà
degli
anni Novanta,
il
Paese
ha
come
obiettivo
quello
di
conquistare
un
ruolo
di leadership
anche
nel
campo
delle
tecnologie
cosiddette
“cognitive”.
Ma
molte nazioni
non
sono
più
disposte
ad
arrivare
seconde
e
manifestano
la
volontà È
di
impegnarsi
anima
e
corpo
in
questa
feroce
competizione
planetaria.
È
il caso
della
Cina,
che
ambisce
a
salire
“sul
podio”
entro
il
2030
grazie
a programmi
pianificati
nei
minimi
particolari:
“Ecco
la
tabella
di
marcia
del governo
cinese:
‘Innanzitutto
mantenere
lo
slancio
delle
nuove
tecnologie
e delle
applicazione
di
intelligenza
artificiali
da
qui
al
2020,
poi
compiere progressi
significativi
entro
il
2025
e,
infine,
diventare
il
leader
mondiale indiscusso
nei
cinque
anni
successivi’”.1 Il
Canada
pretende
di
ergersi
a
“polo
mondiale
dell’IA”
e
sostiene
aziende
e laboratori
con
l’aiuto
di
generosi
fondi
pubblici.
La
Russia,
da
decenni
quasi inesistente
nel
panorama
dell’industria
elettronica,
conta
di
diventare
uno dei
protagonisti
di
questo
settore
che
ai
suoi
occhi
ha
anche
una
portata geopolitica.
Vladimir
Putin
ha
infatti
dichiarato
che
“la
nazione
leader
in questo
campo
dominerà
il
mondo”
e
che
quindi
“bisognerebbe
evitare
di lasciare
il
monopolio
in
mano
a
un’unica
nazione”.
La
lista
dei
Paesi
che desiderano
cimentarsi
in
questa
promettente
epopea
è
molto
lunga
e
conta, tra
i
più
attivi,
Israele,
Giappone,
Corea
del
Sud…
Gli
Emirati
Arabi
Uniti sono
arrivati
persino
a
istituire
un
ministero
per
l’Intelligenza
artificiale: “L’intelligenza
artificiale
sarà
la
prossima
grande
rivoluzione.
E
noi
vogliamo farci
trovare
pronti”.2
Dal
canto
suo,
la
Francia
si
vanta
di
essere
in
possesso di
tutti
i
requisiti
necessari
per
diventare
un
attore
di
rilievo:
ottima
scuola di
matematici,
“incubatrici
di
start
up”,
efficace
sistema
di
cooperazione
tra settore
pubblico
e
privato…3
L’Île-de-France
ha
riconosciuto
in
questo settore
“un
asse
portante
dello
sviluppo
in
materia
di
innovazione
e
intende diventare
la
‘regione
europea
leader
del
settore’”.4
Emmanuel
Macron, fervente
evangelista
della
digitalizzazione
integrale
della
società,
guarda
a essa
come
all’unico
orizzonte
politico
ed
economico
radioso
del
nostro tempo,
e
intende,
con
l’aiuto
di
consistenti
fondi
pubblici,
fare
del
Paese
un “hub
mondiale
dell’IA”
e
“attirare
i
migliori
ricercatori
stranieri”. L’ebbrezza
provata
davanti
a
tutte
le
prospettive
annunciate
scatena
una quantità
di
discorsi
di
varia
natura.
Mai
fenomeno
tanto
determinante
ha generato
un
tale
profluvio
di
sciocchezze.
È
il
grande
offuscamento
della nostra
epoca:
sentiamo
di
essere
di
fronte
a
delle
evoluzioni
decisive,
ma invece
di
sciogliere,
come
dovremmo,
la
complessità
delle
questioni
e munirci
dei
giusti
strumenti
di
comprensione
e
azione,
lasciamo
esprimersi, senza
mai
contraddirle,
persone
che
si
erigono
a
massimi
esperti,
per
lo
più mossi
da
interessi
personali,
e
che
pretendono
di
illuminare
la
società prodigando
consigli
ai
responsabili
politici
ed
economici
in
cambio
di
laute ricompense.5
Questa
approssimazione
generalizzata
contribuisce
ancora
ad alimentare
un
gran
numero
di
elucubrazioni.
Come
quella
formulata
dall’astrofisico
Stephen
Hawking
che
nel
2014
aveva
affermato,
insieme
a molti
altri
scienziati,
che
l’intelligenza
artificiale
era
destinata,
alla
lunga,
a estirpare
il
genere
umano,
rifacendosi
allo
stesso
immaginario
catastrofista che
vagheggiava
una
fantasmagorica
ribellione
delle
macchine.
O
come quella
dell’imprenditore
Elon
Musk,
che
nel
2017
aveva
scritto,
insieme
ad altri
centoquindici
industriali
e
ingegneri,
una
lettera
aperta
indirizzata
alle Nazioni
Unite
nella
quale
affermava
che
“la
corsa
alla
supremazia
nell’IA degli
Stati
potrebbe
causare
la
Terza
guerra
mondiale”.
Tali
affermazioni insensate
escono
dalla
bocca
di
personaggi
che,
nella
stragrande maggioranza
dei
casi,
lavorano,
avvalendosi
delle
proprie
capacità intellettuali
o
economiche,
all’implementazione
di
queste
stesse
tecnologie, dando
prova
di
una
schizofrenia
patente
e
di
una
malafede
che,
a
tratti, sembrano
incontrollabili. Dal
canto
suo,
il
fondatore
di
Facebook
Mark
Zuckerberg
non
condivide questo
allarmismo
di
bassa
lega
e,
anzi,
vede
nelle
virtù
miracolose dell’intelligenza
artificiale
l’incredibile
opportunità
di
“costruire
nuove comunità”,
acquisire
una
conoscenza
sempre
più
approfondita
delle aspirazioni
delle
persone
e
dei
loro
comportamenti,
e
offrire un’amministrazione
benevola
e
continua
della
vita.6
Al
di
là
della
povertà
di argomentazioni
e
del
gusto
sensazionalistico,
ciò
che
caratterizza
tutte queste
dichiarazioni
è
la
convinzione
secondo
cui
si
starebbe
profilando
un nuovo
orizzonte
economico
e
si
starebbero
prospettando
un’infinità
di progressi
vantaggiosi,
soprattutto
nel
campo
della
medicina,
che
non bisognerà,
per
il
“bene
dell’umanità”,
imbrigliare,
a
patto
di
saper “correggere
gli
eventuali
difetti”
e
“prevenire
i
possibili
pericoli”, conformemente
all’usuale
equazione
social-liberista.
La
panacea
consiste infatti
nell’introdurre
una
“dose
di
etica”
e
di
“regolamentazione”,
come un’iniezione
che
di
tanto
in
tanto
è
bene
somministrare
per
calmare
una creatura
bellissima
ma
dalle
velleità
potenzialmente
pericolose.
LA
RISTRETTEZZA
“ETICA”
Quando
ci
si
vuole
mostrare
vigili
nei
confronti
delle
tecnologie
digitali,
si ricorre
sempre
all’“etica”,
come
se
brandire
questo
vessillo
potesse
fare
da scudo
supremo
contro
le
loro
principali
deviazioni.
In
realtà
si
tratta
di
uno dei
grandi
malintesi
dell’epoca.
Come
dobbiamo
intendere
l’etica?
Forse partendo
dalla
base,
ossia
dal
rispetto
incondizionato
dell’integrità
e
della dignità
umane.
In
altre
parole,
dal
fatto
di
poterci
avvalere
senza impedimenti
della
nostra
autonomia
di
giudizio,
di
poter
decidere
liberamente
e
in
coscienza
delle
nostre
azioni,
di
poter
beneficiare
di
parti
di noi
al
riparo
dallo
sguardo
altrui
o,
ancora,
di
non
essere
continuamente ridotti
a
un
mero
oggetto
commerciale.
Generalmente,
invece,
quando
ci riferiamo
all’etica,
pensiamo
a
una
nozione
vaga,
a
un
calderone
confuso,
a referenti
astratti
che
variano
a
seconda
dei
tropismi
di
ciascuno.
Più precisamente
si
è
imposta
una
forma
di
etica
tutta
particolare,
limitata
a un’unica
e
arida
aspirazione
a
una
“libertà
negativa”,
per
dirla
con
il
filosofo politico
Isaiah
Berlin,
intesa
come
una
libertà
difensiva,
unicamente protettrice
del
diritto
dei
cittadini
di
fronte
alle
pretese
potenzialmente abusive
del
potere.7 È
opinione
comune
che
la
libertà
dell’individuo
coincida
con
l’assenza
di ostacoli
esterni
alle
sue
azioni;
e
per
questo
la
libertà
politica
è
intesa
come lo
spazio
all’interno
del
quale
ognuno
può
agire
senza
che
nessuna
forza coercitiva
intervenga
per
impedirglielo.
Montesquieu
aveva
esplicitato
e difeso
questo
principio
facendo,
secondo
Pierre
Manent,
di
questa opposizione
tra
individuo
e
autorità
il
“cuore
del
problema
politico”,
e
aveva così
fissato
“quello
che
potremmo
chiamare
il
linguaggio
definitivo
del liberalismo”.8
Tutto
un
glossario
falsamente
“critico”
del
digitale
è
venuto
a stabilirsi
in
funzione
di
questa
diffidenza
fondamentale
e
mai
attenuata
nei confronti
della
classe
dirigente.
Ecco
spiegato
come
mai,
non
appena
ci
si preoccupa
dell’etica,
si
approda
sempre
alle
eterne
questioni
della
protezione dei
dati
personali
e
della
“difesa
della
vita
privata”.
Queste
pose,
che
si riducono
all’unica
preoccupazione
di
preservare
l’interesse
del
singolo
e
che confinano
con
una
forma
facile
di
buona
coscienza,
hanno
il
grande
difetto
di celare
altre
questioni
altrettanto
decisive.
Dietro
questa
concezione
si nasconde
ciò
che
è
veramente
in
gioco,
ovvero
modi
di
vivere
individuali
e collettivi
nuovi,
destinati
a
essere
sempre
più
orientati
da
sistemi
che
ci spossessano
della
nostra
capacità
di
giudizio
e
che
non
si
trovano
mai sottomessi
a
una
visione
etica,
quando
invece
dovrebbero
esserlo
nella misura
in
cui
costituiscono
un’offesa
ai
principi
giuridico-politici
che
ci fondano.
Invece
di
un’etica
ridotta
alla
sola
sfera
personale,
sarebbe
ora
di coltivare
un’etica
della
responsabilità
che
abbia
a
cuore
la
difesa
del
diritto all’autodeterminazione
dei
singoli
come
anche
dell’intera
società. Per
calmare
gli
animi
va
di
moda
riunire
commissioni
che
non
fanno
che limitarsi
a
questi
sempiterni
assiomi
riduttori
e
affidarsi
a
presunti
esperti, organizzando
consultazioni
pubbliche
online
per
dare
la
sensazione
di
essere all’ascolto
dei
cittadini.
In
generale
la
loro
unica
funzione
è
quella
di convalidare,
con
il
pretesto
di
esami
scrupolosi,
scelte
già
adottate.
È
quello che
accade
a
cadenza
regolare
in
Francia
che,
dopo
il
rapporto
“France
IA”
voluto
dal
governo
Valls
nel
2016,
ha
visto
il
presidente
Macron
richiedere
la stessa
cosa
subito
dopo
essere
stato
eletto.
L’esecutivo
ha
incaricato
per questo
il
matematico
e
deputato
della
maggioranza
presidenziale
Cédric Villani.
Lo
stesso
Villani,
ancora
prima
che
avessero
inizio
le
audizioni,
ha continuato
a
ripetere
quanto
fosse
auspicabile
realizzare
un
“ecosistema
per una
ricerca
agile
ed
espansiva,
[…]
un
humus
favorevole
per
lo
sviluppo dell’IA,
[…]
non
ostacolare
la
ricerca”
e
quanto
essa
avrebbe
rappresentato un
“fattore
di
democrazia”!9
Parole
che,
alla
luce
dei
risultati
del
rapporto, sono
state
poi
portate
avanti
anche
da
altri,
non
meno
subordinati
al
credo tecnoliberale:
“Se
non
facciamo
niente,
le
nostre
aziende
perderanno competitività
e
l’economia
crollerà
ancora.
[…]
C’è
bisogno
di
più
ricerca
e questa
ricerca
deve
essere
molto
più
attrattiva
in
Francia.
[…]
L’IA
non
è altro
che
intelligenza
umana
extra,
si
tratta
di
tecnologie
che
si
inseriscono
in tutti
i
settori,
con
a
volte
un
fortissimo
valore
aggiunto”.10
Questo
è
il
chiaro esempio
di
un
ricercatore
trasformatosi
nel
ventriloquo
di
un
governo
e
che ha
chiaramente
rinunciato
a
esprimere
una
qualsiasi
distanza
critica.
Questo allineamento
di
scienziati
e
ingegneri
alla
dottrina
tecnico-economica dominante
rappresenta
un
vizio
del
nostro
tempo
nella
misura
in
cui
a trovarsi
d’ora
in
avanti
asfissiate
saranno
le
forme
di
pluralità
nel
campo della
ricerca. Il
colmo
del
grottesco
lo
raggiungono
i
grandi
gruppi
dell’industria
del digitale
che,
vedendo
l’opinione
pubblica
dare
segni
di
inquietudine,
cercano di
farsi
belli
dando
vita
a
“nuclei
di
riflessione
etica”.
È
il
caso
del
gruppo “The
Partnership
on
Artificial
Intelligence
to
Benefit
People
and
Society”,11 fondato
su
iniziativa
di
Google,
Amazon,
Facebook,
IBM
e
Microsoft:
i
criteri presi
in
considerazione
rimandano
principalmente
al
presunto
rispetto
della “vita
privata”,
come
anche
ai
principi
più
vaghi;
peccato
che
queste
aziende siano
tra
gli
agenti
più
attivi
del
vasto
movimento
di
automatizzazione
del mondo.
Come
la
clamorosa
conferma
che
la
miope
ossessione
per
la
sola “libertà
personale”
rappresenta
una
ineluttabilmente
chiamata
a
spianare
la strada
a
un
indirizzo
che
prevede
la
sempre
maggiore
robotizzazione
delle attività
umane.
AGONIA
DEL
POLITICO
E
AVVENTO
DI
UNA
“DATA-DRIVEN
SOCIETY”
Quello
che
caratterizza
l’intelligenza
artificiale,
al
di
là
dei
discorsi
confusi che
le
girano
intorno
e
delle
sempiterne
litanie
sulla
fine
del
lavoro,
sui vantati
progressi
della
medicina
o
sull’ottimizzazione
ormai
quasi
totale
del funzionamento
delle
aziende,
è
l’estensione
di
una
“sistematica”,
o
scienza
della
classificazione
e
delle
relazioni,
destinata
a
essere
applicata
a
tutti
gli ambiti
della
vita
umana.
Ogni
enunciazione
automatizzata
della
verità
è
così destinata
a
produrre
“l’evento”,
a
far
scattare
un’azione,
principalmente
a scopi
commerciali
o
utilitaristici,
procedendo
a
una
sorta
di
stimolazione artificiale
e
ininterrotta
del
reale.
Prendiamo
il
caso
di
uno
specchio connesso
al
web:
la
sua
funzione
non
è
solo
quella
di
riflettere
ad
esempio l’immagine
di
un
individuo,
ma
anche
di
raccogliere
i
dati
relativi
al
suo volto
e
al
suo
corpo,
per
suggerire
i
prodotti
o
i
servizi
ritenuti
più appropriati
in
funzione
dell’analisi
avanzata,
e
più
o
meno
affidabile,
del
suo stato
fisiologico
e
persino
psicologico.
La
presenza
preponderante
del digitale
si
pone
dunque
come
un’istanza
di
orientamento
dei
comportamenti, destinata
a
offrire,
attimo
per
attimo,
i
modelli
di
esistenza
individuale
e collettiva
considerati
i
migliori
applicabili;
e
ciò
avviene
quasi impercettibilmente,
con
fluidità,
tanto
da
dare
la
sensazione
di
un
nuovo ordine
naturale
delle
cose. Ecco
perché
il
tecnoliberismo
ha
fatto
delle
tecnologie
dell’aletheia
il
suo principale
cavallo
di
battaglia;
in
esse
ha
visto
la
realizzazione
delle
sue ambizioni
egemoniche,
grazie
all’insorgere
di
una
“mano
invisibile automatizzata”,
in
un
mondo
retto
dal
regime
della
retroazione,
del feedback:
una
“datadriven
society”,
dove
ogni
manifestazione
del
reale
si trova
a
essere
assoggettata
a
una
serie
di
operazioni
in
vista
di
prendere
di volta
in
volta
la
giusta
direzione,
seguendo
criteri
puntualmente
definiti.
In altri
termini,
un
progetto
continuamente
teso
sia
a
evitare
qualunque
forma di
inerzia
sia
a
perseguire
il
profitto
in
ogni
cosa,
nato
dalla
fantasia
di matematici,
ingegneri
e
ricercatori
–
gli
ideatori
della
cibernetica
–
allo scopo
di
lottare
contro
il
male
supremo,
l’entropia,
e
messo
in
atto
oggi, dopo
mezzo
secolo,
non
più
al
solo
scopo
di
correggere
forme
di
disordine, ma
anche
con
l’obiettivo
di
trarre
vantaggio
dall’interpretazione
robotizzata di
qualunque
circostanza.
Una
fantasia
tecno-scientifica
nata
nel
dopoguerra e
diventata
oggi
un
assioma
economico
e
antropologico
che
pretende
di edificare
una
governance
infallibile
e
indefinitamente
dinamica
delle
vicende umane. In
questo
senso,
l’intelligenza
artificiale
contribuisce
a
preparare
la
fine
del politico,
inteso
come
l’espressione
della
volontà
generale
di
prendere
delle decisioni,
attraversando
le
contraddizioni
e
giungendo
a
deliberare,
in
vista di
rispondere
al
meglio
all’interesse
comune.
Come
non
rendersi
conto
che essa
dipende
anche
da
un
fenomeno
psicologico
scaturito
dalla
nostra angoscia
fondamentale,
indotta
dall’incertezza
che
è
intrinseca
alla
vita,
e che
ci
obbliga
continuamente
a
determinarci,
presupponendo
in
ogni
momento
il
dubbio
e
la
possibilità
di
commettere
errori?
L’intelligenza artificiale
neutralizzerebbe
dunque
la
nostra
vulnerabilità
e
ci
libererebbe dalle
nostre
affezioni
a
vantaggio
di
un’organizzazione
ideale
delle
cose;
in altre
parole,
farebbe
scomparire
la
resistenza
del
reale
grazie
alla
sua influenza
sulla
totalità
dei
fenomeni
puntando
all’orizzonte
con
una
forma compiuta
e
perpetua
di
perfezione. Più
che
una
“singolarità
tecnologica”
–
vale
a
dire
l’avvento
di
una
rottura antropologica
dovuta
all’insorgere
ormai
prossimo
di
una
“superintelligenza onnipotente”
e
alla
fusione
tra
cervelli
e
processori,
secondo
la
tesi
grottesca e
sensazionalista
di
Ray
Kurzweil
–,12
quella
che
è
destinata
a
realizzarsi
è una
“singolarità
ontologica”,
che
ridefinirebbe
la
figura
umana,
il
suo statuto,
i
suoi
poteri,
i
suoi
diritti,
ovvero
tutto
ciò
che
fino
a
questo momento
le
ha
teoricamente
garantito
la
possibilità
di
essere
libera
e realizzarsi.
È
il
motivo
per
cui
la
natura
dell’intelligenza
artificiale,
i
suoi campi
di
applicazione,
gli
interessi
in
gioco,
la
vastità
accertata
e
quella presumibile
dei
suoi
effetti
rappresentano
una
delle
principali
questioni civilizzazionali
e
filosofiche
del
nostro
tempo,
forse
la
più
importante, nonostante
poi
di
fatto
non
sia
oggetto
di
indagini
teoriche
all’altezza
della sfida.
L’ATTO
DI
FORZA
RETORICO
A
tal
fine
sarebbe
utile
rimettere
in
discussione
la
nozione
di
“intelligenza artificiale”
alla
radice,
a
partire
dal
suo
stesso
nome,
perché
i
termini
che utilizziamo
contribuiscono
a
forgiare
le
nostre
rappresentazioni. L’espressione
venne
utilizzata
per
la
prima
volta
dal
matematico
John McCarthy
nel
1955
in
occasione
di
un
convegno
estivo
al
Dartmouth
College di
Hanover,
nel
New
Hampshire,
che
inaugurò
il
movimento
della cibernetica.
L’ordine
del
giorno
prevedeva
di
definire
i
termini
di
una
nuova disciplina
destinata
a
simulare
e
a
riprodurre
artificialmente
alcuni
dei processi
del
cervello
umano.
Fra
i
partecipanti
vi
erano
scienziati
e informatici,
ma
nessuno
di
loro
possedeva
una
formazione
in
neuroscienze. La
loro
conoscenza
della
struttura
cerebrale
era
alquanto
lacunosa
e
i modelli
collegati
alle
loro
ipotesi
piuttosto
sommari
e
grossolani.
In
realtà,
il principio
di
un’intelligenza
computazionale
modellata
sulla
nostra
è sbagliato,
in
quanto
tra
l’una
e
l’altra
non
esiste
praticamente
nessun rapporto
di
similitudine. Questo
per
due
ragioni.
La
prima
è
che
queste
architetture
computazionali sono
prive
di
corpo;
esse
non
sono
altro
che
delle
macchine
calcolatrici
la
cui
funzione
si
limita
alla
semplice
elaborazione
di
flussi
informazionali
astratti. E
nel
caso
in
cui
esse
si
trovino
collegate
a
dei
sensori,
non
fanno
altro
che ridurre
certi
elementi
del
reale
a
dei
codici
binari,
trovandosi
escluse
da un’infinità
di
dimensioni
che
invece
la
nostra
sensibilità
coglie
e
che sfuggono
ai
principi
di
una
modellizzazione
matematica.
Abbiamo
a
che
fare con
una
concezione
tronca,
ristretta
e
distorta
di
ciò
che
presuppone
il processo
dell’intelligenza,
il
quale
è
inseparabile
dalla
sua
tensione all’apprendimento
multisensoriale
e
non
sistematizzabile
dell’ambiente esterno:
“Per
dirla
semplicemente,
cervello
e
corpo
sono
nella
stessa
barca
e insieme
rendono
possibile
la
mente”.13 La
seconda
ragione
è
che
non
esiste
intelligenza
che
viva
isolata,
chiusa nelle
proprie
logiche;
e
penso
al
principio
di
progressione
che
consiste nell’esercitarsi
da
soli
“contro
sé
stessi”
come
in
una
bolla,
conformemente alla
logica
detta
“per
rafforzamento”,
in
atto
nel
programma
AlphaGo Zero,14
che
ha
giocato
milioni
di
partite
di
Go
“contro
sé
stesso”.
Perché l’intelligenza
è
indissociabile
da
rapporti
aperti
e
indeterminati
con
gli
esseri e
le
cose,
da
un
contesto
epigenetico,
da
un
ambiente,
cioè,
composito
nel quale
evolvere
e
distinguersi.
Essa
non
si
caratterizza
solo
per
la
capacità
di adattamento,
come
viene
spesso
ripetuto
a
partire
da
un
semplicistico
cliché darwiniano,
ma
anche
perché
è
in
grado
di
modificarsi
grazie
all’integrazione di
nuove
conoscenze,
di
mettersi
in
discussione
a
seguito
di
avvenimenti imprevisti
o
di
affermazioni
contrastanti
formulate
da
altri,
fino
ad
arrivare, attraverso
l’ascolto
attento
dell’eterno
canto
delle
differenze,
ad
affrancarsi da
certi
schemi
nei
quali
era
erroneamente
imprigionata. Facoltà,
queste,
che
non
riguardano,
né
mai
riguarderanno,
sistemi
che dipendono
soltanto
da
dimensioni
funzionalistiche
e
che
sono
strutturati unicamente
per
rispondere
a
scopi
prefissati;
niente
a
che
vedere
con
ciò
che costituisce
noi
esseri
umani,
sempre
proiettati
verso
una
gran
quantità
di aspirazioni
diverse.
C’è
un’irriducibilità
della
vita,
così
come
c’è un’irriducibilità
dell’intelligenza
umana,
entrambe
refrattarie
a
qualsiasi definizione
circoscritta
e
a
qualsiasi
categorizzazione
rigida.
Come
del
resto c’è
un’irriducibilità
dei
nostri
sentimenti
che
resiste
a
qualsiasi
iniziativa
di schematizzazione
integrale.
L’intelligenza
artificiale
non
è
in
alcun
modo
una replica
della
nostra
intelligenza,
nemmeno
parziale;
è
l’abuso
del
linguaggio che
ci
fa
credere
che
essa
potrebbe
essere
in
grado
di
sostituirsi
con naturalezza
alla
nostra
intelligenza
al
fine
di
garantire
una
migliore
gestione delle
cose
che
ci
riguardano.
In
realtà
si
tratta
più
esattamente
di
un metodologia
della
razionalità,
fondata
su
schemi
restrittivi
e
volta
a soddisfare
qualsiasi
tipo
di
interesse.
PER
UN
CONFLITTO
DI
RAZIONALITÀ
Ecco
perché
è
necessario
non
cedere
a
queste
logiche
il
monopolio
della razionalità;
ecco
perché
è
necessario
opporre
a
una
metodologia
normativa della
razionalità,
che
promette
la
presunta
perfezione
in
tutte
le
cose,
delle metodologie
della
razionalità
fondate
sull’accettazione
della
pluralità
degli esseri
umani
e
dell’incertezza
intrinseca
della
vita.
Ci
ritroveremo
a
vivere
un conflitto
di
razionalità
in
quanto
ognuna
di
esse
richiama
valori
e
determina modi
di
vita
opposti
in
tutto
e
per
tutto.
Questa
deve
essere
una
delle principali
lotte
politiche
del
nostro
tempo.
Ma
com’è
possibile
che
in
un momento
tanto
decisivo
per
la
storia
dell’umanità,
una
simile
svolta
di portata
civilizzazionale
non
susciti
una
mobilitazione
proporzionata
alla posta
in
gioco?
Come
siamo
giunti
a
questa
forma
di
ebbrezza
e
di abnegazione
collettive
che
lasciano
agire
indisturbato
chi
si
ostina
a
voler instaurare
una
sorta
di
guida
automatica
delle
vicende
umane?
Perché
“il pericolo,
per
la
specie,
non
è
quello
di
andare
dove
va,
ma
di
andarci
a
occhi chiusi,
con
le
gambe
impazzite
e
il
cervello
ubriaco”.15 Contro
questa
formulazione
robotizzata
della
verità,
dobbiamo appropriarci
della
nostra
capacità
di
far
valere
un
altro
spirito
della
verità, dando
prova,
per
dirla
con
Michel
Foucault,
del
nostro
“coraggio
della verità”.16
È
necessario
rivendicare
che,
a
differenza
dell’esattezza,
la
verità non
si
presenta
sotto
nessun
referente
stabile
ed
esige
un
esercizio
di apprendimento
che
non
prevede
fine;
questo
è
ciò
su
cui,
insieme,
nella diversità
delle
soggettività,
dobbiamo
metterci
provvisoriamente
d’accordo, al
fine
di
sforzarci
di
agire,
individualmente
e
collettivamente,
nel
modo
più giusto,
lontani
da
qualsiasi
imposizione
unilaterale
che
metta
il
bavaglio
al nostro
diritto
di
parola.
Una
teoria
critica
dell’intelligenza
artificiale
–
ora più
che
mai
assente
–
richiede
che
vi
sia
una
filosofia
non
solo
della
tecnica ma
che
contempli
anche
tutto
quel
composto
eterogeno
che
è
andato consolidandosi
dall’inizio
degli
anni
Duemila.
Un
insieme
che
vede l’implacabile
alleanza
di
potenze
industriali
ed
economiche,
responsabili politici,
un’ampia
fetta
del
mondo
universitario
e
scientifico
e
gruppi
di influenza
di
varia
natura
che,
con
il
pretesto
di
inserirsi
nella
“direzione
della storia”
e
di
rappresentare
le
forze
“progressiste”,
lavora
al
rapido sradicamento
dei
nostri
principi
fondatori
e
alla
diffusione
di
un antiumanesimo
radicale.
Ecco
perché
il
titolo
di
questo
libro
strizza
l’occhio a
La
Technique
ou
l’Enjeu
du
siècle
di
Jacques
Ellul,17
che
già
nel
1954,
in tempi
non
sospetti,
lontano
dallo
sproloquio
metafisico-marxista
dell’epoca, era
stato
in
grado
di
comprendere
appieno
l’insieme
tecnico-industriale
del dopoguerra,
che
senza
sosta
si
adoperava
a
intensificare
le
logiche
produttivistiche,
a
creare
modalità
di
organizzazione
sempre
più
ottimizzate, a
investire
budget
spropositati
in
campo
militare
e
nucleare,
contribuendo
a imporre
scelte
strutturanti
alla
società
senza
accertarsi
del
consenso
dei
suoi membri. Il
merito
di
Ellul
consiste,
in
particolare,
nell’aver
individuato
un
certo
tipo di
sviluppo
tecnico,
allora
predominante,
che
non
si
limitava
alla
produzione delle
merci
e
a
favorire
la
rapida
fioritura
della
“società
dei
consumi”,
ma contribuiva,
per
sua
natura,
a
instaurare
modi
di
vita
sempre
più
sottomessi a
schemi
razionali
che
incoraggiavano
lo
sviluppo
di
strutture
di
potere asimmetriche.
Non
è
un
caso
che
quest’opera
lucida
e
ragionata,
che
si poneva
deliberatamente
controcorrente,
non
abbia
avuto,
alle
soglie
dei frenetici
“gloriosi
anni
Trenta”,
l’eco
che
meritava,
ritrovandosi
anzi
a
essere addirittura
denigrata
in
certi
ambienti
che
erano
stati
chiamati
in
causa, perché,
come
notava
Günther
Anders
in
quello
stesso
periodo:
“Non
c’è
nulla di
più
scabroso
oggi,
nulla
che
renda
una
persona
tanto
prontamente inaccettabile
quanto
il
sospetto
che
sollevi
delle
critiche
nei
confronti
delle macchine.
[…]
Non
sorprende
dunque
che
[…]
la
critica
della
tecnica
sia diventata
ormai
una
questione
di
coraggio
civile”.18
Oggi,
testi
alla
mano, possiamo
constatare
che
molte
delle
sue
analisi
sono
confermate;
inoltre
le sue
opere
trovano
finalmente
un
grande
seguito
di
lettori
e
sono
riconosciute nel
loro
giusto
valore. Ma
la
differenza
tra
l’epoca
di
Jacques
Ellul
e
la
nostra
è
che
ai
suoi
tempi
la tecnica,
pur
tenendo
gli
esseri
umani
sotto
scacco
con
il
suo
potere
seduttivo o
coercitivo,
continuava
comunque
a
essere
una
forza
esterna,
che
alla
fine aveva
effetto
solo
in
certi
momenti
del
quotidiano.
Da
allora,
però,
sono
state varcate
tre
soglie,
di
cui
Ellul
in
un
certo
senso
aveva
percepito
i
primi fremiti.
In
primo
luogo,
la
portata
totalizzante
delle
tecnologie
digitali, votate,
alla
lunga,
a
interferire
in
tutti
gli
ambiti
della
vita.
In
secondo
luogo, il
loro
potere
di
modificare
i
comportamenti,
essendo
per
la
maggior
parte destinate
a
orientare
le
azioni
umane.
E,
infine,
la
scomparsa
della
tecnica
in quanto
campo
relativamente
autonomo.
Esiste
oggi
infatti
solo
un
mondo tecno-scientifico
asservito
alle
istanze
economiche
che
dettano
le
traiettorie da
seguire.
Resta
solo
il
tecnoeconomico.
Storicamente
scienziati
e ingegneri
hanno
sempre
beneficiato
di
forme
più
o
meno
ampie
di indipendenza.
Dall’inizio
del
XX
secolo,
però,
il
settore
industriale
li
ha
a poco
a
poco
integrati
al
suo
interno,
sottoponendo
le
loro
ricerche
agli obiettivi
definiti
dalle
divisioni
marketing
o
dalle
agenzie
di
coolhunting. Sono
lontani
i
tempi
in
cui
Alexandre
Grothendieck,
matematico,
vincitore
della
medaglia
Fields,
scopriva
con
indignazione
che
l’Institut
des
Hautes Études
Scientifiques
(IHES),
presso
il
quale
lavorava
e
alla
cui
fama internazionale
contribuiva
con
le
sue
ricerche,
beneficiava
di
fondi provenienti
dalla
Nato
tramite
il
ministero
francese
della
Difesa
nazionale. Grothendieck
si
adoperò
per
far
annullare
questa
fonte
di
finanziamento,
ma la
sua
iniziativa
si
scontrò
con
il
netto
rifiuto
dei
suoi
superiori
e
decise dunque
di
dare
le
dimissioni
da
tutti
gli
incarichi
da
lui
ricoperti
all’interno dell’istituzione.
In
seguito,
nel
1970,
fondò,
insieme
ad
altri,
il
gruppo Survivre
et
vivre
da
cui
nacque
una
rivista19
che
ha
sempre
dimostrato un’ammirevole
sensibilità
per
la
questione
delle
responsabilità
di
scienziati
e ingegneri
e
a
cui
questa
categoria,
che
per
la
stragrande
maggioranza
ha venduto
l’anima
al
diavolo,
farebbe
bene
a
ispirarsi.20 Yann
LeCun,
per
esempio,
specialista
del
deep
learning,
ingaggiato
da Facebook
per
dirigere
l’unità
francese
di
ricerca,
non
perde
mai
occasione
di vantare
gli
inestimabili
benefici
dell’intelligenza
artificiale.
È
chiaro
che questo
individuo
non
può
dare
prova
della
benché
minima
distanza
critica:
il suo
discorso
è,
tanto
consapevolmente
quanto
inconsapevolmente, imbavagliato,
prigioniero
degli
interessi
che
incombono
su
di
lui
e
dirigono
il suo
operato.
Perché
il
mondo
della
ricerca,
un
tempo
abitato
da
attori
mossi da
curiosità,
interessi,
tropismi
di
ogni
tipo
e
aperto
al
libero
apporto
di ognuno
–
condizioni,
queste,
necessarie
alla
sua
vitalità
–
oggi
è
diventato una
distesa
di
rovine
dell’inventiva,
popolato
com’è
di
individui diligentemente
piegati
a
capitolati
d’appalto
stabiliti
in
anticipo.
È
per questo
motivo
che
il
concetto
di
pharmakon,
secondo
cui
la
tecnica
sarebbe al
contempo
rimedio
e
veleno,
è
errato
e
sterile.
Forse
era
così
quando
gli artefatti
nascevano
da
intenzioni
molteplici
e
contenevano
forme
di ambivalenza;
ma
ormai
quasi
tutte
le
produzioni
rispondono
a
funzionalità precisamente
circoscritte
e
a
rigidi
intenti
utilitaristici
che
non
offrono alternativa
alcuna
nel
loro
utilizzo. L’influenza
crescente
esercitata
sulla
società
dal
complesso
tecno-economico contemporaneo
ci
obbliga,
mi
obbliga,
a
riprendere
da
zero
il
lavoro
analitico e
critico
intrapreso
da
Jacques
Ellul.
Una
simile
impresa,
che
rientra
nel campo
della
filosofia
politica,
esige
di
identificare
le
discendenze genealogiche,
gli
interessi
in
gioco,
gli
effetti
prodotti
sulle
nostre
vite,
il substrato
ideologico
che
intende
consolidare
una
visione
igienista
delle
cose e
la
dimensione
psicologica,
per
non
dire
quasi
nevrotica,
che
si
manifestano nell’aspirazione
a
costruire
un’“intelligenza
artificiale”.
Tuttavia,
visto
il rapido
consolidarsi
delle
traiettorie
in
corso,
la
sola
elaborazione
di
corpus critici
si
rileverebbe
alquanto
inefficace
se
parallelamente
non
ci
dessimo
anche
da
fare
per
tessere
legami
fruttuosi
e
possibilmente
reciproci
tra theoria
e
praxis. Mentre
i
predicatori
dell’automazione
del
mondo
non
la
smettono
di attivarsi
e
raccogliere
consensi,
noi
ci
siamo
lasciati
andare
all’apatia
e abbiamo
rinunciato
alla
possibilità
di
ricorrere
alla
nostra
capacità
di
agire. Un
movimento
avverso,
che
affermi
altri
principi,
non
può
più
limitarsi
alle sole
critiche
–
per
quanto
fondate
e
ragionate
–,
ma
esige
una manifestazione
concreta
delle
nostre
differenze
e
delle
nostre
opposizioni. Viste
le
potenze
egemoniche
in
azione,
è
necessario
sviluppare
strategie
che diano
prova
prima
di
tutto
della
reale
situazione
e
facciano
emergere controperizie
che
smentiscano
la
marea
di
tecno-discorsi
inventati
di
sana pianta
e
venduti
a
destra
e
a
manca.
Soltanto
i
racconti
delle
esperienze vissute
saranno
capaci
di
esporre
i
fatti
nella
loro
cruda
verità
e
incentivare forme
di
mobilitazione
a
tutti
i
livelli
della
società.
Probabilmente
abbiamo anche
perso
la
capacità,
a
volte
così
salutare,
di
reagire
di
riflesso,
di manifestare
il
nostro
rifiuto,
in
questo
caso
verso
certi
dispositivi,
quando riteniamo
che
questi
violino
la
nostra
integrità
o
la
nostra
dignità.
Perché questo
atteggiamento,
sia
quando
è
frutto
di
una
decisione
individuale,
sia
– e
soprattutto
–
quando
è
espressione
di
una
collettività,
riveste
l’efficacia immediata
tipica
della
manifestazione
sconcertante
di
un
rifiuto
senza appello:
“Se
Pier
Paolo
avesse
qualcosa
da
lasciarci
in
eredità,
quel
qualcosa sarebbe
una
miriade
di
‘no’
acidi,
teneri
o
messianici,
il
gusto
amaro
della lotta
contro
tutto
ciò
che
ci
fa
accontentare
di
essere
quello
cui
cerca
di ridurci
il
‘nuovo
Potere’”.21 Ma
oltre
a
manifestare
il
nostro
disappunto,
dovremmo
anche
sforzarci
di
far emergere
degli
immaginari
completamente
diversi,
dei
contro-immaginari, che
si
accontentino
della
tragica
e
felice
contingenza
del
divenire,
in opposizione
a
quel
costante
desiderio
di
esercitare
un
controllo
totale
sul corso
delle
cose.
Da
essi
dipende
la
possibilità
di
costruire
modi
di
vita
che
si rassegnino,
senza
rancore,
all’imperfezione
fondamentale
dell’esistenza,
che celebrino
la
diversità
degli
individui,
l’autonomia
della
volontà,
la
nostra capacità
di
apprendimento
multisensoriale
della
realtà,
e
che
cerchino
di edificare
modalità
di
stare
insieme
senza
ledere
nessuno.
È
questa
la
messa in
pratica
dell’agire
umano
a
cui
faceva
appello
Hannah
Arendt,
l’unica
in grado
di
renderci
pienamente
artefici
dei
nostri
destini,
fondata
sul
rispetto di
principi
giudicati
intangibili. In
particolare,
la
difesa
della
nostra
facoltà
di
giudizio,
considerata
da Arendt
come
la
principale
questione
politica,
nella
misura
in
cui
essa determina
la
possibilità
di
azioni
individuali
e
collettive
libere
da
qualsiasi
forma
di
normatività
infondata
e
da
giochi
di
potere
illegittimi:
“La
facoltà del
giudizio,
che
potremmo
anche
definire,
con
qualche
ragione,
la
più politica
delle
capacità
umane.
[…]
Il
giudizio
realizza
il
pensiero,
lo
rende manifesto
nel
mondo
delle
apparenze
[…].
La
manifestazione
del
vento
del pensiero
non
è
la
conoscenza,
è
la
capacità
di
distinguere
il
giusto dall’ingiusto,
il
bello
dal
brutto.
E
ciò,
davvero,
può
evitare
la
catastrofe, almeno
per
me
stesso,
nei
rari
momenti
in
cui
le
cose
vanno
a
rotoli”.22
E
in questo
momento
in
cui
le
cose
vanno
a
rotoli
è
decisivo
dire
quello
che
è giusto
e
quello
che
è
ingiusto,
quello
che
è
bello
e
quello
che
è
brutto
e, potremmo
aggiungere,
quello
che
è
degno
e
quello
che
è
indegno,
quello
che libera
le
potenzialità
umane
e
quello
che
invece
le
irreggimenta
in
confini limitati
e
sclerotizzanti.
Questo
libro
tenta
di
chiarire
i
termini
di
alternative di
portata
civilizzazionale
da
ogni
punto
di
vista
inconciliabili,
e
intende offrirsi
come
uno
strumento
utile,
nella
piacevole
sensazione
della
carta stampata
e
al
riparo
dal
baccano
del
mondo,
per
meglio
autodeterminare
sé stessi,
in
tutta
coscienza
e
responsabilità.
1.
Sarah
Zhang,
“La
Chine,
laboratoire
du
monde”,
The
Atlantic,
16
febbraio
2017,
in
Courrier international,
nn.
1395-96-97,
27
luglio
–
16
agosto
2017. 2.
Pieter
Van
Nuffel,
“Les
Émirats
arabes
unis
créent
un
ministère
de
l’Intelligence
artificielle”,
Le
Vif, 20
ottobre
2017. 3.
Cfr.
il
rapporto
“France
IA”
richiesto
dal
governo
Valls
nel
2016
e
sotto
la
direzione
di
Christophe Sirugue. 4.
“Intorno
al
2020,
all’interno
del
campus
di
Parigi-Saclay,
dovrebbe
essere
inaugurato
un
complesso apposito
di
60.000
m2
per
il
quale
è
stato
predisposto
un
budget
di
100
milioni
di
euro.
Secondo
la sua
presidente,
Valérie
Pécresse,
‘l’unico
criterio
che
deve
contare
è
la
creazione
di
posti
di
lavoro’”. Vincent
Fagot,
“Au
CES
de
Las
Vegas,
Valérie
Pécresse
courtise
les
start-up
étrangères”,
Le
Monde,
11 gennaio
2018. 5.
Cfr.
le
coraggiose
dichiarazioni
della
ricercatrice
in
informatica
Huyen
Nguyen:
“Devo
confessare una
cosa.
Mi
sento
un
po’
una
impostora.
Ogni
giorno
ricevo
email
da
amici,
da
amici
di
amici,
da aziende
X,
che
chiedono
il
mio
parere
sull’intelligenza
artificiale.
[…]
Mi
domandano:
‘Avrebbe qualche
consiglio
da
darci
sui
nostri
prodotti
di
IA?’…
Parlano
dell’intelligenza
artificiale
come
fosse
la fonte
della
giovinezza
nella
quale
tutti
vorrebbero
immergersi
perché
se
non
lo
faranno
diventeranno vecchi
e
finiranno
i
loro
giorni
soli
e
abbandonati.
Pensano
che
io
sappia
come
raggiungere
questa fonte.
[…]
Forse
un
giorno
le
persone
si
renderanno
conto
che
molti
esperti
di
IA
in
realtà
non
sono altro
che
impostori.
Forse
un
giorno
gli
studenti
capiranno
che
farebbero
meglio
a
imparare
le
cose che
contano
veramente”.
Huyen
Nguyen,
“Confessions
d’une
soi-disant
experte
en
IA”,
Le
Monde,
30 agosto
2017. 6.
Cfr.
Nicolas
Lellouche,
“Elon
Musk
et
Mark
Zuckerberg
s’opposent
sur
l’intelligence
artificielle”,
Le Figaro,
26
luglio
2017. 7.
Cfr.
Isaiah
Berlin,
Quattro
saggi
sulla
libertà,
trad.
it.
di
Marco
Santambrogio,
Feltrinelli,
Milano 1989
e
In
libertà.
Conversazioni
con
Ramin
Jahanbegloo,
trad.
it.
di
Emanuele
Antonelli,
Armando, Roma
2012. 8.
Pierre
Manent,
Storia
intellettuale
del
liberalismo,
trad.
it.
di
Lorenza
Caracciolo
di
San
Vito, Rubbettino
Editore,
Soveria
Mannelli
2010,
p.
96. 9.
“Agir
pour
que
l’intelligence
artificielle
soit
utile
à
tous”,
intervista
a
Cédric
Villani,
di
Christophe Alix,
Erwan
Cario
e
Fabrice
Drouzy,
Libération,
20
ottobre
2017. 10.
“Il
faut
plus
de
recherche
dans
l’intelligence
artificielle”,
intervista
a
Cédric
Villani,
di
Vincent Fagot
e
Morgane
Tual,
Le
Monde,
28
marzo
2018. 11.
Cfr.
“Intelligence
artificielle:
Google
DeepMind
se
dote
d’une
unité
de
recherche
sur
l’éthique”,
Le Monde,
4
ottobre
2017.
Dal
canto
suo,
l’università
di
Stanford,
pilastro
della
Silicon
Valley,
ha
eretto
la “questione
etica”
ad
asse
centrale
di
un
rapporto
intitolato
Artificial
Intelligence
and
Life
in
2030. 12.
Cfr.
Ray
Kurzweil,
La
singolarità
è
vicina,
trad.
it.
di
Virginio
B.
Sala,
Apogeo,
Milano
2010. 13.
Antonio
Damasio,
Lo
strano
ordine
delle
cose,
trad.
it.
di
Silvio
Ferraresi,
Adelphi,
Milano
2018,
p. 274. 14.
Programma
sviluppato
dall’azienda
DeepMind,
acquisita
da
Google
nel
2014. 15.
Georges
Duhamel,
L’Humaniste
et
l’Automate,
Hartmann,
Parigi
1933,
p.
27. 16.
Cfr.
Michel
Foucault,
Discorso
e
Verità,
edizione
italiana
a
cura
di
Adelina
Galeotti,
Donzelli,
Roma 2005
(I
ed.
1996). 17.
Jacques
Ellul,
La
Technique
ou
l’Enjeu
du
siècle,
Armand
Colin,
Parigi
1954. 18.
Günther
Anders,
L’uomo
è
antiquato.
Considerazioni
sull’anima
nell’era
della
seconda
rivoluzione industriale,
trad.
it.
di
Laura
Dallapiccola,
il
Saggiatore,
Milano
1963,
pp.
12-13. 19.
Per
un
quadro
critico
ampio
accompagnato
da
un’antologia
cfr.
la
straordinaria
opera
curata
da Céline
Pessis,
Survivre
et
Vivre.
Critique
de
la
science,
naissance
de
l’écologie,
L’échappée,
Parigi 2014. 20.
Per
un
sano
e
raro
controesempio
cfr.
il
Manifeste
pour
une
formation
citoyenne
des ingénieur.e.s,
redatto
dal
collettivo
Ingénieurs
sans
frontières,
consultabile
al
seguente
link: https://www.isffrance.org/Manifeste_pour_une_formation_citoyenne_des_ingenieur%C2%B7e%C2%B7s. 21.
Philippe
Gavi
e
Robert
Maggiori,
prefazione
a
Pier
Paolo
Pasolini,
Écrits
corsaires
(Scritti
corsari), Flammarion,
“Champs”,
Parigi
2009,
p.
16.
22.
Hannah
Arendt,
Responsabilità
e
giudizio,
trad.
it.
di
Davide
Tarizzo,
Einaudi,
Torino
2010
(I
ed. 2004),
p.
163.
CAPITOLO
1 La
svolta
ingiuntiva
della
tecnica
1.1
UNA
BREVE
STORIA
DELL’INFORMATICA
[DA
UN
AUMENTO
DI
CONTROLLO ALL’ASSISTENTATO
AUTOMATIZZATO
DELL’AZIONE
UMANA] La
storia
è
fatta
di
corsi
e
ricorsi.
Ogni
evento
del
passato
può
diventare oggetto
di
un’abbondante
storiografia
in
funzione
delle
sensibilità individuali,
delle
recenti
scoperte
o
dello
spirito
dell’epoca.
Le
ricerche condotte
sugli
avvenimenti
storici,
da
quelli
più
grandi
a
quelli apparentemente
più
irrilevanti
–
la
caduta
dell’Impero
romano,
la
vita
di
un villaggio
occitano
nel
Medioevo,
la
quotidianità
di
un
contadino
durante
la Prima
guerra
mondiale,
la
lotta
delle
suffragette
nel
Regno
Unito
o
il movimento
controculturale
negli
Stati
Uniti,
per
citare
alcuni
esempi
– generano
una
moltitudine
di
dibattiti
che
non
possono
mai
essere considerati
chiusi.
Nella
maggior
parte
dei
casi,
ben
più
che
illuminarci
sulla mentalità
generale
di
una
società,
tali
ricerche
ci
rivelano
alcune
loro dimensioni
più
o
meno
sconosciute
o
che,
per
una
serie
di
ragioni,
sono
state occultate.
A
volte
intendono
sottolineare
la
loro
risonanza
con
alcuni fenomeni
del
presente.
Quello
di
cui
si
fa
testimone
la
disciplina
storica
è
la natura
irriducibile
dell’esperienza
umana,
che
non
può
essere
imbrigliata
in una
schematizzazione
univoca
e
definitiva
ed
esige
di
essere
indagata
con modalità
e
prospettive
indefinitamente
rinnovate
e
molteplici. Per
quanto
riguarda
l’informatica,
invece,
è
importante
segnalare
che
non esiste
un’abbondante
storiografia.
In
compenso
è
venuto
a
costituirsi
una sorta
di
grande
racconto,
ripetuto
in
modo
sempre
identico,
che
viene
a formare
un
quadro
dall’aspetto
statico,
focalizzato
su
una
successione
di
fatti considerati
determinanti
e
che
rivestono
il
ruolo
di
un
catalogo
quasi ufficiale.
Quello
che
lo
rende
singolare
è
che,
nella
maggior
parte
dei
casi, esso
si
trova
come
isolato,
lontano
dal
contesto
economico,
sociale,
politico in
cui
i
suoi
protagonisti
si
sono
evoluti.
La
ragione
è
presto
spiegata:
questo romanzo
unico
è
indissociabile
dal
principio
della
neutralità
della
tecnica che
prevale
da
così
tanto
tempo.
Perché
questo
assioma,
ideologicamente orientato,
permette
di
fare
astrazione
dagli
interessi
in
gioco
e
dalle
varie intenzioni
formalizzate
nei
dispositivi. Allora,
per
una
sorta
di
riflesso
incondizionato,
vengono
citati
un
po’
sempre gli
stessi
avvenimenti,
raccontati
generalmente
negli
ambienti
scientifici
di
appartenenza,
talvolta
con
un
vago
contesto
culturale
di
sfondo.
Tra
gli esempi
più
lontani
e
più
conosciuti
dell’epoca
moderna,
che
hanno
costituito una
grande
novità
e
comportato
effetti
di
varia
natura,
non
manca
mai
la macchina
calcolatrice
costruita
da
Wilhelm
Schickard
nel
1623
la
quale, grazie
a
righelli
scorrevoli
e
dischi
rotanti,
avrebbe
dovuto
effettuare addizioni
e
sottrazioni.
O
la
pascalina,
elaborata
nel
1642
da
Blaise
Pascal, che
fu
la
prima
macchina
a
poter
essere
effettivamente
utilizzata
e
sarebbe servita
da
riferimento
per
molti
modelli
successivi.
O
quella
di
Gottfried Leibniz,
risalente
al
1694,
dotata
di
un
tamburo
a
denti
scalati
che
rendeva possibile
la
moltiplicazione.
Per
quanto
riguarda,
invece,
l’antenato
diretto del
computer,
gli
esempi
immancabili
sono
la
macchina
differenziale inventata
da
Charles
Babbage
nel
1820
seguita,
nel
1834,
dalla
macchina analitica;
entrambe
dovevano,
in
teoria,
permettere
di
inserire
dati, raccogliere
risultati,
stamparli
e
conservarli.1
Oppure,
per
quanto
concerne gli
inizi
della
programmazione,
ci
si
rifà
sempre
alle
note
sul
principio dell’algoritmo
scritte
da
Ada
Lovelace
nel
1843
a
partire
dai
lavori
del matematico
Luigi
Federico
Menabrea:
quasi
un
secolo
dopo
queste
note costituiranno
la
base
delle
scienze
del
calcolo.
Tra
gli
esempi
continuamente citati
non
manca
mai
nemmeno
la
logica
binaria
teorizzata
da
George
Boole che,
nella
sua
opera
del
1854
Indagine
sulle
leggi
del
pensiero,4
dimostra
la possibilità
di
codificare
la
totalità
delle
operazioni
con
l’aiuto
di
formule
che possono
assumere
solo
due
stati:
lo
zero
e
l’uno,
stabilendo
così
gli
assiomi che
hanno
strutturato
il
pensiero
computazionale
per
tutto
il
XX
secolo
e fino
ai
giorni
nostri.
Ecco
dunque
tutta
una
serie
di
fatti,
certo
decisivi,
come del
resto
molti
altri,
che
potrebbero
essere
declinati
per
pagine
e
pagine
e formerebbero
gli
annali
citati
all’infinito
di
una
certa
storia
dell’informatica. La
dimensione
prettamente
fattuale
di
questo
tipo
di
narrazione
fa
sì
che
i suoi
protagonisti
appaiano
sempre
e
soltanto
come
dei
“topi
da
laboratorio” intenti
unicamente
a
occuparsi
delle
loro
attività
e
a
dare
sfogo
alle
loro passioni.
Questa
modalità
di
rappresentazione
ha
caratterizzato
l’odissea dell’informatica
moderna,
come
nel
caso
dell’emblematica
biografia
di
Steve Jobs,
uomo
dall’aura
mitica,
che
dal
suo
“garage”
e
guidato
unicamente
dal proprio
genio
creativo
avrebbe
messo
a
punto
l’unico
personal
computer
in grado
di
far
entrare
gli
utenti
nell’era
di
un’emancipazione
globale
allora
già avvenuta.
Tutto
il
resto
–
gli
interessi
economici
che
hanno
determinato
la traiettoria
delle
ricerche
nel
settore,
la
natura
del
complesso
tecnoscientifico
californiano
e
statunitense
dell’epoca,
le
lotte
industriali
che hanno
cominciato
a
contrapporre
tra
loro
i
vari
produttori
di
PC
–
non
viene minimamente
menzionato,
e
questo
per
privilegiare
l’immagine
di
un
essere
quasi
autistico,
mosso
unicamente
dall’incontenibile
desiderio
di
dare
corpo alle
sue
visioni
destinate
a
“cambiare
il
mondo”.
Questo
status,
letteralmente straordinario,
viene
attribuito
anche
a
Bill
Gates
e,
guardando
a
figure
più recenti,
a
Mark
Zuckerberg
o
Elon
Musk.
L’aura
eroica
che
circonda
i principali
attori
scientifici
e,
da
qualche
decennio,
alcuni
imprenditori dell’industria
del
digitale,
conferisce
alle
loro
produzioni
un’“innocenza virginale”:
esse
vengono
viste,
infatti,
come
il
risultato
del
fervore
creativo
di questi
individui
–
i
quali
si
ritrovano
così
a
essere
sollevati
da
qualsiasi forma
di
responsabilità
–
e,
per
via
dell’inventiva
e
delle
novità
folgoranti che
apportano,
vengono
percepite
come
assolutamente
benefiche
per
tutti. Questa
modalità
di
percezione
è
indissociabile
dall’ideologia
del
progresso
in voga
per
tutto
il
XIX
e
XX
secolo
e
dalla
retorica
del
“miglioramento
del mondo”
grazie
alle
virtù
inesauribili
dell’“innovazione”
che
sin
dalla
metà degli
anni
Ottanta
costituisce
uno
dei
mantra
della
Silicon
Valley. Spetterebbe
a
una
storiografia
non
sottomessa
a
un’ideologia
positivista
né
a principi
restrittivi
smentire
questa
doxa,
una
storiografia
attenta
a
mettere in
relazione
le
scoperte
e
le
invenzioni
con
le
loro
condizioni
generali
di insorgenza.
Gli
episodi
possono
essere
esaminati
da
molti
punti
di
vista.
Per esempio
privilegiando
un
fattore
determinante,
come
quello
che
ha permesso
a
un
certo
tipo
di
sviluppo
tecnico,
diffusosi
rapidamente,
di favorire,
sin
dalla
rivoluzione
industriale,
la
razionalizzazione
crescente
della società.
O
quello,
conseguente,
e
altrettanto
capitale,
dei
fattori
economici che
hanno
orientato
le
ricerche
e
dettato
i
loro
campi
di
applicazione.
O quello
del
progressivo
assoggettamento
di
scienziati
e
ingegneri
alle
mire dell’industria.
O,
ancora,
quello
dei
nuovi
lessici
che
vengono
continuamente inventati
e
arrivano
a
costituire
delle
neolingue,
accompagnano
le
evoluzioni e
fissano
le
rappresentazioni
collettive.
Queste
scelte
strategiche
non
si escludono
reciprocamente
e
non
rappresentano
un
insieme
esaustivo; l’indagine
genealogica
può
seguire
una
moltitudine
di
sentieri
allo
scopo
di mostrare
la
natura
composita,
e
la
derivazione
da
molteplici
giochi
di
forza, che
caratterizza
qualsiasi
fatto
storico. Visto
e
considerato
il
potere
di
cui
godono
oggi
le
tecnologie
digitali,
è
più che
mai
necessario
comprendere
in
cosa
le
loro
proprietà
e
le
loro
funzioni rappresentino
una
rottura
con
quelle
che
le
hanno
precedute,
sin
dal momento
della
loro
comparsa
e
fino
ai
giorni
nostri,
e
individuare
i
fattori che
vi
concorrono.
Per
più
di
un
secolo,
la
vocazione
dell’informatica
è
stata quella
di
facilitare
la
salvaguardia
e
il
trattamento
delle
informazioni,
e
di fornire
una
visibilità
dettagliata
di
vari
fenomeni,
portando
a
un
aumento
di
controllo
da
parte
di
enti
o
persone
nell’esercizio
di
un’attività
professionale o
privata.
Da
poco
la
situazione
si
è
ribaltata
e
l’informatica
è
diventata,
in modo
tanto
impercettibile
quanto
massiccio,
un’istanza
destinata,
più
che
a dare
informazioni,
a
orientare
l’azione
umana. È
possibile
individuare
con
precisione
il
momento
che
ha
inaugurato
il desiderio
di
gestire
al
meglio
certe
situazioni
tramite
processi
automatizzati. Trattasi
della
gara
di
appalto
lanciata
nel
1888
dall’Ufficio
del
censimento degli
Stati
Uniti
che,
vista
la
rapida
crescita
demografica
dovuta
alla massiccia
immigrazione,
ambiva
a
perfezionare
i
metodi
impiegati
fino
a quel
momento.
L’ingegnere
Herman
Hollerith
aveva
concepito
per l’occasione
una
macchina
statistica
a
schede
perforate
che
codificava
le caratteristiche
degli
individui:
età,
sesso,
professione,
situazione
familiare… La
macchina
consentiva
la
registrazione
immediata
dei
dati
e
ne
facilitava l’indicizzazione.
Inoltre
le
operazioni
venivano
effettuate
in
tempi estremamente
rapidi
e
necessitavano
di
un
numero
limitato
di
persone.
Il progetto
andò
in
porto.
Forte
del
suo
brevetto,
Hollerith
fondò
nel
1896
la Tabulating
Machine
Company
di
cui
diventò
l’ingegnere
capo.
In
seguito l’azienda
avrebbe
preso
il
nome
di
International
Business
Machines
(IBM) che
avrebbe
elaborato
apparecchi
destinati
alla
raccolta
di
dati:
“L’effettiva giustificazione
per
la
raccolta
di
grandi
quantità
di
dati
sta
nella
capacità
di trarre
conclusioni
[…]
e
garantire
una
stima
sicura
degli
avvenimenti presenti
e
futuri”.3
Questi
principi
determinarono
la
traiettoria dell’informatica
nel
corso
dei
decenni
successivi. Tuttavia,
durante
la
Seconda
guerra
mondiale,
tutt’altro
tipo
di responsabilità
è
stato
attribuito
ad
alcuni
strumenti
di
calcolo.
Non intrattengono
legami
diretti
con
il
meccanismo
elaborato
da
Alan
Turing
– che
per
mezzo
della
macchina
Enigma
permetteva
di
decifrare
i
messaggi scambiati
dalle
truppe
naziste
contribuendo,
in
parte,
alla
vittoria
degli Alleati
–,
ma
sono
il
risultato
di
un
apparato
di
nuovo
genere,
realizzato
in quello
stesso
periodo,
meno
conosciuto
ma
testimone
di
un’evoluzione decisiva.
In
seguito
alla
richiesta
del
segretario
alla
Difesa
degli
Stati
Uniti, l’ingegnere
informatico
John
Eckert
e
il
fisico
John
William
Mauchly concepirono
un
sistema,
messo
in
campo
a
partire
dal
1945,
che
effettuava calcoli
balistici
su
base
probabilistica.
Il
sistema
raccoglieva
informazioni
di varia
natura,
in
particolare
quelle
fornite
dai
radar
che
seguivano
la traiettoria
e
la
velocità
degli
aerei
nemici,
e
verificava
le
condizioni meteorologiche.
La
sua
funzione
era
quella
di
indicare,
in
tempo
reale,
il momento
più
opportuno
per
attivare
il
lancio
di
un
missile,
venendo
così
a
sostituirsi
improvvisamente
alle
centinaia
di
persone
che
fino
a
quel momento
avevano
lavorato
sulle
tavole
di
tiro.
Questo
complesso
dispositivo, contrariamente
a
quello
di
Turing
che
raccoglieva
informazioni
per
poi
agire di
conseguenza,
era
guidato
da
un
procedimento
capace
di
indicare,
in
modo affidabile,
l’istante
propizio
nel
quale
avviare
una
data
manovra.
È
lo
stesso principio
che
una
decina
di
anni
dopo
avrebbe
guidato
le
ricerche
di
Claude Shannon,
uno
dei
teorici
della
cibernetica,
che
intendeva
mettere
a
punto una
“macchina
destinata
a
valutare
le
situazioni
militari
e
a
determinare
la mossa
migliore
da
fare
in
ogni
particolare
momento”.4
Da
lì
in
poi,
la missione
dell’informatica
non
sarebbe
stata
più
solo
quella
di
esporre
la cartografia
di
certi
Stati
al
fine
di
decidere
le
migliori
azioni
da intraprendere,
ma
anche
quella
di
comunicare
la
natura
e
l’opportunità
dei gesti
da
compiere. Ciononostante,
al
termine
della
guerra,
l’assistentato
automatizzato,
basato sulla
capacità
predittiva
dei
sistemi
e
considerato
utile
nell’ambito
di
un conflitto
mondiale
dall’esito
incerto,
non
sembrava
più
rispondere
ai
bisogni dell’epoca.
Davanti
a
società
e
paesaggi
in
rovina,
la
priorità
era
quella
di ricostruire
nel
minor
tempo
possibile
le
nazioni
su
basi
solide.
Nel
corso
dei vent’anni
successivi,
e
nonostante
le
velleità
della
cibernetica
di
voler
erigere il
feedback
(retroazione)
a
principio
tecnologico
e
organizzativo
cardine,
la tendenza
che
prevalse
fu
quella
più
modesta
e
pragmatica
di
gestire
con efficacia
certi
settori
di
attività
tramite
processi
ad
hoc.
Questa
propensione riprendeva
la
vocazione
iniziale
dell’informatica,
considerata
uno
strumento di
controllo
nell’amministrazione
delle
cose.
È
seguendo
questo
scopo
che
le macchine
calcolatrici
furono
progressivamente
utilizzate,
all’interno
di
enti pubblici,
come
quelli
previdenziali
o
l’agenzia
delle
entrate,
o
nelle
grandi aziende.
Il
movimento
di
informatizzazione
crescente
che
seguì,
favorì
la gestione
ottimizzata
delle
informazioni
relative
a
certe
abitudini
della popolazione,
alla
produzione
industriale,
alle
transazioni,
al
personale,
al controllo
delle
relazioni
con
gli
operatori
e
con
i
clienti,
e
contribuì
alla progressiva
introduzione
di
nuove
tecniche
di
management. Tutti
fattori
che
hanno
portato
ai
fenomeni
congiunti
della razionalizzazione
progressiva
della
società
e
dello
sviluppo
dell’economia capitalista.
Questi
processi
si
caratterizzavano
per
il
fatto
di
basarsi
su
un accesso
ai
dati
immediato,
ma
fondato
su
una
forma
di
distanza
che
separava i
numeri,
i
diagrammi
e
le
descrizioni
dalle
persone,
permettendo
loro
in teoria,
previa
consultazione,
di
agire
a
loro
piacimento
e
con
tempi
diversi. L’introduzione
dei
primi
personal
computer
si
inserisce
in
quest’ottica:
essi offrivano
agli
individui
la
possibilità
di
usare
fogli
elettronici,
redigere
testi
e
impaginarli
grazie
ai
primi
programmi
per
la
composizione
di
testi,
o
giocare a
videogiochi
rudimentali.
Più
tardi,
la
conversione
del
suono
in
codici binari,
avvenuta
nel
corso
degli
anni
Ottanta,
e,
nel
decennio
successivo, quella
dell’immagine
fissa
e
animata,
estesero
all’insieme
dei
campi simbolici
la
gestione
facilitata
dell’informazione
per
mezzo
di
software specifici.
Quello
che
emergeva
era
la
capacità
degli
utenti
di
intrattenere
un rapporto
personale
e
ludico
con
le
loro
macchine,
benché
all’interno
di contesti
tecnici
circoscritti.
Anche
in
questo
caso
le
persone
disponevano della
libertà
di
agire
come
preferivano
di
fronte
al
loro
schermo,
ed
era proprio
questo
a
esaltarle
e
a
generare
progressivamente
un
entusiasmo diffuso
quasi
su
scala
mondiale. La
metà
degli
anni
Novanta
venne
segnata
da
un
avvenimento
decisivo,
ma molto
più
discreto
di
quanto
non
fu
la
contemporanea
nascita
di
internet,
e che
solo
più
tardi
–
solo
oggi
potremmo
dire
–
si
sarebbe
rivelato
di importanza
capitale,
al
pari
di
quei
“grandi
avvenimenti”
che,
per
dirla
con Nietzsche,
“incedono
con
passi
di
colomba”:
mi
riferisco
alla
diffusione
dei “sistemi
esperti”.
Erano
dispositivi
destinati
a
dedurre,
in
modo
rapido
e teoricamente
affidabile,
alcuni
fatti
a
partire
da
un
insieme
di
informazioni di
base.
I
primi
sistemi
esperti
erano
apparsi
una
trentina
di
anni
prima;
è
il caso
di
Dendral,
comparso
nel
1965
e
concepito
per
identificare
i
componenti chimici
di
un
materiale,
o
di
Mycin,
elaborato
agli
inizi
degli
anni
Settanta per
formulare
diagnosi
di
alcune
malattie
del
sangue
e
suggerire
prescrizioni mediche
considerate
appropriate;
questi
prototipi
non
vennero
mai
usati nella
pratica
per
via
della
loro
incerta
efficacia.5
Si
dovranno
aspettare vent’anni,
e
i
progressi
delle
tecniche
euristiche
e
di
inferenza,
perché
queste procedure
comincino
a
diffondersi.6
Vennero
utilizzate
per
scopi
ben
precisi, come
la
possibilità
di
stabilire
valutazioni
di
architetture
informatiche
o
di certi
aspetti
della
manutenzione
aerea,
prima
di
diventare
strumenti comunemente
impiegati
in
banca,
nel
settore
assicurativo,
in
finanza,
per valutare
il
comportamento
di
un
cliente,
per
determinare
la
sua
solvibilità
in caso
di
richiesta
di
finanziamento,
per
quantificare
il
livello
di
rischio
di
un assicurato,
o
per
anticipare
il
valore
di
certi
titoli. Alcuni
sistemi
informatici
si
vedevano
investiti
di
una
competenza
che, fino
a
quel
momento,
non
rientrava
nell’ambito
né
delle
loro
prerogative
né delle
loro
capacità:
quella,
cioè,
di
valutare
le
proprietà
di
certe
situazioni.
A questa
funzione
se
ne
aggiungeva
poi
un’altra,
ancora
più
sconcertante: rivelare
fenomeni
celati
alla
nostra
coscienza.
Questa
predisposizione
prese
il nome
di
data
mining,
letteralmente
“estrazione
di
dati”,
e
riguardava
la capacità
acquisita
dai
programmi
di
scovare
correlazioni
all’interno
di
database
al
fine
di
individuare
legami
significativi
tra
diversi
fatti.
Uno
degli esempi
più
noti,
risalente
alla
fine
degli
anni
Novanta
e
che
potremmo considerare
inaugurale,
fu
l’iniziativa
di
Walmart,
gigante
americano
della distribuzione,
che
volle
analizzare
con
precisione
le
abitudini
dei
suoi consumatori.
L’integrazione
di
questo
sistema
aveva
permesso
di
rilevare che
le
vendite
di
pannolini
e
quelle
di
birra
aumentavano
di
pari
passo
e
in modo
sostanziale
il
sabato,
dalle
prime
ore
del
mattino
fino
a
metà pomeriggio,
nelle
ore
cioè
che
precedevano
le
partite
di
baseball.
La conclusione
a
cui
si
giunse
fu
che
i
clienti,
principalmente
uomini, effettuavano
acquisti
in
vista
dei
bisogni
del
weekend
e
in
previsione
delle trasmissioni
in
programma.
Resisi
conto
di
questa
correlazione,
i
negozi decisero
di
collocare
i
prodotti
in
questione
su
scaffali
vicini.
Se
è
vero
che non
fu
il
dispositivo
a
cogliere
la
causa
di
tale
concordanza,
è
vero
anche
che esso
permise
di
svelare
comportamenti
fino
a
quel
momento
mai
rilevati.
Da allora
questa
attitudine
interpretativa
non
ha
smesso
di
perfezionarsi
e costituisce
l’asse
principale
delle
ricerche
condotte
nelle
scienze
del
calcolo
e dei
dati.
È
la
stessa
che
oggi
permette
di
calcolare
in
tempo
reale
i
percorsi stradali
meno
trafficati,
di
identificare
le
persone
considerate
più
adatte
a
un dato
“profilo”
nei
vari
siti
di
incontri,
di
individuare
anomalie
all’interno
di un
gruppo,
o
di
diagnosticare
certi
tipi
di
cancro,
per
citare
solo
alcuni esempi.
Questa
funzionalità
testimonia
la
facoltà
cognitiva
di
cui
oggi
le tecnologie
digitali
sono
dotate. Prende
corpo
un
nuovo
modello,
quello
che
vede
i
sistemi
computazionali assumere
una
posizione
di
superiorità
nella
conoscenza
delle
cose.
La volontà
di
detenere
un
controllo
maggiore
grazie
all’informatica
si accompagnava
inevitabilmente
alla
pluralità
di
orientamenti
e
fini
degli
enti o
delle
persone
che
si
confrontavano
con
i
risultati
dei
calcoli.
Potevano servirsene
come
semplici
banche
dati
o
per
avviare
azioni
che
rispondessero ai
loro
interessi
e
su
basi
temporali
variabili.
L’intelligenza
artificiale
elimina questa
duttilità
a
beneficio
di
equazioni
che,
per
il
valore
di
verità
che
è
loro riconosciuto
e
per
la
conseguente
aura,
si
impongono
senza
ambiguità,
in pochissimo
tempo
e
in
modo
sempre
più
automatizzato
sullo
svolgimento delle
vicende
umane.
Quello
che
rende
possibile
l’avvento
di
questa sistematica
è
l’orizzonte
antropomorfico
a
cui
punta
d’ora
in
avanti
il
mondo tecnoscientifico,
che
conduce
all’elaborazione
di
dispositivi
dotati, analogamente
a
noi,
della
capacità
di
valutare
e
prendere
decisioni,
facendo emergere,
attraverso
gli
standard
e
gli
interessi
di
cui
essi
si
fanno
portatori, una
nuova
era
della
razionalità
economica
e
sociale.
Questa
linea
si
inscrive perfettamente
nella
continuità
della
storia
dell’informatica,
ma
supera
una
soglia;
la
sua
ambizione
iniziale
assume,
infatti,
oggi
una
misura virtualmente
integrale,
conformemente
alla
concezione
di
Norbert
Wiener che,
grazie
al
principio
della
modellazione
dei
sistemi
sulla
figura
umana, intendeva
imprimere
il
migliore
corso
possibile
all’ordine
generale
del mondo:
“La
macchina,
così
come
l’organismo
vivente,
può
essere
considerata come
un
dispositivo
che
sembra,
localmente
e
temporaneamente,
resistere alla
tendenza
generale
all’aumento
dell’entropia.
Per
via
della
sua
capacità
di prendere
decisioni,
può
produrre
attorno
a
sé
una
zona
di
organizzazione
in un
mondo
in
cui
la
tendenza
generale
è
quella
di
disorganizzarsi”.7
1.2
IL
DIVENIRE
ANTROPOMORFICO L’uomo
è
da
sempre
animato
da
un’inquietante
passione:
generare
doppi artificiali
di
sé
stesso.
Sin
dall’Antichità,
la
storia
è
disseminata
di
episodi
in cui
gli
esseri
umani
cercano,
sotto
diverse
forme,
di
concepire
creature
con
la loro
stessa
conformazione
e
dotate,
a
seconda
dei
casi,
di
qualità cinestetiche,
sensomotorie,
propriocettive
e,
soprattutto,
cognitive.
Da
dove viene
questa
particolare
fame
di
generare
una
replica
di
noi
stessi?
Nasce forse
dal
desiderio
di
lanciarci
in
un’avventura
estrema,
di
sfidare l’impossibile,
di
provare
una
forza
demiurgica?
Nonostante
esista un’abbondante
letteratura
a
sostegno
di
tali
rappresentazioni,
sarebbe
un errore
fermarsi
qui.
A
ben
guardare,
la
vera
aspirazione
è
creare
qualcosa
di molto
più
potente
di
noi,
a
partire
però
dalla
nostra
costituzione,
considerata un’armatura
biologica
e
intellettiva
perfetta.
Dietro
l’ambizione
di
una riproduzione
antropomorfa,
si
nasconde
sempre
il
desiderio
di
far
sorgere un’entità
dotata
di
poteri
superiori. Nella
Genesi
è
scritto
che
“Dio
ha
creato
l’uomo
a
sua
immagine
e somiglianza”.
La
formula
può
essere
rovesciata
per
affermare,
in
senso areligioso,
che
sono
stati
gli
uomini
a
concepire
la
figura
divina
monoteista “a
loro
immagine
e
somiglianza”
secondo
un
progetto
che
radicalizza all’estremo
il
principio
per
il
quale
quando
si
esprime
la
volontà
di
dare corpo
a
un
essere,
reale
o
immaginario,
tendenzialmente
analogo,
questi
si trova
immancabilmente
gratificato
da
una
potenza
senza
eguali. Probabilmente
questo
è
il
frutto
di
una
doppia
passione,
apparentemente incompatibile,
che
vede,
da
una
parte,
la
percezione
di
noi
stessi
come
situati al
primo
posto
della
gerarchia
delle
sostanze
del
mondo,
conformemente
a una
visione
antropocentrica,
e,
dall’altro
l’odio
nei
confronti
della
nostra condizione,
sottoposta
a
dei
limiti
e
ai
rischi
del
mondo,
eminentemente vulnerabile
e
infine
corruttibile.
Dare
vita
a
una
creatura
similare
risponde
al
desiderio,
più
o
meno
consapevole,
di
sbrogliare
questa
tensione inestricabile,
di
scongiurare
la
tragicità
della
nostra
esistenza.
L’intento
è quello
di
vedere
delle
esistenze,
in
parte
simili
a
noi
ma
dalle
facoltà moltiplicate,
dare
corso
a
varie
azioni
con
un’efficacia
amplificata
e
una costanza
infallibile,
al
fine
di
garantire
una
migliore
gestione
delle
cose
che
ci riguardano.
Qualsiasi
desiderio
di
dare
vita
a
degli
artefatti
che
si
ispirino
ai nostri
tratti
mira,
in
fin
dei
conti,
all’instaurazione
di
un’organizzazione
più affidabile
e
perfetta
delle
cose. È
proprio
in
risposta
a
questo
desiderio,
più
o
meno
riconosciuto,
che
al termine
della
Seconda
guerra
mondiale
alcuni
ricercatori
provenienti
da varie
discipline
si
riunirono.
Alcuni
di
loro,
o
dei
loro
familiari,
erano
fuggiti dall’Europa
nazista
negli
anni
Trenta
ed
erano
andati
a
rifugiarsi
negli
Stati Uniti.
Il
grave
bilancio
di
morti,
così
come
il
trauma
che
il
conflitto
aveva generato
a
livello
mondiale,
unitamente
ai
notevoli
progressi
scientifici
da esso
determinati
soprattutto
nel
campo
dell’informatica,
alimentò
in
loro
la volontà
di
costruire
dispositivi
destinati
non
più
a
seminare
la
morte,
ma
a prevenire
nuovi
tracolli.
Questa
fiducia
è
inscindibile
da
un
momento
storico che
vede
l’emergere
di
una
tecnologia
diventata
così
potente
da
trovarsi investita
di
una
forza
distruttiva
virtualmente
totale
che
i
bombardamenti atomici
di
Hiroshima
e
Nagasaki
rivelarono
al
terrore
del
mondo.
La tecnoscienza,
mossa
da
velleità
demiurgiche,
aveva
creato
le
condizioni
per una
possibile
estinzione
dell’umanità
che
Günther
Anders
aveva
denunciato con
forza
nel
suo
libro
Die
Atomare
Drohung
(La
minaccia
nucleare).8
Ma una
padronanza
dell’alta
tecnologia
ispirata
da
intenzioni
radicalmente diverse
dovrebbe
condurre
all’esatto
contrario
e
contribuire
a
far
emergere un
mondo
pacifico
e
meglio
organizzato. Il
nuovo
male
era
identificato:
l’entropia.
Una
nozione
improntata
alla termodinamica,
che
indica
la
tendenza
di
qualsiasi
sostanza
fisica
ad
andare verso
la
disintegrazione
e
a
provocare
forme
di
caos:
“Il
mondo
intero obbedisce
al
secondo
principio
della
termodinamica:
l’ordine
diminuisce,
il disordine
aumenta”.9
In
realtà,
l’uso
del
termine
trae
origine
da
una metonimia
e
si
riferisce
solo
ai
modi
di
organizzazione
sociale,
cercando
di far
evitare
loro
irregolarità
potenzialmente
nefaste.
Insieme
fondarono
una nuova
disciplina
che,
di
proposito,
fu
chiamata
“cibernetica”
da
Norbert Wiener
nel
1948:
“Fino
a
poco
tempo
fa
non
esisteva
una
parola
che indicasse
questo
complesso
di
idee,
e
per
poter
indicare
l’intero
campo
con un
unico
termine
sono
stato
costretto
a
inventarmene
uno.
Donde
la
parola ‘cibernetica’
che
ho
derivato
dalla
parola
greca
kubernetes,
ossia
‘pilota’,
la stessa
parola
greca
da
cui
deriva
anche
il
termine
‘governatore’”.10
Sin
dalle
sue
origini
questa
corrente,
questo
“complesso
di
idee”,
intendeva
instaurare un
ordine
che
rivestisse
un’efficacia
politica
resa
possibile
grazie all’elaborazione
di
appositi
apparecchi. La
conformazione
antropomorfa
avrebbe
conferito
loro
proprietà
umane, strettamente
cognitive,
e
alla
lunga
sarebbero
stati
dotati
di
attitudini aumentate.
Questo
principio
teorico
nasceva
da
un
articolo
scritto
alcuni anni
prima,
nel
1943,
dal
ricercatore
in
neurologia
Warren
McCulloch
e
dal matematico
e
psicologo
Walter
Pitts;
McCulloch
e
Pitts
affermavano
che
il “cervello
rappresenta
una
bella
macchina”,
e
che
si
poteva
immaginare
di riprodurlo
in
parte
o
integralmente.11
Ne
identificarono
alcune caratteristiche
principali,
come
il
fatto
di
essere
costituito
principalmente
di neuroni
connessi
tra
loro
da
sinapsi
e
la
cui
intensità
di
attività
varia
a seconda
degli
stimoli
ricevuti
secondo
uno
schema
che
costituirebbe
il fondamento
della
teoria
connessionista
nelle
scienze
dell’informazione. Questa
tesi
fu
oggetto
di
convegni
e
dibattiti
che
si
tennero
a
intervalli regolari
tra
il
1946
e
il
1953
a
New
York
nell’ambito
delle
Macy
Conferences che
riunirono
matematici,
logici,
antropologhi,
psicologi
ed
economisti
che
si erano
dati
come
obiettivo
quello
di
fondare
una
“scienza
generale
del funzionamento
della
mente”.
Il
ciclo
di
conferenze
gettò
le
basi
per
la
prima conferenza
di
Dartmouth,
nell’estate
del
1956,
che
rappresentò
il
momento inaugurale
del
movimento
cibernetico
la
cui
ambizione
iniziale
era
analizzare una
per
una
le
funzioni
del
cervello
umano
e
coglierne
lo
schema procedurale
per
poi
riprodurlo
all’interno
di
meccanismi
artificiali: “Teoricamente,
se
potessimo
costruire
una
struttura
meccanica
in
grado
di assolvere
tutte
le
funzioni
della
fisiologia
umana,
otterremmo
una
macchina dalle
capacità
intellettuali
identiche
a
quelle
degli
esseri
umani”.12
Secondo questa
convinzione,
più
questa
macchina
fosse
stata
simile,
nell’architettura, al
suo
modello
naturale,
più
col
tempo
avrebbe
garantito
una
buona organizzazione
generale
della
società. Questa
disposizione
non
poteva
essere
formalizzata
se
gli
enti
evolvevano in
modo
isolato;
al
contrario,
essi
dovevano
essere
concepiti
come
sistemi aperti,
come
“organi
sensibili”
–
al
pari
di
qualsiasi
altra
sostanza
vivente
–, capaci
di
essere
“influenzati”
dal
reale,
di
cogliere
certe
sue
manifestazioni, di
scomporle
con
il
calcolo,
in
modo
che
poi
i
risultati
delle
analisi
potessero essere
utilizzati
per
diversi
fini,
conformemente
al
principio
cardinale dell’input
e
dell’output:
“La
prima
cosa
è
che
queste
macchine
per
svolgere determinati
compiti
devono
essere
dotate
di
organi
effettori
(equivalenti
alle braccia
e
alle
gambe
degli
esseri
umani)
grazie
ai
quali
questi
stessi
compiti possono
essere
svolti.
La
seconda
è
che
devono
essere
in
relazione
con
il
mondo
esterno
attraverso
organi
di
senso
(come
cellule
fotoelettriche
o termometri)
che
non
solo
dicono
loro
quali
sono
le
circostanze
esterne,
ma consentono
anche
di
registrare
l’adempimento
o
il
non
adempimento
dei loro
compiti”.13
“In
altre
parole
l’intero
sistema
corrisponderà
in
tutto
e
per tutto
all’animale,
con
organi
di
senso,
effettori
e
propriocettori,
e
non
come nella
macchina
calcolatrice
ultrarapida
a
un
cervello
isolato
le
cui
esperienze ed
efficacia
dipendono
dal
nostro
intervento.”14 Donde
l’importanza
del
feedback,
ossia
della
retroazione,
nel
progetto cibernetico,
che
intende
ridurre
ogni
fenomeno
a
un’informazione
chiamata a
essere
raccolta
e
interpretata
dalle
macchine
affinché
le
conclusioni permettano,
alle
macchine
stesse,
in
modo
automatizzato,
o
alle
persone,
di mettere
in
atto
le
soluzioni
considerate
migliori.
Questa
aspirazione
al controllo
virtuoso
e,
alla
lunga,
infallibile
del
funzionamento
del
mondo,
ha costituito
il
cuore
dell’obiettivo
cibernetico,
e
questo
in
ragione
del
fatto
che l’alta
tecnologia
del
dopoguerra
doveva
rivestire
una
funzione
regolatrice, essere
dotata
di
poteri
omeostatici:
“Il
processo
attraverso
cui
noi
esseri viventi
resistiamo
al
flusso
generale
di
disfacimento
e
decomposizione
è conosciuto
con
il
nome
di
omeostasi”.15
“L’ossigeno,
l’anidride
carbonica
e
i sali
presenti
nel
nostro
sangue,
così
come
gli
ormoni
rilasciati
dalle
nostre ghiandole
endocrine,
sono
tutti
regolati
da
meccanismi
che
tendono
a opporsi
a
qualsiasi
cambiamento
indesiderato.
Questi
meccanismi, conosciuti
con
il
nome
di
omeostasi,
sono
meccanismi
di
retroazione esattamente
come
quelli
che
possiamo
trovare,
in
modo
certo
amplificato, negli
automi
meccanici.”16 Alla
fine,
lo
stato
ancora
parziale
delle
tecniche
a
disposizione
ridusse
questo programma
ambizioso
a
un
semplice
insieme
di
formulazioni
teoriche.
Dopo un’iniziale
fase
di
progressi,
si
concluse
verso
la
metà
degli
anni
Sessanta
con un
fiasco
totale.
Quello
che
avvenne
non
fu
tanto
la
realizzazione
di
cervelli artificiali
superiori
e
inalterabili
o
l’avvento
di
un
mondo
interamente
retto dal
feedback,
quanto
un
aumento
dell’informatizzazione
della
società
con l’unico
obiettivo
di
tendere
verso
un’amministrazione
sempre
più
ottimizzata delle
cose.
Tuttavia,
per
via
della
sua
importanza,
della
sua
audacia
e
della sua
folle
smisuratezza,
l’aspirazione
cibernetica
avrebbe
lasciato un’impronta
potente
e
indelebile
nella
storia
dell’informatica
e,
più
in generale,
in
quella
delle
idee.
Essa
aveva
fatto
germogliare
nelle
coscienze
la convinzione
che
le
macchine
calcolatrici
potessero
contribuire
a
stabilire
un buon
ordine
generale
in
tutto
ciò
che
riguardava
la
vita
dell’uomo,
superando di
molto
le
semplici
attitudini
di
classificazione,
indicizzazione
e
trattamento facilitato
delle
informazioni.17
Per
questo
motivo,
nel
corso
dei
decenni
che
seguirono,
si
tentò
più
e
più
volte
di
rianimare
il
suo
spirito,
ma
a
ogni tentativo
di
ripresa
i
suoi
promotori
si
scontravano
con
nuove
fasi
di disillusione
alle
quali
fu
poi
dato
il
nome
di
“inverno
dell’intelligenza artificiale”.
Dal
2010
in
poi,
abbiamo
assistito
al
ritorno
massiccio
di
questa aspirazione,
sostenuta
non
più
da
un
numero
ristretto
di
persone,
ma
da eserciti
di
tecno-scienziati
che
portano
avanti
le
loro
ricerche
in
tutti
e cinque
i
continenti
e
beneficiano
di
finanziamenti
cospicui. Oggi
l’ambizione
di
costruire
processori
modellati
sul
cervello
umano rappresenta
l’asse
portante
che
guida
le
ricerche
condotte
nei
laboratori
di scienze
computazionali,
contribuendo
così
alla
costituzione
di
un “neurolessico”
direttamente
ispirato
a
quello
originariamente
forgiato
da Norbert
Wiener
e
dai
suoi
amici.
La
IBM,
per
esempio,
sostiene
di
aver messo
a
punto
dei
“chip
sinaptici”;
Intel,
leader
mondiale
dei semiconduttori,
ha
elaborato
un
chip
detto
“neuromorfico”,
che “imparerebbe”
ed
evolverebbe
grazie
a
qualche
centinaia
di
migliaia
di “neuroni”
e
centinaia
di
milioni
di
“sinapsi”,
e
annuncia
di
voler
introdurre sul
mercato
un
“processore
neurale”.
Le
architetture
funzionerebbero
alla maniera
dei
“processi
cellulari”
e
sarebbero
gestite
da
“algoritmi
genetici”. La
lista
dei
termini
improntati
alle
scienze
neurali,
ma
anche
a
quelle
del vivente,
non
smette
di
crescere.18
Questa
terminologia,
che
dipende
da
un “atto
di
forza
retorico”
vista
la
struttura
molto
schematica
dei
sistemi rispetto
al
loro
modello
di
ispirazione,
si
inscrive
nella
tendenza contemporanea
ad
accordare
una
posizione
preminente
alle
neuroscienze cognitive
e
comportamentali,
come
se
la
comprensione
degli
ingranaggi
del cervello
e
la
conseguente
presa
in
considerazione
dei
suoi
circuiti
altamente dinamici
dovessero
servire
da
parametro
a
molte
delle
attività
umane.
È
il motivo
per
cui
diverse
discipline
aggiungono
di
buon
grado
il
prefisso “neuro”
al
loro
nome.
Ecco
dunque
che
si
parla
di
“neuroeconomia”, “neuromanagement”,
“neuropolitica”
o,
ancora,
“neuroeducazione”,
alcuni dei
tanti
casi
che
mostrano
una
certa
attrazione
per
la
“plasticità
cerebrale”, la
quale
deve
servire
da
modello
per
qualsiasi
comportamento
individuale
o collettivo
mosso
da
ribollenti
flussi
energetici
ininterrotti
che
tendono
verso la
sua
espressione
migliore.19 Di
tutto
questo
apparato
verbale
addobbato
per
così
dire
di
fronzoli
fanno un
uso
spropositato
l’industria
del
digitale
e
i
ricercatori
ad
essa
sottomessi, e
ciò
al
solo
scopo
di
dare
alle
loro
opere
un’aura
di
prestigio
simbolico.
In realtà
esso
nasconde
l’instaurazione
sempre
più
incalzante
di
un
ordine
delle cose
in
linea
con
il
sacrosanto
principio
della
massima
reattività
e
del massimo
rendimento
al
quale
tutte
le
componenti
della
società
devono
rispondere
–
gli
individui,
il
loro
stile
di
vita,
la
loro
forza
lavoro,
le istituzioni
pubbliche,
gli
ospedali,
le
scuole,
le
aziende,
le
reti
di
trasporti
–, d’ora
in
poi
chiamate
a
sottoporsi
continuamente
al
vincolo
della
minima “perdita”
e
del
massimo
guadagno.
È
chiaro
dunque
che
la
metafora
del cervello
sconfina
dal
semplice
ambito
della
scatola
cranica
o
da
quello
dei processori
per
estendersi
a
livello
mondiale
–
essendo
il
mondo
da
poco considerato
un’unità
simile
al
nostro
organo
cerebrale,
che
simbolizza
lo stadio
supremo
di
una
struttura
reticolare
omeostatica
–,
il
cui funzionamento
generale
deve
essere
come
regolato
da
un
programma perfettamente
incorporato
che
procede
continuamente
al
migliore adeguamento
tra
tutti
i
suoi
neuroni
o
le
sue
“monadi
umane”,
o
ancora
ogni frammento
del
reale.
Questo
modello,
acme
del
vigore
energetico
del
vivente, è
infatti
compatibile
con
un
altro
modello,
quello
dell’economia
ultraliberale,
fondato
sull’identificazione
in
tempo
reale
di
qualsiasi
occasione virtualmente
vantaggiosa
che
deve
senza
indugio
e
senza
fine
a
generare
cicli crescenti
di
rotazione
del
capitale. In
questo
senso
l’intelligenza
artificiale
non
rappresenta
solo
una
tecnologia, ma
incarna
più
esattamente
una
tecnoideologia
che
permette
di
mescolare processi
cerebrali
e
logiche
economiche
e
sociali
aventi
come
base
comune uno
slancio
vitalistico
e
una
struttura
connessionista
altamente
dinamica.
La conformazione
dal
grossolano
aspetto
antropomorfico
attribuita
alle architetture
computazionali
è
dovuta
a
un
abile
e
tutto
sommato
brillante raggiro
che
non
deve
trarci
in
inganno;
esso
contribuisce
a
generalizzare
una specifica
metodologia
della
razionalità
fondata
sulla
destinazione
utilitarista e
lucrativa
di
ogni
momento
della
vita
e
modellata
su
una
sostanza
organica che
lo
inscriverebbe
in
un
“ordine
naturale
delle
cose”.
Non
solo
la
tecnica non
è
neutra
–
è
ridicolo
pensarlo!
–
e
non
dipende
dalle
nostre
abitudini
– che
fantasia
piena
di
prospettive
di
“riappropriazione
positiva”!
–,
ma costituisce,
ora
più
che
mai,
nel
suo
divenire
prevalente,
il
supporto
di schemi
organizzativi
che,
nascondendosi
dietro
un
lessico
pomposo,
sono chiamati
a
disciplinare
la
società
seguendo
un’efficienza
continuamente amplificata
dalla
facoltà
di
auto-apprendimento
di
cui
sono
dotati
i
sistemi nutriti
di
“principi
educativi”
destinati
–
non
c’è
da
dubitarne,
soprattutto
se sono
impregnati
di
“regole
etiche”
definite
dal
mondo
social-liberista
–
ad amministrare
sempre
meglio
le
situazioni
umane.
1.3
IL
MACHINE
LEARNING:
VERSO
LE
TECNOLOGIE
DELLA
PERFEZIONE È
C’è
una
sedia
in
primo
piano.
È
di
legno
e
la
seduta
è
di
paglia
intrecciata.
Il punto
di
vista
è
rialzato,
ad
altezza
d’uomo.
La
sedia,
posta
di
traverso rispetto
al
disegno
geometrico
del
pavimento
formato
dall’allineamento
di mattonelle
quadrate
in
cotto,
conferisce
all’insieme
una
sorda
tensione.
Il giallo
ocra
della
sedia
è
complementare
al
pezzo
di
muro
azzurro
alle
sue spalle
e
a
un
frammento
della
porta,
dello
stesso
colore,
posta
alla
sua sinistra,
che
non
fa
che
accentuare
questa
sensazione
di
dinamismo.
Nessun corpo
animato
prende
parte
alla
scena
che
colpisce
invece
per
la
sua
staticità e
la
sua
immutabilità.
Ma
alcune
foglie
di
tabacco
che
spuntano
dal
loro imballaggio
accanto
a
una
pipa
spenta
adagiata
su
un
fianco
oppongono
una vaga
sensazione
di
effimero.
Perché,
nonostante
la
sua
apparente immobilità,
La
sedia
di
Vincent,
dipinta
nel
1888
da
Van
Gogh
(National Gallery,
Londra),
sembra
anche
testimoniare
la
continua
mutevolezza
a
cui
è costantemente
sottoposta
ogni
sostanza
fisica.
Al
pari
delle
tele
di
Cézanne, che
nonostante
la
prevalenza
di
motivi
immobili,
come
case,
strade
e montagne,
sembrano
animate
da
un
movimento
interno
conferitole
dalla pittura
a
coltello
e
dalle
pennellate
nervose.
Forse
è
perché
ogni
materia,
sia essa
organica,
vegetale,
persino
minerale,
subisce
processi
di
trasformazione più
o
meno
sensibili
e
rapidi,
secondo
un
principio
confermato successivamente
e
in
tutto
il
mondo
dalla
fisica
quantistica,
che
Van
Gogh, così
come
ognuno
di
noi,
sente
il
bisogno
di
confrontarsi
di
tanto
in
tanto con
quadri
e
ambienti
pieni
di
stabilità,
nonostante
la
necessaria effervescenza
che
agita
ogni
particella
dell’universo. È
una
forma
di
tranquillità
che
scaturisce
dalla
contemplazione
delle
cose
o dalla
familiarità
che
abbiamo
con
esse.
Al
di
là
della
loro
immediata
utilità, questa
sarebbe
una
delle
virtù
di
cui
ci
farebbero
godere,
smentendo,
con
la loro
allure
imperturbabile
e
perenne,
i
flussi
indefinitamente
fugaci
della vita.
Essendo
in
ogni
momento
sottomesse
all’impermanenza
del
reale,
le cose
ci
garantiscono
la
presenza
confortante
di
un
ordine
apparentemente contrario,
conformemente
a
un
bisogno
segreto
che
aveva
analizzato
Hannah Arendt:
“È
questa
[durevolezza]
che
dà
alle
cose
del
mondo
la
loro
relativa indipendenza
dagli
uomini
che
le
producono
e
le
usano,
la
loro
‘oggettività’ che
le
fa
resistere,
‘contrastare’
e
sopportare,
almeno
per
qualche
tempo,
le esigenze
e
i
bisogni
voraci
degli
esseri
viventi
che
le
fanno
e
le
usano.
Da questo
punto
di
vista
le
cose
del
mondo
hanno
la
funzione
di
stabilizzare
la vita
umana,
e
la
loro
oggettività
sta
nel
fatto
–
in
contrasto
con
il
detto eracliteo
che
lo
stesso
uomo
non
può
mai
bagnarsi
due
volte
nello
stesso fiume
–
che
gli
uomini,
malgrado
la
loro
natura
sempre
mutevole,
possono
ritrovare
il
loro
sé,
cioè
la
loro
identità,
riferendosi
alla
stessa
sedia
e
allo stesso
tavolo”.20 Tuttavia
questa
sensazione
di
permanenza
è
chiamata
ad
attenuarsi
nel nostro
ambiente,
perché
ci
ritroveremo
a
vivere
con
dei
nuovi
tipi
di
artefatti d’ora
in
poi
sottratti
alla
stabilità
e
caratterizzati
da
una
ritmica
in
continua trasformazione
o,
più
precisamente,
da
infiniti
margini
di
miglioramento
nei compiti
che
gli
sono
assegnati.
Questo
principio
oggi
è
possibile
grazie
alla messa
a
punto
di
sistemi
dotati
di
un
inquietante
potere
–
auto-apprendenti –,
risultato
delle
tecniche
del
machine
learning
(letteralmente “apprendimento
macchina”).
Ciò
che
caratterizza
questi
dispositivi
è
che
essi sono
capaci
di
“migliorarsi”
grazie
agli
algoritmi
che
li
guidano,
destinati
a far
“assimilare”
loro
nuovi
elementi
nel
corso
delle
operazioni
effettuate
e degli
effetti
prodotti,
al
fine
di
arricchire
costantemente
il
loro
livello
di competenza.
È
il
caso
degli
assistenti
vocali
come
Google
Home,
che dovrebbero
essere
in
grado
di
affinare
continuamente
le
loro
proposte
di ascolto
o
le
loro
offerte
in
funzione
dei
dialoghi
intrattenuti
con
l’utente
e delle
richieste
formulate. Questa
capacità
è
il
risultato
della
conformazione
antropomorfica attribuita
alle
tecnologie
computazionali
che,
al
pari
della
vita
degli
esseri umani,
non
si
fermano
a
uno
stadio
iniziale
costante
ma
si
modificano
a seconda
delle
“esperienze
vissute”
e
delle
nuove
conoscenze
acquisite,
che consentono
loro
di
trarre
degli
“insegnamenti”
e
di
vedere
costantemente perfezionate
le
proprie
competenze.
Tale
diposizione
è
parte
integrante
di questi
nuovi
“individui
tecnici”,
per
riprendere
l’espressione
di
Gilbert Simondon,21
qui
più
appropriata
che
mai,
i
quali,
data
la
natura
del
loro “codice
genetico”,
diventano
in
qualche
modo
degli
“esseri
temporali”, realizzando
così
uno
degli
assiomi
della
cibernetica:
“Se
questo
principio
di trasformazione
è
soggetto
a
un
certo
criterio
di
merito
sul
funzionamento
e se
il
metodo
di
trasformazione
è
organizzato
in
modo
da
tendere
a
migliorare il
funzionamento
del
sistema
secondo
questo
criterio,
si
dice
che
il
sistema impara”.22 Ma
all’epoca
si
trattava
di
una
teoria
soggetta
a
limiti
formali,
e
questo
in ragione
della
forte
lacunosità
dell’infrastruttura
tecnica
a
disposizione.
Oggi questa
ambizione
prende
corpo
grazie
alla
messa
a
punto
di
architetture composte
di
unità,
chiamate
“neuroni”,
che
effettuano
operazioni
in
un primo
“strato
di
calcoli”
il
quale,
una
volta
completato,
viene
“ritrasmesso” da
uno
strato
successivo
in
vista
di
portare
a
termine
altri
compiti
e
il
cui numero
può
arrivare
fino
a
qualche
decina,
permettendo
così
di
tendere
verso
livelli
di
complessità
sempre
più
elevati,
nella
prospettiva
di
riuscire
a effettuare
trattamenti
di
confronto,
di
identificare
similitudini
con
modelli determinati
e
di
integrarli.
Procedimenti
come
questi,
funzionanti
per “mattoni
di
calcoli”,
possono
per
esempio
essere
utilizzati
per
individuare
un oggetto
all’interno
di
un’immagine:
la
“rete
di
neuroni
artificiali”
definisce
la sua
discriminazione
degli
elementi
rappresentati
tramite
un
processo
simile alla
messa
in
relazione
continua,
“pezzo
per
pezzo”,
tra
un
riferimento
di base
e
il
motivo
analizzato.
Questi
schemi
costituiscono
il
fondamento
della tecnologia
del
deep
learning,
basata
in
particolare
su
un
“apprendimento” detto
“supervisionato”,
perché
sottoposto
allo
svolgimento
di
compiti
definiti i
quali
per
“allenamento”,
con
le
varie
operazioni,
le
ricorrenze,
le
verifiche
e le
convalide,
“approfondiscono”
la
conoscenza
di
cui
è
provvisto
un
sistema rispetto
a
un
insieme
di
dati
e,
conseguentemente,
a
un
ambito
particolare,
e consolidano
la
sua
capacità
di
valutare
con
rapidità
la
natura
di
certe situazioni
e
procedere
“da
solo”
alla
realizzazione
di
azioni
ad
esse
connesse. È
questo
il
principio
all’origine
di
quell’evento
spettacolare
che
nel
2016
ha visto
il
programma
AlphaGo,
concepito
da
DeepMind,
filiale
di Alphabet/Google,
sfidare
e
vincere
il
sudcoreano
Lee
Sedol,
considerato
fino a
quel
momento
uno
dei
più
grandi
giocatori
di
Go
al
mondo.
Per
funzionare, il
dispositivo
ricorreva
a
un
database
di
milioni
di
partite
storiche;
la
sua struttura
gli
permetteva
di
comparare
in
tempo
reale
le
mosse
dell’avversario con
esempi
passati
simili,
di
valutare
i
risultati
allora
verificatisi
e
di determinare
così
in
modo
estremamente
rapido
la
mossa
migliore
da compiere.
Al
di
là
di
questo
esempio
specifico,
è
evidente
che
è
in
corso
un movimento
che
suppone
che
queste
architetture,
sia
per
la
loro
struttura tecnica
sia
per
l’aumento
continuo
delle
capacità
di
calcolo,
devono
essere dotate
di
competenze
e
poteri
decisionali
sempre
migliori.
Perché
la caratteristica
dei
sistemi
di
divulgazione
della
verità
è
che
essi
sono ineluttabilmente
votati
ad
assumere
la
forma
delle
tecnologie
della perfezione
e
a
imporre
con
sempre
maggiore
fermezza
la
loro
autorità
alla comunità
degli
esseri
viventi.
Una
dimensione
che
noi
non
cogliamo
ancora del
tutto
–
forse
è
ancora
troppo
presto
–
vedrà
l’intelligenza
artificiale marginalizzare
l’intuizione
umana
con
la
sua
efficacia
indefinitamente provata
e
con
lo
splendore
della
sua
aura
e,
alla
lunga,
delegittimarla, rendendo
vana
o
inoperante
qualsiasi
presa
di
decisione
dipendente
dalla nostra
coscienza. La
concessione
che
viene
fatta
ai
codici
di
vivere
una
sorta
di
“esistenza autonoma”
comporta
un
nuovo
tipo
di
“autoincremento
della
tecnica”,
per riprendere
l’espressione
di
Jacques
Ellul,23
che
produce
un
effetto
singolare:
una
forma
di
allontanamento
dagli
esseri
umani.
Non
siamo
di
fronte
a creature
che
rischiano
di
“sfuggirci”
e
rivoltarsi
un
giorno
contro
i
loro “genitori”,
ma
a
entità
destinate
a
diventarci
estranee.
Al
punto
che
gli “scambi
comunicativi”
tra
protocolli
ci
potrebbero
risultare incomprensibili.24
Compare
un
nuovo
tipo
di
“scatola
nera”,
non
più
quella indotta
dei
database
o
degli
algoritmi
che
di
fatto,
per
via
della
loro
opacità strutturale,
impediscono
agli
utenti
di
cogliere
la
loro
costituzione,
ma
quella tipica
delle
stringhe
la
cui
evoluzione
delle
combinazioni
ci
risulterebbe sempre
più
oscura:
“Una
volta
che
la
rete
neurale
ha
imparato
a
riconoscere qualcosa,
uno
sviluppatore
di
software
non
riesce
a
vedere
come
ha
fatto.
È come
il
cervello:
non
si
può
tagliare
la
testa
e
vedere
come
funziona”.25 Entriamo
nell’era
della
“post-programmazione”;
la
programmazione allineava
sequenze
di
codice
al
fine
di
condurre
all’esecuzione
di
compiti definiti
e
sistematizzati.
Perché
non
viviamo
più
solo
l’epoca
delle
istruzioni da
seguire
alla
lettera
date
a
dei
protocolli,
ma
quella
di
script
che,
una
volta scritti,
sviluppano
la
loro
grammatica
personale,
a
seconda
della
“vita”
di ciascuno
di
essi,
facendogli
quasi
acquisire
una
“personalità”.
È
una
nuova forma
di
autonomia
quella
che
va
via
via
manifestandosi,
non
più semplicemente
quella
indotta
dalle
capacità
autodecisionali
–
come
accade, per
esempio,
nei
veicoli
cosiddetti
“autonomi”,
in
grado
in
ogni
momento
di prendere
da
soli
molte
decisioni
e
di
varia
natura
–,
ma
quella
attualmente in
divenire
che
risulta
dall’autorizzazione
concessa
alle
intelligenze
artificiali di
tracciare
la
“propria
strada”
e
di
distinguersi
a
seconda
della
loro “esperienza”.
C’è
bisogno
di
un
concetto
inedito
per
indicare
questa incredibile
conformazione,
e
quello
di
“agente
computazionale
autonomo” sembra
fare
al
caso
nostro,
essendo
al
contempo
concepito
dai
suoi
creatori
e destinato
a
progredire
con
modalità
libere
da
forme
di
tutela
perenne. Questa
“liberazione”
è
destinata
ad
aumentare:
i
sistemi
saranno
in
grado
di creare
da
soli
altri
sistemi,
secondo
una
logica
che
convaliderebbe
il principio
di
una
distanza
alla
lunga
incolmabile
tra
agenti
computazionali
e esseri
umani
e
che
ci
porterebbe
ad
avvalerci
delle
loro
competenze indefinitamente
perfezionate
senza
tuttavia
comprenderne
a
fondo
le logiche.26 L’apprendimento
“non
supervisionato”
e
“per
rinforzo”,
che
indica
la capacità
di
perfezionare
continuamente
la
propria
abilità
a
partire
da
regole iniziali
implementate,
si
inscrive
in
questo
stesso
spirito.
Esso
determina l’architettura
all’interno
della
quale
si
è
evoluto
AlphaGo
Zero,
la
versione immediatamente
successiva
a
quella
che
aveva
sconfitto
Lee
Sedol,
concepita
per
giocare
“in
solitaria”
milioni
di
partite
“contro
sé
stessa”
senza
fare riferimento
a
degli
esempi,
ma
semplicemente
a
partire
dalla
conoscenza
dei precetti
del
gioco,
secondo
un
principio
chiamato
di
“apprendimento antagonista”.
Due
reti
neurali
si
“affrontano”,
ognuna
nel
tentativo
di scalzare
l’altra,
in
un
primo
tempo
scambiandosi
colpi
casuali,
per
poi affinare,
partita
dopo
partita,
le
loro
visioni
d’insieme
e
le
loro
strategie,
e ritrovandosi
nel
giro
di
poco
a
possedere
una
profonda
padronanza
del
gioco “senza
essere
al
corrente
delle
partite
storiche”.27
Dopo
soli
tre
giorni
di “allenamento”,
AlphaGo
Zero
avrebbe
sconfitto
AlphaGo
con
un
punteggio
di 100
a
0.
Al
di
là
del
caso
specifico
del
Go,
stiamo
assistendo
a
una ramificazione
di
queste
tecniche,
con
sistemi
in
grado
di
“istruirsi”
e
di incrementare
velocemente
le
loro
competenze
nel
corso
delle
operazioni effettuate,
senza
che
sia
prima
necessario
far
ingoiare
loro
raccolte
di
dati. Essi
sono
destinati
a
operare
in
diversi
settori,
in
particolare
quelli appartenenti
all’ambito
dell’elettronica
cosiddetta
“di
decisione”,
che richiede
qualità
interpretative
e
continuamente
reattive
necessarie,
ad esempio,
alla
messa
a
punto
di
veicoli
senza
pilota. Bisogna
prendere
alla
lettera
il
nome
di
AlphaGo
Zero
che
può
essere inteso
come
una
sorta
di
territorio
vergine
aperto
a
tutte
le
virtualità
e
che,
a partire
dall’istituzione
di
un
insieme
formale,
autorizzerebbe
l’adozione tramite
gli
“agenti
computazionali
autonomi”
di
un’infinità
di “comportamenti”
possibili
che
li
renderebbero
sempre
più
efficaci
nei compiti
che
gli
sono
stati
assegnati,
arrivando
fino
a
desiderare
di
dotarli
di una
“curiosità
artificiale”
che
riprenderebbe
ancora
una
volta
un’aspirazione allora
molto
fantasmatica
della
cibernetica:
“Credo
che
la
brillante
idea
di Ashby
di
un
meccanismo
che
agisca
a
caso
e
senza
scopo
e
che
cerchi
il proprio
scopo
attraverso
un
processo
di
apprendimento,
non
solo
sia
uno
dei maggiori
apporti
alla
filosofia
attuale,
ma
possa
anche
condurre
a
sviluppi tecnologici
utilissimi
nel
campo
dell’automatizzazione.
Non
solo
possiamo dare
uno
scopo
alle
macchine,
ma
nella
maggior
parte
dei
casi
una
macchina inventata
per
evitare
certe
situazioni
catastrofiche
cercherà
altri
scopi
da adempiere”.28 La
facoltà
di
auto-apprendimento
non
si
riferisce
solo
alle
nuove
facoltà
di cui
sono
dotati
questi
“individui
tecnici”,
indefinitamente
capaci
di perfezionarsi,
ma
anche
a
un
movimento,
di
carattere
etnico-antropologico, destinato
a
non
interrompersi
mai
e
a
esercitare
un
potere
crescente
sulla coscienza
umana.
La
vittoria
di
AlphaGo
su
un
giocatore
altamente qualificato
va
considerata
in
una
prospettiva
più
globale:
questi
sistemi, operanti
a
tutti
i
livelli
della
società,
cercheranno
non
solo
di
“batterci”,
ma
anche
di
soppiantarci
con
la
loro
competenza
e
la
loro
estrema
reattività, generalizzando
metodologie
di
razionalità
alle
quali
sarà
sempre
più
difficile, per
non
dire
impossibile,
sottrarci,
nella
misura
in
cui
ci
diventeranno sempre
più
familiari
e
si
fonderanno
all’ambiente
che
ci
circonda,
fino
a confondersi
con
lui.
Perché
invece
di
affrontarci
di
petto,
invece
di
suscitarci paura
e
spavento
con
la
loro
impressionante
autorità,
questi
sistemi prendono
sembianze
che,
al
contrario,
ce
li
fanno
apparire
più
vicini
e devoti,
che
discretamente
li
integrano
al
reale,
fino
a
dare
forma
a
un
nuovo reale
che,
a
differenza
di
quello
che
abbiamo
conosciuto
fin
dall’alba dell’umanità,
non
è
più
disseminato
di
ostacoli
da
superare,
ma
diventa
a poco
a
poco
malleabile,
ci
oppone
meno
resistenza,
risponde
con
flessibilità
e grazia
ai
nostri
bisogni,
ai
nostri
desideri,
alle
nostre
difficoltà,
alle
nostre preoccupazioni,
aprendoci
in
ogni
momento
le
porte
su
paesaggi
giudicati adatti
e
sicuri.
1.4
INTERFACCE
ERGONOMICHE
AI
DISPOSITIVI
RELAZIONALI La
scena
è
ben
nota.
Fu
oggetto
di
una
registrazione
video.
Inizia
con l’immagine
di
un
foglio
bianco
rettangolare
sul
quale
sono
stampate
alcune lettere
maiuscole
nere,
scritte
con
un
carattere
simile
a
quello
usato
in passato
per
i
telegrammi.
Compongono
il
titolo
di
un
progetto,
il
nome
degli autori
e
una
data:
“A
RESEARCH
CENTER
FOR
AUGMENTING
HUMAN INTELLECT
BY
DOUGLAS
C.
ENGELBART
AND
GILLIAM
R.
ENGLISH, DECEMBER
9,
1968”.
A
questo
primo
pannello
ne
segue
un
altro
che
indica istituto
di
provenienza,
ubicazione
e
sponsor:
“PRODUCED
AT
STANFORD RESEARCH
INSTITUTE,
MENLO
PARK,
CALIFORNIA,
UNDER
THE JOINT
SPONSORSHIP
OF:
THE
ADVANCED
RESEARCH
PROJECT AGENCY,
THE
NATIONAL
AERONAUTICS
AND
SPACE
AGENCY,
THE ROME
AIR
DEVELOPMENT
CENTER
(AIFORCE)”. Il
pannello
successivo
segnala
poi
che
il
film
visionato
è
il
risultato
parziale di
quello
che
compariva
allora
sullo
schermo
di
un
computer
il
cui
contenuto era
videoproiettato
in
grande
formato
in
una
sala
congressi,
il
Convention Center
Arena
di
San
Francisco,
e
che
i
suoni
corrispondono
a
quelli amplificati
emessi
dalla
macchina.
Poco
dopo
appare
in
primo
piano
il
viso di
un
uomo,
Douglas
Engelbart,
con
indosso
una
camicia
bianca
e
una cravatta,
munito
di
microfono
ad
archetto,
che
fino
a
poco
prima
si
trovava
a destra
di
un
palco,
visto
dalle
gradinate,
proprio
sotto
la
proiezione. Con
voce
sicura,
l’uomo
annuncia
di
voler
presentare
i
risultati
di
una ricerca
riguardante
le
nuove
interazioni
uomo-macchina,
ma
avverte
di
non
volersi
dilungare
in
informazioni
esplicative
alle
quali
preferisce
una dimostrazione
pratica.
A
quel
punto,
in
un
modo
fino
ad
allora
inedito, Engelbart
inizia
a
utilizzare
un
cursore
con
il
quale
si
inserisce
tra
i
caratteri, copia
le
parole,
le
sposta
da
una
parte
all’altra,
o
le
mette
in
colonna.
Nel corso
di
ognuna
di
queste
azioni,
ripete
sempre
una
stessa
parola: “controllo”.
Non
intesa
in
senso
restrittivo,
ma
al
contrario
come
un
più ampio
margine
di
azione
offerto
nel
rapporto
con
il
dispositivo.
Sembra essere
questo
l’obiettivo
principale
della
sua
impresa,
al
punto
che
egli afferma:
“Questa
presentazione
potrebbe
anche
intitolarsi:
‘You
control’”.
Lo strumento
che
gli
dà
questo
potere
è
una
console
divisa
in
tre
sezioni.
A sinistra,
dei
pulsanti
di
comando;
al
centro,
una
tastiera
alfanumerica;
a destra,
una
scatolina
di
legno
montata
su
due
rotelline
poste
una perpendicolare
all’altra,
a
proposito
del
quale
Engelbart
dice
con
un
sorriso
e un
tono
spiritoso:
“Ormai
tra
di
noi
ci
siamo
abituati
a
chiamarlo
‘mouse’”. Quello
che
caratterizza
l’insieme
del
meccanismo,
è
che
esso
permette
di manovrare
spontaneamente
le
informazioni
visualizzate
senza
bisogno
di conoscere
un
linguaggio
di
programmazione.
Inoltre,
viene
a
stabilirsi
un rapporto
tra
corpo
e
apparecchi,
fondato
sulla
libertà
gestuale
e
sulla praticità
di
utilizzo;
la
console
è
infatti
legata
al
processore
tramite
un
filo
e può
essere
posata
sulle
ginocchia,
come
quella
utilizzata
con
entusiasmo
da Engelbart.
La
presentazione,
a
buon
diritto,
ha
come
titolo
“La
madre
di tutte
le
demo”,
perché
costituisce
uno
dei
perni
della
storia
dell’informatica moderna
ed
è
in
parte
all’origine
dell’assioma
dell’emancipazione
degli individui
grazie
ai
PC,
i
quali
dovrebbero
permettere
loro
di
gestire
i
propri documenti
e
offrire
nuovi
spazi
favorevoli
alla
creatività. Questa
ricerca
di
maggiori
praticità
e
padronanza
nell’uso
dei
computer
ha costituito
il
nucleo
di
molti
ulteriori
studi,
dai
quali
è
nato
in
particolare l’Apple
I,
apparso
nel
1976,
e
si
è
poi
cristallizzata
in
modo
esemplare
nei primi
Macintosh
commercializzati
a
partire
dal
1984.
Steve
Jobs,
infatti, aveva
intuito
quasi
subito,
già
dall’inizio
degli
anni
Settanta,
che
il
successo dell’informatica
personale
sarebbe
dipeso
da
una
dimensione
decisiva:
la qualità
ergonomica,
orientata
verso
l’“esperienza
d’uso”
(user
experience). Essa
richiedeva
la
messa
a
punto
di
interfacce
“intuitive”,
secondo
un principio
diffusosi
molto
in
fretta
e
divenuto
un
assioma
tecnico-industriale fondamentale
nel
corso
dei
decenni
successivi.
Tuttavia
in
questa
interazione più
naturale
con
i
dispositivi
c’era
ancora
qualcosa
che
ne
impediva
la
piena realizzazione:
una
forma
di
incanto
provata
nell’uso
che
sarebbe
dovuta dipendere
da
una
diversa
attenzione
rivolta
al
design.
Nel
1997
Steve
Jobs torna
in
Apple
associandosi
con
il
designer
Jonathan
Ive,
con
il
quale concepisce
l’iMac,
un
computer
caratterizzato
da
un
guscio
traslucido
dai colori
aciduli
che
permetteva
di
scorgere
continuamente
i
suoi
elementi
interni
incaricati,
dal
loro
abitacolo
asettico,
di
rispondere
in
modo impeccabile
e
rapido
a
tutti
i
comandi
dell’utente.
Qui,
la
grazia
formale
del meccanismo
e
la
sua
potenza
si
confondono
con
la
condizione
d’ora
in
poi attribuita
all’utente,
libero
di
compiere
i
suoi
gesti
senza
incontrare
la benché
minima
resistenza,
all’interno
di
un
rapporto
in
cui
il
prefisso
“i” convalida
la
presa
di
potere
definitiva
dell’individuo
sulla
macchina.
Tutto ciò
accadeva
in
contemporanea
all’avvento
di
internet
che
all’improvviso consentiva
di
accedere
a
un
gran
numero
di
documenti
e
scambiare
messaggi immediati
a
costi
irrisori
e
a
dispetto
delle
distanze
fisiche.
Ciascuno diventava
sovrano
del
suo
nuovo
regno,
governava
sul
suo
computer
come
su tutte
le
informazioni
del
mondo,
a
suo
piacimento
e
in
un
ambiente
che
si piegava
ormai
a
tutti
i
suoi
desideri. Esattamente
dieci
anni
dopo
viene
varcata
una
soglia
nella
storia
delle “interazioni
uomo-macchina”:
compare
l’iPhone,
risultato
di
una
brusca miniaturizzazione,
che
generalizza
l’interfaccia
tattile,
instaura
un
rapporto fondato
su
una
maggiore
vicinanza,
permette
una
più
ampia maneggevolezza,
può
essere
tenuto
nel
palmo
di
una
mano
e
invita continuamente
al
tocco,
quasi
alla
carezza.
Qui
non
è
più
questione
di controllo,
come
auspicava
Engelbart,
ma
di
“contatto
carnale”
tra
due
corpi, quasi
una
forma
di
intimità.
Inoltre,
tramite
le
applicazioni,
lo
smartphone offre
funzionalità
inedite
segnando
l’inizio
di
un
rovesciamento
tanto impercettibile
quanto
decisivo.
L’autorità
fino
a
quel
momento
esercitata sugli
apparecchi
scivola
verso
la
loro
disposizione
a
essere
“all’ascolto” dell’utente
e
a
offrirgli,
grazie
alla
connettività,
alla
potenza
e
alla
velocità
di elaborazione
dei
processori,
alla
geolocalizzazione
e
alla
conoscenza evolutiva
dei
suoi
comportamenti,
non
solo
qualsiasi
tipo
di
informazione personalizzata,
ma
anche
e
soprattutto
suggerimenti
giudicati
appropriati all’esperienza
di
ciascuno.
La
qualità
ergonomica
e
funzionale
raggiunge
un tale
livello
di
sofisticatezza
che,
invece
di
concedere
all’utente
un
aumento
di controllo,
eleva
il
dispositivo
a
entità
capace
di
modificare
surrettiziamente la
decisione
e
di
avvalersi
di
un
potere
incentivante. Alla
fine
degli
anni
Duemila
emerge
una
nuova
attitudine
delle
tecnologie che,
grazie
alla
loro
capacità
interpretativa,
cominciano
ad
assumere
una funzione
di
consiglio
e
assistenza
quotidiani;
è
il
caso
dell’applicazione
Waze, introdotta
nel
2008,
in
grado
di
mappare
in
tempo
reale
la
condizione
del traffico
e
suggerire
gli
itinerari
più
rapidi
e
scorrevoli.
Il
rapporto
tra
l’uomo e
i
protocolli
digitali
va
via
via
trasformandosi:
dal
mero
azionamento
della tastiera
si
passa
a
un
legame
vero
e
proprio
nel
quale
i
sistemi
illuminano
l’uomo
con
le
loro
conoscenze
e
lo
esortano
ad
agire
in
un
modo
piuttosto che
in
un
altro.
Tale
disposizione,
sempre
più
efficace,
è
indissociabile
dal ricorso
all’intelligenza
artificiale,
divenuta
ormai
capace
di
analizzare situazioni
di
qualsiasi
tipo
e
formulare
seduta
stante
le
soluzioni
ritenute
più adeguate.
È
sconcertante
notare
che
una
tecnologia
destinata
a
rivelare
la verità
emerge
e
si
generalizza
guarda
caso
nell’esatto
momento
in
cui
emerge e
si
generalizza
anche
l’interfaccia
vocale,
utilizzata
in
particolare
dagli assistenti
vocali
i
quali,
proprio
per
via
della
manifestazione
della
voce,
si rivelano
idonei
a
dirci
la
verità
relativamente
a
un
gran
numero
di
fenomeni. È
difficile
dire
se
questa
concomitanza
sia
il
frutto
di
un
progetto
deliberato o
se
si
tratti
di
un
concorso
di
circostanze
che
fanno
confondere
la
funzione (enunciare
la
verità)
con
le
sue
proprietà
(l’interpretazione
del
linguaggio naturale
e
la
capacità
di
usarlo). Ma
più
che
un’interfaccia,
intesa
come
un’istanza
che
permetta
a
un
utente e
a
un
sistema
di
comunicare
tra
loro
in
vista
di
realizzare
operazioni
di
ogni tipo
per
mezzo
delle
loro
interazioni,
quello
che
viene
a
costituirsi
è
una nuova
forma
di
scambio,
finalizzato
non
più
unicamente
a
rispondere
a
scopi funzionali
e
che
prende
l’aspetto
singolare
di
una
struttura
relazionale.
Essa è
il
risultato
della
conformazione
antropomorfica
attribuita
ai
sistemi,
ora capaci,
sull’esempio
della
nostra
principale
peculiarità
di
esseri
viventi,
di proferire
verbo,
parlare,
parlarci,
persino
capire
le
nostre
parole.
Questa abilità,
sfruttata
per
rispondere
ai
nostri
bisogni,
ai
nostri
desideri,
alla nostra
comodità,
trasforma
i
sistemi
in
“esseri”
premurosi,
al
pari
di
una madre
amorevole
o
di
un
angelo
custode,
e
al
principio
della
comunicazione –
che
necessariamente
presuppone
obiettivi
utilitaristici
–
sostituisce
quello della
comunione.
I
sistemi
assumono
così
un
carattere
esclusivo
e
intimo, non
fosse
altro
che
per
la
conoscenza
di
tante
richieste
e
frasi
fatte
e
per
la comprensione
indotta
indefinitamente
approfondita
che
permettono
loro
di pronunciare,
per
il
bene
superiore
e
in
qualsiasi
occasione,
le
parole
più adatte
e
benintenzionate.
Una
voce
che
si
rivolge
a
noi,
che
ci
fa
l’onore
di rivolgersi
soltanto
a
noi,
dotata
di
un
livello
di
conoscenza
e
competenza senza
eguali
e
che
ci
dispensa
continuamente
buoni
consigli,
si
vedrà investita
di
un’autorità
e
di
un’aura
tali
per
cui
sarà
sempre
più
difficile,
visti i
continui
perfezionamenti,
non
percepire
questi
dialoghi
come
“naturali”
e non
prendere
per
“oro
colato”
qualsiasi
sua
parola. È
in
questa
prospettiva
che
abbondano
le
chatbot,
gli
“agenti conversazionali”,
progettati
per
informarci,
rispondere
alle
nostre
domande e,
più
in
generale
e
alla
lunga,
guidarci
con
il
loro
sapere
evolutivo,
grazie
al machine
learning,
nelle
circostanze
più
disparate
delle
nostre
esistenze.
Queste
creature
sono
chiamate
a
essere
presenti
diffusamente
all’interno
dei nostri
ambienti
abituali.
In
bagno,
per
esempio,
quando
ci
daranno
il
loro parere
sulla
nostra
urina
grazie
a
dei
sensori
incorporati
nel
water,
o
sui nostri
cambi
di
peso
tramite
una
bilancia
collegata,
o
sul
nostro
alito
grazie
a sensori
olfattivi,
o
sui
tratti
del
nostro
viso
per
mezzo
di
focali
video integrate.
Ce
le
ritroveremo
anche
in
cucina,
attivamente
partecipi all’ideazione
di
ricette
golose,
dietetiche
o
improvvisate,
ma immancabilmente
personalizzate.
E
non
mancheranno
certo
nella
futura automobile
“autonoma”,
che
si
occuperà
di
condurci
da
un
punto
a
un
altro, sì,
ma
anche
di
intrattenerci
durante
i
tragitti,
principalmente
attraverso
gli scambi
vocali
che
riempiranno
con
un’infinità
di
suggestioni
tutte
quelle parentesi
in
cui
la
nostra
attenzione
è
in
calo
e
che
a
quel
punto
saranno aperte
a
tutte
le
ricchezze
del
mondo. Stiamo
entrando
in
un’era
in
cui
saremo
circondati
dalle
parole
dei
sistemi. Alla
lunga,
tutto
è
destinato
a
parlare,
tutti
gli
oggetti
e
tutte
le
superfici;
o forse
gli
assistenti
virtuali
personali
occuperanno
l’intero
campo
e
si erigeranno
a
interfacce
quasi-esclusive
non
soltanto
tra
i
sistemi
e
noi
ma, più
in
generale,
con
il
reale,
perché
saranno
capaci
di
segnalarci
in
qualsiasi momento
la
complessità
di
ogni
situazione
e
l’azione
più
opportuna
da compiere.
All’inizio
degli
anni
Cinquanta
Alan
Turing
aveva
affermato
che una
macchina
avrebbe
potuto
essere
definita
“intelligente”
solo
quando
non sarebbe
più
stato
possibile
stabilire
la
natura
dell’interlocutore
durante
una conversazione
indifferentemente
sostenuta
con
una
persona
o
una
macchina. Se
è
vero
che
il
timbro
di
una
voce
artificiale
oggi
tende
ad
avvicinarsi sempre
di
più
al
nostro
tanto
da
confondersi
del
tutto
con
esso
in
certi
casi, come
in
quello
del
motore
di
sintesi
vocale
Tacotron
2
sviluppato
da Google,29
è
vero
anche
che
ci
sono
una
miriade
di
temi
che
l’elocuzione automatica
non
è
ancora
in
grado
di
affrontare
e
che
la
rendono,
per
ora, inferiore
rispetto
all’essere
umano.
Ma
lo
“spettro
conversazionale”
non smette
di
ampliarsi
e
il
livello
di
competenza
evolve
secondo
una
curva destinata
a
salire,
a
differenza
del
nostro
che,
nell’insieme,
rimane tendenzialmente
stabile.
Questa
logica
fa
emergere
uno
scarto
di competenza,
destinato
ad
aumentare,
tra
noi
e
le
“macchine
parlanti”, conseguenza
diretta
dell’equazione
antropomorfica
che
erige
la
figura
umana a
modello
teoricamente
perfetto
destinato
a
prendere
forma
in
un’entità artificiale
dotata,
inizialmente
o
alla
lunga,
di
una
potenza
diversamente superiore.
Stiamo
assistendo
all’emergere
di
un
ambiente
nuovo;
non
si
tratta
di
un ambiente
reattivo,
nel
quale
cioè
le
cose
reagiscono
continuamente
alla nostra
presenza,
conformemente
a
quanto
annunciato,
in
gran
parte
a
torto, a
metà
degli
anni
Duemila
con
il
presunto
avvento
di
un’informatica cosiddetta
“ambientale”
(ubiquitous
computing),30
ma
di
un
ambiente
che interpreta
i
nostri
gesti
per
dirci
delle
cose.
Il
corpo
non
è
più
posizionato
di fronte
alla
macchina
–
sul
modello
di
Douglas
Engelbart
che
teneva
fiero
la sua
console
posata
sulle
ginocchia
e
si
sentiva
libero
di
giocare,
davanti
al suo
schermo,
con
tutte
le
possibilità
offerte
dalla
tastiera
e
dal
mouse
–,
ma
è chiamato
a
evolvere
all’interno
di
un
ambiente
che,
ovunque
e
sotto
varie forme,
lo
afferra,
analizza
i
suoi
stati
d’animo
e
retroagisce
per
vari
scopi.
Il corpo
diventa
–
noi
diventiamo
–
il
centro
dell’attenzione
dei
sistemi. L’“economia
dell’attenzione”,
fondata
sulla
tracciabilità
delle
nostre ricerche
internet
allo
scopo
di
ottenere
una
mappatura
approfondita
dei nostri
interessi
per
poi
trarne
guadagno,
si
trasforma
in
un’economia dell’attenzione
delle
macchine
nei
nostri
confronti
al
fine
di
garantirci
una “buona
gestione”
della
vita.
I
sistemi
di
riconoscimento
facciale,
da
poco utilizzati,
per
esempio,
per
sbloccare
lo
smartphone
o
per
effettuare transazioni
economiche,
si
inscrivono
in
questa
dimensione.
I
processori sono
dotati
di
qualità
multisensoriali,
associate
ad
attitudini
cognitive
e interpretative
regolarmente
incrementate,
che
li
trasformano
in
entità perfettamente
in
grado
di
capirci
e
conferiscono
loro
un
potere
che
non cesserà
di
impressionarci
e
al
quale
ci
sottometteremo
senza
resistenza
né senso
di
colpa,
nella
misura
in
cui
esso
ci
assicura
di
agire
nel
nostro interesse. Vorremmo
arrivare
a
cancellare
la
sensazione
di
presenza
costante
della tecnica
e
farle
prendere,
nel
momento
stesso
in
cui
essa
diventa onnipresente
e
interferisce
nelle
nostre
vite,
una
forma
evanescente.31
Ne L’arte
della
guerra,
Sun
Tzu
afferma
che
“ciò
che
è
familiare
non
desta attenzione”.
Non
c’è
più
niente
che
impedisca
di
pensare
alle
tecnologie dell’aletheia
non
come
a
delle
entità
artefattuali
nate
dalla
nostra
volontà
e dal
nostro
sapere,
ma
come
a
degli
agenti
vivi,
esistenze
vere
e
proprie
che
si integrano
con
naturalezza
e
grazia
nel
nostro
ambiente
domestico,
urbano
e lavorativo.
Ci
sono
tutte
le
condizioni
per
guardare
a
loro
con
la
massima apertura,
per
via
della
loro
potenza,
della
fiducia
che
nutriamo
nei
loro confronti
e
del
rapporto
sempre
più
spontaneo
che
intratteniamo
con
esse, affinché
d’ora
in
poi
riceviamo
da
loro
le
nostre
istruzioni,
quelle
che
ci indicano
il
gesto
migliore
da
compire
in
ogni
situazione.
1.
Lo
stesso
Charles
Babbage
che
nel
1833
pubblica
il
suo
Traité
sur
l’économie
des
machines
et
des manufactures
nel
quale
sono
esposti,
in
centinaia
di
pagine,
i
metodi
concepiti
per
ottimizzare,
in varie
forme,
l’organizzazione
generale
delle
aziende,
secondo
uno
schema
che
può
essere
definito prefordista. 2.
George
Boole,
Indagine
sulle
leggi
del
pensiero,
su
cui
sono
fondate
le
teorie
matematiche
della logica
e
della
probabilità
(1854),
a
cura
di
Mario
Trinchero,
Einaudi,
Torino
1976. 3.
Articolo
comparso
nell’agosto
del
1934
nella
pubblicazione
aziendale
Hollerith
Nachrichten
e
citato da
Edwin
Black
in
L’IBM
e
l’Olocausto,
trad.
it.
di
Roberta
Zuppet
e
Sergio
Mancini,
Rizzoli,
Milano 2001,
p.
112. 4.
Norbert
Wiener,
The
Human
Use
Of
Human
Beings:
Cybernetics
and
Society
(1950),
Free Association
Books,
Londra
1989,
p.
178. 5.
Il
sistema
esperto
Dendral
fu
elaborato
dagli
informatici
Edward
Feigenbaum
e
Bruce
Buchanan, dal
medico
Joshua
Lederberg
e
dal
chimico
Carl
Djerassi;
Mycin
venne
sviluppato
da
Edward Shortliffe
per
conto
della
Stanford
Medical
School. 6.
Se
il
problema
da
risolvere
non
è
troppo
grande,
con
qualche
assioma
e
qualche
regola
il
sistema può
dedurre
tutte
le
conclusioni
possibili
in
maniera
meccanica;
ma
se
la
combinatoria
si
rivela
troppo complessa,
diventa
impossibile
esplorare
tutte
le
possibilità
in
un
tempo
ragionevole.
In
questo
caso bisogna
introdurre
delle
euristiche
che
scartino
il
maggior
numero
di
casi
possibili
permettendo
così
di focalizzarsi
sulle
ipotesi
più
promettenti. 7.
Norbert
Wiener,
The
Human
Use
Of
Human
Beings:
Cybernetics
and
Society,
cit.,
p.
34. 8.
Cfr.
Günther
Anders,
Die
Atomare
Drohung,
Radikale
Überlegungen
zum
atomaren
Zeitalter,
C. H.
Beck,
München
1981. 9.
Norbert
Wiener,
The
Human
Use
Of
Human
Beings:
Cybernetics
and
Society,
cit.,
p.
36. 10.
Ivi,
p.
15. 11.
Warren
Sturgis
McCulloch
e
Walter
Pitts,
“A
Logical
Calculus
of
the
Ideas
Immanent
in
Neural Nets”,
Bulletin
of
Mathematical
Biology,
vol.
52,
1943. 12.
Norbert
Wiener,
The
Human
Use
Of
Human
Beings:
Cybernetics
and
Society,
cit.,
p.
57. 13.
Ivi,
pp.
32-33. 14.
Ivi,
p.
157. 15.
Ivi,
p.
95. 16.
Ivi,
p.
96. 17.
Questo
proposito
fu
particolarmente
all’opera
nel
progetto
Cybersyn,
lanciato
nel
1970
dal presidente
cileno
Salvador
Allende
in
collaborazione
con
il
ricercatore
britannico
Stafford
Beer;
si trattava
di
un
sistema
informatico
destinato
a
controllare
in
tempo
reale
l’economia
nazionale
e,
più
in generale,
a
garantire
una
migliore
governance
del
Paese.
Avrebbe
dovuto
trovare
spazio
all’interno
di una
grande
sala
di
controllo
dall’aspetto
futurista,
ma
in
seguito
al
colpo
di
Stato
del
1973
non
fu
mai realizzato.
Su
questo
progetto
cfr.
Eden
Medina,
Cybernetic
Revolutionaries:
Technology
and
Politics in
Allende’s
Chile,
MIT
Press,
Cambridge
2011. 18.
Sulla
cecità
manifestata
nei
confronti
di
questo
“neurolessico”
cfr.
il
libro
di
Catherine
Malabou Métamorphoses
de
l’intelligence.
Que
faire
de
leur
cerveau
bleu?,
PUF,
Parigi
2017,
che
prende
per oro
colato
questa
terminologia
e
ne
deduce
una
supposta
“metamorfosi
dell’intelligenza”.
Per
una teorizzazione
rigorosa
dell’intelligenza
artificiale
è
necessario
essere
al
corrente
delle
strutture tecniche
e
non
dimostrarsi
ingenui
di
fronte
al
vocabolario
addobbato
di
fronzoli
utilizzato dall’industria
del
digitale. 19.
Sulla
“mitologia
cerebrale”
che
dà
il
capogiro
a
molte
discipline,
cfr.
Alain
Ehrenberg,
La Mécanique
des
passions.
Cerveau,
comportement,
société,
Odile
Jacob,
Parigi
2018. 20.
Hannah
Arendt,
Vita
activa.
La
condizione
umana,
trad.
it.
di
Sergio
Finzi,
Bompiani,
Milano 2017
(I
ed.
1964),
p.
156. 21.
Cfr.
Gilbert
Simondon,
Du
mode
d’existence
des
objets
techniques
(1958),
Aubier,
Parigi
2012. 22.
Norbert
Wiener,
Dio
&
Golem
s.p.a.
Cibernetica
e
religione,
trad.
it.
di
Federico
Bedarida,
Bollati Boringhieri,
Torino
1991,
p.
22. 23.
Cfr.
Jacques
Ellul,
Il
sistema
tecnico.
La
gabbia
delle
società
contemporanee,
trad.
it.
di Guendalina
Carbonelli,
Jaca
Book,
Milano
2009.
24.
Cfr.
Enrique
Moreira,
“Quand
l’intelligence
artificielle
invente
un
langage
incompréhensible
par l’homme”,
Les
Échos,
24
giugno
2017. 25.
“‘È
come
il
cervello:
non
si
può
tagliare
la
testa
e
vedere
come
funziona’,
riassume
Andy
Rubin, cofondatore
di
Android,
oggi
molto
impegnato
nella
questione
dell’intelligenza
artificiale”,
in
Céline Deluzarche,
“Deep
Learning,
le
grand
trou
noir
de
l’intelligence
artificielle”,
Maddyness,
13
novembre 2017. 26.
Cfr.
Yohan
Demeure,
“L’intelligence
artificielle
de
Google
a
créé
sa
propre
IA
et
celle-ci
surpasse celle
de
l’Homme”,
SciencePost,
5
dicembre
2017. 27.
Cfr.
David
Silver,
Julian
Schrittwieser,
Karen
Simonyan,
Ioannis
Antonoglou,
Aja
Huang,
Arthur Guez,
Thomas
Hubert,
Lucas
Baker,
Matthew
Lai,
Adrian
Bolton,
Yutian
Chen,
Timothy
Lillicrap,
Fan Hui,
Laurent
Sifre,
George
van
den
Driessche,
Thore
Graepel,
Demis
Hassabis,
“Mastering
the
Game of
Go
without
Human
Knowledge”,
Nature,
19
ottobre
2017. 28.
Norbert
Wiener,
The
Human
Use
Of
Human
Beings:
Cybernetics
and
Society,
cit.,
p.
38. 29.
Cfr.
Dave
Gershgorn,
“Google’s
Voice-generating
AI
Is
Now
Indistinguishable
from
Humans”, Quartz,
26
dicembre
2017. 30.
Cfr.
per
esempio
Adam
Greenfield,
Every[ware].
La
révolution
de
l’ubimédia,
Fyp,
Limoges
2007. 31.
Cfr.
Manuel
Moragues,
“Snips,
la
start-up
française
qui
veut
faire
disparaître
la
technologie,
lance son
assistant
vocal”,
L’Usine
nouvelle,
14
giugno
2017.
CAPITOLO
2 Il
potere
di
enunciare
la
verità
2.1
L’INSORGERE
DI
UN
NUOVO
REGIME
DI
VERITÀ Verso
la
metà
del
2010
si
è
prodotto
un
avvenimento
strabiliante,
di proporzioni
mondiali.
Nessuno
l’aveva
visto
arrivare.
Ci
ha
colti
alla sprovvista
e
si
è
diffuso
rapidamente
con
una
forza
di
impatto
sulla
società che
ci
ha
lasciati
a
bocca
aperta.
Tutto
d’un
tratto
chiunque
poteva,
senza difficoltà,
con
estrema
naturalezza,
o
come
massima
manifestazione
della “libertà
di
espressione”,
annunciare
fatti
senza
essere
certo
che
fossero
veri, senza
che
fosse
necessario
verificarli,
fatti
che
più
inverosimili
sembravano più
venivano
ingigantiti,
diventando
così
i
rivelatori
dell’incoerenza
della percezione
comune
o
“dominante”
delle
cose,
esibiti,
nonostante
le apparenze,
come
acclarati
ma
che
in
pochi
erano
in
grado
di
vedere.
Questa “chiaroveggenza”
diventava
appannaggio
dei
più
avveduti
a
fronte dell’accecante
inflazione
informazionale
del
nostro
tempo
e
di
tutte
le rappresentazioni
confuse
e
normate
indotte.
La
nozione
di
“post-verità”
si imponeva
nella
nostra
epoca
offuscata,
diventava
un
sintomo
patente
dei nostri
malesseri,
un
segnale
inquietante
della
nostra
perdita
di
punti
di riferimento.
Il
fenomeno
ha
assunto
proporzioni
tali
per
cui
l’Oxford Dictionary
lo
ha
eletto,
nel
2016,
a
parola
dell’anno. Ci
sono
stati
due
avvenimenti,
quell’anno,
che
ne
hanno
confermato
la portata
storica:
innanzitutto
il
voto
della
Brexit,
che
ha
decretato
l’uscita
del Regno
Unito
dall’Unione
europea,
seguito,
qualche
mese
dopo, dall’inaspettata
elezione
di
Donald
Trump
a
presidente
degli
Stati
Uniti.
Si
è presto
compreso
come
sia
l’uno
sia
l’altro
sono
stati
in
parte
favoriti dall’ampia
diffusione
di
testi
e
immagini
che,
nella
maggior
parte
dei
casi, cercavano
intenzionalmente
di
deformare
la
realtà,
imponendosi
come seminatori
di
scompiglio
nella
veridicità
di
quello
che
veniva
comunemente veicolato,
in
particolare
dagli
organi
di
stampa.
D’un
tratto
le
società
si trovavano
a
essere
destabilizzate
da
un
relativismo
che
sfuggiva
alla
ragione, prive
di
riferimenti
comuni,
necessari
ai
dibattiti,
all’espressione
della pluralità
dei
punti
di
vista
e
al
buon
funzionamento
della
democrazia,
in particolare
nel
caso
di
consultazioni
importanti. La
colpa
è
ricaduta
subito
sui
social
network,
accusati
di
non
aver provveduto
a
un
doveroso
lavoro
di
controllo
e
di
aver
finto
di
non
accorgersi
del
proliferare
di
account
falsi,
aperti
al
solo
scopo
di
fare
propaganda,
e
di gruppi
intenzionati
a
disseminare
“fake
news”
per
manipolare l’informazione.
Di
certo
questi
fattori
hanno
contribuito,
ma
considerarli
la causa
di
tutto
sarebbe
sbagliato;
essi
non
sono
altro
che
gli
effetti,
perché
la questione
importante
non
è
tanto
la
diffusione
virale
delle
informazioni
false su
internet,
quanto
la
nuova
posizione
occupata
dall’individuo contemporaneo.
Egli
si
considera
al
centro
del
mondo,
riconduce
gli
eventi alla
sua
personale
visione
delle
cose
ed
è
a
tal
punto
inebriato
dalla sensazione
di
essere
l’unico
da
rifiutare
qualsiasi
enunciato
divergente.
La verità
si
definisce
a
partire
da
lui,
dalle
sue
convinzioni
e
dai
suoi
tropismi; propensione
che
risulta
emblematica
nelle
teorie
del
complotto,
a testimonianza
della
disintegrazione
crescente
delle
nostre
basi
comuni
e dell’estrema
atomizzazione
della
società.
È
interessante
notare
che
la questione
della
“post-verità”,
per
quanto
importante,
è
considerata
una rottura
che
interferisce
con
il
nostro
rapporto
storico
con
la
verità,
quando
in realtà
si
tratta
semplicemente
dell’esattezza
di
fatti,
e
non
della
verità
in senso
stretto,
e
nonostante
un’altra
rottura,
ben
più
decisiva,
anch’essa legata
alla
questione
della
verità
e
chiamata
a
determinare
la
forma
delle nostre
esistenze,
sia
totalmente
ignorata.
Eppure
essa
ha
una
dimensione molto
più
ampia
e
dipende
da
un
fenomeno
di
portata
civilizzazionale determinante:
quello
dell’insorgenza
di
un
nuovo
regime
di
verità. I
sistemi
di
intelligenza
artificiale
sono
chiamati
a
valutare
una
miriade
di situazioni
di
vario
tipo,
i
bisogni
delle
persone,
i
loro
desideri,
il
loro
stato
di salute,
le
modalità
di
organizzazione
e
un’infinità
di
altri
fenomeni
del
reale. Ciò
che
caratterizza
i
risultati
di
queste
analisi
è
che
essi
non
si
accontentano di
produrre
semplici
equazioni
teoricamente
esatte,
ma
rivestono
un
valore di
verità
nella
misura
in
cui
a
partire
proprio
dalle
loro
conclusioni
vengono stabilite
delle
azioni
da
intraprendere.
Ecco
cosa
distingue
l’esattezza
dalla verità:
la
prima
pretende
di
restituire
uno
stato
obiettivo,
mentre
la
seconda, per
il
solo
principio
della
sua
enunciazione,
chiama
a
conformarsi
a
lei attraverso
gesti
concreti.
Perché
ogni
verità
enunciata
ricopre
alla
fine
una dimensione
performativa. Emerge
dunque
un
nuovo
regime
di
verità,
dotato
di
cinque caratteristiche.
È
destinato,
alla
lunga,
a
riferirsi
alla
quasi
totalità
delle situazioni
umane
e
a
esercitarsi
in
ogni
circostanza.
Proviene,
in
ogni
ambito di
applicazione,
da
un’unica
fonte,
eliminando
così
il
principio
di
una valutazione
plurale
delle
cose.
Si
inscrive
per
lo
più
in
una
logica
di
tempo reale,
rivelando
le
situazioni
nel
momento
stesso
in
cui
avvengono
e, conseguentemente,
spingendo
ad
agire
tempestivamente
e
delegittimando
il
tempo,
specifico,
dell’esame
umano.
Ha
acquisito
uno
status
di
autorità
che gli
deriva
da
un’efficacia
continuamente
amplificata
in
grado
di
stroncare alla
radice
qualsiasi
velleità
di
contraddizione.
Dipende
da
uno
spirito utilitaristico
che
risponde
tanto
a
obiettivi
di
ottimizzazione
quanto
a interessi
privati. A
rischiare
di
essere
marginalizzati
o
sradicati
dall’insorgenza
di
un
ordine diverso
sono
i
principali
status
storici
occidentali
della
verità,
che
si
sono imposti
nel
tempo,
che
a
volte
sono
coesistiti
tra
loro
e
che,
per
la
maggior parte,
sono
ancora
presenti
nel
nostro
episteme.
Questi
diversi
regimi,
più
o meno
ancora
in
vigore,
possono
essere
identificati.
C’è
innanzitutto
quello della
verità
rivelata
dei
monoteismi,
in
cui
il
rispetto
delle
Leggi
detta
uno stile
di
vita
individuale
e
collettivo
conforme
alla
morale
divina;
questa
verità giunge
da
una
figura
assoluta
che
impone
una
condotta
agli
uomini,
liberi
in teoria
di
farvi
affidamento
e
sottomettervisi.
C’è
poi
quello
della
verità platonica
che,
diversamente
dalla
prima,
non
viene
rivelata
all’interno
di
una scena
inaugurale
o
di
un
testo
fondatore,
ma
che
esorta
a
non
fidarsi
più delle
ombre
della
caverna
e
a
liberarsi
dalle
apparenze
ingannevoli
del
reale esigendo
uno
sforzo
per
elevarsi
al
di
sopra
del
sensibile
e
cogliere,
al
di
là
di tutte
le
variazioni
continue,
le
essenze
pure
ed
eterne
che
manifestano l’evidenza
eclatante
del
vero:
“E
una
volta
giunto
alla
luce,
gli
occhi abbagliati
dal
suo
splendore,
potrebbe
vedere
una
sola
delle
cose
che
ora chiamiamo
vere?”.1 Più
tardi
Aristotele
affermerà
che
la
ricerca
platonica
si
perde
in
un soprasensibile
che
non
intrattiene
alcun
rapporto
con
la
realtà
e
che
il
vero dipende
da
un
criterio
logico,
quello
della
non-contraddizione,
senza
il
quale noi
diremmo
tutto
e
il
suo
contrario:
“È
da
ingenui
attenersi
ugualmente
alle opinioni
e
alle
immaginazioni
di
quelli
che
sono
in
disaccordo
tra
loro giacché
gli
uni
e
gli
altri
sono
necessariamente
caduti
in
errore”.2
Ogni ambito
del
sapere,
l’astronomia,
la
botanica,
lo
studio
dell’anatomia
umana, deve
sviluppare
metodi
propri
fondati
sull’esperienza
e
sulla
necessità
della verifica,
dai
quali
la
verità
scaturisca
come
“adeguamento
alla
realtà”.
Nel Medioevo,
in
contrasto
con
l’autorità
imposta
tanto
dal
feudalesimo
quanto dalla
gerarchia
sclerotizzata
della
Chiesa,
il
teologo
cattolico
Tommaso d’Aquino
farà
dell’esercizio
rigoroso
dell’intelletto
la
condizione
dell’accesso alla
verità.
La
stessa
cosa
che
Cartesio
proclamerà
nel
XVII
secolo,
a
partire dalla
certezza
del
cogito,
ossia
la
capacità
che
un
individuo
ha
di
discernere, la
stessa
che
gli
permette
di
ricercare
le
verità
dando
prova
di
metodo, attraverso
deduzioni
e
“lunghi
concatenamenti
logici”.
Durante
l’Illuminismo
venne
piano
piano
abbandonata
la
necessità
di
isolare la
verità
in
quanto
concetto
assoluto
o
di
avvalersi
di
un
procedimento esclusivo
per
afferrarla.
Da
lì
in
avanti
la
verità
avrebbe
costituito
un principio
plurale
presente
in
diversi
modi
nei
vari
campi
del
mondo
e
della vita,
che
avrebbe
richiesto
dunque
lo
studio
minuzioso
dei
fenomeni
legati alla
natura,
alla
fisica,
alla
medicina,
alla
biologia,
ma
anche
alla
politica, all’economia,
al
diritto
e
alla
morale.
In
Occidente
emerge
una
civiltà
che vuole
allontanarsi
dalle
speculazioni
astratte
giudicate
inutili
e
fino
a
quel momento
riservate
a
un’unica
casta
di
filosofi
e
dottori
delle
religioni,
per privilegiare,
a
beneficio
di
quante
più
persone
possibili,
il
lavoro
del
sapere,
i progressi
dell’insegnamento,
la
libera
diffusione
di
libri
e
giornali, l’elaborazione
di
opere
enciclopediche
a
vocazione
pedagogica,
la costituzione
di
istituzioni
dedicate
alla
conoscenza
e
alla
cultura.
Tutti
ambiti che
dovrebbero
condurre
a
una
migliore
intelligenza
del
reale,
grazie
al processo
individuale
e
comune
di
enlightenment,
alla
base
di
una
nuova
era dell’umanità
che
celebra
i
lumi
della
ragione
e
la
formazione
di
coscienze illuminate. Tuttavia,
dopo
tutti
gli
sforzi
compiuti
per
tracciare
i
solchi
che
avrebbero condotto
la
società
sul
cammino
del
“progresso”
senza
fine,
sul
volgere
del secolo,
all’acme
della
rivoluzione
industriale
e
del
trionfo
dello
“spirito borghese”,
giunse
l’ora
del
sospetto
meditato
da
Nietzsche,
che
fece coincidere
il
principio
di
verità
con
la
fonte
di
tutte
le
credenze
inculcate,
la quale
imponeva
il
rispetto
obbligato
di
una
morale
piatta
che
negava
e sclerotizzava
le
possibilità
virtualmente
offerte
dalla
vita.
Questa
idea
della forza
normativa
della
verità
fu
ripresa
da
Michel
Foucault,
il
quale
si
sforzò di
individuare
tutte
quelle
rappresentazioni
che,
in
modo
più
o
meno
visibile, determinavano
la
forma
generale
delle
società
e
il
cui
aggiornamento avrebbe
dovuto
incoraggiare
sane
velleità
di
liberazione:
“Quello
in
cui
sono impegnato
–
in
cui
ho
voluto
impegnarmi
da
molti
anni
–
è
un
lavoro
volto
a rendere
manifesti
alcuni
degli
elementi
che
potrebbero
servire
a
una
storia della
verità.
Una
storia
che
non
doveva
essere
quella
di
ciò
che
ci
può
esser
di vero
nelle
conoscenze,
ma
un’analisi
dei
‘giochi
di
verità’,
dei
giochi
del
vero e
del
falso
attraverso
i
quali
l’essere
si
costituisce
storicamente
come esperienza,
vale
a
dire
come
essere
che
può
e
deve
essere
pensato”.3
I
suoi lavori
contribuirono
all’avvento
di
quello
che
fu
nominato “postmodernismo”
che
rifiutava
qualsiasi
nozione
di
verità,
considerata
una fonte
di
regole
coercitive,
dotata
di
un’autorità
tale
da
necessitare
di
una “decostruzione”
destinata
a
liberare
da
tutti
i
gioghi
imposti,
la
stessa
che condusse
Jacques
Derrida
ad
affermare:
“La
verità,
è
nel
suo
nome maledetto
che
ci
siamo
perduti”.4
Affermazione
che
Jean
Baudrillard radicalizzerà
fino
a
raccomandare
l’esilio
del
principio
stesso
di
verità:
“La
verità
è
ciò
di
cui
occorre
sbarazzarsi
al
più
presto,
rifilandola
a
qualcun altro.
Come
con
la
malattia,
è
il
solo
modo
per
guarirne.
Chi
resta
con
la verità
in
mano
ha
perso”.5 Tuttavia
a
essere
in
discussione
non
era
tanto
lo
sforzo
di
discernimento individuale
e
collettivo
richiesto
da
ogni
decisione
sensata
e
tesa
verso
il giusto
–
di
cui
Jean-François
Lyotard
aveva
sottolineato
il
carattere
“locale”, supponendo
di
determinarci
continuamente
secondo
coscienza,
secondo alcuni
principi
intangibili
ma
in
funzione
di
circostanze
sempre
variabili
e specifiche
–,6
quanto
la
possibilità
di
rinforzare
giochi
di
potere
attraverso convenzioni
stabilite
che
favorissero
forme
di
irreggimentazione
delle condotte.
È
esattamente
questa
dimensione
sistematicamente
circostanziale ad
essere
all’opera
con
l’aletheia
algoritmica,
per
la
quale
la
verità
non costituisce
più
l’oggetto
di
un
sapere
riflessivo,
di
una
ricerca
mai
conclusa
a testimonianza
dell’apertura
indefinita
del
reale,
ma
viene
enunciata
da sistemi
dotati
di
una
potenza
di
expertise
considerata
superiore
e
votata
a essere
esercitata
in
qualsiasi
occasione.
Quello
che
distingue
tale
regime dagli
altri
che
l’hanno
preceduto
è
che
questi,
nessuno
escluso
–
anche
nel quadro
normativo
edificato
dai
monoteismi
o
in
quello
dei
regimi
autoritari, come
quello
fittizio
presente
in
1984
di
George
Orwell
per
esempio
–,
erano ancora
esposti
a
gesti
di
riappropriazione,
o
a
tentativi
di
negoziazione, oppure,
nel
caso
dei
rifiuti
più
categorici,
a
generare
manovre
più
o
meno evidenti
di
opposizione.
Qualunque
fosse
il
loro
ascendente
simbolico
o formale,
concedevano,
quasi
loro
malgrado,
margini
di
azione
così
come
la possibilità
di
preservare
certe
parti
di
sé
e
tenerle
in
questo
modo
al
riparo dalla
loro
autorità. Contrariamente
a
queste
forme
di
libertà
più
o
meno
concesse,
l’aletheia algoritmica
dovrebbe
essere
dotata
di
un
tale
livello
di
specializzazione
che
la sfida
non
consisterebbe
più
nel
mettere
in
atto
eventuali
strategie
di soggettivazione
o
di
elusione
nei
suoi
confronti,
ma
nel
trovare
i
mezzi
per conformarvisi
al
meglio.
Al
pari
di
una
procedura
di
sorveglianza
di
polizia finalizzata
a
prevenire
un
pericolo
in
una
zona
identificata
che
determina l’immediato
invio
sul
posto
delle
volanti.
Mai
nella
storia
un
regime
di
verità si
è
imposto
in
questo
modo,
non
per
la
sua
forza
seduttiva
o
per
la
sua influenza
costrittiva,
dunque,
ma
per
il
sentimento
condiviso
di
un’evidenza, per
la
produzione
di
equazioni
considerate
le
più
appropriate, conformemente
al
principio
che
vuole
che
i
sistemi
cognitivi
siano
degli “EvidenceBased
Systems”,
ossia
sistemi
fondati
sul
principio
della rivelazione
di
fatti
che
si
espongono
alla
nostra
coscienza
con
un’evidenza tale
da
garantirsi
il
nostro
accordo.
Perché
l’aletheia
algoritmica
deriva
da
un
principio
di
rivelazione
ed
è
destinata
a
esercitare
il
suo
genio
lungo
un continuum
che
va
dal
minimo
dettaglio
delle
nostre
vite
fino
a
situazioni collettive,
come
nessun’altra
istanza
simbolica
tutelare
aveva
fatto
fino
a
quel momento. Nietzsche
aveva
denunciato
la
volontà
di
edificare
una
verità
che
si pretendeva
essere
assoluta
e
obiettiva
riguardo
alle
cose,
era
questa
la
sua principale
battaglia;
se
vedesse
quanto
potere
conferiamo
oggi all’intelligenza
artificiale
probabilmente
sarebbe
colto
dalla
stessa
crisi
di follia
che
lo
colpì
a
Torino
nel
1889.
Forse
quella
che
si
sta
verificando
è
la fine
hegeliana
della
Storia,
resa
evidente
dal
nostro
rapporto
in
divenire
con la
verità
che
si
distanzia
dalle
molteplici
forme
a
cui
gli
umani
avevano sempre
guardato
e
che,
qualunque
fossero
la
loro
natura
e
le
promesse
che potevano
annunciare,
non
riuscivano
mai
a
venire
a
capo
del
nostro smarrimento
ontologico
di
base.
Ormai
assistiamo
compiaciuti
all’agonia della
nostra
“coscienza
infelice”,
per
vedere
sopraggiungere
l’era
del
“Sapere assoluto”
descritto
da
Hegel
come
il
momento
in
cui
“la
verità
è
in
sé perfettamente
uguale
alla
certezza”,
nella
quale
io
posso
dire:
“So
di
avere vissuto
e,
a
forza
di
esperienze
e
lacerazioni,
ho
finito
per
contenere l’universo”.7 E
allora
diventiamo,
tanto
individualmente
quanto
collettivamente,
i Bouvard
e
Pécuchet
del
XXI
secolo
e
per
evitare
di
“cadere
nell’abisso spaventoso
dello
scetticismo”8
tentiamo
continuamente
di
afferrare
una verità
indubbia,
esattamente
come
i
due
protagonisti
flaubertiani
che, quando
decidono
di
addentrarsi
in
un
campo
del
sapere,
si
mettono
alla ricerca
del
manuale
che
potrebbe
consegnargliela
per
poter
poi
agire impeccabilmente
sulle
cose
–
che
poi
altro
non
è
che
quello
che
ci
aspettiamo noi
dall’intelligenza
artificiale.
Ecco
perché
al
termine
di
ogni
lettura
ne verificano
sistematicamente
il
contenuto
attraverso
degli
esperimenti
che nella
maggior
parte
dei
casi
falliscono
o
a
volte
hanno
successo,
ma
solo
per puro
caso.
Flaubert
distruggeva
con
derisione
questo
positivismo
scientifico che
intendeva
venire
a
capo
di
ogni
fenomeno;
è
sua
la
formula
divenuta
poi celebre:
“la
sciocchezza
consiste
nel
voler
concludere”.9
Egli
non
credeva, infatti,
nell’esistenza
di
verità
definitive,
ma
nel
pullulare
delle rappresentazioni,
e
affermava
che
Dio
poteva
forse
afferrare
la
causa principale
di
tutte
le
cose,
ma
non
certo
gli
umani;
Bouvard
e
Pécuchet
nella loro
ricerca
di
assoluto
e
nel
desiderio
di
acquisire
un’erudizione enciclopedica
a
fini
utilitaristici,
proiettano
una
speranza
smisurata
e
vana relativamente
a
tutti
i
testi
consultati.
Chissà
quale
formula
piena
di
ironia
mordace
userebbe
Flaubert
per
riferirsi
ai
sistemi
aletheici
che
dovrebbero, in
teoria,
darci
la
risposta
giusta
per
ogni
situazione
della
nostra
vita. Per
questa
ragione
quel
luogo
comune
secondo
cui
avremmo
costruito
un nuovo
Golem
–
come
il
rabbino
Jehuda
Löw,
detto
il
“Maharal
di
Praga”,
che creò
una
creatura
dotata
di
poteri
quasi
identici
ai
nostri
e
capace,
un
giorno, di
“sfuggire
al
nostro
controllo”,
fino
a
diventare
una
potenza
distruttrice
–
è errato.
Perché
il
Golem,
secondo
la
leggenda,
era
sottomesso
al
potere
del suo
creatore
che
gli
dettava
ordini
e
poteva,
in
qualsiasi
momento, interrompere
l’alito
di
vita
che
lo
animava
infilandogli
un
foglio
di
carta
in bocca.
Il
giorno
dell’inaugurazione
del
centro
di
ricerca
in
informatica
di Rehovot
in
Israele,
il
filosofo
Gershom
Scholem
pronunciò
un
discorso
che derivava
da
questa
analogia:
“Quella
che
abbiamo
il
privilegio
di
inaugurare oggi
è
la
più
recente
incarnazione
di
questa
magia,
il
golem
di
Rehovot.
E
il golem
di
Rehovot
può
senz’altro
competere
con
il
golem
di
Praga”.10
In realtà
il
Golem
non
è
quello
che
crediamo,
siamo
noi
che
attribuiamo all’intelligenza
artificiale
tutta
una
serie
di
qualità
e
assumiamo
il
ruolo
di Golem
perché
siamo
sottomessi
a
una
potenza
che,
dall’alto
del
suo
sapere sempre
più
onnisciente,
ci
ordina
le
azioni
da
compiere.
Perché,
sempre secondo
Scholem:
“Dio
poté
creare
l’Uomo
da
un
mucchio
di
argilla
e infondergli
una
scintilla
della
Sua
forza
vitale
(è
questa,
in
definitiva, l’‘immagine
divina’
a
somiglianza
della
quale
l’Uomo
fu
creato).
Senza
questa intelligenza
e
la
creatività
spontanea
della
mente
umana,
Adamo
non sarebbe
stato
nient’altro
che
un
golem”.11 A
questo
proposito
non
è
un
caso
che
un
ex
manager
di
Uber,
Anthony Levandowski,
abbia
annunciato
nel
2017
la
creazione
di
una
Chiesa
chiamata Way
of
The
Future
che
intende
“tributare
un
culto
all’intelligenza
artificiale
e favorire
la
realizzazione,
l’accettazione
e
l’adorazione
di
una
divinità
basata sull’intelligenza
artificiale,
più
capace
rispetto
agli
esseri
umani
di
fare
scelte razionali
per
guidarli.
[…]
Mi
piacerebbe
che
questa
divinità
ci
considerasse
i suoi
adorati
antenati,
che
ci
rispettasse
e
si
prendesse
cura
di
noi.
Se arriviamo
a
un’entità
un
miliardo
di
volte
più
intelligente
del
più
intelligente degli
esseri
umani,
come
volete
chiamarla?
Non
avremo
altra
scelta
che sottometterci
a
quella
nuova
divinità”.12
Guardare
a
queste
affermazioni
con disprezzo
e
deriderle
sarebbe
sbagliato:
esse
sono
la
testimonianza
di
una forma
di
perspicacia
riguardo
alla
condizione
auratica
che
attribuiamo
alle tecnologie
dell’aletheia
e
alla
loro
autorità,
sotto
il
cui
vincolo
siamo
sempre più
chiamati
a
porci,
rispondendo
a
schemi
di
competenza
della
psichiatria, dei
quali
Anthony
Levandowski
non
sarebbe
altro
che
il
rivelatore,
nella
misura
in
cui
come
mai
prima
nella
storia
“le
cose
fanno
la
parte
degli uomini,
e
gli
uomini
quella
delle
cose;
questa
è
la
radice
del
male”
(Simone Weil).13
2.2
LO
STADIO
INCENTIVANTE
DELLA
VERITÀ:
IL
PIÙ
POSSIBILE
VICINO
AI
CORPI
E
ALLE MENTI
È
già
stato
detto
quasi
tutto
quello
che
c’era
da
dire
a
proposito
dello smartphone.
Si
è
parlato
della
possibilità
che
offre
di
connettersi
a
internet in
qualsiasi
momento
e
in
qualsiasi
luogo,
della
circolazione
esponenziale
di messaggi
e
immagini
che
genera,
del
narcisismo
che
favorisce,
in
particolare attraverso
l’uso,
spesso
compulsivo,
del
selfie;
ci
siamo
allarmati
per
la dipendenza
provocata
dalle
sue
attrattive,
lo
abbiamo
lodato
per
le
sue
virtù ubiquitarie
e
per
il
potere
che
ci
dà
di
essere
nomadi.
Sin
dalla
sua
comparsa e,
soprattutto,
a
mano
a
mano
che
abbiamo
imparato
a
utilizzarlo,
tutti abbiamo
avuto
chiaro
che
si
trattava
di
un
fenomeno
importantissimo,
dalla portata
sociale,
economica
e
civilizzazionale
decisiva.
Ma
come
spesso accade
per
gli
avvenimenti
relativamente
improvvisi,
vissuti
nell’istantaneità e
nel
flusso
precipitoso
delle
circostanze,
accade
che
certi
discorsi
si impongano
più
di
altri
e
diventino
gli
argomenti
di
conversazione
principali; essi
fungono
da
rappresentazioni
dominanti,
mentre
il
punto
saliente continua
a
essere
ignorato;
generalmente
deve
trascorrere
un
certo
tempo affinché
questo
venga
colto
appieno,
perché,
per
quanto
decisivo,
risulta apparentemente
meno
impressionante
ai
nostri
occhi. Nella
fattispecie,
quello
che
per
molto
tempo
è
passato
inosservato
è
che, con
questi
apparecchi,
le
persone,
come
per
miracolo,
hanno
smesso
di dipendere
da
sé
stesse
e
dalla
loro
capacità
intuitiva
e
hanno
iniziato
a
farsi guidare
in
ogni
esperienza
quotidiana.
A
permetterlo
sono
stati
dei
dispostivi fino
ad
allora
inediti,
ossia
le
applicazioni
integrate
ai
sistemi
di
gestione, che
non
solo
offrivano
una
navigazione
facile
e
“intuitiva”
grazie
alle interfacce
ergonomiche
e
perfettamente
adattate
alla
dimensione
ridotta dello
schermo,
ma
prodigavano
anche
tutta
una
serie
di
consigli
calibrati
su ciascuno.
L’origine
di
questa
logica
può
essere
ricondotta
all’uscita dell’iPhone
nel
2007,
che
ha
inaugurato
l’era
dell’affiancamento
degli individui
per
mezzo
di
procedimenti
incaricati
di
facilitarne
la
vita
fornendo la
giusta
informazione
in
qualunque
situazione.
Che
poi
altro
non
era
che
lo slogan
pubblicitario
di
Apple
di
quel
periodo,
ossia
“c’è
un
applicazione
per tutto”;
anche
se
all’epoca
questo
non
era
ancora
del
tutto
vero,
già
attestava
pienamente
la
vocazione
per
cui,
nel
lungo
periodo,
si
sarebbe
arrivati
a integrare
ogni
nostro
più
minimo
gesto. Tuttavia,
nonostante
il
salto
da
un’informazione
offerta
a
tutti
a un’informazione
destinata
al
singolo,
per
perfezionare
questa
architettura mancava
ancora
una
dimensione:
una
sorta
di
interlocutore
unico
con
il quale
poter
stringere
un
sodalizio
familiare
e
fedele,
che
ci
permettesse
di rimetterci
completamente
alle
sue
parole
premurose
e
personalizzate.
Ecco perché
ben
presto
fu
creato
un
nuovo
modello,
spuntato
quasi
dal
nulla: l’assistente
digitale
personale.
Il
primo
a
essere
integrato
in
uno smartphone
fu
Siri,
sviluppato
a
partire
dal
2003
dallo
Stanford
Research Institute,
in
seguito
a
una
richiesta
della
Darpa
(Defense
Advanced
Research Projects
Agency),
e
più
tardi
da
una
start
up
eponima,
che
Apple
acquisì
nel 2010.
La
sua
efficacia
era
inizialmente
limitata,
ma
grazie
al
machine learning
e
ai
vari
progressi
dell’intelligenza
artificiale
il
dispositivo
non
ha mai
smesso
di
migliorare.
Il
suo
impiego
non
doveva
limitarsi
a
un
unico settore,
come
accade
nel
caso
delle
applicazioni,
ma
rivestire
una
posizione “generalista”,
una
sorta
di
guida
di
un
genere
completamente
nuovo,
in grado
di
illuminarci
con
le
sue
conoscenze.
Questo
prototipo
ispirò
Samsung che,
nel
2012,
immise
sul
mercato
la
sua
versione,
S
Voice,
progressivamente sostituita
da
Bixby,
prima
che
Microsoft,
nel
2014,
lanciasse
la
sua,
Cortana, come
fecero
altri
attori
in
quello
stesso
periodo
e
nel
corso
degli
anni successivi.
Quello
a
cui
si
puntava,
senza
che
i
risultati
ancora
oggi
abbiano pienamente
soddisfatto
le
aspettative,
né
che
gli
intenti
sino
mai
stati realmente
esplicitate
in
questi
termini,
era
il
Graal
del
rapporto
tra
marchi
e consumatori:
una
relazione
ultrapersonalizzata
e
ininterrotta
con
il
cliente. I
recenti
progressi
nella
tecnologia
delle
chatbot
migliorano
continuamente la
qualità
dei
“dialoghi”
tra
dispositivi
e
persone,
dando
così
una
dimensione nuova
a
questo
“sodalizio”.
Essi
contribuiscono
a
marginalizzare progressivamente
l’uso
delle
applicazioni
che
funzionano
“in
silos”,
per privilegiare
interazioni
più
fluide
e
destinate
a
rapportarsi
con
soggetti sempre
più
diversificati.
Stiamo
entrando
nell’era
“post-app”,
in
cui
i
sistemi di
messaggistica
istantanea
come
Messenger
o
WeChat,
per
citarne
solo
un paio,
si
presentano
come
“complici”
capaci
di
rispondere
a
qualsiasi
tipo
di richiesta
e
suggerire
le
offerte
considerate
più
adatte.
Se
da
un
lato
il
loro utilizzo
non
è
ancora
maturo,
dall’altro
l’obiettivo
consiste
nel
volersi
erigere a
“porta
d’entrata
del
Web”
in
vista
di
assumere
il
ruolo
di
piattaforma globale
in
tutte
le
società
desiderose
di
stringere
legami
diretti
e
sempre aperti
con
i
consumatori.
Le
interfacce
cosiddette
“conversazionali”
stanno
guadagnando
sempre
più terreno.
Ma
sarebbe
ingenuo
prendere
l’espressione
alla
lettera
e
pensare che
avremo
a
che
fare
con
quello
stesso
tipo
di
“conversazioni”
che, normalmente,
mettono
in
relazione
gli
esseri
umani
che
dialogano
tra
loro per
vari
scopi.
Si
tratta
di
un
abuso
di
linguaggio
in
quanto,
nel
caso
delle chatbot,
l’analisi
in
tempo
reale
delle
parole
formulate
dalle
persone,
così come
la
loro
memorizzazione,
avviene
solo
per
rispondere
a
scopi strettamente
commerciali
o
utilitaristici
e,
sotto
l’apparenza
di
conversazioni dai
toni
familiari,
cercare
di
sostituire
il
senso
con
il
segnale.
Quest’ossatura rappresenta
lo
zoccolo
di
quello
che
viene
definito
“commercio conversazionale”
condotto
da
agenti
intelligenti
“che
perseverano
senza sosta
nel
loro
essere”
per
dare
i
consigli
migliori
su
film,
ristoranti
o
prodotti in
funzione
del
profilo
di
ciascuno
e
delle
circostanze,
arrivando
perfino
a farsi
carico
di
procedere
alle
transazioni.14 Tuttavia,
vista
la
velocità
delle
evoluzioni,
questo
“commercio conversazionale”
rappresenterà
solo
una
fase
momentanea;
la
nuova
sfida
è sopprimere
il
principio
stesso
del
“commercio”,
che
presuppone
una distanza
tra
due
entità.
Dover
prendere
in
mano
lo
smartphone
o
doversi mettere
davanti
a
un
computer
per
utilizzare
delle
interfacce
che
mobilitano principalmente
lo
scritto
è
già
di
per
sé
uno
peso.
Ciò
che
caratterizza l’universo
digital-industriale
è
che,
non
appena
intravede
un
ostacolo,
ha
la straordinaria
capacità
di
aggirarlo
trovando
la
soluzione
migliore.
L’obiettivo è
individuare
le
modalità
più
reattive,
che
necessitino
del
minimo
sforzo
da parte
dell’utente;
a
tal
fine,
esse
devono
inscriversi
in
una
cornice
priva
di qualsiasi
ostacolo,
affinché
tra
la
formulazione
di
un
enunciato
e
il
fatto
di rispondervi
si
inserisca
il
minor
numero
possibile
di
interferenze
e l’immediatezza
funga
da
interazione
quasi
naturale
e
dotata
di
evidenza. Questo
è
il
motivo
per
cui
i
rapporti
con
i
processori,
così
carichi
di
intimità, sono
chiamati
a
essere
vissuti
dagli
individui
in
primis
nella
sfera
privata, considerata
un
ambiente
propizio
all’instaurazione
di
legami
premurosi
e basati
su
un
ascolto
attento.
Gli
oggetti
all’interno
delle
nostre
case
avranno per
vocazione
quella
di
assicurarsi
del
nostro
benessere.
Nelle
nostre
camere, per
esempio,
è
già
possibile
beneficiare
delle
virtù
rasserenanti
promesse
da Dreem,
una
fascia
di
simulazione
sensoriale,
messa
a
punto
dalla
start
up francese
Rythm,
da
indossare
sulla
testa
al
momento
di
andare
a
letto
e
che mette
insieme
“i
metodi
più
efficaci,
dal
biofeedback
alla
neuromodulazione, per
migliorare
la
qualità
del
sonno”.15
Il
dispositivo
sorveglia
i
movimenti notturni
dell’utente,
il
suo
ritmo
cardiaco
e
l’attività
cerebrale
attraverso
un sistema
di
elettroencefalogramma.
Emette
suoni
che
si
propagano
per
conduzione
ossea
allo
scopo
di
favorire
l’addormentamento
e
che
si trasformano
poi
in
“rumori
rosa”
destinati
ad
amplificare
l’attività
del talamo
che
regola
il
livello
delle
onde
delta
favorendo
il
sonno
profondo.
Per finire,
in
quello
che
considera
il
momento
ideale
rispetto
all’attività cerebrale,
aziona
una
sveglia
cosiddetta
“intelligente”
fatta,
a
seconda
delle circostanze,
di
canti
sintetici
di
uccelli
o
di
cicale,
per
esempio.
Un
vero “coach
del
sonno”,
come
lo
definiscono
orgogliosamente
i
suoi
ideatori.
Al mattino
un’applicazione
dedicata
rivela
lo
“sleep
score”
e
rilascia
una
serie
di commenti
che
suggeriscono
i
servizi
e
i
prodotti
da
abbinare.
Nei
nostri bagni,
invece,
per
chi
lo
desidera,
la
vasca
può
diffondere
oli
essenziali
in funzione
dell’umore
attraverso
cartucce
in
grado,
poco
prima
di
terminare, di
ordinare
da
sé
le
proprie
ricariche.
A
questo
punto,
tutti
belli
rilassati
e avvolti
nell’accappatoio,
possiamo
ascoltare,
davanti
alla
nostra
cabina armadio,
i
suggerimenti
di
stilisti
virtuali
come
Echo
Look,
un
dispositivo intelligente
sviluppato
da
Amazon,
pronto
a
consigliarci
l’outfit
del
giorno
o
i vestiti
da
comprare
offrendo
simulazioni
effettuate
per
mezzo
di
sistemi
di realtà
aumentata.16 Per
farsi
carico
del
nostro
benessere,
questi
“smart
agents”
ci
entrano
dentro con
tutti
i
loro
sensori,
con
tutta
la
loro
scienza,
fino
alle
profondità
della nostra
psiche,
grazie
ai
progressi
dell’informatica
cosiddetta
“emotiva” (“affective
computing”)
che
è
già
oggetto
di
numerose
applicazioni.
Ne
sono un
esempio
i
cosiddetti
“robot
sociali”,
ai
quali
siamo
soliti
attribuire
la straordinaria
capacità
di
leggere
la
nostra
anima
e
essere
pieni
di
“empatia” nei
nostri
confronti
al
fine
di
dispensarci
le
migliori
attenzioni.
La
“cura
di sé”,
formalizzata
dall’antica
Grecia
come
una
pratica
volta
a
tendere
verso una
vita
retta
e
sana
grazie
a
esercizi
morali
e
fisici
regolari,
si
trova
a
essere supportata
dalle
tecnologie
dell’aletheia
che,
in
ogni
circostanza,
ci prospettano
la
cornice
ideale
per
il
nostro
pieno
appagamento.
Inoltre l’exagoreusis,
ossia
l’“esame
ininterrotto
di
sé”
guidato
giorno
dopo
giorno da
un
monaco
che
raccoglie
i
pensieri
degli
individui
portandoli
a
compiere un’opera
di
ammissione
permanente17
volta
a
favorire
la
conoscenza
di
sé per
il
tramite
dell’espressione
verbale,
si
trova
a
essere
rilanciata
dai
sistemi che
decrittano
gli
stati
delle
persone
e
si
ergono
a
nuovi
direttori
di
coscienza del
nostro
tempo,
capaci
di
impadronirsi
di
noi
e
imporci
la
condotta considerata
migliore.
Il
tecnoliberismo
tenta
di
fregiarsi
del
titolo
di
prete comprensivo
e
compassionevole,
comunicandoci
i
precetti
necessari
alla “vita
buona”,
l’eudaimonia,
teorizzata
da
Aristotele
come
un’esistenza
felice e
realizzata;
i
suoi
detentori
si
presentano
ormai,
con
fede
ed
entusiasmo, come
i
“fornitori
ufficiali
di
eudaimonia”.
Una
vita
impercettibilmente
e
letteralmente
messa
sotto
tutela
emerge
per grazia
dell’intelligenza
artificiale
che,
con
il
suo
dito,
ci
indica
la
via
da prendere,
come
fosse
il
Cristo
Pantocratore,
o
il
Cristo
in
Maestà.
È importante
notare
che
nell’epoca
antropomorfica
della
tecnica
non
si
tratta solo
di
riprodurre
in
modo
schematico
alcuni
meccanismi
del
cervello,
ma anche
di
cogliere
i
suoi
stimoli,
al
fine
di
creare
un
processo
neuroenergetico
generato
ogni
volta
da
un
input
derivante
dall’attuazione
di
una situazione
favorevole
e
dalla
formulazione
di
enunciati
che
suscitano l’eccitazione
e
conducono,
come
accade
nei
sistemi,
a
un
output
espresso
da un
gesto
sottoposto
alle
intenzioni
definite
dal
processo.
D’ora
in
poi
quello che
ci
aspettiamo
dai
processori
è
che
ci
governino
con
maestria,
che
ci liberino
da
quel
fardello
che
sin
dall’alba
dei
tempi
ci
portiamo
sulle
spalle
e che
però,
fino
a
poco
fa,
costituiva
il
sale
della
vita
e
del
nostro
rapporto
col mondo,
e
cioè
doverci
continuamente
esprimere,
impegnare;
insomma, assumerci
la
nostra
responsabilità.
2.3
LO
STADIO
IMPERATIVO
DELLA
VERITÀ:
DISPOSITIVI
PER
SRADICARE
IL
DUBBIO Ognuna
delle
nostre
azioni
prende
corpo
all’interno
di
un
orizzonte
fatto
di un
nugolo
di
arborescenze
dal
numero
virtualmente
infinito.
Per
quanto possiamo
decidere
di
agire
in
questo
o
in
quell’altro
modo,
nelle
situazioni insignificanti
come
in
quelle
decisive
esistono
sempre
molte
alternative possibili,
e
questo
perché
non
siamo
dotati
del
sapere
assoluto
di
Dio
che
ci permetterebbe
di
prendere
ogni
volta
la
decisione
giusta.
L’indefinita apertura
del
reale
presuppone
l’incertezza
e
la
persistenza
del
dubbio.
È
il destino
tragico,
e
fino
ad
ora
considerato
insormontabile,
dell’esistenza.
Se esiste
un
campo
nel
quale
questo
ventaglio
di
possibilità
–
e
la
conseguente ansia
–
costituisce
un
vettore
di
insicurezza
e
rischio
permanente,
è
quello delle
attività
professionali,
qualsiasi
esse
siano.
L’eccesiva
presenza dell’indecisione,
del
continuo
interrogarsi
le
ricondurrebbe
alla
metafisica, quando
invece
appartengono
a
una
delle
sfere
più
concrete
della
vita, talmente
concrete
che
rispondono
solo
a
dimensioni
utilitaristiche
e
non vogliono
né
devono
caricarsi
di
interminabili
speculazioni
e
inutili
esitazioni che
intralcerebbero
il
raggiungimento
dei
loro
obiettivi
e
minerebbero
alla base
la
loro
praticabilità. È
per
questo
che
il
mondo
del
lavoro,
più
di
qualsiasi
altro
settore,
è
retto da
leggi,
regole,
norme,
certificazioni,
ed
è
per
questo
che
si
inscrive
in ambiti
che
gli
permettono
di
fondersi
in
un
corso
libero
da
continue
e pericolose
fluttuazioni.
A
differenza
di
quanto
accade
nelle
nostre
vite
–
più
sottoposte
ai
brancolamenti
della
soggettività
–,
nel
mondo
del
lavoro devono
essere
fissati
degli
obiettivi
determinati
e
i
mezzi
utili
a
raggiungerli. È
per
questo
che
i
livelli
di
responsabilità
e
la
distribuzione
interna
dei compiti
vengono
definiti
con
precisione:
affinché
non
intervenga
la confusione
a
turbare
il
buon
funzionamento
delle
cose.
Ogni
assembramento di
competenze
richiede
un
sistema
organizzativo
che,
nella
maggior
parte
dei casi,
vorrebbe
essere
dei
più
rigorosi,
ma
le
cui
caratteristiche
variano
in base
ai
settori
di
attività,
alla
storia
di
ogni
singolo
ente,
alla
personalità degli
individui,
e
in
particolare
dei
loro
dirigenti,
generalmente
responsabili di
stabilire,
dall’alto
della
piramide,
la
struttura
generale.
Ma
per
quanto
ci
si sforzi
di
cercare
l’organizzazione
migliore,
di
ricorrere
alle
competenze
più qualificate,
di
avere
una
buona
visione
strategica,
il
dubbio
sotto
sotto rimane
sempre,
l’errore,
trascurabile
o
madornale
che
sia,
è
sempre
dietro l’angolo.
E
così
il
mondo
del
lavoro,
soprattutto
quando
dispone
di
mezzi finanziari,
non
manca
mai
di
mettere
in
atto
procedimenti
e
tecniche
volti
a fare
in
modo
che
le
decisioni
che
prende
siano
sempre
quelle
migliori
e
le
più sicure. Ecco
perché
a
partire
dal
dopoguerra,
agli
albori
di
quel
periodo
che
avrebbe condotto
al
rapido
sviluppo
della
“società
dei
consumi”
e
al
conseguente incremento
della
pressione
concorrenziale,
le
grandi
imprese
cominciarono ad
avvalersi
sistematicamente
dell’aiuto
di
esperti
nei
vari
processi decisionali.
Nel
giro
di
poco,
sul
volgere
degli
anni
Settanta,
le
aziende presero
l’abitudine
di
avviare
collaborazioni
con
istituti
di
consulenza
che mettevano
a
disposizione
squadre
specializzate
considerate
particolarmente aggiornate
sugli
ultimi
sviluppi,
affinché
valutassero
il
loro
andamento generale
e
i
loro
assi
strategici,
ed
eventualmente
contribuissero
a
definirli meglio.
Questi
esperti
proponevano
nuovi
metodi
organizzativi,
risultato
dei progressi
dell’informatica,
che
permettevano
una
gestione
ottimizzata
di certi
settori.
Le
aziende
cominciarono
così
a
destinare
parte
del
loro
budget all’assunzione,
più
o
meno
temporanea,
di
collaboratori
esterni
destinati
a migliorare
il
loro
livello
di
competenza
e
a
portare
una
boccata
d’aria
fresca. A
partire
dagli
anni
Novanta
parallelamente
a
queste
pratiche
vennero proposti
degli
strumenti
di
aiuto
alla
decisione
elaborati
grazie
ai
progressi di
lavori
matematici
incentrati,
in
particolare,
sulle
arborescenze
decisionali, che
tenevano
conto
di
un
contesto
ampio,
di
una
pluralità
di
fattori
e
del ventaglio
delle
alternative
che
si
presentavano
a
ogni
tappa.
Essi
si
offrivano come
strumenti
capaci
di
guidare
le
scelte,
ma
alla
fine
l’ultima
parola spettava
sempre
alle
persone
che
potevano
scegliere
di
seguire
o
meno,
del tutto
o
in
parte,
le
raccomandazioni
formulate.
L’efficacia
di
queste
tecniche
non
ha
mai
smesso
di
crescere,
e
questo
per via
del
regolare
aumento
delle
potenze
di
calcolo,
della
crescente sofisticatezza
degli
algoritmi
e
del
trattamento
di
volumi
di
dati
sempre
più grandi
e
riguardanti
settori
di
attività
sempre
più
diversificati.
Dieci
anni dopo,
questi
sistemi
diventavano
il
cuore
di
un
nuovo
business
model, adottato
in
modo
radicale
dalla
IBM,
per
esempio,
che
nel
2005
ha
ceduto alla
cinese
Lenovo
tutto
il
suo
settore
di
assemblaggio
computer
per focalizzarsi
unicamente
sull’attività
di
consulenza
alle
aziende
e sull’introduzione
di
sistemi
di
organizzazione
e
di
aiuto
alla
decisione. Questa
mutazione
strategica
era
la
testimonianza
di
un
cambiamento
di funzione
dell’informatica.
Nel
secondo
decennio
del
XXI
secolo
questi dispositivi,
che
fino
a
quel
momento
avevano
rappresentato
degli
strumenti di
visibilità
e
di
controllo
dell’andamento
generale
delle
aziende,
divennero capaci
di
interpretare
in
tempo
reale
un
gran
numero
di
situazioni
e, conseguentemente,
di
indicare
le
azioni
da
effettuare;
queste
dovevano essere
eseguite
immediatamente
dalle
persone
o
dai
sistemi
stessi.
I
sistemi si
trasformavano
dunque
in
software
“cognitivi”,
tra
i
quali
il
più emblematico
fu
Watson,
concepito
dalla
stessa
IBM
e
immesso
sul
mercato nel
2011. Sono
molti
i
settori
professionali
che
fanno
ricorso
a
questo
tipo
di dispositivi.
Le
banche,
per
esempio,
principalmente
nei
casi
di
richiesta
di finanziamento,
allo
scopo
di
verificare
il
livello
di
rischio
di
un
cliente
e determinarne
la
solvibilità.
Anche
le
assicurazioni
ne
fanno
uso,
in
genere per
tarare
le
tariffe
dei
contratti
in
base
al
profilo
degli
assicurati
e, addirittura,
in
base
al
loro
comportamento,
tenuto
sotto
controllo
tramite
il posizionamento
di
sensori
sul
corpo
o
nell’automobile.
La
valutazione
dei dossier,
realizzata
dalle
persone
sulla
base
di
un
gran
numero
di
criteri,
tanto determinati
quanto
informali,
e
sottomessa
alla
loro
soggettività,
va sfumando
a
favore
di
una
misura
algoritmica
che,
senza
mezzi
termini, impone
le
sue
idee.
Dal
canto
loro
molte
società
ricorrono
ad
“agenti conversazionali”
per
fornire
ai
candidati
le
informazioni
relative
alle posizioni
aperte
e
per
giudicare
la
qualità
delle
affermazioni
da
loro pronunciate
durante
i
colloqui.18
Nel
caso
di
video
colloqui,
oltre
al
livello della
conversazione,
gli
agenti
intelligenti
sono
in
grado
di
analizzare
i movimenti
della
testa
dei
candidati,
quelli
degli
occhi,
le
espressioni
facciali, fino
a
rilevare
eventuali
sorrisi,
al
fine
di
“stabilire
il
livello
di
interesse
o
di entusiasmo”
di
un
aspirante
e
di
“definire
meglio
la
sua
personalità”.19 L’intenzione
dichiarata
mira
a
proporre
“valutazioni
aumentate”
e
a migliorare
“l’esperienza
del
candidato”,
conformemente
alla
neolingua
digital-manageriale
contemporanea.
D’ora
in
avanti
la
sfida,
più
che nell’esaminare
CV,
consisterà
nel
far
sviluppare
ai
sistemi
dei
“test
della personalità”,
“della
motivazione
e
del
grado
di
intelligenza
emotiva”.
Devono essere
valutate
le
soft
skills
(attributi
personali),
generalmente
in
una prospettiva
predittiva,
al
fine
di
intuire
le
capacità
dei
candidati
di
evolvere all’interno
di
uno
specifico
ambito
e
di
“interagire”
con
le
altre
competenze,
e al
fine
di
stimare
i
futuri
margini
di
miglioramento
delle
persone. Nel
parlare
di
queste
tecniche,
viene
spesso
segnalata
la
presenza
di storture
dovute
al
fatto
che
i
criteri
di
valutazione
sono
inizialmente
stabiliti da
esseri
umani,
suscettibili,
più
o
meno
consapevolmente,
di
essere
mossi da
pregiudizi
e
di
privilegiare
o
sfavorire
certe
appartenenze
etniche,
sociali o
di
genere.
La
preoccupazione
legata
alle
possibili
discriminazioni
da qualche
tempo
costituisce
oggetto
di
una
voluminosa
letteratura.
Quello
che non
viene
mai
detto,
però,
è
che,
al
di
là
delle
eventuali
storture,
le
norme segretamente
applicate
prediligono
la
giovane
età,
la
capacità
di
reattività
e adattamento,
il
corpo
sano,
il
temperamento
conciliante,
tutta
una
serie
di imperativi,
dunque,
che
mirano
alla
creazione
di
un
ambiente
lavorativo sempre
dinamico,
costituito
da
individui
docili
e
spogli
da
qualsiasi
forma
di asperità.
Se
per
ora
questi
metodi
non
sono
altro
che
strumenti complementari
pensati
per
assistere
le
persone,
pare
si
stia
piano
piano andando
verso
l’imposizione
di
procedimenti
rigidi
basati
su
un
registro uniformato
di
esigenze,
a
scapito
della
selezione
di
qualità
fondate
su
ben altri
valori. Oggigiorno
più
le
decisioni
si
rivelano
delicate
o
difficili,
più
si
desidera ricorrere
a
sistemi
capaci
di
istruire
l’azione
umana.
La
giustizia,
ambito particolarmente
soggetto
a
rigorose
procedure
di
controllo,
che
intende
far alternare
gli
argomenti
dell’accusa
e
quelli
della
difesa,
che
esige
l’imperativo della
prova
e
tiene
conto
della
storia
di
ognuno
e
delle
eventuali
circostanze attenuanti,
fa
da
qualche
tempo
appello
a
dispositivi
automatizzati utilizzando
metodi
cosiddetti
“attuariali”,
basati
su
“elementi
oggettivi
e statistici”.
Per
esempio
negli
Stati
Uniti
alcuni
giudici
usano
protocolli destinati
a
valutare
i
rischi
di
recidiva
di
un
accusato
o
a
pronunciarsi
a proposito
dell’opportunità
di
liberare
una
persona
in
attesa
di
giudizio
in funzione
delle
probabilità
che
nel
frattempo
commetta
un
crimine
o
della
sua predisposizione
a
voler
sfuggire
alla
legge.
In
molti
stati
stanno
già sperimentando
dei
software
capaci
di
aiutare,
o
addirittura
sostituire,
i giudici
nei
casi
considerati
ordinari.
Peraltro
esistono
già
programmi
dotati di
facoltà
falsamente
predittive
che
accompagnano
la
convalida
di determinati
arresti,
rovesciando
così
la
funzione
della
giustizia
fino
a
questo
momento
incaricata
principalmente
di
giudicare
a
posteriori
i
reati commessi,
per
partecipare
all’edificazione
di
un
ordine
politico,
e
anche poliziesco,
volto
a
neutralizzare
qualsiasi
eventualità
di
rischio
futuro. Il
motivo
per
cui
la
logica
della
“robotizzazione
della
giustizia”
è
così
vantata, è
che
essa
risponderebbe
alle
necessità
di
prevenire
qualsiasi
minaccia,
di ridurre
i
costi
e
tendere
alla
massima
efficacia.
Come
tutte
le
altre
attività
del settore
pubblico,
anche
la
pratica
giudiziaria
deve
piegarsi
inevitabilmente alla
doxa
della
“trasformazione
digitale”
che
non
smette
di
diffondersi attraverso
la
forza
del
potente
lavoro
di
lobbying
svolto
dal
mondo
digitalindustriale
tra
i
responsabili
politici.
Al
di
là
di
tutti
i
discorsi
possibili, l’effetto
più
rilevante
di
questa
grande
impresa
utilitaristica
consiste
in
una moltitudine
di
norme
che
subdolamente
invadono
procure
e
tribunali.
È come
se
fossimo
giunti
allo
stadio
avanzato
della
classificazione
delle tipologie
comportamentali
“devianti”,
di
cui
la
serie
Mindhunter20 testimonia
i
primi
sforzi
metodici
intrapresi
verso
la
fine
degli
anni
Settanta, e
ormai
non
potessimo
far
altro
che
impiantarla
all’interno
di
sistemi incaricati
di
riportarla
a
equazioni
statistiche
e
probabilistiche
e
così
dotati della
facoltà
di
pronunciarsi,
con
grande
affidabilità
e
dubbio
minimo,
su ogni
caso
specifico.
Jeremy
Bentham,
a
suo
tempo,
intendeva
ottenere un’efficacia
massima
dal
principio
dell’utilità,
prendendo
in
considerazione l’ipotesi
di
“trovare
i
procedimenti
di
un’aritmetica
morale
con
cui
poter arrivare
a
risultati
uniformi”.21 Dove
si
colloca
allora
il
diritto
degli
imputati
e
della
difesa
a
far
valere
la
loro parola
all’interno
dei
contraddittori?
Dove
si
colloca
il
principio
della singolarità
di
ogni
caso
ed
eventualmente
quello
di
vedersi
accordare l’alternativa,
da
sempre
considerata
capitale,
del
beneficio
del
dubbio? Ancora
una
volta
questi
dispositivi
vengono
presentati
come
coinvolti unicamente
nell’ambito
di
funzioni
complementari,
ma
non
bisogna
perdere di
vista
il
percorso
in
atto,
quello
cioè
che
vede
alcuni
sistemi
contribuire, attraverso
la
loro
capacità
di
produrre
conclusioni
presumibilmente
rigorose, alla
relativizzazione
e
forse,
col
tempo,
al
soppiantamento
della
percezione umana
e
inevitabilmente
plurale
delle
cose.
È
chiara
la
regressione
che
si cela
sotto
la
maschera
dei
“miglioramenti
organizzativi”
e
degli “aggiornamenti
tecnologici”?
In
Francia
il
recente
progetto
di
legge
destinato a
far
giudicare
certi
delitti
non
più
dalla
corte
d’assise
–
composta
da
giurie popolari
–
ma
da
giudici,
partecipa
di
questa
tecnicizzazione
della
giustizia che
intende
marginalizzare
qualsiasi
valutazione
soggettiva,
e
di conseguenza
la
parte
di
incertezza
tipica
del
processo
decisionale,
per
avvicinarsi
all’ideale
di
un
preciso
discernimento
dei
fatti
grazie
al
sapere
dei soli
esperti,
aiutati
sempre
di
più
da
protocolli
cui
viene
concesso
il
diritto
di enunciare
una
verità
“oggettiva”
e
“indubitabile”. Sono
molti
i
settori
della
società
ormai
controllati
da
sistemi
che
ci
mettono sotto
la
loro
tutela.
È
il
caso
del
settore
dell’istruzione,
che
da
qualche
tempo fa
ricorso
all’intelligenza
artificiale
allo
scopo
di
“facilitare
l’accesso
a
un insegnamento
personalizzato
per
tutti”.
Come
una
piattaforma
che
offre strumenti
in
grado
di
stabilire
al
volo
“diagnosi
cognitive”,
le
risposte
fornite dagli
studenti
vengono
analizzate
in
tempo
reale
e
i
professori
possono prendere
ispirazione
per
“personalizzare
i
propri
corsi”.22
D’ora
in
poi ciascuno
merita
di
vedersi
offrire
quello
che
ha
il
“diritto
di
aspettarsi”
senza che
vengano
formulate
proposte
di
apprendimento
che
lo
costringano
a evolvere;
ciò
che
conta
è
che
ognuno
sia
“preservato
nelle
sue caratteristiche”,
contrariamente
al
principio
storico
della
scuola,
fino
a
qui vista
come
un’entità
destinata
ad
aprirsi
all’alterità
sotto
molteplici
forme. Inoltre
i
programmi,
concepiti
da
società
private
secondo
criteri generalmente
poco
chiari,
vengono
accolti
con
entusiasmo
nella
scuola pubblica
in
nome
dell’inesorabile
“trasformazione
digitale”. Quello
che
caratterizza
le
tecnologie
di
divulgazione
della
verità
è
che
esse eliminano
l’ambiguità
propria
a
qualsiasi
situazione,
alle
relazioni
umane
e al
linguaggio.
Perché
c’è
una
ricchezza
dell’ambiguità
che
ci
permette
di confrontarci
con
gli
altri
e
con
il
reale
senza
fermarci
a
un’unica
opzione. Essa
rappresenta
un
serbatoio
inesauribile
di
possibilità
e
inventiva.
È esattamente
ciò
che
intende
essere
sradicato
da
quello
che
Schopenhauer
ha identificato
come
un
conformismo
sociale
abile
nell’“arte
di
produrre l’apparenza
della
verità”.
Di
solito
la
società
trova
la
propria
vitalità nell’irriducibile
abbondanza
delle
soggettività,
nella
pluralità
contraddittoria degli
interessi,
nell’imperativo
della
negoziazione,
a
testimonianza
del
diritto di
ognuno
di
far
valere
la
propria
singolarità
che
condiziona
la
perennità
di qualsiasi
collettività
degna
e
valida.
Una
relazione
mortifera
si
instaura ogniqualvolta
una
logica
divenuta
maggioritaria
“cerca
di
espellere
ciò
che non
quadra
con
la
sua
identità”
(Elias
Canetti).23 A
dover
essere
rivalutata
è
tutta
la
filosofia
politica
del
rapporto
con
la norma,
la
verità,
le
istanze
decisionali.
Storicamente,
fino
a
oggi,
le
norme,
le convenzioni,
i
pregiudizi
abitano
una
moltitudine
di
luoghi,
il
linguaggio,
le istituzioni,
i
regimi
giuridici.
Ma
localizzarli
non
è
semplice,
perché
essi
si fondono
in
una
sorta
di
soffice
nebbia
che
rende
difficile,
per
non
dire
impossibile,
la
loro
individuazione.
Rappresentano
punti
di
appoggio
a
modi di
organizzazione
sociale,
favoriscono
la
continuità
di
strutture
di
potere
di qualsiasi
tipo,
influiscono
sui
comportamenti,
fino
a
determinare
in
modo impercettibile
gli
stessi
atteggiamenti
del
nostro
corpo.
Data
l’autorità
più
o meno
insidiosa
che
esercitano
sulle
nostre
vite,
cercare
di
distinguerle
è
un dovere.
Questo
lavoro
ha
rappresentato
una
delle
principali
missioni assegnate
alla
modernità
filosofica,
dall’Illuminismo
a
Nietzsche,
fino
a Foucault,
che
ne
ha
fatto
il
punto
centrale
dei
suoi
lavori.
Se
questo necessario
sforzo
di
discriminazione
è
parte
di
un’impresa
che
non
potrà
mai essere
interrotta,
è
probabile
che
essa
si
complichi,
perché
siamo
giunti
a una
nuova
fase
nella
storia
della
normatività
che
vede
all’opera
meccanismi inediti,
dotati
di
tre
caratteristiche:
quella
di
prendere
forma
all’interno
di dispositivi
che
agiscono
in
modo
automatizzato,
senza
bisogno
della
nostra approvazione
e
in
tempi
brevissimi;
quella
di
essere
chiamati
a
intervenire
in un
numero
sempre
maggiore
di
azioni
individuali
e
collettive,
assumendo una
portata
virtualmente
integrale;
quella
di
vedersi
attribuire
un
valore presumibilmente
oggettivo,
che
li
fa
sembrare
spogli
di
qualsiasi
intento
e concepiti
per
farci
approfittare
della
loro
incomparabile
efficacia. Questa
struttura
non
fa
altro
che
consolidare
l’influenza
di
una
miriade
di norme,
tanto
che
il
semplice
fatto
di
individuarle
e
poi
contrastarle
non
basta più,
è
un
modo
di
intervenire
che
al
giorno
d’oggi
si
rivela
quanto
mai insufficiente.
Come
insufficiente
sarebbe
sviluppare
una
teoria
critica
della normatività
indotta
dagli
algoritmi,
che
non
farebbe
altro
che
constatare
che esistono
criteri
poco
chiari
che
determinano
e
agiscono
sui
nostri comportamenti.
Queste
osservazioni,
già
trite
e
ritrite,
non
solo
sono diventate
banali
nell’analisi
dell’influenza
degli
algoritmi
sulle
nostre
vite, ma
hanno
anche
il
grave
difetto
di
non
rimettere
mai
in
discussione
il principio
stesso
del
loro
potere
decisionale.
A
dispetto
di
queste
posizioni passive
e
ormai
assodate,
ciò
che
conta
è
definire
il
principio
stesso dell’estrema
normatività
formalizzata
all’interno
di
sistemi
cui
è
concesso definire
la
verità
e
avviare
una
serie
di
azioni,
come
qualcosa
di
inconciliabile con
i
valori
che
ci
costituiscono.
Non
si
tratta
di
cercare
di
sapere
quali
siano i
principi
operanti,
o
di
allarmarsi
continuamente
per
le
distorsioni riguardanti
i
risultati,
ma
di
decretare,
alla
base,
che
i
protocolli
che
ci tolgono
il
potere
di
giudizio
e
di
decisione
sostituendosi
alla
nostra
coscienza e
alla
nostra
libertà
di
azione,
devono
essere
considerati
inammissibili.
In altre
parole,
in
nome
della
nostra
eredità
umanistica,
è
nostro
dovere disporre
del
diritto
di
opporci,
ovunque
ci
troviamo,
ai
meccanismi
che mirano
a
imporre,
a
tutti
i
livelli
delle
nostre
esistenze,
un
ordine
unilaterale
e
infondato
delle
cose.
Possiamo
definirla
un’etica
in
atto
delle
nostre convinzioni;
o
una
salutare
messa
in
pratica
di
una
politica
di
legittima difesa.
2.4
LO
STADIO
PRESCRITTIVO
DELLA
VERITÀ:
IPPOCRATE
SOTTO
IL
GIOGO
DEL
PRIVATO È
un
dato
di
fatto.
Se
esiste
un
campo
sufficiente,
da
solo,
a
legittimare l’esistenza
dell’intelligenza
artificiale
e
che
di
certo
beneficerà
di
tutto
il
suo potere
–
del
quale
tutti
prima
o
poi
usufruiremo
–,
è
quello
della
medicina.
È opinione
comune
credere
che
l’intelligenza
artificiale
dovrebbe
permettere alla
ricerca
medica
di
superare
confini
dalla
portata
storica
smisurata.
È
un regalo
quello
ci
viene
fatto
e
non
accettarlo
significherebbe
dare
prova
di diffidenza.
Tale
prospettiva
costituisce
l’argomento
inconfutabile
a
favore
del suo
sviluppo.
E
se
in
certi
settori
le
prassi
in
vigore,
o
in
procinto
di
esserlo, suscitano
preoccupazione
o
disapprovazione,
i
benefici
annunciati
in
questo ambito
segnalano
che
le
cose
sono
complesse
e
che
è
sempre
bene
mostrarsi equilibrati
nelle
valutazioni.
Il
presunto
apporto
dell’intelligenza
artificiale alla
medicina
costituisce
il
punto
d’incontro
dei
suoi
sostenitori
che
in
ogni minimo
dibattito
non
perdono
mai
occasione
di
sfoderare
orgogliosamente questa
infallibile
arma. Yann
LeCun,
impegnato
nel
perfezionamento
del
servizio
clienti
di Facebook,
non
fa
che
ripetere,
in
modo
quasi
caricaturale,
che
“l’intelligenza artificiale
salverà
delle
vite”,
pur
riconoscendo
che
essa
“rappresenta
anche un
pericolo”.24
Allora,
visto
che
è
chiamata
a
“salvare
delle
vite”,
al
pari della
scommessa
di
Pascal,
l’infinita
distesa
delle
sue
promesse
vale
la
pena del
nostro
rischio;
naturalmente,
essendo
tutti,
all’interno
di
questa equazione,
tenuti
all’obbligo
della
“vigilanza”,
la
possibilità
di
determinarci sin
d’ora
e
in
coscienza
su
tali
questioni
è
rimandata
alle
calende
greche. Bisogna
saper
identificare
i
ragionamenti
destinati
a
paralizzare
qualsiasi posizione
divergente.
Ebbene,
dato
che
non
si
fa
altro
che
dire
che
la medicina
trarrà
un’infinità
di
vantaggi
dalle
presagite
virtù
dell’intelligenza artificiale,
sarebbe
bene
andare
a
vedere
da
vicino
come
funzionano
le
cose, al
di
là
dei
discorsi
prefabbricati
che
cercano
di
bloccare
qualunque
impresa critica. La
progressiva
introduzione,
a
partire
degli
anni
Novanta,
di
strumenti digitali
destinati
agli
esami
medici,
nella
radiografia,
nella
cardiologia
o nell’oculistica,
per
citare
solo
alcune
branche,
unita
alla
registrazione
degli esami
su
server,
ha
trasformato
la
medicina
in
una
pratica
generatrice
di volumi
di
dati.
Queste
nuove
consuetudini
hanno
permesso
un
monitoraggio
continuo
dei
pazienti
oltre
che
una
conoscenza
approfondita
di
molte situazioni
individuali
e
collettive
da
parte
di
vari
organismi,
come
gli
enti
di previdenza
sociale,
i
ministeri
della
Salute
o
l’Organizzazione
mondiale
della sanità
(OMS).
La
IBM,
tra
le
altre
società,
ha
voluto
subito
trarre
vantaggio dall’emergere
di
una
medicina
“informazionale”
mettendo
a
punto
un programma
dedicato,
Watson,
che
risponde
a
tre
funzioni.
La
prima
consiste nel
raccogliere
e
analizzare
qualsiasi
tipo
di
dati.
Questi
provengono
dalle cartelle
cliniche
delle
pazienti
e
si
riferiscono
all’evoluzione
del
loro
quadro clinico,
all’efficacia
delle
terapie
e
agli
eventuali
effetti
collaterali.
Inoltre
il sistema
si
informa
dei
vari
focolai
di
infezione
nel
mondo
ed
è
persino
in grado
di
“leggere”
e
sintetizzare
articoli
scientifici
disponibili
online, affinando
continuamente
il
suo
livello
di
competenza.
Costituisce
un
facile strumento
di
accesso
a
una
miriade
di
informazioni
per
i
medici
che possono,
in
questo
modo,
valutare
meglio
le
decisioni
da
prendere. La
seconda
funzione,
sviluppatasi
in
un
secondo
momento,
è
decisamente più
sorprendente
rispetto
alla
storia
della
disciplina.
Watson,
così
come
altri programmi
simili,
è
dotato
della
capacità
di
stabilire
diagnosi.
Può,
ad esempio,
individuare
un
tumore
della
pelle
con
gradi
di
precisione
giudicati superiori
a
quelli
degli
esseri
umani.
Emerge
dunque
una
nuova
abilità,
che corrisponde
esattamente
alla
funzione
aletheica
dell’intelligenza
artificiale, ossia
quella
di
rivelare
situazioni
generalmente
celate
al
nostro
intelletto. Siamo
di
fronte
a
una
svolta
di
portata
storica
che
vede
i
sistemi
capaci
di identificare
eventuali
patologie
ed
esercitare
le
loro
competenze
in
specialità diverse.25
A
caratterizzarli
è
il
fatto
che
essi
sono
il
risultato
di
ricerche condotte
non
dal
mondo
della
medicina,
ma
da
attori
industriali.
Sono
loro ad
avviare
e
sviluppare
i
protocolli
e
poi
a
proporli
ai
vari
centri
diagnostici. Qui
siamo
di
fronte
a
una
forma
di
disgiunzione
tra
il
mondo
tecnicoeconomico
e
quello
della
medicina,
che
non
lavorano
di
concerto,
all’interno dei
partenariati,
in
quanto
il
primo
tenta
di
imporre
le
sue
“innovazioni”
al secondo. Ma
il
personale
medico
non
ha
certo
bisogno
di
essere
convinto:
la
doxa della
“trasformazione
digitale”
come
fonte
di
miglioramento
costituisce un’assoluta
priorità
in
questo
settore.
Invece
di
difendere
il
campo
delle
sue prerogative,
di
dare
prova
di
una
necessaria
distanza
critica,
di
far
valere l’importanza
di
un’attenta
valutazione
prima
di
adottare
tecniche
che
la vincolino,
la
medicina
sceglie
di
procedere,
per
così
dire,
a
testa
bassa, convinta
di
essere
di
fronte
a
un’evoluzione
inevitabile
alla
quale
è necessario
adeguarsi
con
vivacità
per
il
presunto
bene
della
pratica
e
dei pazienti.
Va
da
sé
che
l’eterno
cliché
della
complementarità,
che
dovrebbe
essere
all’opera
nella
diagnostica,
è
destinato
a
fermarsi
a
delle
vane
formule nella
misura
in
cui
ciò
che
è
destinato
a
prevalere
è
la
verità
indubitabile enunciata
dai
sistemi.
L’ipotesi,
certo
costosa,
di
una
controdiagnosi automatizzata
rappresenterebbe
un
contrappeso
tale
da
relativizzarla. L’aura,
destinata
a
essere
sempre
più
luminosa,
concessa
all’aletheia algoritmica,
trova
la
sua
conseguenza
diretta
in
una
terza
funzionalità:
quella di
ricettare,
prescrivere
ricette
mediche
sulla
base
delle
diagnosi
fatte
sia dagli
umani
sia
dai
sistemi
stessi.
Fino
a
poco
tempo
fa
la
prescrizione
di
una ricetta
era
di
stretta
competenza
dei
medici
che
per
formazione
conoscevano alla
perfezione
le
molecole
e
che
dunque
potevano,
in
caso
di
dubbio
o
in determinate
circostanze,
fare
riferimento
a
opere
specifiche,
come
per esempio
il
dizionario
Vidal,
uscito
in
Francia
nel
1914
e
consultabile
online, che
repertoria
le
caratteristiche
dei
farmaci
prodotti
dai
laboratori farmaceutici.
Grazie
alla
grande
quantità
di
informazioni
che
mettono
a disposizione,
questi
glossari
rendono
possibile
al
medico,
laddove necessario,
di
pronunciarsi
con
maggiore
sicurezza
e
di
vedersi
così
restituire il
suo
potere
di
decisione.
Ciò
che
induce
alla
disposizione
automatizzata
è, ancora
una
volta,
l’attenuazione
della
libera
valutazione
in
favore
di
una verità
letteralmente
prescrittiva
che
si
impone
alla
coscienza
umana.
Tra corpo
sanitario
e
mondo
farmaceutico
vengono
così
a
insinuarsi
dei dispositivi
elaborati
da
compagnie
private;
lungi
dal
rivestire
il
semplice ruolo
di
intermediari,
essi
si
pongono
come
veri
e
propri
interlocutori
dai quali
presto
dovrebbe
dipendere
la
più
perfetta
corrispondenza
tra
diagnosi e
terapia. Le
società
farmaceutiche
da
tempo
mettono
in
atto
metodi
volti
a indirizzare
le
scelte
dei
medici
e
a
invogliarli
a
preferire
i
loro
prodotti. Nonostante
le
carte
deontologiche,
è
risaputo
che
questi
spesso
vengono invitati,
con
costi
elevatissimi,
a
convegni
o
beneficino
di
elargizioni. Tuttavia
l’integrità
rimane
una
virtù
cardinale
della
professione.
Alla
lunga diventerebbe
vana,
perché
si
sposterebbe
sui
progettisti
di
sistemi
che,
in caso
di
diffidenza
nei
loro
confronti,
potrebbero
sempre
addurre
come argomento
la
loro
buona
fede,
“protetti”
dall’“obiettività
matematica”
delle equazioni.
Si
preannuncia
una
“lotta
industriale
della
prescrizione”,
nella quale
ogni
azienda
pretenderà
di
arrogarsi
il
ruolo
di
piattaforma indispensabile
che
collega
tra
loro
le
varie
parti
interessate.
Ma
al
di
là
della volontà
di
occupare
una
posizione
terza,
quello
a
cui
assistiamo
è
la
messa
in atto
di
una
strategia
parallela
da
parte
di
queste
società
che
cercano
di collocarsi
in
modo
permanente
all’interno
della
catena
sanitaria
sottraendo
al
personale
medico
il
suo
ruolo,
da
sempre
centrale,
e
ignorando
le
varie esigenze
storiche
pazientemente
definite
dalla
disciplina
nel
corso
del
tempo. Una
delle
principali
mire
dell’industria
del
digitale
è
infatti
la
conquista
del settore
sanitario,
considerato
uno
dei
più
decisivi
insieme
a
quello
della macchina
a
guida
autonoma,
della
casa
connessa
e
dell’istruzione.
Il
progetto richiede
l’adozione
di
molti
assi
strategici
che
devono
incastrarsi
gli
uni
agli altri.
Il
primo,
che
costituisce
in
un
certo
senso
la
base,
sta
nel
raccogliere
il maggior
numero
di
dati
possibili
sui
corpi.
È
il
motivo
per
cui
gli
smartphone oggi
integrano
meccanismi
in
grado
di
misurare
i
passi
effettuati
nel
corso della
giornata,
per
esempio,
esattamente
come
i
braccialetti,
i
letti,
gli specchi,
le
bilance
e
altri
dispositivi
connessi
e
destinati
non
solo
a rispondere
alla
loro
funzione
principale,
ma
anche
a
captare
i
nostri
flussi fisiologici.
Fino
a
poco
tempo
fa
la
raccolta
e
l’analisi
di
tutte
queste informazioni
permettevano
la
formulazione
di
offerte
personalizzate
da
parte del
mondo
della
salute,
certo
suscettibile
di
generare
profitti
colossali;
ma
a questo
mondo
non
è
possibile
non
affiancarne
un
altro,
come
una
sorta
di “articolazione
naturale”,
dalla
portata
altrettanto
colossale:
quello
della prevenzione
e
delle
cure
terapeutiche. Il
secondo
asse
strategico
prevede
il
ricorso
alle
competenze
di
medici
e biologi
affinché
diventino
parte
integrante
nell’elaborazione
delle competenze
automatizzate.
Come
ha
fatto
con
ingegneri
e
programmatori,
il tecnoliberismo
intende
ora
appropriarsi
delle
competenze
dei
medici
per utilizzarle
nei
dipartimenti
di
ricerca
creati
agli
inizi
degli
anni
2010
e dedicati
alla
salute,
come
Google
Health
e
Calico
(Alphabet/Google), HealthKit,
CareKit,
ResearchKit
(Apple),
o
in
molte
start
up
che
operano nella
biotecnologia.
Ne
sono
nate
applicazioni
per
smartphone
in
grado
di formulare
diagnosi
attraverso
la
misurazione
della
temperatura,
l’analisi delle
frequenze
vocali,
della
tosse,
del
viso,
della
sudorazione,
fornendo addirittura
dei
kit
per
il
prelievo
del
sangue.
La
sfida
è
infatti
quella
di
far saltare
il
passaggio
della
visita,
di
renderla
obsoleta,
per
instaurare
una pratica
di
controllo
costante,
una
specie
di
monitoraggio
perenne
offerto
a tutti,
libero
dal
tradizionale
pagamento
a
prestazione
e
fondato
sul
principio dell’abbonamento,
a
garanzia
di
un’attenzione
assidua
in
qualsiasi circostanza. In
questo
modo
le
misure
di
intervento
vengono
messe
in
atto
senza soluzione
di
continuità:
gli
attori
industriali
raccolgono
lo
stato
di
salute delle
persone
attraverso
oggetti
connessi
e
applicazioni
dedicate, propongono
loro
prodotti
e
servizi
di
benessere,
possono
prescrivere
esami
complementari
da
fare
presso
i
loro
laboratori
o
presso
quelli
che
hanno acquistato
le
parole-chiave
corrispondenti,
e
chiudono
il
cerchio
proponendo loro
stessi
delle
terapie,
insieme
a
eventuali
partner
del
mondo
della
salute. Medici,
ospedali
e
altri
operatori
sanitari
si
vedono
così
detronizzati,
per
non dire
marginalizzati,
dall’arrivo
di
questi
“novellini”
che
pretendono
di trasformarsi
negli
interlocutori
più
adatti
a
monitorarci,
a
metterci
in guardia
quasi
in
tempo
reale
da
rischi
o
patologie
imminenti,
e
a
farsi
carico della
nostra
assistenza,
in
qualunque
situazione.
È
il
caso
della
start
up Forward
che
ambisce
a
mettere
a
punto
l’“ambulatorio
del
futuro”.
Si
tratta di
uno
spazio
destinato
a
raccogliere
il
maggior
numero
di
informazioni possibili
su
ogni
“cliente”
il
quale,
in
fase
di
registrazione,
viene
sottoposto
a tutta
una
serie
di
esami:
controllo
di
peso,
altezza,
temperatura,
ritmo cardiaco
e
pressione
arteriosa,
TAC,
prelievo
di
sangue
e
saliva
per
procedere a
un
test
del
DNA
e
stabilire
i
rischi
di
cancro
di
origine
genetica. Un’intelligenza
artificiale
dovrebbe
spiare
le
conversazioni
tra
paziente
e medico
al
fine
di
rilevare
tutti
gli
elementi
utili
a
delinearne
il
profilo. Forward
fornisce
dispositivi
connessi
al
paziente:
braccialetti,
bilance, strumenti
per
monitorare
il
sonno
ed
effettuare
l’elettrocardiogramma.
I
dati raccolti
vengono
studiati
a
distanza
da
un
algoritmo
che
può,
in
caso
di anomalia,
programmare
in
tempi
rapidi
una
visita
per
procedere
ad
analisi
e test.
In
cambio
di
un
abbonamento,
la
società
offre
ai
pazienti
la
possibilità di
usufruire
di
un
numero
teoricamente
illimitato
di
visite
e
vaccinazioni,
di poter
contattare
nutrizionisti
e
di
ricevere
una
scorta
di
farmaci
generici.
Il fondatore
di
Forward
spera
di
aprire
questi
ambulatori
in
molte
città
negli Stati
Uniti
e
all’estero
e
afferma
di
“voler
ricostruire
tutto
da
zero”.26 Di
recente
Google
ha
inaugurato
un’unità
specializzata
nelle
biotecnologie, Verily,
che
nel
2017
ha
reclutato
10
mila
volontari
ai
quali
ha
chiesto
di indossare
dei
sensori
e
sottoporsi
per
quattro
anni
a
prelievi
regolari
al
fine di
monitorare
l’evoluzione
del
loro
stato
di
salute
e
determinare
i biomarcatori
in
grado
di
indicare
i
segni
premonitori
delle
patologie. Quest’iniziativa
è
emblematica
della
volontà
da
parte
dell’industria
del digitale
di
conquistare
il
campo
della
medicina
e
abbattere
le
strutture
che
la reggevano,
grazie
al
monitoraggio
costante
che
permette
una
gestione
iperindividualizzata
e
tendenzialmente
predittiva
delle
nostre
vite.
La
filiale
ha elaborato,
per
esempio,
delle
lenti
a
contatto
capaci
di
rilevare
il
livello
di zuccheri
nel
sangue
dei
diabetici
grazie
alla
partnership
con
la
casa farmaceutica
svizzera
Novartis
che
può
così
essere
presente
nelle
varie
fasi, quella
di
diagnosi,
di
prescrizione
e,
infine,
di
fornitura
di
soluzioni terapeutiche.
Oltre
alla
semplice
intensificazione
dell’intervento
del
privato
nel
campo della
medicina,
quello
a
cui
punta
l’industria
dei
dati
è
una
vasta
impresa
di confisca.
Ma
non
avrà
questa
apparenza,
o
almeno
non
da
subito:
la promessa
principale
è
infatti
quella
di
una
somministrazione
altamente reattiva
ed
efficace
delle
cure,
lontana
da
sale
d’attesa
e
ospedali sovraffollati,
preservata
dalle
eventuali
negligenze
o
fallibilità
dei
medici.
È importante
comprendere
la
regressione
che
avviene
nel
rapporto
tra personale
medico
e
paziente,
nella
misura
in
cui
quello
che
viene
a instaurarsi
è
un
nuovo
tipo
di
verticalità,
che
impone
una
verità
obiettiva delle
competenze
e
delle
raccomandazioni,
le
quali
assumono
il
valore
di enunciati
prescrittivi
superiormente
qualificati.
Viene
eliminata,
dunque, l’ipotesi
della
pluralità
delle
competenze
volte
a
formulare
giudizi
sulla
base del
proprio
sapere
e
della
propria
esperienza,
quella
delle
controvalutazioni che
in
certi
casi
si
rivelano
necessarie,
e
quella
della
consultazione
tra
i
vari specialisti
interessati
per
stabilire
un
determinato
approccio
terapeutico.
È chiaro
quanto
questa
logica
dell’iper-individualizzazione,
retta
dall’uso dell’intelligenza
artificiale,
indebolirà,
tanto
nei
fatti
quanto
nelle
mentalità, l’esigenza
umanistica
della
solidarietà
a
vantaggio
di
rapporti
stretti privatamente
tra
persone
e
organismi?
La
società
del
contratto
è
destinata
a diffondersi
fin
dentro
i
confini
del
settore
medico,
a
scapito dell’instaurazione
di
un
regime
comune
e
con
la
conseguenza
che
saranno soprattutto
i
ceti
sociali
più
agiati
a
godere
dei
servizi
offerti.
Inoltre
la grande
quantità
di
informazioni
raccolte
alimenterà
una
conoscenza
sempre più
approfondita
delle
persone
che
potrà
essere
sfruttata
per
diversi
fini, principalmente
commerciali. Queste
nuove
pratiche
prendono
piede
senza
che
nessuno,
né
il
mondo
della medicina
né
la
società,
reagisca
e
si
mobiliti.
La
doxa
del
miglioramento della
diagnostica
e
della
terapia
ha
sempre
la
meglio,
mentre
i
processi effettivamente
in
atto
continuano
a
essere
ignorati.
Questi
improvvisi cambiamenti
dovrebbero
spronarci
a
comprendere
e
ad
agire
se
vogliamo che
la
pratica
resti,
per
quanto
possibile,
fondata
sul
principio
storico,
ed etico,
della
cura
non
finalizzata
al
profitto.
Quello
che
manca
è
una
teoria critica
del
divenire
della
medicina.
Dovremmo,
prima
di
tutto,
appropriarci del
nostro
diritto
di
fare
una
cernita
e
renderci
conto
che
la
diagnosi automatizzata
può
presentare
dei
vantaggi,
sì,
ma
solo
in
certi
casi;
essa dovrebbe
infatti
essere
utilizzata
con
parsimonia
se
non
vogliamo
che l’industria
si
piazzi
in
modo
permanente
all’interno
della
catena
sanitaria. Arrogarci
questo
diritto
o,
meglio,
obbligarci
a
questo
dovere,
significa
affermare
a
gran
voce
che,
viste
tutte
le
conseguenze
che
comporta,
la prescrizione
automatizzata
è
una
rivoluzione
inaccettabile. Dato
che
la
gravità
di
questi
temi
non
sortisce
alcun
effetto
sui
legislatori
e, peggio
ancora,
dato
che
molte
di
queste
evoluzioni
trovano
appoggio
nei dispositivi
giuridici,
risultanti
da
un
intenso
lavoro
di
lobbying,
mirando unicamente
alla
crescita
economica,
è
dovere
di
tutte
le
persone
coinvolte, tanto
di
quelle
che
difendono
il
principio
di
una
medicina
al
riparo
dalle logiche
di
mercato
quanto
dell’intera
società
civile,
far
valere
delle
sane posizioni
divergenti.
È
giunto
il
momento
di
distinguere
con
coscienza
i fenomeni
e,
ancora
una
volta,
decretare
congiuntamente
che
quando tecniche
e
procedure
ci
privano
del
nostro
potere
decisionale,
devono
essere considerate
inammissibili.
Se
vuole
rimanere
fedele
ai
suoi
valori,
il
corpo sanitario
dovrà
imparare
a
portare
avanti
delle
battaglie,
così
come
fecero
gli operai
nel
corso
della
rivoluzione
industriale
e
negli
anni
Settanta,
per esempio.
Non
tanto
esercitando
il
proprio
diritto
a
scioperare,
ma
essendo
in un
certo
senso
neoluddista,
ossia
avvalendosi,
quando
necessario,
del
diritto imprescrittibile
di
rifiutare
certi
metodi
con
il
fermo
intento
di
difendere
la perennità
di
quei
principi
considerati
intangibili.
Se
rimarremo
immobili, assisteremo
all’avvento
di
una
medicina
la
cui
presunta
qualità
dipenderà dalla
potenza
aletheica
dei
sistemi
e
dalla
capacità
del
mondo
privato
di avvalersi
di
tutti
i
mezzi
logistici
e
persuasivi
necessari
per
erigersi
a principale
interlocutore,
sradicando
così,
in
meno
di
una
generazione,
lo zoccolo
umanistico
sul
quale
si
è
costituita
a
partire
dall’antichità.
Forse questa
può
essere
considerata
la
lente
di
ingrandimento
di
ciò
che
è
in
atto
in altri
settori,
e
dato
che
si
tratta
di
un
argomento
molto
delicato
che
dovrebbe in
teoria
attirare
la
nostra
attenzione,
possiamo
almeno
sperare
che
la
nostra beata
ingenuità
si
attenui.
Se
così
non
sarà,
più
che
un
segno
di
ignoranza,
la nostra
sarà
l’espressione
di
una
colpevole
irresponsabilità
nei
confronti
dei valori
che
ci
fondano.
2.5
LO
STADIO
COERCITIVO
DELLA
VERITÀ:
UNA
POTENZA
DI
SIDERAZIONE Le
nostre
valutazioni
riguardo
alla
tecnica
possono
essere
di
natura
molto diversa:
esse
vanno
dall’entusiasmo
più
cieco
al
raccapriccio
più
profondo. Lo
spettro
è
molto
ampio
tanto
che
ai
suoi
estremi
è
possibile
riscontrare due
visioni
diametralmente
opposte.
La
prima,
immersa
nelle
tenebre, rimanda
all’immagine
di
una
macchina
onnipotente
che
sottomette
gli
esseri umani
con
la
sua
forza
implacabile
e
i
cui
ingranaggi
sfuggono
alla
percezione
comune.
Prenderebbe
forma
in
modo
emblematico
nelle fabbriche
del
Nord
Europa
al
momento
della
rivoluzione
industriale.
Ne
è
un esempio
la
Londra
sudicia
e
fumosa
scoperta
con
sgomento
nel
1842
da Friedrich
Engels
che
nell’opera
La
situazione
della
classe
operaia
in Inghilterra27
denuncia
i
danni
causati
dai
nuovi
processi
standardizzati
di produzione
sui
corpi
e
sulla
psiche
degli
operai
i
quali
diventano,
secondo Marx,
le
“viventi
appendici”
di
un
“meccanismo
morto”:
“Nella
fabbrica esiste
un
meccanismo
morto
indipendente
dagli
operai,
e
questi
gli
sono incorporati
come
viventi
appendici”.28
Più
tardi,
nel
1927,
Fritz
Lang
mostra in
Metropolis,
film
dai
toni
distopici
e
dalle
consonanze
premonitrici,
come la
costruzione
di
megastrutture
architettoniche
associate
a
un
meccanismo generalizzato
dei
modi
di
vita
porti
inevitabilmente
a
rapporti
di
potere asimmetrici
che
incatenano
gli
esseri
umani
in
dinamiche
opprimenti
dalle quali
è
impossibile
sfuggire. La
seconda
visione,
invece,
è
intrisa
di
luce,
come
fosse
sotto
incantesimo. Raggiunge
l’apice
con
una
certa
iconografia
della
società
dei
consumi veicolata
sul
volgere
degli
anni
Sessanta.
Era
evidente,
infatti,
che
essa contribuisse
al
comfort
degli
individui
attraverso
la
produzione
di
nuovi artefatti
concepiti
per
facilitare
la
vita
quotidiana
e
realizzati
con
forme bombate
e
superfici
morbide
e
confortevoli.
Questa
opulenza
trovava
la massima
espressione
nella
Citroën
DS,
automobile
dotata
di
sospensione idraulica,
che
non
appena
veniva
messa
in
moto
sollevava
delicatamente
da terra
o
verso
il
cielo
chiunque
fosse
seduto
al
suo
interno.
Era
provvista
di sedili
in
pelle,
accessori
in
legno
massiccio
o
acciaio
splendente
e
poteva essere
dotata
di
autoradio.
Era
la
testimonianza
su
quattro
ruote dell’esistenza
di
un
mondo
ideale,
e
la
sua
presenza
suscitò
lo
stupore
degli spettatori
presenti
al
Salone
parigino
dell’automobile
raccontato
da
Roland Barthes
nel
1957
nel
saggio
Miti
d’oggi.29
Il
suo
corrispettivo
domestico poteva
essere
la
villa
del
film
Mio
zio
di
Jacques
Tati
(1958),
un
insieme coerente
nel
quale
ogni
singolo
pezzo
era
studiato
nei
minimi
dettagli,
fino quasi
alla
caricatura,
per
garantire
il
massimo
comfort
in
ogni
momento della
vita.
La
cucina
era
equipaggiata
con
tutta
una
serie
di
comodità,
il salotto
si
presentava
come
un’oasi
di
relax,
il
giardino
era
dotato
di
un impianto
di
irrigazione
automatico.
La
casa
sfarzosa
come
stadio
supremo dello
standing,
potremmo
dire.
La
“padrona
di
casa”
non
perdeva
occasione di
manifestare
la
propria
gioia
agli
invitati
che
rimanevano
a
bocca
aperta davanti
a
tutto
quel
lusso
e
a
tutte
quelle
incredibili
funzionalità
che
però confondevano
lo
zio
del
bambino,
un
uomo
che
apparteneva
ancora
al “mondo
di
prima”.
Queste
due
diverse
percezioni
corrispondono
in
parte
a
certe
realtà
vissute, ma
più
in
generale
dipendono
da
due
concezioni
opposte
del
mondo.
Una rinvia
all’infelicità
rousseauiana
di
esserci
dovuti
liberare
un
giorno
dai
limiti imposti
dalla
nostra
condizione
e
di
aver
cominciato
a
piegare
la
natura
e
le cose
al
nostro
impietoso
dominio.
L’altra
risalirebbe
al
pensiero
positivista dell’Illuminismo
che
più
tardi
avrebbe
trovato
la
sua
massima
espressione nelle
aspirazioni
dei
sansimoniani,
i
quali
vedevano
nei
“progressi”
della tecnica
il
requisito
indispensabile
per
il
miglioramento
della
vita
delle persone
e
del
funzionamento
della
società.
Sin
dalla
loro
origine,
queste
due visioni
sono
agli
antipodi.
Ma
da
qualche
tempo
emerge
un
termine
che opera
una
specie
di
sintesi
inaspettata
tra
queste
rappresentazioni
fin
qui considerate
inconciliabili
in
quanto
attive
in
due
settori
di
attività
distinti che
non
intrattengono
rapporti
diretti
tra
loro,
ma
assistono
entrambi
alla messa
in
atto
di
processi
che
impongono
un
ordine
implacabile
e
al contempo
sembrano
sollevare
gli
individui
da
qualsiasi
sforzo
inutile.
Questi due
ambiti
sono
quello
del
management
d’impresa
e
quello
delle
pratiche militari
che,
da
qualche
decennio,
hanno
regolarmente
e
quasi simultaneamente
istituito
metodi
nuovi
governati
da
logiche
analoghe. Quello
che
caratterizza
l’avvento
della
grande
industria
a
partire
dalla
metà del
XIX
secolo
è
che
essa
si
dedica
alla
costruzione
di
imponenti
manifatture al
solo
scopo
di
incrementare
i
volumi
di
produzione,
generalmente
senza preoccuparsi
di
offrire
anche
condizioni
di
lavoro
giuste
e
dignitose.
È
da questo
divario
tra
aspirazione
esclusiva
al
profitto
e
disprezzo
nei
confronti della
classe
operaia
che
nasce
la
teoria
critica
del
capitalismo.
Tuttavia,
sul volgere
del
secolo
successivo
le
cose
prendono
una
forma
più
insidiosa,
in quanto
le
fabbriche
perdono
l’aspetto
di
macchine
spietate
che
riempiono
gli operai
di
fuliggine,
per
acquisire
quello
di
entità
tutto
sommato
asettiche, organizzate
in
modo
razionalizzato
e
dotate
di
dispositivi
che
impongono
la loro
logica
formale
e
le
loro
cadenze.
Quest’ordine
nuovo
viene
applicato
in particolare
nella
fabbrica
fordista,
direttamente
ispirata
al
paradigma industriale
tayloristico
il
quale
aveva
istituito
la
parcellizzazione
e
la meccanizzazione
dei
processi
di
lavorazione
che
Chaplin
si
impegna
a descrivere,
con
un
misto
di
ironia
e
freddezza,
in
Tempi
moderni
(1936).
È proprio
per
entrare
in
contatto
diretto
con
la
realtà
e
scontrarsi
con
questi processi
di
disumanizzazione
che
nel
1934
Simone
Weil
decide
di
impiegarsi come
manovale
nelle
fabbriche
metallurgiche
di
Parigi,
un’esperienza
di
cui darà
conto
nell’opera
La
condizione
operaia.30
Ed
è
proprio
in
opposizione al
tenace
persistere
di
questi
processi
di
disumanizzazione
che
vengono condotte
le
lotte
operaie
degli
anni
Settanta,
per
sottrarre
gli
individui
all’alienazione
–
alienazione
a
cui
il
sociologo
Robert
Linhart
sceglie
di sottoporsi
in
prima
persona
andando
a
lavorare
nelle
catene
di
montaggio
e raccontando
poi
l’esperienza
da
un
punto
di
vista
clinico
nell’opera
Alla catena.
Un
intellettuale
in
fabbrica.31
Tuttavia
all’inizio
degli
anni
Ottanta vengono
introdotte
delle
macchine
utensili
automatiche
che,
a
poco
a
poco, si
sostituiscono
agli
operai
nei
lavori
considerati
più
faticosi,
all’interno
di
un contesto
storico
che
vede
il
rapido
sviluppo
di
un’economia
dei
servizi. Queste
evoluzioni
erano
il
risultato
della
diffusione,
avvenuta
nello
stesso periodo,
di
logiche
cosiddette
“neoliberiste”
che
intendevano
massimizzare
i processi
di
produzione
grazie
all’instaurazione
di
nuovi
metodi
di management.
Esse
volevano
trarre
insegnamento
dai
conflitti
passati
e integrare
altri
assiomi
–
permeati
da
un
certo
spirito
dell’epoca caratterizzato
dall’individualizzazione
delle
condotte
–
che
in
teoria avrebbero
dovuto
coinvolgere
maggiormente
le
persone
e
che
si
sarebbero dovuti
fondare
sul
primato
dell’iniziativa,
della
creazione
di
cellule decisionali
ridotte,
dell’esigenza
di
una
reattività
continua.
Tutta
una
serie
di schemi
che
vennero
descritti
con
precisione
ne
Il
nuovo
spirito
del capitalismo32
e
che
traevano
origine
nel
management
cosiddetto “all’americana”
la
cui
impresa,
affermavano
alcuni
dei
suoi
teorici,
“ormai deve
essere
distribuita,
decentralizzata,
collaborativa
e
adattiva”.33
In
realtà, dietro
un’apparenza
“cool”
e
“orizzontale”,
queste
nuove
modalità
di
gestione del
lavoro
nascondevano
forme
di
pressione
altrettanto
coercitive,
basti pensare
alla
continua
mobilitazione
dei
dipendenti,
alla
messa
in
discussione costante
del
loro
valore,
alla
messa
in
concorrenza
delle
competenze
e all’incessante
instillazione
di
quel
sentimento
di
permanente
instabilità
e conseguente
precarietà
che
è
causa
di
così
tante
sofferenze
fisiche
e psicologiche,
e
a
volte
persino
di
suicidio. Contemporaneamente,
nelle
pratiche
militari
venivano
istituiti
processi modellati
su
principi
in
gran
parte
simili.
Perché
molto
prima,
praticamente in
origine,
l’organizzazione
degli
eserciti
era
stabilita
secondo
strutture gerarchiche
che
incastravano
con
rigore
e
dal
basso
verso
l’alto
le
varie assegnazioni
all’interno
di
una
struttura
piramidale.
Essa
imponeva
la
totale obbedienza
a
tutti
gli
anelli
della
catena
di
comando,
costituita
alla
base
dalla massa
di
soldati
e
in
cima
dai
generali
e
dai
capi
di
stato
maggiore.
Tale conformazione
era
in
vigore
in
particolare
durante
la
Prima
guerra mondiale,
un
conflitto
in
cui
le
condizioni
di
vita
e
di
combattimento
erano talmente
dure
da
imporre
l’assoluta
sottomissione
agli
ordini,
col
rischio
di assistere
a
insurrezioni
o
diserzioni
che
dovevano
essere
severamente
punite, persino
con
la
pena
capitale,
se
necessario.
Era
esattamente
ciò
che
veniva
mostrato
nel
film
di
Stanley
Kubrick
Orizzonti
di
gloria
(1957),
che denunciava
apertamente
i
rigidi
ingranaggi
di
questa
macchina
che
doveva funzionare
senza
intoppi
nonostante
tutte
le
sofferenze
vissute
all’interno delle
trincee. Oltre
mezzo
secolo
dopo,
alle
soglie
degli
anni
Ottanta,
questo
rigido ordinamento
ha
progressivamente
lasciato
il
posto
a
forme
più
flessibili basate
sulla
trasmissione
istantanea
delle
informazioni
tra
le
vare
unità, sull’esigenza
dell’immediata
reattività
degli
individui
coinvolti
e sull’istituzione
di
cellule
di
azione
dotate
di
margini
di
autonomia.
Questo slittamento
nella
gestione
delle
operazioni
verso
un’organizzazione
in “bottomup”,
ossia
“ascendente”,
come
viene
detto
in
gergo
manageriale, venne
intensificato
all’inizio
del
decennio
successivo
grazie
all’uso
di
sistemi di
comunicazione
che
integravano
dispositivi
mobili,
telefoni
cellulari
e computer
interconnessi,
e
attraverso
l’inserimento
di
microchip
su
un
gran numero
di
dispositivi,
come
veicoli,
carri
armati,
elicotteri
e
aerei,
questi ultimi
già
seguiti
dai
radar,
e
sui
soldati
stessi,
permettendone
così
la localizzazione
in
particolare
grazie
al
GPS,
il
cui
utilizzo
in
origine
era destinato
unicamente
all’ambito
militare. Questo
nuovo
scenario
inaugurò
l’era
di
quella
che,
all’epoca,
venne denominata
“digitalizzazione
del
campo
di
battaglia”,
teorizzata
dalla
Darpa e
dai
vari
centri
di
ricerca
di
tutto
il
mondo.
Questi
metodi,
fondati
sul doppio
assioma
dello
scambio
continuo
di
informazioni
e
della
presa
di decisioni
coordinata
e
immediata,
furono
sperimentati
per
la
prima
volta
nel 1991,
durante
la
guerra
del
Golfo,
e
condussero
alla
vittoria
lampo
della “coalizione
internazionale”
sul
regime
di
Saddam
Hussein. Quest’architettura
concettuale
e
operativa,
così
come
il
conflitto
nel
quale
fu applicata,
rappresentarono
una
rottura
storica
nell’“arte
della
guerra”.
Al pari
delle
tecniche
messe
in
atto
nelle
aziende,
la
gestione
degli
eserciti richiedeva
la
mobilitazione
di
ognuno,
ovunque
si
trovasse,
e
la
capacità
di saper
interpretare
rapidamente
qualsiasi
tipo
di
informazione,
di
saper reagire
in
tempo
reale
agli
avvenimenti,
di
dare
prova
di
“agilità”,
di assumersi
in
qualsiasi
momento
la
propria
responsabilità
anche
a
rischio
di passare
per
un
mero
esecutore,
una
specie
ormai
passata
di
moda
davanti all’incedere
della
nuova
figura
cardine
dell’epoca:
l’“agente
autonomo proattivo”. Queste
pratiche,
diffusesi
parallelamente
nelle
aziende
e
negli
eserciti, presumibilmente
“collaborative”
e
dipendenti
dalla
“creatività”
di
ciascuno, sono
state
in
uso
dall’inizio
degli
anni
Novanta
fino
agli
inizi
degli
anni Duemila.
Poi,
all’inizio
del
secondo
decennio
del
XXI
secolo,
si
è
operato
un
ulteriore
rovesciamento,
in
apparenza
discreto:
il
movimento
di digitalizzazione
progressiva,
che
fino
a
quel
momento
aveva
favorito
forme apparenti
di
“orizzontalizzazione”,
portava
nuovamente
alla
sottomissione
a ordini
unilaterali,
questa
volta
non
più
impartiti
da
intrattabili
capireparto
o da
rigidi
capi
coperti
di
medaglie
dalla
testa
ai
piedi,
ma
da
sistemi
di intelligenza
artificiale.
Per
quanto
riguarda
il
mondo
del
lavoro,
questi
usi derivano
dalla
rapida
generalizzazione
dei
“datadriven
manufacture” (l’“azienda
guidata
dai
dati”),
costruita
sul
principio
dell’applicazione
di sensori
sulla
quasi
totalità
degli
anelli
della
catena
industriale,
dalle
unità
di progettazione
a
quelle
di
produzione
e
logistica,
i
quali
generano
grandi masse
di
dati
trattati
da
macchine
capaci
di
interpretare
in
tempo
reale
un gran
numero
di
situazioni
e
di
indicare
immediatamente
a
certe
categorie
del personale
le
azioni
da
compiere. Qui
gli
individui
non
agiscono
più
secondo
il
loro
“spirito
d’iniziativa”
e
la loro
“inventiva”,
ma
si
limitano
a
reagire
a
un
comando,
come
accade
per esempio
nei
magazzini
“drive-in”,
in
cui
personale
equipaggiato
di
cuffie riceve
istruzioni
da
sistemi
che
gli
indicano
continuamente
quale
articolo andare
a
prendere,
in
quale
scaffale
trovarlo
e
in
quale
carrello depositarlo.34
In
questo
caso
gli
individui
ricevono
informazioni
che
devono essere
immediatamente
trasformate
in
azioni
corrispondenti,
secondo
il mantra
liberal-manageriale
attuale
che
esige
“continua
plasticità”
da
parte
di ognuno;
in
altre
parole,
gli
individui
devono
seguire
il
ritmo
delle
situazioni, soggette
alle
continue
fluttuazioni
del
mercato:
“Le
aziende
stanno investendo
negli
strumenti
e
nelle
tecnologie
necessari
per
tenere
il
passo con
il
cambiamento
continuo
tipico
dell’era
digitale.
Ma
di
solito
esiste
un elemento
importante
che
rimane
indietro:
la
forza
lavoro.
Alle
aziende
serve ben
più
che
la
tecnologia
giusta:
devono
poterla
sfruttare
per
consentire
alle persone
giuste
di
fare
le
cose
giuste
come
parte
di
una
‘Liquid
Workforce’ adattabile,
pronta
al
cambiamento
e
reattiva”
(passaggio
tratto
da “Technology
Vision
2016
Trends”,
rapporto
annuale
di
Accenture).35 In
quello
stesso
periodo
nel
settore
militare
si
comincia
a
ricorrere
a
droni
di ultima
generazione
in
grado
di
volare
a
lungo,
dotati
di
sistemi
di
visione
ad alta
definizione
e
capaci
di
individuare
gli
obiettivi,
principalmente attraverso
l’intercettazione
dei
segnali
emessi
dai
telefoni
cellulari
delle persone
a
terra
e
attraverso
dispositivi
di
riconoscimento
di
forme
e
visi.
Gli apparecchi
sono
telecomandati
a
distanza
da
un
nuovo
tipo
di
“pilota”
che, sulla
base
delle
informazioni
trasmesse
in
tempo
reale,
deve
decidere
in pochissimi
secondi
se
colpire
o
meno.
Questo
principio
venne
applicato
in particolare
nella
cosiddetta
politica
degli
“omicidi
mirati”
inaugurata
da
George
W.
Bush
e
intensificatasi
durante
la
presidenza
di
Barack
Obama all’inizio
del
2010,
nel
quadro
della
lotta
contro
i
gruppi
jihadisti
in Afghanistan,
Yemen
e
Somalia,
per
i
quali
si
fece
ricorso
ai
modelli
Reaper
e Predator
che
causarono
un
gran
numero
di
“danni
collaterali”,
secondo
la terminologia
impiegata
dai
portavoce
degli
eserciti
altamente tecnologizzati.36 Quello
che
caratterizza
questi
procedimenti
è
che,
in
nome
della
presunta tutela
dei
propri
soldati
e
di
una
maggiore
efficacia,
non
fanno
più
appello
a un’acquisizione
sensibile
dei
fatti
risultante
dal
contatto
diretto
con
il terreno;
così
facendo
essi
contribuiscono
a
istituire
il
credo
dell’eliminazione come
imperativo
quasi
esclusivo
e
limitano
qualsiasi
azione
all’unica equazione
binaria:
sferrare/non
sferrare
un
colpo
mortale.
Tutte
le alternative
usuali,
come
le
manovre
di
infiltrazione,
di
neutralizzazione
in varie
forme,
oppure,
perché
no,
i
tentativi
di
dialogo,
venivano
esclusi d’emblée
a
vantaggio
dell’uso
o
no
di
un
joystick
azionato
da
qualche
sala
di controllo
generalmente
situata
dall’altra
parte
del
mondo.
Gli
stessi
individui che,
fino
a
qualche
anno
prima,
si
desiderava
gratificare
con
margini
di iniziativa,
si
trovano
ora
a
dover
rispondere,
nella
precipitazione
o nell’isteria
temporale
e
senza
essere
in
grado
di
manifestare
una
qualsiasi distanza
critica,
a
delle
conclusioni
stabilite
alla
velocità
della
luce
da
dei processori. Quello
che
caratterizza
tutte
queste
logiche,
sia
nel
settore
aziendale
che
in quello
militare,
è
la
subordinazione
simbolica
e
formale
degli
individui
a delle
equazioni.
Ma
sta
per
emergere
un
regime
di
natura
inedita,
che
non appartiene
a
nessuna
categoria
nota
e
non
dipende
né
da
un
presunto aumento
di
iniziativa
né
dal
suo
contrario
teorico,
ovvero
la
formulazione
di un
ordine;
esso
infatti
rientra
in
una
sfera
completamente
diversa:
quella della
siderazione.
Amazon
ha
brevettato
un
braccialetto
elettronico
destinato non
tanto
a
indicare
con
precisione
dove
si
trovano
gli
oggetti
in
un
dato spazio
–
come
accade
nei
suoi
depositi
o
più
in
generale
nelle
varie
aree
della datadriven
manufacture
–,
quanto
a
guidare
le
mani
del
dipendente nell’esercizio
dei
suoi
compiti.37
Il
dispositivo
emette
delle
vibrazioni quando
queste
si
muovono
in
una
microzona
giudicata
impropria
o
quando si
avvicinano
a
un
articolo
che
non
corrisponde
a
quello
richiesto,
per indirizzarle
verso
un’altra
direzione.
Non
si
tratta
più
di
far
valutare
a
dei sistemi
le
azioni
che
devono
essere
compiute
dalle
persone;
si
tratta
di valutare
la
pertinenza
di
un
gesto
alla
base
ed
eventualmente
riorientarlo
nel caso
in
cui
si
riveli
inadeguato.
Abbiamo
a
che
fare
con
una
funzionalità
in divenire
e
radicale
delle
tecnologie
dell’aletheia,
incaricate
di
esaminare
in
tempo
reale
alcune
nostre
azioni,
di
verificarne
la
regolarità
e,
in
caso
di eventuale
inadeguatezza,
di
riportarle
immediatamente
in
carreggiata. Nonostante
questo
braccialetto
non
sia
ancora
entrato
in
uso,
esso
è
la
prova evidente
del
fascino
che
l’intelligenza
artificiale
esercita
sulla
società:
ci fidiamo
così
tanto
di
lei
e
la
consideriamo
così
tanto
portatrice
di
verità
da concederle
il
permesso,
nelle
circostanze
più
disparate,
di
correggerci,
quasi di
riportarci
sulla
strada
giusta. Nei
droni
manovrati
a
distanza
l’uomo
risulta
comunque
essere
“in
the
loop”, ossia
all’interno
del
processo
decisionale;
ma
da
qualche
tempo,
ormai,
si
sta profilando
l’ipotesi
di
elaborare
dispositivi
in
cui
l’individuo
sia
“out
of
the loop”,
fuori
cioè
dal
processo
ultimo
di
assestamento
del
colpo,
a
quel
punto appannaggio
di
armi
letali
autonome
(lethal
autonomous
weapons
systems), i
cosiddetti
“robot
assassini”.
Questi
sistemi,
dotati
della
capacità
di identificare
le
persone
e
valutarne
in
tempo
reale
l’eventuale
appartenenza
al “campo
nemico”,
in
futuro
arriveranno
a
uccidere
“di
loro
iniziativa”. Nonostante
non
siano
ancora
in
uso,
sono
oggetto
di
molte
ricerche
condotte soprattutto
dalla
Darpa
e
da
numerosi
laboratori,
pubblici
e
privati,
in
tutto il
mondo.38 Il
solo
fatto
che
si
stiano
progettando
sistemi
simili
la
dice
lunga
circa
il nostro
stato
di
siderazione
di
fronte
all’ineguagliabile
potenza
dei
sistemi aletheici,
ai
quali
un
giorno
verrà
quasi
“naturale”
attribuire
il
potere
di decidere
dell’atto
più
sensibile
che
esista:
dare
la
morte.
Vista
l’esigenza
di “guerre
pulite”
affermatasi
dalla
guerra
del
Golfo
e
in
continua intensificazione
per
via
della
pressione
dell’opinione
pubblica,
l’intenzione
è certo
quella
di
rispondere
all’imperativo
degli
“zero
morti”,
per
lo
meno
nei confronti
delle
proprie
truppe,
ma
soprattutto
a
quello,
più
recente,
degli “zero
errori”.
È
importante
cogliere
la
portata
sintomatica
di
questi dispositivi
concepiti
per
correggerci
o
per
tirarci
fuori
dal
“loop”:
essi
sono
la dimostrazione
estrema
della
nostra
ambizione
di
vedere
formarsi
un
mondo privo
di
intoppi,
nel
quale
le
cose
accadono
solo
e
unicamente
per
una questione
di
“necessità”.
No,
le
macchine
non
si
rivolteranno
contro
di
noi,
e no,
i
robot
non
cercheranno
di
eleminarci
come
fanno
i
cattivissimi
cani
di metallo
che
inseguono
e
massacrano
uno
dopo
l’altro
tutti
gli
esseri
umani
in un
episodio
apocalittico
della
serie
Black
Mirror.39
Quello
che
faranno
sarà sradicarci,
simbolicamente
e
nei
fatti,
spogliandoci
della
nostra
capacità
di confrontarci
con
il
reale
e
generando
tutta
una
serie
di
logiche
autoritarie fino
a
qui
inedite.
Sarebbe
un
errore
pensare
che
questa
potenza
si
limiterà
ai
settori
aziendale e
militare
senza
intaccare
anche
altri
ambiti
della
nostra
vita.
Con
tutta probabilità
essi
si
situano
infatti
all’avanguardia
di
un
ordine
destinato
a ispirare,
o
ad
“aspirare
dietro
di
sé”,
anche
tutti
gli
altri.
È
molto
probabile, infatti,
che,
visto
l’estremo
utilitarismo
che
instaurano,
le
dimensioni incitativa,
imperativa
e
prescrittiva
saranno
destinate
a
salire
di
livello,
ad avvicinarsi
allo
stadio
siderante
e
coercitivo
al
fine
di
raggiungere
l’obiettivo ultimo,
quello
cioè
di
assistere
alla
realizzazione
di
un
mondo
perfetto,
di stampo
igienista,
privo
di
errori,
dove
tutto
sarà
disciplinato,
come
nella visione
leibniziana
del
migliore
degli
universi
raggiungibile
attraverso
i calcoli
operati
dalle
macchine
che
saranno
in
grado
di
rivelarci,
in
qualsiasi circostanza,
la
verità,
una
verità
sistematica
che,
secondo
Hannah
Arendt, finisce
inevitabilmente
per
ricoprire
una
funzione
tirannica,
perché
le “affermazioni
[…]
una
volta
percepite
come
vere
e
dichiarate
tali,
[esse] hanno
in
comune
il
fatto
di
essere
al
di
là
dell’accordo,
della
discussione, dell’opinione
o
del
consenso”;
“[…]
considerata
dal
punto
di
vista
della politica,
la
verità
ha
un
carattere
dispotico”.40
1.
Platone,
La
Repubblica,
Libro
VII. 2.
Aristotele,
Metafisica,
Libro
XI. 3.
Michel
Foucault,
L’uso
dei
piaceri.
Storia
della
sessualità
2,
trad.
it.
di
Laura
Guarino,
Feltrinelli, Milano
2004,
p.
12. 4.
Jacques
Derrida,
La
cartolina.
Da
Socrate
a
Freud
e
al
di
là,
a
cura
di
Silvano
Facioni
e
Francesco Vitale,
Mimesis,
Milano
2017,
p.
82. 5.
Jean
Baudrillard,
Cool
memories.
Diari
19801990,
trad.
it.
di
Andrea
Cossu
e
Lidia
Breda, SugarCo,
Milano
1991,
p.
10. 6.
Cfr.
Jean-François
Lyotard,
Au
juste,
Christian
Bourgois,
Parigi
1979. 7.
Georg
Wilhelm
Friedrich
Hegel,
Fenomenologia
dello
spirito
(1807),
“Il
Sapere
assoluto”. 8.
Gustave
Flaubert,
Opere,
II,
Bouvard
e
Pécuchet,
trad.
it.
di
Bruno
Schacherl,
Sansoni,
Firenze 1953,
p.
1052. 9.
Gustave
Flaubert,
Corrispondenza,
volume
primo,
trad.
it.
di
Giovanni
Battista
Angioletti,
Carabba Editore,
Lanciano
1931,
p.
86. 10.
Gershom
Scholem,
“Il
‘golem’
di
Praga
e
il
‘golem’
di
Rehovot”
in
L’idea
messianica
nell’ebraismo
e altri
saggi
sulla
spiritualità
ebraica,
trad.
it.
di
Roberto
Donatoni,
Adelphi,
Milano
2008,
p.
328. 11.
Ivi,
pp.
328-329.+ 12.
Mark
Harris,
“God
Is
a
Bot,
and
Anthony
Levandowski
Is
his
Messenger”,
Wired,
27
settembre 2017. 13.
Simone
Weil,
La
condizione
operaia,
trad.
it.
di
Franco
Fortini,
SE,
Milano
1994,
p.
266. 14.
Cfr.
Juliette
Raynal,
“Voyages-sncf.com
veut
se
faire
une
place
dans
l’ère
du
commerce conversationnel”,
L’Usine
digitale,
24
ottobre
2017
e
“L’intelligence
artificielle
à
tous
les
étages
dans
le e-commerce”,
L’Usine
digitale,
9
novembre
2017. 15.
Cfr.
https://dreem.com/fr. 16.
Cfr.
Morgane
Tual,
“Echo
Look,
l’algorithme
qui
vous
dit
comment
vous
habiller”,
Le
Monde,
29 luglio
2017. 17.
Cfr.
Michel
Foucault,
Histoire
de
la
sexualité
IV.
Les
aveux
de
la
chair,
Gallimard,
Parigi
2018. 18.
Cfr.
per
esempio
“Thibot”,
la
chatbot
utilizzata
dalla
società
di
consulenza
specializzata
in innovazione
tecnologica
e
ingegneristica
Alten,
o
“Sam”,
utilizzata
dal
gruppo
specializzato
in
audit
e consulenza
Mazars. 19.
Cfr.
i
sistemi
di
video
colloquio
utilizzati
dalle
società
EasyRecrue
o
HireVue. 20.
Mindhunter,
serie
ideata
da
Joe
Penhall,
basata
sul
libro
eponimo
di
John
Douglas
e
Mark Olshaker
(Longanesi,
2017,
trad.
it.
di
Barbara
Piccioli),
prodotta
da
Netflix
nel
2016. 21.
Jeremy
Bentham,
Traité
de
legislation
civile
et
pénale
(1802). 22.
Marine
Miller,
“À
Madrid,
des
étudiants
sous
l’œil
du
big
data”,
Le
Monde,
2
novembre
2016. 23.
Elias
Canetti,
Massa
e
potere,
trad,
it.
di
Furio
Jesi,
Adelphi,
Milano
2009. 24.
Morgane
Tual,
“Yann
LeCun,
de
Facebook:
‘L’intelligence
artificielle
va
sauver
des
vies’”,
Le Monde,
23
settembre
2017. 25.
Per
esempio
un’équipe
di
Stanford
(Stati
Uniti)
ha
concepito
un
software
destinato
a
identificare
i tumori
maligni
cutanei
più
frequenti,
i
carcinomi,
e
quelli
più
aggressivi,
i
melanomi.
Il
sistema
è
stato alimentato
da
un
database
di
130mila
immagini
rappresentanti
più
di
2000
patologie
della
pelle. Un’équipe
cinese
ha
messo
a
punto
un
programma
capace
di
diagnosticare,
con
un’uguale
efficacia, pare,
a
quella
di
un
oculista,
una
malattia
rara
come
la
cataratta
congenita.
Cfr.
Lise
Loumé,
“Une intelligence
artificielle
capable
de
détecter
les
cancers
de
la
peau”,
Sciences
et
avenir,
8
febbraio
2017. 26.
Jérôme
Marin,
“Bienvenue
dans
le
cabinet
médical
du
futur”,
Le
Monde,
31
marzo
2017. 27.
Friedrich
Engels,
La
situazione
della
classe
operaia
in
Inghilterra
(1845),
trad.
it.
di
Raniero Panzieri,
Editori
Riuniti,
Roma
1978. 28.
Karl
Marx,
Il
capitale,
Libro
primo,
a
cura
di
Aurelio
Macchioro
e
Bruno
Maffi,
Utet,
Torino
2009 (I
ed.
1974),
p.
561. 29.
Roland
Barthes,
Miti
d’oggi,
trad.
it.
di
Lidia
Lonzi,
Einaudi,
Torino
2006. 30.
Simone
Weil,
La
condizione
operaia,
trad.
it.
di
Franco
Fortini,
SE,
Milano
1994. 31.
Robert
Linhart,
Alla
catena.
Un
intellettuale
in
fabbrica,
trad.
it.
di
Sabine
Valici
e
Luciano
Bosio, Feltrinelli,
Milano
1979. È
32.
Luc
Boltanski,
Ève
Chiapello,
Il
nuovo
spirito
del
capitalismo,
trad.
it.
di
Matteo
Schianchi, Mimesis,
Milano
2014. 33.
Kevin
Kelly,
Out
of
control.
La
nuova
biologia
delle
macchine,
dei
sistemi
sociali
e
del
mondo dell’economia,
trad.
it.
di
Corrado
Poggi,
Apogeo,
Milano
1996. 34.
Sulla
guida
robotizzata
dei
gesti
nelle
aziende
cfr.
Marie
Gueguen,
“Les
damnés
de
l’hyper”, Philosophie
Magazine,
n.
90,
giugno
2015
e
Naïké
Desquesnes,
“Cours
Rebecca.
Entretien
avec
deux ex-préparateurs
de
commande
chez
Chronodrive”,
Z,
n.
9,
primavera
2015. 35.
Accenture,
Technology
Vision
2016
Trends. 36.
Sulla
politica
cosiddetta
degli
“omicidi
mirati”
cfr.
Jeremy
Scahill
e
il
team
della
testata
online
The Intercept,
La
Machine
à
tuer.
La
guerre
des
drones,
Lux,
Montréal
2017. 37.
Anaïs
Cherif,
“Bientôt
un
bracelet
pour
surveiller
les
employés
d’Amazon?”,
La
Tribune,
5
febbraio 2018. 38.
Per
esempio
il
Pentagono
esorta
ad
“accelerare
l’adozione
delle
capacità
autonome
da
parte
del ministero
della
Difesa”.
Il
generale
Paul
J.
Selva,
vicepresidente
dello
stato
maggiore
degli
Stati
Uniti, affermava
che
entro
una
decina
di
anni
gli
Stati
Uniti
avrebbero
potuto
concepire
dei
robot
capaci
di decidere
da
soli
di
procedere
a
delle
esecuzioni.
Le
aziende
statali
cinesi
sviluppano
già
dei
robot
che tendono
a
essere
autonomi.
La
Russia
avrebbe
testato
il
sistema
Unicum,
che,
secondo
l’agenzia governativa,
“dota
i
veicoli
di
capacità
intellettuali
che
permetteranno,
in
futuro,
di
escludere l’intervento
dell’uomo”.
Il
produttore
russo
Kalashnikov
ha
annunciato
di
stare
lavorando
a
un
modulo di
combattimento
basato
sulle
reti
neurali
“in
grado
di
individuare
bersagli
e
prendere
decisioni”.
Sulle ricerche
in
corso
cfr.
Toby
Walsh,
It’s
Alive!:
Artificial
Intelligence
from
the
Logic
Piano
to
Killer Robots,
La
Trobe
University
Press,
Melbourne
2017. 39.
Black
Mirror,
“Metalhead”,
scritto
da
Charlie
Brooker,
diretto
da
David
Slade,
stagione
4,
episodio 5,
prodotto
da
Netflix
nel
2017. 40.
Hannah
Arendt,
Verità
e
politica,
trad,
it.
di
Vincenzo
Sorrentino,
Bollati
Boringhieri,
Torino
2004 (I
ed.
1995),
pp.
44-45.
CAPITOLO
3 La
mano
invisibile
automatizzata
3.1
UN
LEVIATANO
ALGORITMICO Stiamo
assistendo
a
un
miracolo:
la
città
perfetta
non
esiste
più
soltanto nella
fantasia
di
un
filosofo
o
di
qualche
fanatico
visionario,
ma
sta effettivamente
diventando
realtà.
Per
molti
aspetti,
essa
si
apparenta
a
quella sognata
nel
Rinascimento
da
Thomas
More
che
non
la
situava
in
nessun luogo
in
particolare
perché,
vista
la
sua
immensa
perfezione,
non
doveva ispirarsi
a
nessuna
terra
conosciuta
che
avrebbe
potuto
corromperne l’idealità.
Doveva
sorgere
su
un’isola
immaginaria,
per
poi
un
giorno
essere forse
edificata.
Tutto
in
questa
città
doveva
rispondere
a
un
ordine scrupoloso
e
a
un
principio
di
armonia
pensato
per
contribuire
al
benessere collettivo.
Questa
armonia
universale
non
sarebbe
scaturita
né
della
volontà di
un
tiranno
visionario
né
della
determinazione
di
un
popolo
ispirato,
ma dall’instaurazione
di
un
nuovo
metodo
di
governo
basato
su
uno
strumento che
garantiva
un’eccellente
amministrazione:
la
matematica.
Tutto
in
quella città
veniva
definito
nei
minimi
dettagli,
persino
la
larghezza
delle
strade.
Le 54
città
di
cui
era
composta
dovevano
essere
tutte
costruite
in
base
a
un piano
identico,
includere
gli
stessi
edifici
ed
essere
situate
a
meno
di
una giornata
di
viaggio
l’una
dall’altra,
in
modo
da
essere
al
contempo
autonome e
in
grado
di
commerciare
tra
loro.
Il
romanzo
di
More,
L’Utopia,
pubblicato nel
1516,
descrive
un’organizzazione
politica,
economica
e
sociale minuziosamente
regolamentata
e
pianificata.
Questo
mondo
troverebbe
una forma
compiuta
in
quanto
conforme
in
tutto
e
per
tutto
alla
Ragione,
la
cui massima
espressione
consiste
nel
ridurre
gli
elementi
del
reale
a
dei
numeri al
fine
di
possederne
un’intelligenza
perfetta,
tale
da
permettere
una migliore
gestione
delle
cose. L’ambizione
di
governare
un
Paese
non
tanto
in
modo
ideale
quanto appoggiandosi
più
pragmaticamente
su
basi
razionali
ha
animato
le
grandi nazioni
europee
all’inizio
del
XVII
secolo.
C’era
in
questa
ambizione
un rapporto
non
dichiarato
con
la
fiducia
che
More
nutriva
nelle
virtù
di un’apprensione
numerica
dei
fenomeni.
Toccava
allo
Stato
definire
i
metodi per
riuscire
in
un
simile
intento.
Uno
di
questi,
considerato
prioritario, prevedeva
la
progettazione
di
strumenti
utili
a
offrire
una
conoscenza dettagliata
della
situazione
del
territorio
relativamente
all’agricoltura,
all’allevamento,
all’artigianato,
ai
fiumi,
alla
flotta
mercantile,
alle
abitudini degli
abitanti,
al
pagamento
delle
tasse,
alla
lista
delle
proprietà
del
regno
e di
quelle
dei
suoi
membri.
Nel
concreto
questo
si
traduceva
nella
raccolta
sul campo
di
tutte
le
informazioni
inerenti
alle
risorse
umane
e
materiali.
A occuparsene
sarebbero
stati
dei
nuovi
funzionari:
i
censori.
Nel
1663
JeanBaptiste
Colbert,
intendente
delle
Finanze
di
Luigi
XIV,
fornisce
ai funzionari
del
suo
ministero
un
documento
direttivo
intitolato
Instruction pour
les
maîtres
des
requêtes,
commissaires
départis
dans
les
provinces, destinato
ad
accertare
le
ricchezze
della
regione.
Da
lì
in
poi
l’intenzione
dei governanti
è
quella
di
avere
una
visione
completa
e
precisa
del
Paese
per poter
prendere
decisioni
che
tengano
conto
delle
varie
realtà
e
dei
vari bisogni.
Il
documento
condizionerà
l’attuazione
di
una
buona
governance politica
perché
“prima
di
agire,
lo
Stato
doveva
indagare,
farsi
sociologo”.1 Da
allora
questo
principio
divenne
una
costante
nell’amministrazione pubblica
sostenuta
da
tecniche
che
non
smisero
di
perfezionarsi
nel
tempo fino
a
essere
raggruppate,
a
partire
dal
XIX
secolo,
all’interno
di
una
stessa pratica
riconosciuta
come
“scienza”:
la
statistica.
Essa
cominciava
a
essere oggetto
di
metodi
che
venivano
insegnati
e
via
via
raffinati.
Il
volume
sempre crescente
delle
informazioni
raccolte
necessitava
di
strumenti
di rappresentazione
capaci
di
dare
conto
di
tutta
la
loro
diversità
e
consistenza. Questo
apparato
prese
l’aspetto
di
curve,
istogrammi,
diagrammi,
circolari, grafici,
mappe
colorate
secondo
una
specie
di
visione
speculare
della
società: “Nel
XIX
secolo
la
statistica
ha
un
livello
di
consapevolezza
collettivo”.2
Essa permise
di
redigere
una
cartografia
in
movimento
della
vita
delle
nazioni
e
i suoi
impieghi
ne
accompagnarono
l’espansione,
tanto
che
sul
volgere
del
XX secolo,
in
Europa
come
negli
Stati
Uniti,
si
assistette
a
un’“esplosione statistica”.3 Alla
fine
della
Seconda
guerra
mondiale
la
statistica
avrebbe
contribuito
allo sviluppo
delle
democrazie
social-liberiste
e
della
società
dei
consumi
grazie alla
creazione
di
organismi
dedicati,
come
l’INSEE
(Institut
national
de
la statistique
et
des
études
économiques),
nato
in
Francia
nel
1946
in contemporanea
a
quelli
di
Regno
Unito
e
Stati
Uniti,
poi
seguiti
anche
da altri
Paesi.
Da
quel
momento
due
fattori
decisivi
modificarono
la
natura
e, soprattutto,
gli
utilizzi
della
statistica.
Innanzitutto
essa
non
era
più destinata
unicamente
a
sostenere
le
politiche
pubbliche:
anche
gli
attori economici,
infatti,
cominciavano
a
voler
essere
informati
sulle
abitudini
dei “cittadini-consumatori”.
Istituzioni
come
queste
funzionano
un
po’
come delle
“agenzie
di
coolhunting”
che
danno
conto
dello
spirito
di
un’epoca; sono
grandi
dispensatrici
di
informazioni,
utili
a
definire
al
meglio
le
strategie
industriali
e
a
concepire
nuovi
prodotti
più
in
linea
con
le aspettative
delle
persone. Il
successivo
movimento
di
digitalizzazione,
iniziato
negli
anni
Sessanta, ha
contribuito
a
dare
ampia
testimonianza
delle
attività
della
società
e
ha facilitato
lo
stoccaggio,
l’indicizzazione
e
la
manipolazione
delle informazioni.
In
un
simile
contesto,
nel
1978
venne
redatta
in
Francia
la legge
Informatique
et
libertés
(“Informatica
e
libertà”)
che
desiderava prendere
atto
della
recente
possibilità
delle
amministrazioni
di
disporre
di informazioni
relative
a
certi
aspetti
della
vita
dei
cittadini.
Molti
settori hanno
via
via
generato
dati
digitali
che
potevano
diventare
oggetto
di raccolta
da
parte
degli
organismi
statistici;
a
partire
dagli
anni
Novanta questa
raccolta
venne
poi
favorita
dalla
diffusione
dell’interconnessione. Oggi
disponiamo,
in
teoria,
di
numeri,
diagrammi,
grafici
relativi
a
una miriade
di
settori,
e
il
tutto
a
livello
mondiale.
Questa
topografia
dettagliata
e globale
è
evidente
nelle
risorse
dell’ONU,
per
esempio,
che
espongono informazioni
di
ogni
tipo
riguardo
la
quasi
totalità
dei
Paesi.
Eppure,
proprio nel
momento
in
cui
parrebbero
esserci
tutte
le
condizioni
affinché
le statistiche
vivano
la
loro
età
d’oro,
ci
ritroviamo
a
vivere,
all’alba
del
terzo decennio
del
XXI
secolo,
la
fine
del
periodo
della
preponderanza
statistica. Una
nuova
configurazione
è
infatti
chiamata
a
prendere
il
suo
posto,
e questo
per
via
di
un
doppio
fenomeno:
quello
della
generalizzazione
dell’uso di
protocolli
digitali
–
tanto
da
parte
dei
singoli
quanto
delle
entità
collettive –
e
quello
dell’integrazione
di
sensori
su
tutto
ciò
che
viene
utilizzato dall’uomo.
Questa
configurazione
organizza
il
passaggio
dalla
conoscenza della
componente
di
stati
e
comportamenti,
principale
funzione
della statistica,
alla
messa
a
punto
di
macchine
capaci
di
trattare
masse
di
dati
e,
a seconda
delle
analisi
effettuate,
avviare
da
sole
le
relative
operazioni
sulla base
di
criteri
precedentemente
stabiliti.
Questo
slittamento
dalla
statistica alla
gestione
automatizzata
delle
informazioni
garantita
da
sistemi specializzati
di
intelligenza
artificiale
appare
particolarmente
emblematico negli
smart
grids.
Il
principio
consiste
nel
monitorare
i
consumi
di
elettricità grazie
a
dei
contatori
intelligenti,
sul
modello
del
francese
Linky
concepito da
Enedis
per
generare
una
produzione
justintime
in
base
ai
bisogni,
sia attraverso
centrali,
sia
attraverso
strutture
dotate
di
pannelli
solari
o
altri dispositivi
messi
in
rete,
in
modo
da
redistribuire
l’energia
secondo
i
bisogni del
momento.
Fino
a
poco
tempo
fa,
la
disponibilità
dei
volumi
di
energia dipendeva
dalle
statistiche
stagionali
che,
a
volte,
in
caso
di
improvvise irregolarità,
causavano
guasti
repentini,
come
accade
ogni
anno
da
qualche parte
del
mondo.
Questa
logica,
che
consiste
nel
far
misurare
a
dei
dispositivi
certe
condizioni
e
sulla
base
di
queste
fargli
eseguire
delle operazioni,
si
estende
ora
a
molti
settori. I
grandi
aeroporti,
per
esempio,
oggi
sono
strutturati
come
delle
gigantesche macchine
integrate
dotate
di
sistemi
in
grado
di
orchestrarne
il funzionamento
generale.
Questi
sistemi
calcolano
in
tempo
reale
arrivi
e partenze
degli
aerei
in
base
al
traffico
e
alle
condizioni
meteorologiche, gestiscono
la
consegna
dei
bagagli
e
il
loro
eventuale
reindirizzamento
verso altre
destinazioni,
segnalano
il
numero
di
pasti
necessari
alle
unità
di preparazione
a
seconda
dei
bisogni
giornalieri,
gestiscono
i
flussi
di passeggeri
ai
vari
controlli
disponendo
la
formazione
di
squadre
in
funzione dei
livelli
di
intensità,
elaborano
i
segnali
emessi
dagli
aerei
e
li
trasmettono alle
unità
di
manutenzione
affinché
queste
procedano
ad
analisi
predittive degli
interventi
da
programmare
per
ogni
fascia
oraria…
Ormai
queste megastrutture
architettoniche
e
logistiche
procedono
al
ritmo
dei
processori pensati
per
far
funzionare
il
loro
equilibrio.
È
lo
stesso
principio
che
ispira
la “smart
city”,
concepita
come
un
insieme
composito
in
cui
ogni
ingranaggio
– spostamento
dei
corpi,
reti
di
trasporti,
sistemi
di
fornitura
energetica, negozi,
servizi,
dispositivi
di
sorveglianza
e
sicurezza
ecc.
–
genera
tutta
una serie
di
dati
continuamente
sottoposti
ad
analisi
che
devono
essere prolungate
con
la
realizzazione
di
azioni
regolatrici
automatizzate
e,
più
di rado,
tramite
manipolazioni
operate
da
esseri
umani. Questa
sembra
essere
la
dinamica
all’opera
nel
progetto
sviluppato
da Sidewalk
Labs,
filiale
dedicata
all’“innovazione
urbana”
di
Alphabet,
la
casa madre
di
Google,
che
intende
“rivitalizzare”
un
quartiere
di
Toronto riempiendolo
di
sensori,
telecamere,
radar
e
altri
apparecchi
di
misurazione. I
dati
raccolti
grazie
alle
persone
e
a
quasi
tutte
le
unità
materiali
della
zona alimenterebbero,
in
teoria,
dei
sistemi
incaricati
di
interpretare continuamente
lo
stato
di
tutte
le
componenti
della
città,
per
poi eventualmente
agire
su
di
esse
e
organizzare
al
meglio
la
loro armonizzazione,
come
farebbe
un
software
di
simulazione
3D
nel
quale
ogni operazione
effettuata
in
un
dato
punto
produce
effetti
visibili
su
altri
punti più
o
meno
adiacenti.4
Quella
che
è
destinata
a
imporsi
è
una
concezione
di ispirazione
biologica
e
vitalistica
che
vede
data
scientist
e
programmatori concepire
i
programmi
e
marginalizzare
–
e
probabilmente
presto estromettere
–
urbanisti
e
architetti,
fino
a
rendere
del
tutto
superflui
i rappresentanti
eletti
del
Comune.
Al
di
là
dei
singoli
casi
citati,
sta emergendo
a
gran
velocità
una
sistematica
destinata,
alla
lunga,
a
essere applicata
all’intera
società.
Stiamo
assistendo
a
un’equiparazione
tra
il
nostro
mondo
e
una
macchina perfettamente
regolata
e
in
grado
di
controllare
al
meglio
e
in
qualsiasi momento
tutti
i
suoi
ingranaggi.
Il
Leviatano
di
Hobbes,
pensato
nel
XVII secolo
come
un
orologio
politico
e
sociale
nel
quale
ogni
componente
era collegata
a
tutte
le
altre
e
lavorava
di
concerto
al
suo
funzionamento,
oggi diventa
realtà.
Sin
dalle
prime
righe
del
Leviatano,
l’ipotesi
del
buon
governo deriva
da
una
modellazione
su
una
macchina:
“[Poiché
dall’ARTE
viene creato]
quel
grande
LEVIATANO
chiamato
COMUNITÀ
POLITICA
o
STATO (in
latino
CIVITAS)
il
quale
non
è
altro
che
un
uomo
artificiale,
sebbene
di statura
e
forza
maggiore
di
quello
naturale,
alla
cui
protezione
e
difesa
fu designato.
In
esso
la
sovranità
è
un’anima
artificiale
in
quanto
dà
vita
e movimento
all’intero
corpo;
i
magistrati
e
gli
altri
ufficiali
della
giudicatura e
dell’esecuzione
sono
le
giunture
artificiali”.5
L’ideale,
risalente all’antichità,
di
un
mondo
in
cui
l’agire
umano
può
essere
impeccabile
grazie alla
manipolazione
di
segni
astratti
–
dato
che
“tutto
è
numero”
come
diceva Pitagora
seguendo
un
assioma
ripreso
più
tardi
da
Platone
e
che
abbevererà gran
parte
del
pensiero
occidentale
per
più
di
due
millenni
–
troverebbe oggi,
come
per
miracolo,
il
suo
compimento. La
matematica,
storicamente
considerata
la
conditio
sine
qua
non
per
una buona
intelligibilità
del
mondo
e
per
il
suo
conseguente
controllo, rivestirebbe
oggi
un’efficacia
assoluta,
non
più
relegata
a
un
corpus
fatto
di linee
astratte
o
sfruttate
per
un
numero
limitato
di
applicazioni,
ma
dotata dei
mezzi
per
rendere
conto
di
ogni
particella
del
reale,
grazie
a
tecniche
che permettono
di
ridurle
in
codici
e
sistemi
capaci
di
darne
una
interpretazione e
di
modificarne
il
corso
in
base
alle
necessità.
La
sfida
è
quella
di
riuscire, alla
lunga,
ad
abbracciare
la
totalità
dei
fenomeni
facendo
emettere
loro
dei segnali
in
modo
da
averne
una
perfetta
e
completa
“intelligenza”,
una
“vasta intelligenza”
per
dirla
con
il
matematico
Laplace,
formata
dalla
conoscenza della
globalità
degli
stati
del
mondo
in
un
dato
momento,
in
grado
di dedurre
la
totalità
dei
movimenti
passati
e
di
quelli
futuri:
“Dobbiamo dunque
considerare
lo
stato
presente
dell’universo
come
l’effetto
del
suo stato
anteriore
e
come
la
causa
del
suo
stato
futuro.
Un’intelligenza
che,
per un
dato
istante,
conoscesse
tutte
le
forze
da
cui
la
natura
è
animata
e
la situazione
rispettiva
degli
esseri
che
la
compongono,
se
per
di
più
fosse abbastanza
vasta
da
sottoporre
questi
dati
ad
analisi,
abbraccerebbe
nella stessa
formula
i
movimenti
dei
corpi
più
grandi
dell’universo
e
quelli dell’atomo
più
leggero:
per
essa
non
ci
sarebbe
nulla
di
incerto,
e
il
futuro, così
come
il
passato,
sarebbe
presente
ai
suoi
occhi”.6
È
proprio
per
questa ambizione
di
dotarsi
di
un
potere
assoluto
che
Laplace
aveva
elaborato
una teoria
delle
probabilità
destinata
a
fare
deduzioni
relativamente
a
molti fenomeni
viziati
da
incertezza,
grazie
al
calcolo
di
tutti
i
loro
possibili
effetti.
Solo
ora,
dunque,
il
termine
ordinateur
(utilizzato
in
francese
per
definire
il computer,
N.d.T.)
acquisterebbe
tutta
la
sua
dimensione,
ossia
quella
di “ordinare”,
“mettere
ordine”,
il
giusto
ordine,
d’ora
in
poi
non
più
all’interno di
ambiti
circoscritti,
ma
a
livello
mondiale.
Nel
1955
la
IBM
aveva
chiesto
al filologo
Jacques
Perret
di
coniare
un
nuovo
vocabolo
adatto
a
definire
i nuovi
apparecchi
prodotti.
Dopo
averci
riflettuto,
Perret
era
giunto
a
una conclusione
e
aveva
così
risposto
al
responsabile
del
marketing
della
IBM France:
“Egregio
Signore,
che
ne
direbbe
di
ordinateur?
È
una
parola correttamente
formata,
che
si
trova
anche
nel
Littré
in
quanto
aggettivo
per indicare
Dio
come
colui
che
mette
ordine
nel
mondo.
Una
parola
come questa
ha
il
vantaggio
di
darci
un
verbo,
ordinare,
e
un
nome
d’azione, ordinamento”.
Ciò
nondimeno
nel
nostro
caso
non
avremmo
a
che
fare
con una
macchina
unica
e
onnipotente,
bensì
con
una
serie
crescente
di macchinari
regolatori
e
ordinatori
che
non
si
fonderanno
mai
in
un
unico macchinario
perché
la
loro
efficacia
è
indissociabile
dalla
logica
liberale,
dal principio
della
concorrenza,
che
certo
aizza
l’ambizione
di
dominare
il mercato,
ma
si
trova
inevitabilmente
di
fronte
all’ambizione
simile
che anima
una
miriade
di
altri
attori.
È
esattamente
questo
il
terreno
della
nuova lotta
economica,
che
chiede
alle
aziende
di
ergersi
a
potenze
capaci
di organizzare,
grazie
alla
creazione
di
sistemi
di
raccolta
e
interpretazione
dati, il
miglior
ordine
delle
cose
e
commercializzare
prodotti
o
servizi
che rispondano
alle
necessità
reali
o
presunte
di
ogni
circostanza spaziotemporale
a
livello
mondiale. Il
Leviatano
postulava
una
sovranità
assoluta
incarnata
da
un
principe
o
da un’assemblea
la
cui
autorità
riconosciuta
dava
fondamento
a
una
comunità politica
e
garantiva
la
pace
civile.
Una
delle
principali
funzionalità dell’intelligenza
artificiale
è
l’istituzionalizzazione
di
una
modalità organizzativa
delle
questioni
comuni.
Ma
a
differenza
della
concezione hobbesiana
che
puntava
all’incoronazione
di
un
potere
al
quale
veniva volontariamente
concesso
il
monopolio
della
violenza
al
fine
di
assicurare
la vitalità
delle
attività
umane
messe
così
al
riparo
dall’ingiustizia,
nel
caso dell’intelligenza
artificiale
sono
le
logiche
tecnico-economiche
a
determinare, alla
base,
un
principio
di
governo
avente
valore
di
costituzione
politica.
Esso è
guidato
unicamente
da
scopi
lucrativi
e
utilitaristici
realizzando,
in
un certo
senso,
quella
che
era
l’ambizione
originaria
dell’informatica
–
ossia razionalizzare
certi
settori
della
società
–
ma
conferendole,
un
secolo
dopo, una
portata
quasi
universale
che
ha
consentito
una
transizione
verso
un’“era della
razionalità
estrema”.
Quello
che
dà
potenza,
per
non
dire
onnipotenza, a
questa
dinamica,
è
il
fatto
che
essa
opera
in
maniera
automatizzata.
Ecco
chiarito
come
mai
il
tecnoliberismo
si
sia
dato
tanto
da
fare,
nelle
sue manovre
apparentemente
soft
di
propaganda,
per
diffondere
il
termine “ecosistema”,
lasciando
supporre
che
dietro
ogni
azione
dipendente
da protocolli
digitali
ci
siano
schemi
biologici
e
neurali.
Assistiamo
qui
a un’altra
forma
di
spossessamento:
quello
che
vede
gli
esseri
umani intrappolati,
in
nome
di
una
maggiore
efficacia,
nella
rete
di
un
Leviatano del
nostro
tempo
–
questa
volta
algoritmico
–,
formalizzato
in
meccanismi
ai quali,
per
il
presunto
bene
di
tutti,
viene
concesso
il
diritto
di
agire
“da
soli”, senza
bisogno
del
nostro
consenso
e
senza
che
noi
possiamo,
in
un
numero sempre
maggiore
di
situazioni,
opporre
resistenza. Affinché
quest’ordine
non
smetta
di
consolidarsi,
affinché
realizzi
appieno
il proprio
potenziale,
occorre
affrontare
un
tema
importante:
l’essere
umano. Per
sua
natura,
infatti,
l’uomo
entra
in
contraddizione
con
l’intelligenza artificiale;
tra
i
due
esiste
una
forma
di
incompatibilità
strutturale:
non evolvono
allo
stesso
ritmo
e
non
puntano
sempre
agli
stessi
obiettivi.
Questo dà
all’uomo
il
potere
di
far
cigolare
la
macchina;
egli
esercita
una
forma
di gravità
che
ostacola
il
suo
ritmo
vitale
e
che
porta
questa
o
a
ricorrere
a
lui solo
quando
è
necessario,
o,
opzione
più
drastica
ma
più
proficua,
ad escluderlo
dalle
proprie
questioni.
Ma
non
bisogna
preoccuparsi,
perché
alla fine
egli
riuscirebbe
comunque
a
ritagliarsi
il
proprio
spazio,
un
po’
come all’interno
di
un
giardino
inglese
simile
a
quello
immaginato
da
Rousseau
in Giulia
o
la
nuova
Eloisa,7
descritto
come
un
insieme
nel
quale
tutto
è coltivato
artificialmente
per
assumere
un
aspetto
naturale,
in
modo
che l’uomo,
nonostante
sia
intervenuto
per
organizzarlo,
finisca
per
fondervisi
e lasciarsi
cullare
dalle
onde
armoniose
che
animano
questo
biotopo.
In
questo modo
non
dovrebbe
più
subire
le
maledizioni
originali
dello
sforzo
e
degli accomodamenti
continui
con
il
reale
e
con
gli
altri,
e
potrebbe
godere
in
tutta tranquillità
delle
inesauribili
ricchezze
offerte
dall’utopia
finalmente realizzata
di
un
mondo
perfetto,
non
più
grazie
a
un
Leviatano
dalle spaventose
sembianze
di
un
Pantocratore
imperioso,
ma
grazie
a
flussi incorporei
che
completano
la
folle
ambizione
di
Laplace
e
garantiscono
il miglior
funzionamento
della
società
in
ogni
circostanza.
3.2
L’ESSERE
UMANO
MESSO
AL
BANDO Nel
2013
si
verificò
un
sisma
le
cui
scosse
furono
avvertite
in
tutto
il
mondo. La
società
di
consulenza
manageriale
McKinsey
pubblicò
uno
studio
nel quale
valutava
l’impatto
delle
tecnologie
cosiddette
“disruptive”,
in
particolare
dell’intelligenza
artificiale,
sul
lavoro.
I
risultati
erano
allarmanti. Molti
lavori
erano
destinati
a
scomparire
e
a
essere
sostituiti
da
robot
o
da macchine
cognitive.
Il
fenomeno
interessava
sia
le
professioni
che richiedono
poca
formazione
–
come
quella
del
cassiere,
dell’autista
di
taxi, del
fattorino
o
del
portiere
–
sia
quelle
basate
su
competenze
acquisite
in anni
di
studio
–
come
per
esempio
quella
del
matematico,
del
contabile,
del funzionario
di
banca,
del
grafico,
del
genealogista
o
del
trader
–,
fino
a
quel momento
considerate
meno
soggette
ai
rischi
provocati
dalle
mutazioni tecnologiche.
Facevamo
il
nostro
ingresso
nell’era
della
sostituzione
dei lavoratori
con
i
robot,
secondo
una
profezia
di
Bill
Gates,
fondatore
di Microsoft. Lo
studio
della
McKinsey
fu
immediatamente
ripreso
dalla
stampa
di
tutto il
mondo
scatenando
una
valanga
di
commenti
allarmisti.
Tutto
d’un
tratto sembrava
palesarsi
una
terribile
verità:
l’evoluzione
sempre
più
accelerata delle
tecnologie
digitali,
da
lì
in
avanti
capaci
di
assumere
le
funzioni
più disparate,
metteva
in
pericolo
la
nostra
sussistenza.
In
seguito
vennero condotte
altre
indagini
prospettiche,
come
per
esempio
quella
richiesta
nel 2016
dal
governo
americano,
che
stimava
che
la
percentuale
crescente dell’intelligenza
artificiale
nell’economia
del
Paese
avrebbe
potuto
portare
al licenziamento
di
metà
della
popolazione
entro
il
2050.
Queste
previsioni arrivarono
come
un
fulmine
a
ciel
sereno:
uno
dei
pilastri
della
società moderna,
il
lavoro,
rischiava
l’estinzione,
nessun
settore
escluso.
Era
come se
avessero
annunciato
la
fine
del
mondo.
E
tutto
questo
per
colpa
di prodotti
creati
dall’uomo. Questi
studi
hanno
influenzato
molto
la
nostra
visione
dell’intelligenza artificiale,
al
punto
che
non
appena
si
procede
alla
sempiterna
equazione binaria
che
ne
valuta
i
vantaggi
e
i
rischi,
tra
questi
ultimi
spicca
sempre l’imminente
e
massiccia
distruzione
dei
posti
di
lavoro.
Siamo
talmente spaventati
che
non
riusciamo
a
vedere
nient’altro,
limitando
così
la
nostra percezione
delle
cose.
Da
allora
ci
sono
stati
altri
studi
che
hanno ridimensionato
le
indagini
condotte
dall’agenzia
McKinsey
inserendole
in una
prospettiva
storica,
facendo
presente
che
ogni
sostituzione
era
di
certo destinata
a
trovare
una
contropartita
attraverso
la
creazione
di
nuovi impieghi,
e
facendo
ricorso
all’espressione,
diventata
un
cliché
del
nostro tempo,
“distruzione
creatrice”,
coniata
dall’economista
Joseph
Schumpeter. Ma
il
terrore
planetario
suscitato
da
queste
previsioni
è
la
prova
di
una sorprendente
forma
di
ingenuità.
A
ben
guardare,
ci
si
accorgerà,
infatti,
di come
esse
si
inscrivano
senza
soluzione
di
continuità
nella
storia
del capitalismo
industriale
e
delle
sue
aspirazioni,
ininterrottamente
all’opera
dalla
fine
del
XVIII
secolo.
Perché
quello
che
le
caratterizza,
o
perlomeno quello
che
si
è
imposto
a
partire
dalla
rivoluzione
industriale,
è
che
i
suoi principali
artefici
non
hanno
mai
smesso
di
considerare
l’uomo
una variabile,
mettendolo
sistematicamente
in
relazione
con
i
tassi
di
profitto
e cercando
continuamente
di
ridurre
gli
incarichi
svolti
dalla
manodopera.
Per raggiungere
questo
scopo
si
è
proceduto,
da
un
lato,
a
meccanizzare
i
sistemi di
produzione
al
fine
di
aumentare
i
volumi
e,
dall’altro,
ad
abbassare
i salari.
Fu
proprio
questa
la
logica
analizzata
da
Marx,
la
stessa
che
prevedeva uno
sfruttamento
sistematico
della
forza-lavoro
a
vantaggio
di un’accumulazione,
giudicata
illegittima,
del
capitale. Sul
volgere
del
XX
secolo
si
cominciarono
ad
applicare
metodi
basati
su principi
tayloristici,
volti
a
massimizzare
la
produttività.
Emergeva
una scienza
nuova
che
puntava
a
una
distribuzione
razionalizzata
di
dispositivi
e corpi
all’interno
delle
manifatture
al
fine
di
eliminare
le
perdite
e
tendere alla
massimizzazione
del
profitto.
Questa
scienza
si
chiamava
management. I
suoi
teorici
e
sostenitori
proliferarono
dapprima
negli
Stati
Uniti,
a
partire dagli
anni
Venti,
e
poi
in
diversi
Paesi
del
Nord,
contribuendo
a
modificare
le condizioni
generali
della
produzione.
Tuttavia,
qualsiasi
fossero
i procedimenti
messi
in
atto,
i
costi
legati
al
lavoro
non
accennavano
a
calare, e
questo
per
via
delle
continue
rivendicazioni
salariali,
avanzate
con
ardore dai
sindacati,
che
scatenavano
conflitti
onerosi. Verso
la
fine
degli
anni
Settanta
vennero
proposte
soluzioni
nuove, destinate
a
risolvere
in
parte
questa
equazione:
furono
introdotte
macchine utensili
robotizzate,
in
grado
di
svolgere
azioni
ripetitive,
che
si
sostituivano all’uomo
in
molti
lavori
di
fatica
e
favorivano
l’incremento
della
produttività. Esse
furono
inizialmente
impiegate
nell’industria
automobilistica,
in particolare
in
Giappone
che
inaugurò
questo
momento
storico.
Se
è
vero
che per
tutto
il
decennio
successivo
queste
macchine
non
smisero
di
guadagnare in
efficacia
e
di
svolgere
mansioni
sempre
più
diversificate,
è
anche
vero
che rispondevano
a
un
ventaglio
tutto
sommato
ristretto
di
compiti,
e
al
tempo stesso
erano
solo
le
grandi
aziende
a
disporre
dei
mezzi
necessari
ad acquistarle.
Nello
stesso
periodo
ebbero
inizio
le
manovre
di
delocalizzazione della
produzione
verso
unità
subfornitrici,
situate
per
lo
più
in
Cina
e
nei Paesi
del
Sud-Est
asiatico,
con
il
conseguente
aumento
sostanziale
dei margini.
Tuttavia,
indipendentemente
dalle
modalità
organizzative,
c’è sempre
un
fattore
che,
oltre
a
generare
costi,
oppone
forza
di
inerzia, commette
errori
e
contesta
le
decisioni:
l’essere
umano.
Sin
dall’inizio
del capitalismo
industriale,
l’uomo
ha
rappresentato
l’agente
con
cui
bisogna
continuamente
venire
a
patti
e
che
inevitabilmente
finisce
per
rallentare
la grande
macchina
economica. Oggi
la
soluzione
a
tutte
queste
difficoltà
è
a
portata
di
mano
e
consiste
nel concedere
a
dei
meccanismi
automatizzati
lo
statuto,
tanto
simbolico
quanto formale,
di
metro
campione.
L’obiettivo
non
è
più
solo
quello
di
far
sì
che
i gesti
rispondano
al
comando
imposto
dal
lavoro
cosiddetto
“in
catena”
(in vigore
nella
fabbrica
di
ispirazione
fordista),
o
quello
di
sopprimere
a qualsiasi
costo
l’uomo,
che
in
fondo
può
essere
ancora
utile;
lo
scopo
è determinare
il
valore
di
ogni
atto
produttivo
rispetto
a
quello,
giudicato ottimale,
dei
sistemi.
Questo
assioma
diventerà
ben
presto
il
principale criterio
su
cui
si
baserà
qualsiasi
struttura
organizzativa
o
logistica;
è
fondato sul
postulato
secondo
cui
là
dove
l’efficacia
delle
macchine
sarà
considerata superiore
ed
esse
saranno
disponibili,
finiranno
per
imporsi.
Questa strategia
prende
forma
in
quattro
modalità
differenti. La
prima,
quando
il
confronto
non
caldeggia
la
scomparsa
delle
persone
e certe
tecniche
ambite
non
si
trovano
sul
mercato,
si
avvale
del
principio
di “co-presenza”.
È
il
caso
di
Amazon
che,
all’interno
dei
suoi
depositi,
assegna ai
robot
un
numero
sempre
maggiore
e
sempre
più
vario
di
mansioni;
gli unici
casi
in
cui
ricorre
ai
dipendenti
sono
quelli
in
cui
le
operazioni
non posso
ancora
essere
affidate
a
dei
processi
automatizzati.
Si
preannuncia
un nuovo
movimento
di
sostituzione
massiccia
all’interno
delle
fabbriche,
e
per calmare
gli
animi
le
società
che
producono
questi
dispositivi
parlano
di complementarietà:
“La
caratteristica
dell’uomo
è
quella
di
essere
un
homo faber
che
si
è
sempre
fabbricato
da
solo
gli
strumenti
e
le
macchine
utili
a facilitare
e
migliorare
il
suo
lavoro.
Il
robot
porta
avanti
questa
tradizione, libera
l’uomo
dai
compiti
faticosi,
lo
rende
meno
schiavo.
In
questo
modo l’uomo
potrà
svolgere
soltanto
le
mansioni
degne
di
lui”.8
Ora
andate
a chiedere
a
un
operaio
che
deve
sottostare
ai
ritmi
imposti
da
un
processore che
gestisce
in
tempo
reale
gli
ordini
dei
clienti
se
questa
architettura organizzativa
gli
permette
davvero
di
“migliorare
il
suo
lavoro”
e
“svolgere soltanto
le
mansioni
degne
di
lui”! Il
mito
della
liberazione
dall’“asservimento
del
lavoro”
grazie
alla robotizzazione
prevale
e
i
discorsi
pullulano,
in
particolare
a
proposito
delle società
di
servizio:
“Il
fatto
di
delegare
alla
macchina
permette
ai collaboratori
di
concentrarsi
su
attività
più
creative”.9
Emerge
una
finzione volta
a
predisporre
“l’accettazione
sociale”
di
queste
tecniche:
la
“cobotica”, ossia
la
“robotica
collaborativa”.
Si
passerebbe
“dal
robot
che
lavora parallelamente
all’Uomo,
al
robot
che
lavora
insieme
all’Uomo.
In
un
certo senso,
non
c’è
niente
di
più
‘umano’
di
un
cobot.
[…]
La
prossima
generazione
sarà
quella
dei
‘cognitive
natives’
che
troverà
normale
essere accompagnata
ogni
giorno
da
robot
e
lavorare
‘mano
nella
mano’
con loro”.10
In
realtà
siamo
di
fronte
a
una
retorica
ingannevole:
quello
che avverrà
non
è
un
“accompagnamento
mano
nella
mano”
comportante
un presunto
“upgrade
delle
competenze”,
ma
un
allineamento
delle
prestazioni delle
persone
a
quelle
dei
sistemi. Ormai
l’efficacia
delle
macchine
rappresenta
infatti
il
modello
da
imitare
con la
conseguenza
che
gli
individui,
sia
nelle
fabbriche
che
negli
uffici,
sono continuamente
messi
a
confronto
con
un
referente
dalla
resa
superiore
e inevitabilmente
destinato
a
estrometterli
non
appena
le
tecniche
lo permetteranno.
Ora
più
che
mai
le
affermazioni
di
Gilbert
Simondon formulate
nel
1958
in
Du
mode
d’existence
des
objets
techniques
si
rivelano errate.
Secondo
lui:
“L’uomo
ha
per
funzione
quella
di
essere
il
coordinatore e
l’inventore
permanente
delle
macchine
che
lo
circondano.
Egli
è
tra
le macchine
che
operano
con
lui.
[…]
Man
mano
che
la
macchina
si
fa ‘individuo
tecnico’,
essa
diventa
autonoma
nei
confronti
dell’uomo,
il
quale smette
di
essere
il
suo
semplice
aiutante
per
svolgere
altre
attività
meno faticose”.11
Simondon
ha
voluto
vedere
la
tecnica
semplicemente
come
il prodotto
del
genio
umano,
l’ha
essenzializzata,
senza
cogliere
i
contesti
nei quali
viene
prodotta
e
si
evolve
né,
in
particolare,
la
pressione
esercitata
da due
secoli
dal
mondo
industriale
affinché
essa
si
pieghi
alle
sue
esigenze
e risponda
ai
suoi
interessi,
con
la
conseguente
imposizione
di
modi
di
vita generati,
nella
maggior
parte
dei
casi,
da
rapporti
asimmetrici
di
potere.
In contrapposizione
a
questa
postura
alquanto
naïf,
in
quello
stesso
periodo Jacques
Ellul,
in
La
Technique
ou
l’Enjeu
du
siècle,12
aveva
rilevato
a
che punto
gli
sviluppi
tecnologici,
nella
stragrande
maggioranza
dei
casi, puntassero
soltanto
a
soddisfare
obiettivi
di
profitto
e
rappresentassero
dei vettori
di
assoggettamento
secondo
una
logica
che
da
allora
non
ha
mai smesso
di
consolidarsi,
con
il
risultato
che
oggi
l’uomo
non
si
colloca
affatto “tra
le
macchine”,
ma
deve
o
sottomettersi,
in
molti
casi,
al
loro
ritmo
–
e ormai
al
loro
diktat
–
o,
senza
mezzi
termini,
essere
messo
al
bando
non appena
un
dispositivo
è
in
grado
di
svolgere
le
sue
funzioni. È
esattamente
a
tale
schema
che
risponde
il
secondo
livello
di
questo ordinamento
logistico-manageriale.
Esso
consiste
nel
fare
in
modo
che
i centri
di
produzione
si
configurino
come
“luoghi
di
vita”
nei
quali,
però,
non risiede
alcun
corpo
organico.
È
ciò
che
accade
in
una
compagnia
di spedizioni
cinese
che
ha
affidato
a
dei
robot
il
compito
di
smistare
i
pacchi postali:
i
robot
si
muovono
su
delle
rotaie,
sopra
una
grande
scacchiera;
dopo
aver
recuperato
il
pacco,
quasi
alla
cieca,
procedono
alla
scansione
del relativo
codice
e
si
spostano
per
andare
a
depositarlo
in
una
delle
tante buche
vuote
presenti
nella
scacchiera
in
fondo
alle
quali
si
trovano
delle vaschette
corrispondenti
alla
destinazione.13
Ogni
movimento
è strettamente
necessario;
fatica
ed
errori
sono
azzerati.
Quella
che
si
verifica
è una
forma
di
silenziosa
concordanza
tra
masse
di
dati
continuamente elaborate
e
corrispondenti
operazioni
fisiche,
conformemente
al
concetto
di fabbrica
d’ora
in
poi
considerata
un
“gemello
digitale”
(digital
twin)
che
fa
sì che
ogni
gesto
risponda
immediatamente
e
senza
errori
a
un’equazione prodotta
dai
sistemi.14
Un
essere
umano
non
sarebbe
mai
in
grado
di operare
a
un
simile
ritmo
e
con
un
simile
livello
di
regolarità
ed
efficacia.
Se è
vero
che
in
molti
settori
si
desidera
attribuire
a
delle
persone
il
ruolo
di “gemello
digitale”,
è
vero
anche
che
la
dimensione
di
stretta
equivalenza contenuta
nel
nome
presuppone
che,
alla
lunga,
in
tutti
quei
casi
in
cui
il posto
potrà
essere
occupato
da
un
“vero
gemello”,
la
loro
revoca
si
rivelerà inevitabile.
A
differenza
della
meccanizzazione
delle
catene
di
montaggio, che
presupponeva
il
continuo
avanzamento
dei
moduli
nelle
varie
macchine che
operavano
a
mano
a
mano
che
questi
passavano,
quello
che
caratterizza questi
nuovi
dispositivi
industriali
è
che
le
macchine
si
muovono
da
sole come
un
corpo
di
ballo
in
una
coreografia
perfettamente
studiata. Lo
scopo,
ora,
è
infatti
dotare
i
dispositivi
di
qualità
sensomotorie
e cinestetiche
identiche
a
quelle
degli
esseri
umani,
in
base
alle
attuali
ricerche nell’ambito
della
robotica
che
aspirano
a
concepire
conformazioni antropomorfiche
in
stretto
contatto
con
quelle
all’opera
nelle
scienze computazionali.
Questa
traiettoria
fa
entrare
la
robotica
in
una
fase ulteriore:
ora
gli
ingegneri
non
si
accontentano
più
di
mettere
a
punto
dei meccanismi
in
grado
di
eseguire
operazioni
dalle
possibilità
gestuali illimitate,
ma
progettano
macchine
capaci
di
rispondere,
alla
lunga,
a
un numero
virtualmente
illimitato
di
operazioni,
attribuendogli
così
lo
statuto di
“gemelli
propriocettivi
di
noi
stessi”.
I
robot
di
oggi,
contrariamente
a quelli
delle
“generazioni”
precedenti,
eseguono
tutta
una
serie
di
azioni
e sono
dotati
di
reattività,
addirittura
di
spirito
di
iniziativa,
incarnando
così
il sogno
dei
teorici
del
management:
la
cosiddetta
“robolution”.
Essa
dipende da
macchine
“abili”,
ricoperte
di
sensori
e
obiettivi
per
catturare
le
immagini, e
“animate”
da
programmi
di
intelligenza
artificiale.
Come
YuMi,
robot munito
di
braccia
e
mani
flessibili,
che
può
individuare
i
pezzi
a
lui
vicini
e procedere
all’assemblaggio
di
dispositivi
elettronici.15
Amazon
intende produrre
dei
“robot-fattorini”,
droni
in
grado
di
effettuare
consegne
volando a
bassa
quota.
Il
robot
Tug
è
stato
definito
dai
suoi
ideatori
un
“aiuto infermiere”:
si
presenta
come
un
carrello
al
quale
è
stato
integrato
un occhio-obiettivo,
simile
al
personaggio
R2-D2
di
Guerre
stellari;
è
già
presente
in
molti
ospedali
americani
dove
si
occupa
di
distribuire
medicinali, bicchieri
d’acqua
o
pasti.16
In
realtà,
alla
lunga,
questi
robot
–
sia
quelli
di metallo
che
quelli
incorporei
–
arriveranno
a
svolgere
qualsiasi
mansione. Richiedere
indagini
prospettiche
sul
futuro
del
lavoro
è
inutile:
questa volontà
irrefrenabile,
da
parte
del
mondo
industriale,
di
spingere
la
ricerca
a mettere
a
punto
dispositivi
destinati
a
eseguire
la
quasi
totalità
delle
nostre operazioni
cognitive
e
materiali
ci
dà
già
la
risposta. Il
terzo
livello
di
questa
dinamica
manageriale
procede
attraverso l’evanescenza
e
il
vuoto.
Prende
forma
in
modo
particolarmente emblematico
nei
recenti
negozi
senza
cassiere,
come
quelli
aperti
da Amazon,
per
esempio.
Grazie
a
una
miriade
di
sensori
e
a
sistemi
di intelligenza
artificiale,
è
possibile
procedere
in
tempo
reale all’identificazione
dei
clienti,
alla
lista
dei
loro
acquisti,
all’incasso
e,
infine, alla
segnalazione
dello
stato
degli
stock
alle
unità
logistiche.
Questa configurazione
è
esattamente
sulla
stessa
linea
dei
distributori
automatici
da tempo
presenti
nelle
stazioni
della
metropolitana
di
varie
città
del
mondo
o in
quasi
tutte
le
strade
del
Giappone.
Presto
ci
ritroveremo
a
camminare
in mezzo
a
scaffali
senza
personale,
con
voci
sintetizzate,
sistemi
di
realtà aumentata
o
assistenti
virtuali
che
ci
orienteranno
verso
i
prodotti
di
cui abbiamo
bisogno
e
verso
le
nostre
voglie
del
momento
e
si
occuperanno
del buon
andamento
di
tutte
le
operazioni. Il
quarto
livello,
quello
più
discusso
e
che
suscita
più
preoccupazioni
– probabilmente
perché
minaccia
lavori
“altamente
qualificati”
–
consiste nell’affidare
a
dei
sistemi
un
numero
sempre
maggiore
di
compiti
cognitivi. Viene
messo
in
pratica
soprattutto
nel
campo
dei
servizi,
come
per
esempio l’introduzione
di
una
versione
specializzata
di
Watson,
battezzata
Explorer, all’interno
di
una
compagnia
assicurativa
giapponese,
la
Fukoku
Mutual Insurance,
che
ha
comportato
il
licenziamento
di
una
parte
dell’organico.17 Il
sistema
si
occuperà
di
“leggere”
autonomamente
migliaia
di
certificati medici
e
calcolare
le
liquidazioni
sanitarie
da
erogare
agli
assicurati
a
una velocità
senza
precedenti.
Le
professioni
minacciate
da
questa
pratica
sono molte:
gestori
di
conti
correnti,
consulenti
finanziari,
revisori
legali,
analisti giuridici,
persino
presentatori
tv
del
meteo…
e
la
lista
potrebbe
continuare
a lungo. Oggi
più
che
mai
il
liberalismo
trae
profitto
da
un’instabilità
permanente ricorrendo
a
un’arma
implacabile:
adattare
le
sue
strategie
in
base
alla
sola dinamica
suprema
dei
processori,
sottoponendo
così
corpo
e
psiche
a
un continuo
confronto.
Ma
sarebbe
sbagliato
credere
che
questa
logica
resti
circoscritta
alla
sola
questione
della
sostituzione
dei
lavori;
sono
infatti all’opera
ben
altre
forme,
più
subdole,
di
negazione
delle
nostre
facoltà. Come
per
esempio
il
fatto
di
avvalersi
della
nostra
intelligenza
e
del
nostro intuito
in
professioni
come
quella
dell’infermiere
o
dell’aiuto
infermiere assunti
nelle
unità
di
cure
palliative,
che
devono
dare
prova
di
attenzione
ed empatia
verso
i
malati,
o
in
tutti
quei
mestieri
che
richiedono
un
know-how specifico,
come
quello
del
giardiniere,
del
fornaio
o
del
cuoco,
dei
quali
si
sta a
poco
a
poco
cercando
di
automatizzare
i
gesti.
Ne
è
un
esempio
il
sistema concepito
dalla
start
up
Zume
per
la
preparazione
delle
pizze:
il
disco
di pasta
viene
steso
su
un
nastro
trasportatore,
un
primo
robot
versa
la
salsa
di pomodoro,
un
secondo
robot
farcisce
e
un
terzo
robot
inforna.18
O,
ancora, la
pratica
in
uso
nell’agricoltura
cosiddetta
“di
precisione”
che
attraverso sensori,
droni
e
sistemi
di
intelligenza
artificiale
propone
applicazioni
di supporto
alla
decisione
che
contribuiscono
a
spezzare
il
rapporto
diretto
con gli
elementi
imponendo
pratiche
omogenee
che
favoriscono
l’esecuzione delle
azioni
considerate
le
più
pertinenti
in
ogni
circostanza
spaziotemporale finendo
con
lo
spossessare
le
persone
delle
loro
competenze.
Proprio
perché in
molte
attività,
specialmente
in
quelle
che
permettono
di
far
fruttare
tutte quelle
capacità
che
andrebbero
difese
con
le
unghie
e
con
i
denti,
esiste
un gusto
per
il
lavoro
fondamentale
per
la
dignità
umana.
Questo
movimento
di sostituzione
dei
lavori
che
mobilitano
le
nostre
qualità
costituisce
un affronto
alla
nostra
condizione.
L’umanesimo
che
noi
difendiamo
consiste infatti
nel
favorire
la
piena
espressione
di
ciascuno
nell’esercizio
delle proprie
mansioni. Anche
nell’eliminazione
di
certe
dimensioni
inerenti
alla
socialità
esiste
una forma
di
messa
al
bando
dell’essenza
di
noi
stessi.
Le
operazioni automatizzate
si
sostituiscono
al
contatto
umano,
all’azione
condotta
in comune,
comportando
l’abolizione
progressiva
dello
scambio,
delle
relazioni interpersonali
e,
conseguentemente,
dell’accordo,
del
disaccordo,
del conflitto,
della
negoziazione,
persino
dell’amicizia,
insomma,
della
socialità fondata
sulla
somma
di
tutte
le
soggettività
che
ci
costringe
a
fare
opera
di comunità
e
a
fare
appello
alla
nostra
intelligenza
condivisa.
Quella
che
è
in gioco
è
la
marginalizzazione
della
parola,
dei
legami
indotti
dal
linguaggio
e, più
in
generale,
della
necessaria
contemplazione
di
quell’alterità
che
ispira molte
delle
nostre
azioni.
La
nostra
pluralità
viene
negata
a
favore
di
un mondo
dove
tutto
riveste
un
valore
utilitaristico
e
dove
anche
noi
finiremo per
essere
ridotti
a
questa
equazione.
E
allora
ci
troviamo
a
essere
meri strumenti,
semplici
ingranaggi
di
una
macchina
impersonale,
utilizzati
solo se
le
circostanze
lo
richiedono;
l’eccezionalità
di
ogni
individuo
viene
negata,
la
figura
umana
diventa
di
colpo
obsoleta,
secondo
una
logica
analizzata
a suo
tempo
da
Günther
Anders
e
giunta
oggi
a
compimento:
“la
macchina [che]
costringe
noi
contemporanei
a
funzionare
come
pezzi
di
macchina”.19 Dato
che
l’individuo
ormai
non
è
altro
che
una
variabile
e
dato
che
d’ora
in poi
qualunque
altra
variabile
–
umana
o
materiale
che
sia
–
può
sostituirsi
a lui,
è
opportuno
trovare
la
congiuntura
migliore,
che
è
esattamente
quello con
cui
ci
gratifica
l’intelligenza
artificiale:
la
messa
in
comparazione
delle varie
unità
che
istituisce
la
comparatologia
integrale
quale
principio determinante
di
questa
nuova
civiltà
che
si
sta
instaurando
a
gran
velocità lasciandoci
completamente
disarmati.
3.3
IL
REGNO
DEL
COMPARATIVO Il
consumatore
è
un
essere
volubile:
può
lasciarsi
tentare
da
un
articolo
e abbandonarlo
subito
dopo
averlo
testato,
per
insoddisfazione,
per
capriccio, o
per
il
semplice
desiderio
di
volerne
provare
un
altro.
Fa
di
testa
sua.
La libertà
di
camminare
tra
gli
scaffali,
di
tenere
in
mano
un
prodotto,
di leggerne
le
caratteristiche,
di
riposarlo
se
lo
desidera,
fa
parte
di
quel
fascino che
la
società
dei
consumi
esercita
sugli
individui
dal
dopoguerra.
Essa
offre al
consumatore
ripetute
occasioni
di
sentirsi
padrone
delle
sue
azioni, nonostante
poi,
nella
maggior
parte
dei
casi,
l’effettiva
realtà
dei
suoi
mezzi lo
freni.
La
missione
da
sempre
affidata
alla
pubblicità
allora
è
stata
quella
di tentare
di
riportarlo
sulla
retta
via,
di
convincerlo,
attraverso
tutta
una
serie di
strategie
evolutesi
nel
tempo,
a
cedere
a
una
determinata
marca,
ad approfittare
degli
straordinari
vantaggi
che
questa
era
in
grado
di
dargli.
Ma non
c’è
niente
da
fare:
per
quante
manovre
di
seduzione
la
pubblicità
possa mettere
in
atto,
ciascuno
può
in
qualsiasi
momento
riprendersi
la
propria libertà.
Una
lotta
infinita
ha
visto
opporsi
la
disposizione
del
cliente
ad ascoltare
solo
le
sue
voglie
alla
volontà
delle
imprese
di
adescarlo.
Tuttavia d’ora
in
poi
la
scelta
non
è
più
un
privilegio
soltanto
degli
individui,
ma anche
degli
attori
del
mercato
che
possono
avvalersi
a
loro
piacimento
della facoltà
di
sottoporre
persone,
enti
privati
e
regimi
giuridici
a
degli
esami
al fine
di
optare
per
l’alternativa
giudicata
più
vantaggiosa.
E
tutto
questo
oggi, a
un
livello
mai
visto
prima
d’ora,
principalmente
perché
esistono
dei processi
che
lo
permettono. La
natura
di
un’economia
è
determinata
in
parte
dalle
tecniche
sulle
quali poggia.
Durante
l’epoca
moderna,
la
generalizzazione
delle
macchine calcolatrici,
come
per
esempio
i
registratori
di
cassa,
capaci
di
eseguire
le
varie
operazioni
algebriche
–
addizioni,
sottrazioni,
moltiplicazioni
–,
era
la prova
della
preponderanza
del
commercio,
in
particolare
degli
scambi
tra aziende
e
persone.
Per
più
di
un
secolo,
dalla
rivoluzione
industriale
fino
al dopoguerra,
il
nucleo
centrale
del
modello
era
fondato
sulle
transazioni commerciali.
Accanto
a
questa
dimensione,
che
non
cessò
di
amplificarsi,
a partire
dagli
anni
Sessanta
se
ne
aggiunse
un’altra:
la
gestione
ottimizzata
di certi
compiti
grazie
all’introduzione
dei
computer
che
più
che
essere utilizzati
per
eseguire
operazioni
contabili,
favorivano
l’instaurazione
di nuove
modalità
amministrative
e
aiutavano
a
pianificare
strategie.
Iniziava l’era
dell’organizzazione
e
del
management
sostenuta
dai
progressi dell’informatica,
molto
presto
analizzata
da
James
Burnham
nel
suo
libro The
Managerial
Revolution.20
Più
tardi,
verso
la
metà
degli
anni
Ottanta, parallelamente
all’intensificarsi
di
queste
pratiche,
cominciò
a
prevalere
un altro
schema
che
vedeva
beni
manifatturieri
e
flussi
finanziari
circolare
tra un
numero
sempre
crescente
di
regioni
del
pianeta
e
che
ben
presto
prese
il nome
di
globalizzazione.
L’avvento
dell’interconnessione
globale,
dieci
anni dopo,
favorì
l’espansione
di
queste
logiche
anche
grazie
alle
strutture
di comunicazione
messe
in
rete.
Oggi
l’economia
entra
in
una
fase
nuova
che non
si
contrappone
a
quelle
precedenti,
ma
fa
prendere
loro
un
corso
diverso grazie
alla
nuova
capacità
di
cui
si
trova
dotata:
quella
di
poter,
in
qualsiasi momento,
comparare
le
cose
tra
loro.
Questa
disposizione
è
resa
possibile dalla
principale
tecnologia
del
nostro
tempo:
l’intelligenza
artificiale. Perché
anch’essa
procede
per
comparazione.
Si
fonda,
di
base,
sulla
codifica binaria
che
scompone
gli
elementi
in
unità
minimali,
i
bit,
permettendo
di ridurre
i
composti
simbolici,
e
ormai
i
frammenti
del
reale,
a
dati
numerici. Da
qui
vengono
concepiti
degli
algoritmi
in
grado
di
effettuare
a
gran velocità
delle
comparazioni
tra
i
volumi
di
dati
trattati
e
un
modello determinato
per
stabilire
il
loro
livello
di
similitudine.
È
quello
che
accade con
i
sistemi
di
riconoscimento
facciale
che
identificano
in
tempo
reale
il viso
di
una
persona
a
partire
da
un’immagine
catalogata
misurando
il
loro grado
di
compatibilità.
Se
i
sistemi
potranno
discriminare,
grazie
a
un confronto,
certi
oggetti
o
certe
parole,
sarà
soltanto
grazie
a
una
descrizione matematica.
Con
questi
continui
confronti,
l’intelligenza
artificiale
riprende in
un
certo
senso
la
tradizione
epistemologica
del
Rinascimento
che comprendeva
il
mondo
attraverso
lunghe
catene
di
analogie
tra
le
sue componenti;21
la
differenza,
però,
sta
nel
fatto
che
l’intelligenza
artificiale non
dipende
da
una
dimensione
metaforica,
ma
prende
corpo
all’interno
di dispositivi
tecnici
incaricati
di
rivelare
tali
analogie.
Storicamente
le
aziende
includevano
l’intera
catena
di
produzione.
Erano costituite
da
diverse
branche
che
si
intersecavano
le
une
alle
altre
all’interno di
un
processo
verticale
che
andava
dai
reparti
di
progettazione
e fabbricazione,
agli
uffici
personale,
contabilità,
logistica,
consegne…
Erano fatte
di
corpi
uniti.
Con
l’avvento
del
neoliberismo,
all’inizio
degli
anni Ottanta,
il
doppio
fenomeno
dell’incremento
della
pressione
concorrenziale
e dell’indebolimento
dei
codici
del
lavoro
favorì
un
principio
che
si
generalizzò rapidamente:
l’esternalizzazione.
In
altre
parole,
le
imprese
o
gli
enti pubblici
ricorrevano
a
società
esterne
(fornitori)
per
lo
svolgimento
di attività
fino
a
quel
momento
affidate
ai
propri
dipendenti,
come
per
esempio lavori
di
pulizia,
giardinaggio,
contabilità,
o
spedizione
merci.
L’obiettivo
era quello
di
ridurre
i
costi.
Questo
comportò
tutta
una
serie
di
gare
d’appalto
– e,
di
conseguenza,
di
esami
comparativi
–
in
vista
di
stringere
accordi
che
si inscrivevano
in
temporalità
divenute
fluttuanti.
Questi
metodi
furono facilitati
dalla
digitalizzazione
delle
scritture
relative
al
funzionamento
dei subappaltatori
che
permetteva
di
avere
una
visione
dettagliata
delle
loro pratiche.
L’intensificazione
della
globalizzazione,
avvenuta
alla
fine
di
quello stesso
decennio,
ampliò
lo
spettro
dei
fornitori
a
livello
teoricamente mondiale.
Ma
tali
procedimenti
richiedevano
la
mobilitazione
di
competenze impegnate
in
queste
consulenze. Oggigiorno
questi
compiti
possono
essere
svolti
da
sistemi
capaci,
in funzione
di
numerosi
criteri,
di
soppesare
le
diverse
offerte
e
selezionarle senza
bisogno
dell’intervento
umano.
Ne
è
un
esempio
Retail
Link, sviluppato
dalla
IBM
a
seguito
di
una
richiesta
della
multinazionale Walmart,
che
seleziona
il
fornitore
in
grado
di
offrire
il
servizio
richiesto
alla tariffa
più
vantaggiosa
e
nei
tempi
stabiliti.
La
natura
di
una
tecnologia basata
sul
calcolo
comparativo
si
confonde
con
un
disegno
economico
che intende
mettere
a
paragone
qualsiasi
cosa
con
qualunque
altra
al
fine
di
fare continuamente
intervenire
la
concorrenza
e
trarre,
in
ogni
operazione,
il massimo
beneficio.
Non
evolviamo
nel
“mondo
piatto”
descritto
da
Thomas Friedman,22
che
immaginava
l’esistenza
di
un
mercato
improvvisamente allargato,
grazie
alle
virtù
di
internet
e
di
infrastrutture
logistiche
e
di trasporto
sempre
più
sofisticate
e
reattive.
Perché
il
regno
del
comparativo non
corrisponde
più
a
una
Terra
presumibilmente
“liscia”,
ma
a
un
reale
che si
trova
ovunque
raddoppiato
da
codici
misurati
in
ogni
momento
da algoritmi
per
rispondere
a
bisogni
indefinitamente
circostanziati.
La
priorità data
alla
circolazione
di
beni
e
informazioni
lascia
posto
al
primato
della valutazione
comparativa
allo
scopo
di
stringere
legami
effimeri
con interlocutori
situati
tanto
nelle
vicinanze
quanto
dall’altra
parte
del
mondo.
La
velocità
dell’epoca,
più
che
alla
comunicazione,
rimanda
alla
possibilità
di identificare
in
tempo
reale
la
soluzione
più
vantaggiosa.
Potremmo
dire
che stiamo
passando
dalle
logiche
di
flussi,
linee
e
strade,
alle
logiche
dei
grani esaminati
nel
dettaglio
da
sistemi
capaci
di
valutare,
alla
velocità
dei processori,
la
loro
qualità
rispetto
a
tutti
gli
altri
per
poi
indirizzarsi
su
uno di
essi.
Assistiamo
al
passaggio
da
un’organizzazione
basata
su
una
struttura geometrica
che
privilegia
la
figura
della
rete,
a
schemi
ispirati
a
una geometria
non
euclidea
che
si
riferisce
a
una
topografia
non
più
catalogata
e stabile,
ma
costituita
da
piani
continuamente
ondeggianti
e
fugaci. Questo
principio,
però,
non
si
applica
solo
ai
rapporti
tra
le
imprese,
ma anche
alle
attività
svolte
al
loro
interno:
i
sistemi
valutano
le
prestazioni
del personale
attraverso
il
controllo
dei
computer
e
l’integrazione
di
sensori
in catena
di
montaggio
e
negli
spazi
di
lavoro,
al
fine
di
osservare
gesti
e
ritmi
e poter
ottenere
così
delle
cartografie
comportamentali
granulari
ed
evolutive. Più
che
a
comparare
gli
individui,
esse
puntano
a
valutare
la
loro
capacità
di adattarsi
a
modelli
dati
come
norma
di
riferimento,
sull’esempio
dei
metodi sviluppati
dalla
Toyota
nel
corso
degli
anni
Settanta,
che
ogni
giorno assegnava
alle
squadre
di
operai
gli
obiettivi
da
raggiungere
comportando,
di fatto,
una
classifica
comparativa
tra
loro.
Questa
pratica
rientra
nell’ambito del
benchmarking
che
consiste
nel
mettere
in
atto
processi
pensati
per condurre
ai
risultati
migliori,
usati
dunque
come
parametri
(benchmark)
che i
dipendenti
devono
prendere
a
riferimento
e
con
i
quali,
grazie
a
tecniche specifiche,
sarà
possibile
giudicare
le
loro
capacità
di
conformarvisi. Quello
che
va
via
via
imponendosi
è
una
nuova
fase
del
management
che fissa
obiettivi
a
breve
termine
ricorrendo
a
contratti
sempre
più
precari
i quali,
una
volta
giunti
al
termine,
diventano
oggetto
di
nuove
richieste
di candidatura
(per
la
stessa
mansione
o
per
un’altra)
presso
le
varie
agenzie interinali.
Questo
implica
che
gli
individui
vengano
continuamente sottoposti
a
esami
comparativi:
“Nel
quadro
di
questo
nuovo
regime
di lavoro,
inerente
alla
governance
con
i
numeri,
[gli
individui]
devono
tenersi pronti
a
rispondere
ai
bisogni
del
mercato
valutati
dai
loro
datori
di
lavoro
o –
se
sono
disoccupati
–
dal
loro
ufficio
di
collocamento.
In
altre
parole, devono
essere
pronti
a
mobilitarsi
in
qualsiasi
momento
e
quando
questo momento
è
giunto
mobilitarsi
per
realizzare
gli
obiettivi
che
vengono
loro assegnati”.23
Vengono
messi
tutti
continuamente
in
competizione
gli
uni con
gli
altri
sulla
base
di
criteri
definiti
da
studi
specializzati,
criteri
a
noi incomprensibili,
che
seguono
quella
logica
ultraliberale
secondo
cui
l’essere umano
sarebbe
una
variabile
dalla
quale
poter
trarre,
per
mezzo
di
procedimenti
ad
hoc,
il
maggiore
dell’intercambiabilità
continua
delle
persone.
profitto
dal
principio
Questa
posizione
non
è
poi
così
distante
dalla
dottrina
del
“Law
shopping” che
incoraggia
gli
attori
economici
a
mettere
a
paragone
tra
loro
vari
territori per
decidere
poi
quale
sia
il
migliore
nel
quale
insediarsi.
Questa
dottrina
è figlia
della
teoria
del
“Law
and
Economics”
che
procede
alla
valutazione comparativa
dei
vari
regimi
giuridici
nazionali
al
fine
di
selezionare,
per
ogni settore
di
attività,
il
luogo
considerato
più
vantaggioso.
A
tal
scopo
la
Banca Mondiale
ha
istituito
un
rapporto
chiamato
Doing
Business,
una
base
dati che
valuta
le
economie
di
183
Paesi
e
le
classifica
in
10
aree
di
applicazione delle
normative:
“È
illustrata
con
un
mappamondo
che
rappresenta
la
Terra come
uno
spazio
di
competizione
tra
legislazioni
ed
è
dotata
di
un
cursore temporale
che
permette
di
visualizzare
l’avanzata
del
progresso
della razionalità
economica.
Questo
archivio
di
dati
deve
aiutare
gli
investitori
a scegliere,
sulla
mappa
del
mondo,
i
Paesi
più
accoglienti.
E
deve
anche spingere
questi
ultimi
ad
attirare
a
sé
gli
investitori
riformando
le
leggi
in funzione
di
ciò
che
essi
desiderano”.24
Alla
fine
il
progetto
di
“isole galleggianti”
pensato
dal
Seasteading
Institute
–
fondato
da
uno
degli esponenti
del
libertarianismo,
Patri
Friedman25
–
rivolto
all’emancipazione dalle
leggi
e
dagli
obblighi
statali,
risulta
del
tutto
irrilevante:
è
molto
più vantaggioso
piantare
le
tende
là
dove
sembra
più
remunerativo
e
essere
poi in
grado
di
spostarsi
a
seconda
delle
evoluzioni
osservate
a
livello
mondiale. Quella
che
va
via
via
profilandosi
è
un’economia
in
perpetua
“fissione
e fusione”
per
la
quale
il
principio
della
concorrenza
non
mette
più
in competizione
soltanto
le
aziende,
ma
anche
le
loro
componenti
e
i
loro interlocutori,
configurandoli
come
degli
“elettroni
liberi”
amministrati
da sistemi
di
intelligenza
artificiale
incaricati
di
optare
per
l’alternativa migliore.
Per
esempio,
Inditex,
leader
mondiale
dell’industria
della confezione
tessile,
proprietario
del
marchio
Zara,
effettua
continue comparazioni
tra
i
campionari
di
numerose
marche,
tra
i
subappaltatori,
così come
tra
i
comportamenti
delle
persone
a
livello
mondiale,
al
fine
di allineare
la
produzione
alle
tendenze
del
momento.
La
stessa
predisposizione alla
comparazione
è
presente
anche
nel
Marketplace
di
Amazon
o
di Facebook
in
cui,
alla
luce
di
numerosi
criteri,
vengono
messe
a
paragone
una miriade
di
offerte
rivolte
a
società
o
consumatori.
O
nei
siti
di
comparazione dei
prezzi
che
si
sono
moltiplicati
dal
2010
in
poi,
come
Liligo,
Kayak
o Skyscanner,
che
mettono
a
confronto
tra
loro
le
tariffe
di
biglietti
aerei,
notti in
hotel,
noleggio
di
macchine,
contratti
assicurativi…
Questa
possibilità,
dunque,
non
è
offerta
soltanto
alle
aziende,
ma
anche
agli individui
che
così
possono
beneficiare
di
sistemi
che
danno
loro
un’infinità di
suggerimenti;
essa
oltrepassa
il
ristretto
ambito
commerciale
per insinuarsi
anche
in
altre
dimensioni
dell’esistenza,
con
la
conseguenza
che
la comparazione
diventa
il
principio
a
monte
della
realizzazione
delle
nostre azioni.
È
il
caso
delle
applicazioni
che
ci
suggeriscono
in
tempo
reale
il miglior
itinerario
da
seguire,
o
dei
portali
di
recensione
dei
ristoranti,
o
delle applicazioni
di
incontri
che,
a
differenza
di
quanto
accade
con
gli
incontri
in carne
e
ossa,
permettono
di
veder
sfilare
i
“profili”
con
un
semplice
tocco
sul display,
sempre
sulla
base
del
famoso
principio
di
comparazione
(a
volte compulsiva),
per
poi
decidere
con
chi
entrare
in
contatto.
Forse
siamo
giunti a
un’antropologia
del
confronto
e
stiamo
assistendo
di
conseguenza
all’apice di
un
rapporto
utilitaristico
con
il
reale,
all’ultimo
stadio
dell’utilitarismo, quello
teorizzato
da
Jeremy
Bentham
il
quale
riteneva
che
l’utilità
prevale
su ogni
altra
considerazione,
e
che
troverebbe
la
sua
completa
realizzazione negli
assistenti
virtuali
che
rappresentano
macchine
ultrasofisticate
capaci
di mettere
tutto
a
confronto
“per
il
nostro
interesse”. Si
sta
profilando
una
nuova
era
della
concorrenza,
nella
quale
a
contrapporsi non
sono
più
soltanto
le
aziende
e
gli
individui,
ma
tutti
i
corpi
organici
e
i beni
materiali,
al
fine
di
trarne
il
massimo
beneficio.
Ogni
sostanza
è
infatti ridotta
a
un
valore
oggettivato;
essa
non
vale
più
in
sé
e
per
sé,
ma
solo
in funzione
della
valutazione
dei
suoi
attributi.
Più
in
generale
possiamo
dire che
è
l’intera
società
a
essere
allineata
a
questi
imperativi.
I
legami
vengono stretti
sulla
base
dei
benefici
previsti
e
in
modo
indefinitamente
provvisorio, possono
essere
infranti
in
qualsiasi
momento
per
intrecciarne
altri
con
altri interlocutori,
secondo
le
logiche
postmoderniste
che,
da
una
trentina
di
anni a
questa
parte,
“invitano”
tutti
a
viversi
come
delle
“monadi
nomadi”.
Un regime
di
razionalità
tecnico-economico
diventa
un
regime
di
razionalità intersoggettivo
e
sociale.
Non
è
possibile
non
accorgersi
che
è
l’inconscio collettivo
a
essere
come
paralizzato
da
questa
dinamica
che
mette continuamente
a
paragone
le
persone
–
nel
lavoro,
nei
gruppi
di
affinità,
nei rapporti
umani
–
e
le
riduce
a
valori
assegnabili,
cancellando
il
principio giuridico-politico,
fondamento
della
nostra
civiltà,
secondo
il
quale
ogni essere
umano
è
irriducibilmente
unico.
Non
è
possibile
non
accorgersi
dei processi
di
interiorizzazione
che
insidiosamente
si
producono;
ognuno
infatti è
dotato
di
una
sorta
di
“punteggio”
e,
volente
o
nolente,
consapevolmente
o inconsapevolmente,
si
attiva
per
incrementarlo
e
capitalizzarlo. Non
è
possibile
non
vedere
in
questa
comparatologia
integrale
una violenza
simbolica
estrema
che
si
fa
beffe
dell’“autostima”
e
della
“dignità
umana”,
perché:
“Nel
regno
dei
fini
tutto
ha
un
prezzo
o
una
dignità.
Ciò
che ha
un
prezzo
può
essere
sostituito
con
qualcos’altro
come
equivalente.
Ciò che
invece
non
ha
prezzo,
e
dunque
non
ammette
alcun
equivalente,
ha
una dignità”.26Oggigiorno
ci
sentiamo
“utili”
solo
quando
veniamo
scelti
dopo essere
stati
comparati,
e
ci
sentiamo
vivi
solo
quando
noi
stessi
compariamo prima
di
scegliere,
in
una
civiltà
in
divenire
che
riduce
ognuno
di
noi
a un’unità
indifferenziata,
finendo
per
confonderci
con
lo
statuto
del
denaro
la cui
caratteristica,
secondo
Georg
Simmel,
è
quella
di
rendere
ogni
cosa equivalente
a
qualsiasi
altra.27Ecco
un’altra
forma
di
ripercussione dell’ideologia
tecnoliberale
sulle
nostre
vite:
la
generalizzazione
di
una sistematica
destinata
unicamente
a
soddisfare
l’obiettivo
egoista
di
tutti
gli interessi
privati,
che
rimanda
alla
diagnosi
fatta
da
Adorno
e
Horkheimer nell’immediato
dopoguerra
e
che
oggi
acquisisce
una
dimensione
universale –
e
radicale
–
secondo
cui
“l’uguaglianza
diventa
essa
stessa
un
feticcio”.28
3.4
BITCOIN
E
BLOCKCHAIN:
L’ULTIMO
STADIO
DELLA
SOCIETÀ
DEL
CONTRATTO Una
passione
comune
avvicina
il
liberalismo
economico
radicale
a
un
certo spirito
libertario:
l’odio
verso
tutte
le
istanze
intermediarie,
qualunque
sia
la loro
natura.
Esse
hanno
la
faccia
dello
Stato,
delle
istituzioni,
delle
leggi
che impongono
un
ordine
delle
cose
e
restringono
il
margine
di
azione
delle persone.
Per
primo,
esse
cercano
soltanto
di
contenere
abusivamente
la
loro forza
di
iniziativa
e
applicare
imposte,
redistribuendo
le
ricchezze
a vantaggio
dell’andamento,
giudicato
vano
e
inefficace,
delle
questioni comuni.
Per
secondo,
la
politica
ufficiale
non
emana
dalla
volontà
del popolo,
ma
nasce
da
strutture
gerarchiche
che
determinano
norme
e
tengono in
vita
alcuni
privilegi
impedendo
così
una
piena
e
libera
espressione
degli individui.
È
sulla
base
di
questa
ostilità
condivisa
che
si
è
prodotta
una sintesi
ideologica
molto
singolare
cui
è
stato
dato
il
nome
di “libertarianismo”. Esso
ha
origine
negli
Stati
Uniti
negli
anni
che
seguono
la
crisi
del
1929.
I suoi
padri
fondatori,
non
dichiarati
come
tali
e
vissuti
prima
del
suo
avvento, sono
Herbert
Spencer
e
la
sua
teoria
del
darwinismo
sociale,
Henry
David Thoreau
e
la
sua
feroce
pretesa
di
far
valere
l’autonomia
delle
persone,
e Ralph
Waldo
Emerson
e
il
suo
trascendentalismo
secondo
cui
ogni
entità, religiosa
o
politica,
corrompe
la
società
e
nuoce
all’indipendenza
degli individui.
Molto
tempo
dopo,
è
stato
ispirato
da
diversi
teorici
del liberalismo,
attivi
sul
volgere
degli
anni
Sessanta,
in
particolare
Friedrich Hayek,
autore
di
La
società
libera,29
e
Milton
Friedman,
autore
di
Capitalismo
e
libertà,30
due
opere
che
ebbero
un’ampia
eco
e
che sollecitavano
l’imperativo
della
regolamentazione
minima
come
condizione per
una
vitalità
economica
a
beneficio
di
tutti. Riconosce
come
suo
nume
tutelare
Ayn
Rand,
mentre
come
proprio teorico
Robert
Nozick.
La
prima
è
autrice
de
La
rivolta
di
Atlante,31 pubblicato
nel
1957,
in
cui
le
menti
“più
brillanti”
–
gli
imprenditori
più dinamici
degli
Stati
Uniti
–
decidono
di
smettere
di
prendere
parte
alla
vita del
Paese
e
si
rifiutano
di
finanziare
il
“racket
del
fisco”.
Riunitisi
in
una
valle isolata,
questi
“esseri
liberi”
vivono
in
autarchia
sfuggendo
ai “saccheggiatori”
e
lasciando
così
lo
Stato
sociale
a
sprofondare
nella
povertà. Il
secondo
è
l’autore
di
Anarchia,
stato
e
utopia,
che
afferma
che
lo
Stato, indipendentemente
dalla
natura
del
suo
regime,
presuppone
in
una
qualche misura
la
negazione
di
una
parte
della
nostra
libertà,
e
questo
è
considerato inaccettabile:
“Le
nostre
conclusioni
principali
sullo
Stato
sono
che
uno Stato
minimo,
strettamente
limitato
alle
funzioni
di
protezione
contro violenza,
furto
e
frode,
di
tutela
dei
contratti
ecc.,
è
giustificato;
che
qualsiasi tipo
di
Stato
più
esteso
finisce
con
il
violare
i
diritti
delle
persone
a
non essere
costrette
a
fare
certe
cose,
ed
è
ingiustificato”.32 Questo
movimento,
o,
per
meglio
dire,
questa
corrente
di
pensiero,
che
ha innervato
lo
spirito
della
Silicon
Valley,
dominante
dagli
anni
Novanta,
è stato
oggetto
di
numerosi
studi
e
articoli.
Spesso
è
stato
denigrato,
deriso,
e lo
sono
state
in
particolare
le
grandi
figure
imprenditoriali
californiane
che lo
hanno
sostenuto,
spesso
percepite
come
personaggi
deliranti
in
preda
a visioni
megalomani
e
stravaganti.
Cionondimeno,
al
di
là
di
tutte
queste manifestazioni
sensazionaliste,
stiamo
assistendo,
in
modo
ancora
discreto ma
sempre
più
deciso,
al
momento
della
sua
consacrazione.
Questa
sarebbe il
risultato
non
tanto
della
conquista
del
potere
politico,
ma
della
diffusione di
un’ideologia
che
a
poco
a
poco
impregnerà
discorsi,
pratiche,
modalità organizzative,
incarnando
un
nuovo
orizzonte
utopico
che
ora
diventerebbe realizzabile.
Prenderebbe
corpo
in
una
conformazione
perfetta,
in
quanto libera
da
qualsiasi
intermediario,
decentralizzata
e
interamente
trasparente. Per
alcuni,
realizzerebbe
il
sogno
di
un
mercato
fluido
e
finalmente
senza barriere;
per
altri,
aprirebbe
le
porte
del
paradiso,
ossia
la
possibilità
di navigare
sui
social
al
riparo
da
sguardi
indiscreti
e
godere
di
tutte
le ricchezze
del
mondo.
Queste
due
correnti
apparentemente
opposte
trovano oggi
il
loro
punto
di
congiunzione
in
una
tecnologia
che
soddisfa
pienamente le
loro
aspirazioni
convergenti:
il
bitcoin.
Nasce
dall’utopia
dei
social
affermatasi
sul
volgere
degli
anni
Novanta,
che immaginava
la
creazione
di
un
“villaggio
globale”,
così
come
lo
aveva teorizzato
Marshall
McLuhan,
allora
molto
in
voga
nel
settore dell’informatica
e
dei
programmatori,
di
cui
la
rivista
Wired,
nata
nel
1993, si
fece
paladina.
Ben
presto
ai
suoi
ideatori
non
bastò
più
potersi
esprimere sui
forum
riguardo
agli
argomenti
più
disparati
o
scaricare
illegalmente
file musicali
con
una
libertà
da
pirati
in
bandana
e
sprezzanti
delle
regole,
no, quell’incredibile
emancipazione
non
era
più
sufficiente,
perlomeno
negli Stati
Uniti,
dove
ognuno
ha
fatto
proprio
il
principio
cardine
secondo
cui bisogna
trarre
vantaggio
da
ogni
situazione.
Era
necessario
che
anche
quel “mondo
orizzontale”,
ben
presto
liberato
da
qualsiasi
istanza
terza,
trovasse un
prolungamento
di
tutti
quegli
scambi,
che
sarebbero
potuti
restare soltanto
linguistici,
ma,
in
un
modo
o
nell’altro,
dovevano
essere
tradotti
in commercio
tra
le
persone
sulla
base
di
assiomi
ridefiniti.
Esso
doveva mettere
gli
individui
in
contatto
diretto
tra
loro,
in
conformità
ai procedimenti
esposti
nel
Whole
Earth
Catalog33
che
aveva
forgiato
una retorica
celebrativa
del
primato
libertario
della
“riparazione
sommaria”
e della
collaborazione,
ripresa
molto
tempo
dopo
dall’economia
cosiddetta “della
condivisione”.
Questa
aspirazione
è
sostenuta
dai
crypto-idealisti
e
dai cypherpunk
che
vedono
nella
crittografia
dei
dati
lo
strumento
della
nuova lotta
globale,
quella
ingaggiata
per
proteggere
la
propria
“privacy”
dal nemico
giurato,
ossia
lo
Stato
e
tutti
i
suoi
“intermediari
coercitivi”,
primi
fra tutti
gli
organi
di
controllo.
Si
ispiravano
al
Manifesto
cryptoanarchico scritto
nel
1992
dall’ingegnere
informatico
Timothy
C.
May,
un
testo
di riferimento
anarco-capitalista
nel
quale
May
affermava
che:
“la
cryptoanarchia
permetterà
di
far
circolare
liberamente
i
segreti
nazionali
e
di vedere
materiali
illeciti
o
rubati”,
e
che
“i
metodi
crittologici
altereranno sostanzialmente
la
natura
dell’interferenza
del
governo
e
delle
grandi
società nelle
transazioni
economiche”.34 La
nuova
grande
utopia
consisteva
dunque
nel
gettare
le
basi
di
una
moneta costituita
da
codici
numerici
che
avrebbe
potuto
circolare
senza
dipendere da
una
banca
centrale.
Il
desiderio
comune
degli
hacker
libertari
californiani e
degli
ultraliberali
di
eliminare
qualsiasi
“intermediario
parassita”
avrebbe preso
corpo
nelle
azioni
commerciali;
il
potere
assoluto
di
battere
moneta sarebbe
sprofondato
insieme
a
molti
altri
principi
che
internet
stava distruggendo.
Alla
fine
degli
anni
Novanta
vennero
sperimentati
progetti come
Hashcash,
Bit
Gold,
B
Money,
ma
senza
raccogliere
ampi
consensi. L’impresa
fu
ritentata
una
quindicina
di
anni
dopo,
all’epoca
della
crisi finanziaria
del
2008
dei
subprime,
che
vide
banche
e
trader
comportarsi
da
irresponsabili
e
assumere
rischi
sconsiderati
che
minarono
la
fiducia
dei risparmiatori
e
confermarono
la
diffidenza
dei
crypto-idealisti
nei
confronti degli
enti
finanziari,
i
quali
agivano
in
una
tale
assenza
di
trasparenza
che era
chiaro
stessero
favorendo
delle
malversazioni. Un
personaggio
enigmatico
che
risponde
al
nome
di
Satoshi
Nakamoto
e sulla
cui
identità
si
è
molto
discusso
–
nessuno
sa
se
sia
una
persona
in
carne e
ossa
o
una
strategia
che
si
nasconde
dietro
una
mascherata,
abitudine molto
in
voga
tra
gli
hacker
–
cominciava
a
teorizzare
partendo
da
zero
il concetto
di
una
“moneta
virtuale”.
Si
fece
aiutare
da
codificatori
specializzati in
crittografia
che
fissarono
il
principio
di
un’emissione
limitata
a
21
milioni BTC
con
lo
scopo
di
conferire
valore
alla
moneta.
Il
procedimento
funziona peertopeer,
grazie
all’aiuto
di
persone
che
mettono
a
disposizione
i
loro computer
per
garantire
il
buon
funzionamento
di
tutte
le
operazioni
in
rete
– secondo
un
meccanismo
definito
“mining”
(“estrazione”)
–
e
che
vengono ricompensate
con
dei
crediti.
Tutte
le
transazioni
sono
decentralizzate, sicure
e
tracciabili
e
non
necessitano
di
alcuna
mediazione
bancaria.
Il Bitcoin
Market,
primissima
piattaforma
di
scambio
dove
convertire
il
dollaro in
bitcoin,
venne
lanciato
nel
2010. Ben
presto
la
moneta
fu
utilizzata
da
dei
cripto-anarchici,
come
i
fondatori
e utenti
della
piattaforma
Silk
Road
(“via
della
seta”),
i
quali
intendevano approfittare
di
queste
nuove
vie
acentrate
per
effettuare
acquisti
anonimi
di stupefacenti
o
operazioni
di
riciclaggio,
all’interno
di
una
“darknet”,
una sorta
di
mercato
“libero”,
o
più
esattamente
“nero”,
al
riparo
da
ogni
forma di
controllo.
Dopo
indagini
approfondite,
a
partire
dal
2013
l’FBI
procedette alla
chiusura
di
numerosi
siti
e
a
molti
arresti.
Tuttavia,
in
seguito
a
questi avvenimenti,
gli
ambienti
della
finanza,
del
capitale
di
rischio
e
della
Silicon Valley
colsero
la
portata
delle
potenzialità
promesse
da
questa
architettura tecnico-monetaria
in
grado
di
consentire
un’istantaneità
degli
scambi
e adatta
alla
struttura
dinamica
dei
social.
E
così,
nel
giro
di
pochissimo tempo,
essa
diventò
oggetto
di
investimenti
privati,
così
come
era
avvenuto per
internet
vent’anni
prima.
Lo
spirito
“cypherpunk
libertario”
da
una parte,
e
il
liberalismo
digitale
“disruptivo”
dall’altra,
avrebbero
iniziato
a collaborare
per
creare
un
mondo
finalmente
libero
da
sterili
restrizioni
e conseguenti
inerzie.
Le
quotazioni
salirono
bruscamente
e
cominciarono
a comparire
nuove
criptovalute,
come
l’ether,
il
monero,
il
ripple
o
il
dash. Oggigiorno
questo
metodo
di
pagamento
è
accettato
in
centinaia
di
migliaia di
siti.
Ma
è
bene
precisare
che
questo
nuovo
universo
monetario
non potrebbe
realizzarsi
appieno
se
non
fosse
collegato
a
una
tecnica
della
quale
condivide
l’ossatura,
e
che
rappresenta
il
suo
“pendant
naturale”:
la blockchain. D’ora
in
poi,
anziché
transitare
da
un’unità
centrale,
i
dati
possono
essere ripartiti
tra
vari
server
che
formano
una
“catena
di
blocchi”.
Tutte
le
parti chiamate
in
causa
hanno
accesso
alle
stesse
informazioni
criptate
e
possono tenere
traccia
della
cronologia.
Un
grande
registro
digitale,
non
modificabile e
non
falsificabile
a
garanzia
dell’integrità
delle
operazioni
effettuate,
è
a disposizione
di
tutti.
Il
sogno
di
un
mondo
orizzontale
sembra
diventare realtà.
Esso
sarebbe
libero
da
qualsiasi
intermediario,
in
particolare
dalle piattaforme
che
hanno
rappresentato
il
modello
dominante
dell’industria digitale
nel
corso
del
secondo
decennio
del
XXI
secolo
e
che
ora
sono destinate
a
occupare
un
posto
secondario,
o
addirittura,
alla
lunga,
a scomparire.
La
capacità,
fino
ad
ora
concessa,
di
memorizzare
volumi
di informazioni
riguardanti
i
comportamenti
degli
utenti,
indipendentemente dagli
utenti
stessi
che
hanno
ormai
capito
di
quali
discutibili
elaborazioni sono
oggetto,
si
trova
come
improvvisamente
dequalificata.
Inoltre
la possibilità
di
certificare
le
transazioni
senza
bisogno
di
un
intermediario
di fiducia
si
riallaccia
al
desiderio
iniziale
di
formare
delle
“comunità”
e
di scambiare
tutto
quello
che
è
possibile
scambiare,
senza
cattive
intenzioni
o secondi
fini,
neutralizzando
qualsiasi
velleità
di
sfruttamento
sleale. Alcuni
ospedali,
per
esempio,
intendono
utilizzare
la
tecnologia
blockchain
a servizio
dei
programmi
di
test
clinici
di
nuove
molecole
al
fine
di
permettere a
tutte
le
persone
coinvolte
di
seguire
l’evoluzione
dello
stato
di
salute
dei pazienti.
Oppure
alcuni
distributori
stanno
mettendo
a
punto
dei
sistemi
di tracciabilità
degli
alimenti:
Walmart,
ad
esempio,
ha
instaurato
delle partnership
con
alcuni
grandi
marchi
del
settore
agroalimentare,
tra
cui Nestlé
e
Unilever,
allo
scopo
di
“migliorare
la
sicurezza
dei
prodotti”
e autorizzare,
a
beneficio
dei
clienti,
l’accesso
ai
dati
storici
grazie
alla tecnologia
blockchain
sviluppata
dalla
IBM.
Stratumn,
“leader
delle tecnologie
blockchain
che
reinventa
le
relazioni
tra
le
imprese”,35
ha concepito
un’architettura
di
sistema
capace
di
seguire
il
percorso
di
tutti
i pezzi
di
ricambio
che
compongono
un
apparecchio.
In
cantieri
complessi
che presuppongono
numerosi
subappaltatori,
la
blockchain
dovrebbe teoricamente
facilitare
l’identificazione
delle
varie
responsabilità
giuridiche. Maersk,
leader
mondiale
del
trasporto
marittimo,
ha
intenzione
di
ricorrervi nell’ambito
della
gestione
logistica
dei
suoi
container
al
fine
di
monitorarli
e ridurre
le
formalità
amministrative. Il
sogno
dei
crypto-idealisti
di
un
mondo
basato
sul
continuo
contatto diretto
si
concretizza
in
un
mercato
fluido,
trasparente,
sicuro
e
globale.
Quei
sostenitori
di
un’“Internet
libera
e
aperta”
che
hanno
molto
sofferto
la regolamentazione,
principalmente
quella
relativa
alla
proprietà
intellettuale, oggi
si
prendono
una
rivincita.
Questo
accesso
all’indipendenza
degli
scambi manda
in
estasi
i
cypherpunk
e
gli
ultraliberali.36
Ma,
a
ben
guardare,
non
è solo
la
loro
visione
a
realizzarsi,
perché
questi
precetti,
che
loro
difendono
a spada
tratta
da
anni,
non
corrispondono
più
a
un
movimento
tutto
sommato marginale,
ma
stanno
diventando
un
principio
universale
chiamato
a imporre
un
nuovo
ordine
nell’andamento
generale
delle
cose: un’organizzazione
libertariana
delle
questioni
umane. L’associazione
criptovaluta/blockchain
imprime
una
nuova
dinamica
al denaro.
Essa
agisce
a
più
livelli,
dagli
enti
finanziari
che
vogliono
sfruttarla per
creare
prodotti
complessi,
semplificare
le
operazioni
bancarie
e borsistiche
e
accelerare
i
pagamenti
internazionali,
alle
ONG,
come
la
Croce Rossa
o
Greenpeace,
che
vi
fanno
ricorso
allo
scopo,
per
esempio,
di incentivare
le
piccole
donazioni.
Ci
troviamo
di
fronte
al
primo
strumento monetario
che,
in
teoria,
può
essere
impiegato
da
tutti
a
proprio
vantaggio. Esso
determina
nuove
modalità
di
organizzazione
sociale
in
cui
i
rapporti commerciali
sono
destinati
a
essere
stretti
non
tanto
tra
le
aziende
e
le persone,
ma
tra
le
persone
stesse.
È
il
caso
di
Share&Charge,
una piattaforma
lanciata
da
Innogy,
filiale
della
compagnia
elettrica
tedesca RWE,
che
permette
ai
privati
di
installare
davanti
casa
una
stazione
di ricarica
per
veicoli
elettrici;
ognuno
stabilisce
la
propria
tariffa
e
quando
una stazione
viene
utilizzata
genera
un
credito
che
può
essere
speso
in
un’altra stazione
o
convertito
in
euro.
O
delle
abitazioni
dotate
di
pale
eoliche
che possono
mettere
a
disposizione
delle
altre
abitazioni
il
proprio
surplus energetico
alle
proprie
condizioni
tariffarie.
O,
ancora,
di
Stratumn
che, nell’ambito
degli
affitti
per
brevi
periodi,
permette
ai
privati
di
sottoscrivere online
micro-assicurazioni
autenticate
e
convalidate
all’istante
e
a
costi irrisori. La
piattaforma
aperta
Arcade
City,
attiva
in
molte
città
americane,
mette direttamente
in
contatto
passeggeri
e
conducenti:
gli
utenti
scelgono dall’applicazione
i
conducenti
che
soddisfano
i
loro
requisiti,
come
per esempio
l’importo
giudicato
adeguato
a
raggiungere
la
destinazione desiderata.
Assistiamo
alla
fine
della
società
dei
consumi,
quella
che
metteva le
persone
di
fronte
alle
marche,
e
alla
nascita
di
un’economia
peertopeer, o
per
meglio
dire
“pro-sumer”,
una
sorta
di
“produttore-consumatore”, secondo
la
neolingua
delle
agenzie
di
coolhunting.
Gli
individui
non sarebbero
più
soltanto
“imprenditori
di
sé
stessi”,
ma
potrebbero
anche approfittare
di
tutti
gli
altri
individui-imprenditori
secondo
un’equazione
“winwin”
(“vincitore-vincitore”)
senza
terzi,
spingendo
i
costi
al
ribasso
e procedendo
in
modo
automatizzato
e
istantaneo.
Ma
al
di
là
dell’azione deliberata
che
presuppone
ogni
transazione,
è
ora
possibile
istituire
degli “smart
contract”,
protocolli
informatici
in
grado
di
effettuare
“da
soli”
azioni commerciali.
Per
esempio,
un
posto
auto
appartenente
a
un
privato
può indicare
a
un’altra
macchina,
tramite
un
sensore,
la
possibilità
o
meno
di essere
occupato
per
un
tempo
definito.
Nel
caso
in
cui
fosse
possibile,
la macchina
pagherebbe
il
parcheggio
con
il
suo
“portafoglio
blockchain” integrato. Il
mercato
liberale
nasceva
da
una
logica
frontale
che
metteva
in
relazione
le imprese
con
la
moltitudine
degli
esseri
umani,
in
base
a
un’organizzazione
a senso
unico.
Quello
che
avviene
ora
non
è
tanto
l’inversione
di
questo modello,
quanto
l’emergere
di
un’altra
configurazione
chiamata
a
evolversi parallelamente
e
che
vede
gli
scambi
intrecciarsi
tra
un’infinità
di
attori
di ogni
tipo.
D’ora
in
poi,
qualsiasi
bene
o
servizio
può
far
parte
del
grande orologio
automatizzato,
trovandosi
in
concorrenza
con
qualsiasi
altro
bene
o servizio,
ed
essere
repertoriato
all’interno
di
un
catalogo
accessibile
a
tutti, come
una
sorta
di
libro
contabile
universale.
La
filosofia
politica
di
John Locke,
che
aveva
ispirato
il
liberalismo
economico
e
secondo
la
quale
gli uomini
si
trovano
naturalmente
in
“uno
stato
di
perfetta
libertà
di
regolare
le proprie
azioni
e
disporre
dei
propri
beni
e
persone
come
meglio
credono, entro
i
limiti
della
legge
naturale,
senza
chiedere
l’altrui
benestare
o obbedire
alla
volontà
d’altri”37
è
destinata
a
trionfare.
È
esattamente
ciò
che avviene
con
l’avvento
dell’era
della
contrattualizzazione
generalizzata,
in cui
le
persone
si
associano
tra
loro
al
fine
di
vedere
realizzati
i
propri interessi
privati,
secondo
una
logica
che
ormai
si
configura
come
il
nuovo orizzonte
provvidenziale
del
nostro
tempo. La
concorrenza
costante
diventa
la
regola
dei
rapporti
umani,
ma all’interno
di
una
collettività
nella
quale
tutto
avviene
senza
violenza simbolica,
in
modo
sempre
consensuale
e
fluido,
secondo
un
principio benefico
per
la
società.
Il
liberalismo,
in
cui
la
divisione
tra
vincitori
e perdenti
è
inevitabile,
prende
una
piega
diversa,
più
complessa,
o
forse
più contorta.
Gli
individui
non
subiscono
più
i
suoi
effetti
nocivi,
ma
se
ne appropriano,
lo
integrano
nel
loro
comportamento,
gli
permettono
di impregnare
la
loro
psiche,
in
conformità
al
nuovo
spirito
dell’epoca
che spinge
a
trovare
sempre
l’opportunità
più
vantaggiosa.
La
globalizzazione, nella
sua
forma
fino
a
qui
predominante,
non
esiste
più.
Stiamo
entrando nell’era
del
comparativo
e
della
messa
in
relazione
nella
quale
è
sempre
tutto in
continuo
adeguamento
e
sincronizzazione
indipendentemente
da
un’istanza
centrale.
In
un
simile
contesto
le
istituzioni
politiche
non
hanno più
alcuna
utilità,
o
forse
sì,
ma
solo
quella
provvisoria
di
sostenere
questo movimento
affinché,
grazie
ai
progressi
dell’intelligenza
artificiale
e
alla
sua generalizzazione,
prenda
forma
l’aspirazione
libertariano-californiana,
d’ora in
poi
adottata
surrettiziamente
dalle
democrazie
social-liberiste.
Facevamo male
a
deridere
quelle
persone
e
a
non
prenderle
sul
serio.
Grazie
ai
loro sforzi
e
alla
tecnologia,
riusciranno
a
far
trionfare
la
loro
visione,
quella secondo
cui
lasciando
agire
i
meccanismi
da
soli
sarà
possibile
vedere realizzata
la
massima
quantità
di
operazioni
ogni
secondo,
al
massimo
della velocità
e
a
livello
mondiale.
Il
dogma
della
“mano
invisibile”,
che
oggi
ha raggiunto
lo
stadio
dell’automazione,
prende
la
forma
di
una
verità
istituita. Questa
lavorerebbe
nell’interesse
del
singolo
e
della
collettività, introducendoci
nel
migliore
dei
mondi
o
in
un
“paradiso
artificiale”
destinato a
prevalere
continuamente.
1.
Pierre
Rosanvallon,
Il
popolo
introvabile.
Storia
della
rappresentanza
democratica
in
Francia, trad.
it.
di
Andrea
De
Ritis,
il
Mulino,
Bologna
2005. 2.
Gérard
Jorland,
Une
société
à
soigner.
Hygiène
et
salubrité
publiques
en
France
au
XIXème
siècle, Gallimard,
Parigi
2010,
p.
87. 3.
Cfr.
Olivier
Rey,
Quand
le
monde
s’est
fait
nombre,
Stock,
Parigi
2016. 4.
Olivier
Mougeot,
“Google
invente
avec
prudence
la
cité
du
futur
à
Toronto”,
Le
Monde,
4
febbraio 2018. 5.
Thomas
Hobbes,
Leviatano
(1651),
Introduzione,
trad.
it.
di
Gianni
Micheli,
BUR,
Milano
2011,
p.
5. 6.
Pierre-Simon
de
Laplace,
Essai
philosophique
sur
les
probabilités
(1814). 7.
Jean-Jacques
Rousseau,
Giulia
o
la
nuova
Eloisa
(1761),
trad.
it.
di
Piero
Bianconi,
BUR,
Milano 1998. 8.
Affermazione
di
Bruno
Bonnell,
ex
CEO
di
Atari,
che
fu
responsabile
del
progetto
“Objets connectés”
(Oggetti
connessi)
durante
il
governo
Valls,
oggi
a
capo
del
fondo
specializzato
Robolution Capital,
in:
Frédéric
Joignot,
“Robotisation
générale”,
Le
Monde,
4
gennaio
2016. 9.
Affermazione
di
Laurent
Stefani,
direttore
del
dipartimento
IA
presso
Accenture
Technology,
in: “L’entreprise
à
l’épreuve
de
l’intelligence
artificielle”,
Le
Monde,
16
ottobre
2017. 10.
Jean-Philippe
Desbiolles,
“Le
cobot,
du
robot
collaboratif
au
robot
cognitif”,
Les
Clés
de
demain,
1 maggio
2017. 11.
Gilbert
Simondon,
Du
mode
d’existence
des
objets
techniques
(1958),
Aubier,
Parigi
2001,
p.
12. 12.
Jacques
Ellul,
La
Technique
ou
l’Enjeu
du
siècle,
cit. 13.
Robots,
le
meilleur
des
mondes?,
film
documentario
di
Martin
Mischi
e
Vincent
Lepreux, trasmesso
su
“Envoyé
spécial”,
France
2,
11
gennaio
2018. 14.
Michael
Grieves,
“Le
jumeau
numérique
est
un
intéressant
moteur
de
l’innovation”,
Les
Clés
de demain,
17
settembre
2017. 15.
Cfr.
Liz
Alderman,
“Robots
Ride
to
the
Rescue
Where
Workers
Can’t
Be
Found”,
The
New
York Times,
16
aprile
2018. 16.
Cfr.
Matt
Simon,
“Tug,
the
Busy
Little
Robot”,
Wired,
11
ottobre
2017. 17.
Justin
McCurry,
“Japanese
Company
Replaces
Office
Workers
With
Artificial
Intelligence”,
The Guardian,
5
gennaio
2017. 18.
Jérôme
Marin,
“En
Californie,
les
robots
s’invitent
au
restaurant”,
Le
Monde,
9
marzo
2018. 19.
Günther
Anders,
Noi
figli
di
Eichmann,
trad.
it.
di
Antonio
G.
Saluzzi,
Editrice
La
Giuntina, Firenze
1995,
p.
79. 20.
James
Burnham,
La
rivoluzione
manageriale,
trad.
it.
di
Camillo
Pellizzi,
Bollati
Boringhieri, Torino
1992. 21.
Cfr.
Michel
Foucault,
Le
parole
e
le
cose,
trad.
it.
di
Emilio
Panaitescu,
Rizzoli,
Milano
1978. 22.
Cfr.
Thomas
Friedman,
Il
mondo
è
piatto.
Breve
storia
del
ventunesimo
secolo,
trad.
it.
di
Aldo Piccato,
Mondadori,
Milano
2006. 23.
Alain
Supiot,
La
Gouvernance
par
les
nombres,
Fayard,
Parigi
2015,
p.
356. 24.
Ivi,
p.
210. 25.
Cfr.
“Reimagining
Civilization
with
Floating
Cities”,
The
Seasteading
Institute
–
Opening humanity’s
next
frontier. 26.
Immanuel
Kant,
Fondazione
della
metafisica
dei
costumi,
trad.
it.
di
Filippo
Gonnelli,
Laterza, Bari
2007
(I
ed.
1997),
p.
103. 27.
Cfr.
Georg
Simmel,
Filosofia
del
denaro
(1900),
a
cura
di
Alessandro
Cavalli
e
Lucio
Perucchi, UTET,
Torino
1984. 28.
Max
Horkheimer,
Theodor
W.
Adorno,
Dialettica
dell’illuminismo
(1944),
trad.
it.
di
Renato Solmi,
Einaudi,
Torino
2010
(I
ed.
1966),
p.
24. 29.
Friedrich
Hayek,
La
società
libera,
trad.
it.
di
Marcella
Bianchi
di
Lavagna
Malagodi,
Vallecchi, Firenze
1969. 30.
Milton
Friedman,
Capitalismo
e
libertà,
trad.
it.
di
David
Perazzoni,
IBL,
Torino
2010. 31.
Ayn
Rand,
La
rivolta
di
Atlante,
trad.
it.
di
Laura
Grimaldi,
Garzanti,
Milano
1958;
Atlas Shrugged,
Random
House,
New
York
1957. 32.
Robert
Nozick,
Anarchia,
stato
e
utopia,
trad.
it.
di
Giampaolo
Ferranti,
Il
Saggiatore,
Milano 2008,
p.
17.
33.
Whole
Earth
Catalog,
creato
da
Stewart
Brand;
uscì
regolarmente
dal
1968
al
1972,
poi sporadicamente
fino
al
1998. 34.
Timothy
C.
May,
The
Crypto
Anarchist
Manifesto,
reperibile
unicamente
online
sul
sito https://activism.net/,
22
novembre
1992. 35.
Cfr.
https://stratumn.com/. 36.
Cfr.
l’eloquente
e
grottesca
Dichiarazione
di
indipendenza
monetaria
redatta
da
un
gruppo
di persone
sotto
l’egida
dell’informatico
libertariano
Team
McAfee,
The
Declaration
of
Currency Independence. 37.
John
Locke,
Trattato
sul
governo
(1690),
cap.
2
§
4,
trad.
it.
di
Lia
Formigari,
Editori
Riuniti, Roma
2000,
p.
5
CAPITOLO
4 Il
paradiso
artificiale
4.1
LA
NECESSITÀ
FA
LA
LEGGE
O
LA
LIQUIDAZIONE
DEI
POLITICI La
politica
istituzionale
non
ha
mai
creduto
ai
politici.
Indipendentemente dalle
loro
appartenenze.
Ha
sempre
saputo
abilmente
operare
in
due
tempi. Il
primo,
quello
delle
campagne
elettorali,
procede
a
una
sorta
di
fuoco d’artificio
di
promesse,
per
lo
più
destinate
ad
accontentare
i
più.
Il
secondo vede
le
forze
al
potere
ritrovarsi
al
comando
e
confrontarsi
con
il
reale.
In linea
generale,
in
quello
stato
di
grazia
che
segue
le
vittorie,
alcune
delle grandi
misure
annunciate
vengono
messe
in
pratica.
Ma
nel
giro
di
poco sorgono
le
prime
difficoltà,
i
simpatizzanti
iniziano
a
manifestare
le
prime insoddisfazioni,
le
critiche
dell’opposizione
si
fanno
più
aspre
e
allora,
come per
una
sorta
di
riflesso
condizionato
che
coglie
tutti
i
dirigenti
poco
dopo
il loro
insediamento,
l’unica
preoccupazione
è
quella
di
garantire
la
gestione degli
affari,
e
gli
ambiziosi
progetti
iniziali,
che
si
rivelano
molto
più
costosi del
previsto
e,
alla
fin
fine,
troppo
rischiosi,
vengono
abbandonati.
È
un automatismo
che
è
uguale
ovunque,
sin
dal
dopoguerra.
Un
esempio
su
tutti: l’elezione
di
François
Mitterrand
alla
presidenza
della
Repubblica
francese nel
1981.
Con
lui,
molte
delle
speranze
in
gioco
da
decenni
prendevano finalmente
forma.
Il
suo
governo
approfittò
dei
“primi
cento
giorni”
per
far votare
alcune
riforme
coraggiose.
Ma
ben
presto,
alla
luce
dei
grossi
deficit pubblici,
ci
si
decise
a
seguire
una
rotta
completamente
diversa,
a
optare
per una
politica
del
“rigore”
che
voltava
le
spalle
alle
promesse
passate
e
che
per molto
tempo,
fino
ai
giorni
nostri,
avrebbe
fuorviato
lo
spirito
della
corrente cosiddetta
“socialista”. Tuttavia
sarebbe
da
ingenui
pensare
che
tutti
questi
fallimenti
avvengono per
forza
di
cose
e
con
la
morte
nel
cuore.
No,
essi
corrispondono
piuttosto
al tormento
che
da
sempre
affligge
le
democrazie,
divise
tra
l’aspirazione
di attuare
misure
politiche
–
ossia
di
cercare
di
modificare
il
corso
delle
cose grazie
alle
proprie
convinzioni
e
a
un
progetto
–
e
l’obbligo
morale
di garantire
una
buona
gestione
senza
troppo
allontanarsi
da
certi
limiti,
col rischio
di
alterare
gli
equilibri
finanziari.
Perché
un
conflitto
perenne
oppone la
politica
agli
obblighi
amministrativi,
le
velleità
riformiste
alla
necessità
di rispondere
alle
questioni
comuni.
Ma
dato
che
l’essere
umano
è
abile
e
sa trarre
profitto
dalle
costrizioni
che
gli
vengono
imposte,
una
corrente relativamente
recente
vuole
fare
di
questa
tensione
la
propria
bandiera,
dichiarando
forte
e
chiaro
di
inscriversi
nell’azione
riformatrice
pur nell’osservanza
parallela
di
una
conduzione
di
governo
rigorosa.
Questa corrente
prende
il
nome
di
socialliberismo,
poi
incarnata
a
partire dall’inizio
degli
anni
Novanta
da
Bill
Clinton,
Tony
Blair,
Lionel
Jospin, Gerhard
Schröder,
Barack
Obama
o
François
Hollande.
In
realtà,
anziché contribuire
al
progresso
sociale,
questa
corrente
di
pensiero
si
è
affidata soprattutto
ai
diktat
del
mondo
economico
e
delle
istituzioni
internazionali che
imponevano
di
deregolamentare
il
mercato
del
lavoro,
alleggerire
la pressione
fiscale
sulle
aziende,
ridurre
la
spesa
pubblica,
insomma,
sostenere in
tutti
i
modi
la
crescita,
diventata
l’unico
progetto
politico
onorevole dell’epoca,
che
naturalmente
sarebbe
andata
a
beneficio
di
tutti.
Oggigiorno questa
tendenza
trova
le
condizioni
ideali
per
realizzarsi
grazie
a
delle configurazioni
tecniche
capaci
di
rispondere
a
molte
aspettative
della
società e
al
contempo
garantire
la
migliore
gestione
delle
questioni
pubbliche. La
crescente
digitalizzazione
della
società
va
di
pari
passo
con
quella
delle amministrazioni,
capaci
oggi
di
raccogliere
direttamente
i
dati,
elaborarli
e offrire
utilizzi
nuovi.
Primo
fra
tutti
quello
che
permette
di
stabilire
rapporti “diretti”
con
i
cittadini,
i
quali
possono
procedere
a
svariate
operazioni “online”.
Essi
sono
il
risultato
del
grande
progetto
“politico”
delle democrazie
social-liberiste,
ossia
quello
di
lavorare
a
una
“trasformazione digitale
dello
Stato”,1
la
quale
prende
parte
da
un
lato
alla
riduzione
del personale
nel
settore
pubblico,
verificatasi
in
tutti
quei
Paesi
in
cui
questi regimi
hanno
attecchito,
e
dall’altro
alla
“facilitazione”
delle
procedure, contribuendo
così
a
una
migliore
gestione
generale.
In
secondo
luogo,
essa prende
forma
nell’“open
data”,
ovvero
nel
principio
della
visibilità
e accessibilità
dei
dati
pubblici
o
parapubblici
generati
da
ministeri, amministrazioni,
collettività
territoriali
o
grandi
aziende
di
cui
alcune
quote del
capitale
sono
detenute
dallo
Stato.
L’obiettivo
dichiarato
non
è
solo quello
di
rendere
accessibili
le
informazioni
relative
alla
loro
attività,
ma soprattutto
quello
di
autorizzarne
l’utilizzazione
per
stimolare
l’offerta
di nuovi
servizi.
Lo
Stato,
infatti,
ormai
pensa
a
sé
stesso
come
a
una “piattaforma”
di
congiunzione
tra
cittadini
e
attori
privati
con
lo
scopo
di favorire,
grazie
a
un’inedita
struttura
tripartita,
un
funzionamento
fluido della
società.
Questa
logica
implica
non
solo
che
il
mondo
economico
non
sia più
alla
giusta
distanza
dalle
questioni
comuni,
ma
anche,
e
soprattutto,
che goda
del
sostegno
dello
Stato;
i
legami
delle
persone
verrebbero
così
a intensificarsi
e
le
missioni
fino
a
questo
momento
di
competenza
pubblica diventerebbero
di
competenza
del
mondo
economico
il
quale
si
vedrebbe improvvisamente
investito
da
una
serie
di
attributi
inediti.
Perché
il
governo È
automatizzato
di
ambiti
collettivi
finisce
sempre
per
generare
profitti.
È
una costante
che
non
dobbiamo
mai
perdere
di
vista. Tuttavia,
questa
netta
vicinanza,
questo
strano
intreccio,
lungi
dal rappresentare
una
rottura,
trova
la
propria
origine
in
una
tradizione ideologico-politica
identificabile
che,
dalla
sua
nascita
fino
a
poco
tempo
fa, era
rimasta
relativamente
confinata
ai
margini
e
che
oggi,
per
una
sorta
di stratagemma
della
Storia,
trova
le
condizioni
favorevoli
al
suo
avvento: quella
di
Saint-Simon
e
dei
sansimoniani.
Questi
consideravano l’industrializzazione
delle
nazioni
un’occasione
per
infondere
un
salutare dinamismo
al
loro
funzionamento
contribuendo,
in
un
modo
o
nell’altro,
al “progresso
sociale”,
e
questo
in
maniera
molto
più
efficiente
di
quanto
non sarebbe
stata
in
grado
di
fare
qualsiasi
volontà
politica.
Accaniti
oppositori del
feudalesimo
terriero
e
dei
rentiers,
pensavano
fosse
giusto
privilegiare coloro
che
investivano,
inventavano,
fabbricavano
merci,
partecipavano attivamente
alla
crescita
del
Paese.
Un
giudizio
chiarito
dalla
famosa metafora
dell’alveare
in
cui
gli
“industriali”
che
producono
ricchezza
per
il bene
comune
vengono
paragonati
alle
api
che
producono
il
miele;
così
come i
calabroni
minacciano
il
lavoro
delle
api
operose,
la
casta
del
“mondo
di prima”,
costituita
da
clero,
nobiltà
ed
esercito,
minaccia
quello
degli industriali
tentando
di
impossessarsi
del
capitale
e
godere
di
rendite immeritate:
“L’arte
di
governare
[…]
si
è
ridotta
a
dare
ai
calabroni
la porzione
maggiore
di
miele
prelevato
sulle
api”.2
Il
“miele-denaro”
non
deve essere
dirottato
in
favore
dei
governanti,
ma
deve
circolare
per
irrorare
la società
che
in
questo
modo,
grazie
alla
mobilitazione
di
tutte
le
sue
forze,
è
in grado
di
provvedere
a
sé
stessa
senza
bisogno
di
terzi.
A
queste
condizioni diventerà
quindi
possibile
programmare
il
grande
passaggio
“dal
governo degli
uomini
all’amministrazione
delle
cose”,
secondo
la
formula
di
uno
dei discepoli
di
Saint-Simon,
Barthélemy
Prosper
Enfantin. È
esattamente
questa
la
dimensione
in
atto
nella
smart
city,
il
cui
obiettivo
è quello
di
fare
in
modo
che
il
funzionamento
generale
delle
città,
e
più
in generale
dei
territori,
evolva
in
modo
sempre
più
autoregolato.
Ma
al
di
là
di queste
sempiterne
metafore
biomorfiche,
il
suo
principio,
nei
fatti,
conduce alla
delega,
non
dichiarata,
dei
servizi
pubblici
al
regime
privato, prolungando
sotto
un’altra
forma
le
logiche
di
esternalizzazione
in
vigore nelle
aziende
sin
dall’avvento
del
neoliberismo.
Gli
eletti
sono
infatti sottoposti,
da
un
lato,
al
recente
dogma
che
intende
stringere
in
qualsiasi occasione
“partnership
pubbliche-private”
e,
dall’altro,
all’influsso
della doppia
lobby
dei
fornitori
di
tecnologie
e
delle
società
di
servizi
che
aspirano a
diventare
parti
integranti
del
quotidiano
dei
cittadini.
A
ben
guardare,
gli
assiomi
della
“trasformazione
digitale
delle
amministrazioni”,
dello
“Stato piattaforma”
e
della
smart
city
implicano
un
cambio
di
status
dei
cittadini. Questi
ultimi,
fino
a
questo
momento
vincolati
a
diritti
e
doveri
all’interno
di un
assetto
comune,
diventano
utenti
con
il
diritto
di
beneficiare
delle
offerte migliori
–
esattamente
come
dei
consumatori
–,
in
conformità
a
uno
spirito che
deriva
sì
da
logiche
commerciali,
ma
ancor
prima
da
un
adeguamento
a logiche
di
soddisfazione.
Ultimamente,
infatti,
la
politica
si
riduce
a garantire
la
soddisfazione
dei
cittadini. Fino
a
poco
tempo
fa
la
politica,
o
perlomeno
quella
fondata
sull’esigenza minima
di
cercare
di
lavorare
alla
realizzazione
delle
persone
e
preservare
la dignità
umana,
presupponeva
di
perfezionare
l’uguaglianza
dei
diritti, lavorare
al
progresso
sociale,
sostenere
l’istruzione,
consentire
l’accesso universale
alla
sanità
e
favorire
la
cultura.
Oggigiorno,
invece,
la
sfida consiste
nel
ridurre
i
costi,
lasciar
agire
i
sistemi
e
fare
in
modo
che
ognuno possa
beneficiare
di
servizi
relativamente
a
ogni
momento
della
vita quotidiana.
Un
po’
come
nel
caso
delle
biblioteche,
destinate
a
non
essere più
luoghi
di
lettura
nei
quali
fare
scoperte
e
acquisire
nuove
conoscenze
in un
ambiente
favorevole
alla
riflessione
e
all’attenzione
distesa,
ma
spazi
in cui
proporre
corsi
di
yoga,
in
cui
fare
il
resoconto
delle
vacanze,
in
cui
bere caffè
e
succhi
di
frutta,
in
cui
chiacchiere,
conformemente
alla
nuova dottrina
della
vita
sociale
fondata
sul
primato
del
benessere
e dell’espressione
di
sé.3
Gli
utenti
non
sono
più
lettori,
ma
consumatori
di varie
“attività”
che
devono
essere
accontentati
secondo
uno
spirito
destinato a
prevalere
nell’ambito
delle
nostre
relazioni
con
l’insieme
dei
servizi pubblici.
E
nel
caso
in
cui
non
fossimo
soddisfatti,
possiamo
segnalarlo immediatamente
tramite
piattaforme
dedicate,
esattamente
come
un prodotto
o
una
marca
sui
“social
network”.
I
dipendenti,
o
quel
che
resta
di essi,
devono
infatti
gestire
lamentele
e
malcontenti
e
trasformarsi
in “amministratori
di
sistemi”
o
in
“community
manager”. Questo
tipo
di
configurazione
dà
la
possibilità
di
mettere
a
segno
un
doppio colpo:
oltre
a
permettere
la
realizzazione
dell’aspirazione
di
inscrivere
la
vita pubblica
nella
massima
reattività
e
fluidità,
contribuisce
infatti
anche
alla crescita,
dando
corpo
all’equazione
sansimoniana
secondo
cui
le
ricchezze prodotte
dagli
industriali
contribuiscono
al
buon
funzionamento
degli
affari comuni.
Cionondimeno
assistiamo
a
un
rovesciamento
impercettibile
che vede
la
“buona
amministrazione
delle
cose”
produrre
autonomamente fatturato
secondo
uno
schema
inedito
che
si
rivelerebbe
“vincente-vincente”. “Stato
piattaforma”
è
il
nome
dell’istituzione
politica
che
lavora,
quasi
in
disparte,
affinché
tutto
funzioni
al
meglio,
come
una
sorta
di
processore
che regola
l’attività
pubblica
e
allo
stesso
tempo
sostiene
lo
sviluppo
di
un
nuovo ethos
economico.
La
dimensione
organica
si
erge
a
principio
fondante
e
con esaltazione
passiamo
dall’inerzia
degli
organi
di
gestione,
dal
peso
della “burocrazia”,
a
un
ambiente
sempre
dinamico
e
mai
sottomesso
al
caos. Perché
l’intelligenza
artificiale,
nella
sua
applicazione
collettiva,
dovrebbe permettere
di
organizzare
le
cose,
di
generare
dividendi,
offrendo
a
tutti
ciò che
hanno
il
diritto
di
aspettarsi.
In
questo
essa
opera
una
perfetta
sintesi
tra le
aspirazioni
liberiste
e
quelle
che
si
professano
di
“sinistra”. È
per
questo
che
Emmanuel
Macron,
per
esempio,
intende
istituire
“una nazione
che
pensi
e
agisca
come
una
start
up”,
perché
i
capisaldi
della reattività
–
tipici
del
settore
privato
e
in
particolare
delle
start
up
–
e dell’“agilità”,
parola
chiave
della
neolingua
manageriale,
ispirano
ormai
tutti i
discorsi
politici,
di
qualsiasi
orientamento,
che
affermano
di
stare lavorando
all’instaurazione
di
una
società
pronta
a
rispondere
alle circostanze
in
modo
rapido
e
impeccabile.
In
realtà,
il
disegno
condiviso
di stampo
social-liberista
non
fa
altro
che
soddisfare
l’ambizione
ultraliberista che
vede
in
questa
automatizzazione
l’occasione
storica
per
ridurre
le prerogative
dello
Stato,
percepito
come
un
vettore
di
scompiglio
dell’ordine spontaneo
del
mercato:
“una
volta
data
licenza
ai
politici
di
interferire nell’ordine
spontaneo
del
mercato,
essi
[…]
iniziano
così
quel
processo cumulativo
che,
per
necessità
intrinseca,
porta,
se
non
a
quanto
immaginano i
socialisti,
tuttavia
a
un
crescente
dominio
della
politica
sul
sistema economico”.4
Questa
sistematica,
al
di
là
delle
petizioni
di
principio, permette
di
conferire
“pieni
poteri”
al
tecnoliberismo,
che
può
così,
senza ostacoli,
trarre
profitto
dal
suo
contributo
alla
“buona
gestione
algoritmica” della
cosa
pubblica. L’intelligenza
artificiale
rappresenta
prima
di
tutto
una
potenza
dinamica di
organizzazione,
qualcosa
che
il
mondo
imprenditoriale
ha
saputo
cogliere quasi
subito,
e
una
potenza
dinamica
di
governance.
In
essa
ritroviamo
la concezione
cibernetica
che,
un
secolo
dopo,
si
sarebbe
intrecciata
al
pensiero sansimoniano
con
il
quale
condivideva
il
desiderio
di
bandire
ogni
azione risultante
dalla
concertazione,
ritenuta
una
inevitabilmente
fonte
di
apatia: “Possiamo
sognare
un
tempo
in
cui
la
machine
à
gouverner
supplirà
–
nel bene
o
nel
male,
chissà?
–
all’evidente
inadeguatezza
del
cervello
quando quest’ultimo
è
coinvolto
nella
consueta
macchina
della
politica”.5
La
grande machine
à
gouverner,
che
oggi
prende
forma,
rende
obsoleta
qualsiasi volontà
politica,
facendo
posto
a
una
società
retta
da
impulsi,
che
liquida qualsiasi
progetto
deliberato,
conformemente
a
quella
fantasia
umana,
mai esplicitamente
formulata
in
quanto
tale,
di
veder
prevalere
un
mondo
senza promotori,
che
lavori
da
solo,
in
modo
organico,
al
suo
miglior
funzionamento:
“Non
abbiamo
forse
la
fantasia
profonda,
da
sempre,
di
un mondo
che
funzioni
senza
di
noi?
La
tentazione
poetica
di
vedere
il
mondo in
nostra
assenza,
esente
da
qualsiasi
volontà
umana,
troppo
umana?”.6 Si
sta
via
via
imponendo
un
nuovo
modello
di
società.
Essa
sarebbe
dotata
di poteri
omeostatici,
permetterebbe
a
tutti
di
avere
il
proprio
tornaconto
e,
in molti
dei
suoi
ingranaggi,
sarebbe
pilotata
da
sistemi.
A
suo
tempo
Margaret Thatcher
lo
aveva
affermato:
“La
società
non
esiste”
(“There
is
no
such
thing as
society”).7
Aveva
difeso
il
principio
di
un
ordine
innervato
dalle
logiche organiche
del
mercato,
le
quali
avrebbero
invaso
tutto
e,
con
la
loro
potenza, paralizzato
qualsiasi
progetto
divergente.
Se
è
vero
che
in
parte
la
sua
feroce ideologia
si
concretizzò,
causando
gravi
danni
nella
società,
è
vero
anche
che incontrò
molte
forme
di
resistenza.
Soltanto
ora,
a
trent’anni
da
quella dichiarazione
e
come
conseguenza
dello
sfruttamento
ingegnoso
e
a
tutto campo
dell’intelligenza
artificiale
messo
in
atto
dalle
forze
tecnoliberiste,
è possibile
affermare
che
la
società
sta
scomparendo.
La
politica
non
è
più rilevante,
non
ha
più
ragione
d’essere.
Non
esiste
più,
o
commettiamo
il grave
errore
di
abbandonarla
ai
regimi
autoritari,
focalizzati
sull’unica preoccupazione
di
delegare
a
meccanismi
impersonali,
che
offendono
il nostro
diritto
di
pronunciarci
liberamente
e
lo
stesso
compito
di
organizzare le
cose:
“La
burocrazia
è
il
governo
di
nessuno,
e
forse
proprio
per
questo
si può
scorgere
in
essa
la
forma
di
governo
meno
umana
e
più
crudele”.8 Questa
svolta
avviene
nel
momento
esatto
della
crisi
contemporanea
della democrazia
e
della
rappresentatività.
In
questo
nostro
periodo
confuso, vorremmo,
consapevolmente
o
inconsapevolmente,
demandare all’intelligenza
artificiale
il
compito
di
risolvere
le
nostre
difficoltà.
Più
la società
è
ingovernabile,
più
aumenta
il
desiderio
di
affidare
a
una
tecnologia il
compito
di
guidare
le
nostre
vite. È
qui
che
la
necessità
si
fa
legge.
Ebbene,
la
caratteristica
del
regime
della necessità
è
quella
di
limitarsi
a
constatare
lo
stato
delle
cose
e
reagire, principalmente
rispondendo
alle
mancanze
e
tappando
le
falle,
contribuendo di
fatto
a
perpetuare
l’ordine
delle
cose.
La
vocazione
dei
politici
consiste
nel credere
che
sia
possibile
cambiare
certe
situazioni
e
compiere
sforzi, generalmente
in
vista
di
promuovere
condizioni
di
vita
migliori
e
più dignitose.
Sotto
questo
aspetto
tali
modalità,
contrariamente
alle
apparenze e
a
quello
che
viene
affermato,
sono
eminentemente
conservatrici.
Francis Fukuyama
si
è
sbagliato:
la
fine
della
storia
non
è
avvenuta
con
la
caduta
del Muro
di
Berlino
nel
1989
e
con
il
trionfo
planetario
del
liberalismo
politico ed
economico,
ma
si
sta
compiendo
oggi,
con
la
generalizzazione
dell’uso
dell’intelligenza
artificiale.
La
sua
funzione
principale,
infatti,
è
quella
di gestire
un
numero
teoricamente
infinito
di
situazioni
e
mettere
in
pratica soluzioni
presumibilmente
efficaci,
viste
come
scontate.
Quella
che
cercano di
annientare
è
la
nostra
ostinata
volontà
di
edificare
altri
modi
di
vivere. L’automatizzazione
segna
la
rinuncia
del
principio
speranza,
quello
che
dalla notte
dei
tempi
ci
sprona
a
non
accontentarci
di
ciò
che
esiste
e
a
cercare,
nel rischio
e
nell’incertezza,
di
dare
corpo
alle
aspirazioni
più
inaspettate
e coraggiose,
grazie
al
potere
trasformatore,
salutare
ed
esaltante
dell’azione umana.
4.2
L’AMMINISTRAZIONE
AUTOMATIZZATA
DELLE
CONDOTTE C’è
un’inquietudine
fondamentale
che
ci
agita
sin
dalla
notte
dei
tempi: quella
di
essere
osservati
senza
rendercene
conto.
È
in
qualche
modo collegata
al
desiderio
altrettanto
fondamentale
di
poter
agire
come
meglio crediamo
in
certi
momenti
della
nostra
quotidianità,
senza
dover
rendere conto
a
nessuno.
Questa
angoscia
si
fa
strada
non
appena
qualcuno
ci
scruta da
lontano
in
aperta
campagna,
per
esempio,
o
da
una
finestra.
E
ci
assale
in modo
ancora
più
minaccioso
quando
certi
regimi
politici,
generalmente autoritari,
intendono
spiare
le
nostre
azioni.
Nell’epoca
contemporanea
è riaffiorata
potentemente
in
seguito
agli
attentati
del
settembre
2001, avvenuti
per
mano
di
un
piccolo
gruppo
di
individui
capaci,
da
soli,
di
colpire la
prima
potenza
economica
e
militare
del
pianeta.
Questo
conflitto asimmetrico,
di
un
genere
tutto
nuovo,
ha
comportato
il
monitoraggio
dei comportamenti
dei
cittadini:
le
agenzie
di
intelligence
tenevano
sotto controllo
navigazioni
internet,
conversazioni
telefoniche,
movimenti
delle carte
di
credito,
e
tutto
questo
a
livello
sia
nazionale
che
mondiale.
Nel
2013 le
rivelazioni
di
Edward
Snowden
sulle
intercettazioni,
spesso
illegali, riguardanti
i
metadati
e
praticate
dagli
organi
statali
diedero
la
misura
della vastità
della
sorveglianza
digitale
contemporanea. Di
colpo
diventava
chiaro
a
chiunque
che
i
propri
strumenti
digitali
erano fonti
di
informazioni
riguardanti
azioni
e
interessi;
e
così
l’opinione
pubblica di
tutto
il
mondo
ha
cominciato,
giustamente,
a
ribellarsi
contro
questi procedimenti
invasivi
giudicati
illegittimi.
L’indignazione
era
generalizzata, si
misero
tutti
a
leggere
o
a
rileggere
1984
di
George
Orwell,
che
conobbe
una nuova
impennata
delle
vendite,
e
a
manifestare
contro
la
violazione
della privacy.
Vennero
approntati
e
votati
veri
e
propri
arsenali
giuridici
a sostegno
di
politiche
di
intrusione
nella
vita
privata;
ci
si
appellava
alle minacce
che
incombevano
sulle
libertà
fondamentali
e,
più
in
generale,
sulla
democrazia.
La
colpa
veniva
attribuita
agli
Stati,
senza
capire
che
in
realtà
il primo
anello
della
catena
era
occupato
dagli
attori
economici,
situati
agli avamposti
della
raccolta
dei
dati.
Inquadrarli
diventava
la
grande
sfida politica
dell’epoca,
che
incontrava
il
consenso
universale.
Ma
quello
che caratterizza
le
mobilitazioni
di
massa
è
che
esse
procedono
fuori
tempo: questi
metodi,
infatti,
erano
già
in
atto
da
almeno
una
decina
di
anni, dall’inizio
degli
anni
Novanta;
c’era
soltanto
voluto
del
tempo
per
coglierne la
natura
e
la
portata.
Tuttavia,
nel
momento
in
cui
la
sorveglianza
digitale raggiunge
il
suo
apice,
si
trova
a
essere
a
poco
a
poco
rimpiazzata
da
una nuova
forma
di
rastrellamento
messa
in
atto
dai
governi,
volta
non
tanto
a spiare
e
a
individuare
comportamenti
“sospetti”,
quanto
a
sviluppare tecniche
destinate
ad
agire
sulle
persone,
a
incitare
tutti
a
partecipare
al “buon
ordine
generale
delle
cose”.
Accanto
a
queste
misure
ancora embrionali,
in
Cina
già
esiste
un
dispositivo
che
funge
da
laboratorio
e rappresenta
la
spia
del
passaggio
dalla
sorveglianza
stricto
sensu
a un’amministrazione
automatizzata
delle
condotte:
il
sistema
di
credito sociale. Si
tratta
di
un’iniziativa
pensata
dal
governo
cinese
per
“valutare scientificamente”
i
comportamenti
delle
persone.
Questo
sistema
è
rivolto
ai cittadini
–
a
eccezione
di
quelli
in
possesso
di
precedenti
penali
–
cui
viene assegnato
un
punteggio
iniziale
di
mille
punti
destinati
ad
aumentare
o
a diminuire
in
base
alle
azioni
quotidiane.
Per
esempio:
comportarsi
male
sui mezzi
di
trasporto,
pagare
in
ritardo
le
bollette,
non
rispettare
un
divieto
di fumare,
non
andare
a
trovare
i
propri
genitori,
tutto
questo,
e
molto
altro,
fa perdere
punti,
impedisce
di
beneficiare
di
determinati
vantaggi
e
rovina
la reputazione.
Per
recuperare
punti
bisogna
dare
prova
di
“senso
civico”,
e quindi
donare
il
sangue,
comportarsi
da
“lavoratore
modello”,
o
compiere qualche
“buona
azione”.
Tutti
gesti
che
se
realizzati
non
tanto
per “riscattarsi”
quanto
per
dare
sfogo
a
uno
“slancio
volontario”,
aumentano
il “credito”.
Un
punteggio
alto
dà
diritto
all’accesso
prioritario
in
ospedale,
a un
alloggio
sociale
o
a
certi
impieghi
pubblici. Questo
piano
va
via
via
concretizzandosi
anche
grazie
ai
numerosi
progetti che
prendono
vita
in
tutto
il
Paese.
Sono
molte
le
città
che
installano dispositivi
di
riconoscimento
facciale
lungo
le
arterie
di
comunicazione
per riconoscere
i
cittadini
ricercati
o
scomparsi;
come
molti
sono
i
poliziotti
che si
aggirano
per
le
stazioni
più
grandi
muniti
di
occhiali
con
le
stesse funzionalità.
Anche
le
università
fanno
ricorso
a
questi
apparecchi
negli studentati
per
controllare
gli
spostamenti
degli
studenti.
L’azienda
cinese SenseTime,
specializzata
nei
video
cosiddetti
“intelligenti”,
non
smette
di
espandersi
e
collabora
sia
con
ditte
che
con
amministrazioni
e
servizi
segreti. Sono
sempre
di
più
i
comuni
che
ricorrono
a
sistemi
di
videosorveglianza
per acciuffare
i
pedoni
che
attraversano
con
il
rosso.
Quando
questo
accade,
il loro
viso
e
il
loro
nome
compare
su
una
miriade
di
schermi
piazzati
agli incroci
delle
strade.
L’amministrazione
locale
non
fa
che
ripetere
a
gran
voce lo
slogan
lanciato
dal
Consiglio
di
Stato
nel
2014:
“Le
persone
di
fiducia possono
camminare
tranquillamente
sotto
il
cielo,
quelli
che
non
sono
degni di
fiducia
non
possono
fare
neanche
un
passo”.9
Il
programma
implica inoltre
la
stesura
di
liste
nere
esposte
pubblicamente
che
possono comportare
il
divieto
di
prendere
treni
e
aerei
e
di
soggiornare
in
determinati hotel.
Vengono
redatte
a
partire
da
informazioni
trasmesse
dalla
giustizia relativamente
a
frequenti
scoperti,
debiti
insoluti,
comportamenti
a
rischio
o certi
tipi
di
infrazioni,
come
ad
esempio
il
mancato
pagamento
di
un pedaggio. Ma
non
sono
soltanto
i
cittadini
a
essere
sottoposti
a
queste
misure
di sorveglianza.
Anche
alle
aziende,
infatti,
viene
assegnato
un
codice
di
credito sociale.
Una
serie
di
dispositivi
tiene
sotto
controllo
il
monitoraggio
della fiscalità
e
della
gestione
e
la
conformità
delle
pratiche
con
i
regolamenti “sociali
e
ambientali”,
e
individuano
le
truffe
o
i
mancati
pagamenti
dei contributi.
Ci
sono
società
specializzate
in
questo
genere
di
controlli,
che verificano
il
rispetto
dei
criteri
stabiliti
e
mettono
un
voto
che
va
da
“AAA”
a “D”,
da
cui
dipende
la
possibilità
di
rispondere
a
gare
d’appalto
o
contratti pubblici.
Anche
eletti
e
funzionari
sono
soggetti
a
questi
stessi
metodi
che,
se necessario,
possono
essere
accompagnati
da
denunce
pubbliche
senza giudizio
preliminare.
Il
“credito
sociale”
dovrebbe
in
teoria
favorire
“il miglioramento”
dei
comportamenti
e
“far
regnare
la
fiducia
in
una
società
di persone
oneste”.
L’obiettivo
è
quello
di
limitare
il
ricorso
alla
giustizia
per lasciare
a
dei
meccanismi
automatizzati
il
compito
di
garantire
il mantenimento
dell’ordine.
Il
progetto
prevede
di
raccogliere
il
maggior numero
possibile
di
informazioni
da
qui
al
2020
all’interno
di
un
database centralizzato
relativo
all’intera
popolazione
e
a
tutti
i
settori
della
società, allo
scopo
di
instaurare
una
“cultura
dell’onestà
e
dell’integrità”. C’è
chi
si
dice
molto
spaventato
dall’instaurazione
di
una
“controllocrazia”. È
il
caso
dell’analista
politico
norvegese
Stein
Ringen,
o
di
Maya
Wang, dell’organizzazione
non
governativa
Human
Rights
Watch,
che
denuncia
la “raccolta
senza
limiti
di
dati
relativi
ai
cittadini
a
scopo
di
sorveglianza
e
di controllo”.10
Come
dar
loro
torto?
Tuttavia
questi
metodi
di
valutazione continuano
a
fare
riferimento
a
modelli
in
vigore
fino
a
poco
tempo
fa
e
ora in
procinto
di
decadere.
Perché
non
è
più
tanto
una
questione
di
“sorvegliare”
o
di
raccogliere
abusivamente
“dati
personali”,
ma
di influenzare
i
comportamenti,
di
fare
in
modo
che
grazie
a
un’architettura tecnica
prevalga
una
buona
organizzazione,
che
il
funzionamento,
tanto microscopico
quanto
macroscopico,
delle
cose
prenda
in
ogni
momento
la direzione
desiderata,
o,
per
meglio
dire,
la
direzione
programmata.
La sorveglianza
presuppone
il
fermo
e
l’isolamento
di
tutti
quegli
individui
che hanno
commesso
reati
o
che
potrebbero
commetterne;
l’amministrazione automatizzata
delle
condotte
intende
generalizzare
il
principio
di interiorizzazione
di
tutti
quei
precetti
considerati
“fondamentali”
affinché, un
po’
come
accade
con
le
recinzioni
elettriche
che
circondano
certi
terreni, vengano
inviate
delle
scariche
a
tutti
quegli
elementi
del
gregge
che, inavvertitamente
o
volutamente,
si
azzardano
a
uscire
dal
recinto,
ma
non più
di
questo,
l’architettura
della
matrice
basta
da
sola
a
contenere
qualsiasi velleità
divergente. Un
altro
degli
obiettivi
perseguiti
è
un
ordine
economico
destinato
a
evolvere senza
intoppi
e
a
ritmo
sempre
sostenuto.
Nella
dichiarazione
di
intenti viene
affermato
che
questo
sistema
permetterà
in
particolare
di
“ridurre
i costi
delle
transazioni
e
prevenire
i
rischi
economici,
una
necessità
urgente finalizzata
a
limitare
le
ingerenze
governative
nell’economia
e
a
perfezionare il
sistema
di
economia
socialista
di
mercato”.
In
tal
senso,
questa organizzazione
cerca
di
allineare
il
regime
politico
e
quello
economico
agli stessi
schemi
fondati
sugli
imperativi
dell’autoregolamentazione
e
della fluidità
al
fine
di
garantire
a
ciascuno
di
essi,
e
a
tutto
l’insieme,
un andamento
efficace.
Forse
il
“capitalismo
guidato”
decretato
dai
responsabili cinesi
trova
qui
le
condizioni
perfette
per
la
sua
attuazione,
e
questo
anche grazie
all’abilità
di
saper
sfruttare
tutte
le
funzionalità
offerte dall’intelligenza
artificiale.
Più
che
con
un
controllo
statale,
avremmo
a
che fare
con
un
“monitoring
algoritmico”
finalizzato
alla
costruzione
di
una società
igienista
e
vitalistica.
Questo
sistema
risulta
tanto
più
legittimo
in quanto
può
essere
paragonato
alla
figura
di
un
imperatore
che
non
deve
mai farsi
vedere
e
che,
grazie
a
una
forma
di
autorità
simbolicamente onnipresente,
fa
continuamente
prevalere
gli
ideali
confuciani
dell’armonia sociale. Cionondimeno,
questa
logica
non
viene
applicata
solamente,
e
in
modo
più
o meno
rivendicato,
dalle
nazioni
–
prima
tra
tutte
la
Cina
–
ma
anche
dagli individui
che
ormai
fanno
ricorso
alla
tecnica
per
governare
la
propria quotidianità.
Le
prime
manifestazioni
di
questa
tendenza
risalgono
alla
fine degli
anni
Novanta
quando,
a
poco
a
poco,
si
è
diffusa
l’abitudine
di
“googlare”
il
nome
di
una
persona
appena
incontrata,
o
da
incontrare,
al lavoro
come
nel
privato,
quello
di
un
prodotto
o
di
una
meta
turistica. Qualche
tempo
dopo,
con
l’avvento
delle
applicazioni,
queste
abitudini hanno
assunto
un’altra
proporzione,
basti
pensare
ai
servizi
di
coaching sportivo
o
alla
gestione
a
distanza
di
certe
funzionalità
della
propria abitazione.
In
teoria,
il
passaggio
successivo
dovrebbe
essere
il
collegamento di
tutti
i
nostri
gesti
ad
assistenti
virtuali
preposti
a
rispondere
a
qualsiasi nostro
bisogno
o
desiderio.
Un
apparato
che
continua
a
evolvere
e
a diventare
sempre
più
sofisticato,
e
che
da
poco
ci
permette
anche
di determinarci
“meglio”,
di
vivere
una
vita
più
sicura,
di
ottenere
vantaggi,
di evitare
sforzi
inutili,
di
raccogliere
informazioni
sul
profilo
di
un’azienda
o
di una
persona,
di
entrare
in
graduatorie,
di
difendere
la
nostra
reputazione,
di evitare
di
farci
penalizzare
simbolicamente
o
nei
fatti. Forse
ben
presto
cominceremo
ad
adottare
comportamenti
a
metà
strada tra
quelli
che
si
possono
vedere
nel
film
Anon,
in
cui
gli
individui
hanno, impiantati
nella
retina,
sistemi
di
realtà
aumentata
capaci
di
raccogliere
in tempo
reale
una
miriade
di
informazioni
sulle
persone
o
sugli
oggetti
che incrociano
allo
scopo
di
guidarne
il
comportamento,11
e
quelli
di
un
episodio della
serie
Black
Mirror
intitolato
Caduta
libera,
che
mette
in
scena
una società
in
cui
i
membri,
che
hanno
interiorizzato
i
principi
di
un’impietosa taratura
universale,
sono
continuamente
sottoposti
a
valutazione
e
si sforzano,
senza
tregua
e
con
più
o
meno
successo,
di
fare
bella
figura.12 Vengono
dunque
a
instaurarsi
nuovi
rapporti
con
il
reale
e
con
gli
altri
nei quali
si
cerca
di
eliminare
il
rischio
e
trarre
profitto
da
ogni
situazione,
in linea
con
lo
spirito
del
“credito
sociale”,
solo
con
un’apparenza
più
soft
e cool,
ma
derivando
comunque
da
un’ingegneria
sociale
che,
esattamente come
il
modello
cinese,
intende
ostracizzare
i
comportamenti
“devianti”
e premiare,
in
un
modo
o
nell’altro,
quelli
“più
meritevoli”. E
allora
diventiamo
tutti
idealisti,
diffidiamo
delle
apparenze
e
vogliamo essere
sempre
al
corrente
dello
stato
delle
persone
e
delle
cose
per
evitare
di commettere
errori
o
di
essere
indotti
in
errore.
Stanchi
della
nostra condizione
e
dei
nostri
simili,
rinunciamo
all’esercizio
delle
nostre
facoltà
e diamo
prova
di
nichilismo,
quello
identificato
da
Nietzsche
come
il
risultato del
desiderio
di
affidarci
a
una
verità
assoluta,
che
contribuisce
a
negare
la parte
irrinunciabile
di
ognuno
di
noi,
quella
che
costituisce
la
nostra singolarità
e
la
nostra
ricchezza
e
che
fa
nascere
il
desiderio
di
andare incontro
all’altro:
“Ad
ogni
anima
appartiene
un
mondo
diverso;
per
ogni anima,
ogni
altra
anima
è
un
mondo
dietro
il
mondo”.13
Forse
ora
più
che mai
è
chiaro
l’impatto
che
le
produzioni
tecnico-economiche
hanno
non
solo
sul
nostro
modo
di
vivere
ma
anche
sul
rapporto
con
le
persone,
stando
a una
constatazione
fatta
a
suo
tempo
dallo
storico
della
tecnica
Lewis Mumford
e
che
oggi
prenderebbe
una
dimensione
completamente
diversa: “Solo
sul
piano
della
religione
è
possibile
capire
il
carattere
costrittivo
di
una evoluzione
meccanica
che
era
completamente
indifferente
agli
sviluppi
delle relazioni
umane”.14
Stiamo
passando
dallo
stadio
dell’individualizzazione
– che
dal
dopoguerra
ha
in
gran
parte
caratterizzato
la
modernità
–
allo
stadio della
penetrazione
dei
corpi
e
delle
cose.
È
chiaro
quanto
questo
ordine partecipi
di
un
isolamento
generalizzato?
Lo
stesso
isolamento
di
cui
Orwell aveva
analizzato
i
possibili
meccanismi
di
asservimento,
e
che
Hannah Arendt
aveva
indagato:
“[Giacché]
la
società
di
massa
è
appunto
quel
tipo
di organizzazione
che
si
determina
automaticamente
tra
gli
esseri
umani ancora
legati
l’uno
all’altro
ma
privi
ormai
di
quel
mondo
un
tempo
comune a
tutti”.15
Tuttavia
oggigiorno
lo
sradicamento
dei
riferimenti
comuni
non sarebbe
più
la
conseguenza
di
una
logica
di
massa,
ma
di
quella
pratica attuata
volontariamente
dagli
individui
che
consiste
nel
mettere
filtri
tra
sé stessi
e
gli
altri
per
mantenere
la
distanza
e
potersi
così
determinare
meglio in
qualunque
circostanza. La
teoria
della
“fisica
sociale”
si
ritroverebbe
così
a
essere
chiamata
in
causa; Auguste
Comte
la
indicava
come
la
“scienza
delle
società”,
precedente
alla “scienza
dei
fatti
sociali”
poi
denominata
“sociologia”.
La
prima
avrebbe creduto
nella
possibilità
di
redigere
una
cartografia
quasi
integrale
dei fenomeni
umani
che
avrebbero
potuto
così
essere
classificati
in
base
a
certe regole;
la
seconda
prenderebbe
atto
dell’impossibilità
di
ridurli
a
delle tabelle,
cosa
che
portò
Émile
Durkheim
a
parlare
di
“leggi
sociali”
fatte
di incertezze.
Viviamo
nell’era
della
volontà
di
modellizzare
di
nuovo
i
fatti sociali.
Questa
propensione
sarebbe
emblematica
nei
lavori
di
Alex
Pentland, informatico
e
creatore
del
MIT
Media
Lab
e
autore
dell’opera
Fisica sociale,16
il
quale
afferma
che
un’utilizzazione
appropriata
dei
dati permetterebbe
di
elaborare
una
teoria
computazionale,
a
dimensione predittiva,
del
comportamento
umano
e
di
procedere
a
un’“ingegneria sociale”
provvidenziale,
attraverso
le
virtù
regolatrici
e
omeostatiche dell’intelligenza
artificiale. Non
ci
sarebbe
più
allora
alcuna
opposizione
tra
l’“olismo”,
che
considera la
società
un
insieme
indivisibile
le
cui
leggi
determinano
le
condizioni
di esistenza
dei
suoi
membri,
e
l’“individualismo
metodologico”,
che
considera
i fenomeni
collettivi
come
il
risultato
delle
caratteristiche
e
delle
azioni
dei singoli
e
delle
relazioni
che
questi
intrattengono
tra
loro.
Assisteremmo
alla verifica
congiunta
di
questi
due
metodi
di
valutazione
basata
su
una
sintesi
inedita.
Perché
ciascuno
cercherebbe
scientemente,
dotandosi
di
mezzi
ad hoc,
di
integrarsi
a
questo
ordine
tecnico-igienista-liberista
–
che
deriva dalla
nostra
paura
fondamentale
del
reale
e
mira
a
far
sì
che
tutto
funzioni secondo
il
nostro
istinto
a
privilegiare
la
sicurezza,
la
comodità
e
il
vantaggio –
chiamato,
con
la
sua
annunciata
generalizzazione,
il
suo
peso
e
la
sua potenza,
a
rendere
illusoria
e
insensata
qualsiasi
aspirazione
divergente.
4.3
TEORIA
DELL’AUTOMOBILE
AUTONOMA Certi
fenomeni
e
certi
oggetti
testimoniano
qualcosa
che
va
ben
al
di
là
delle loro
semplici
manifestazioni
o
funzioni.
Con
quello
che
inaugurano
e
che implicano,
essi
sono
lo
specchio
della
condizione
di
una
società,
delle
sue aspirazioni,
dei
suoi
errori.
In
altre
parole,
incarnano
lo
spirito
di
un’epoca. Se
guardiamo
all’età
moderna,
quella
cioè
iniziata
alla
fine
della
Prima guerra
mondiale,
uno
degli
esempi
più
emblematici
è
rappresentato dall’introduzione
delle
ferie
retribuite,
che
davano
corpo
a
una
speranza popolare
manifestatasi
da
tempo
e
che,
a
poco
a
poco,
avrebbe
istituito
l’era del
tempo
libero.
O
dal
campeggio,
che
rispondeva
allo
stesso
spirito
e
che
in origine
dava
la
possibilità
di
non
dipendere
da
nessuna
struttura
e
spostarsi liberamente
a
seconda
dei
propri
desideri.
Quasi
cinquant’anni
dopo
sono comparsi
contemporaneamente
due
oggetti
i
cui
effetti
sul
nostro
modo
di vivere
si
fanno
sentire
ancora
oggi:
innanzitutto
lo
skateboard,
ispirato
al surf
hawaiano,
che
permetteva
di
scivolare
sull’asfalto
e
provare
per
le
strade della
città
la
stessa
sensazione
di
libertà
avvertita
sulle
onde
dell’oceano;
e poi
il
Walkman,
lettore
di
musicassette
dotato
di
cuffie,
immesso
sul
mercato nel
1979
dalla
Sony,
che,
leggero
e
senza
fili,
consentiva
di
andare
in
giro
al ritmo
della
propria
musica
preferita.
Skateboard
e
Walkman
sono
andati
di pari
passo
generando
nuovi
comportamenti
che
intendevano
rompere
con tutta
una
serie
di
convenzioni
e
celebrare
l’autonomia
degli
individui.
Gli esempi
da
citare
sarebbero
molti,
ma
nessuno
di
essi
ha
prodotto
l’impatto né
riveste
il
valore
simbolico
di
quello
strumento
che
ha
riconfigurato
i
centri abitati,
i
territori,
il
nostro
rapporto
con
lo
spazio,
fino
a
ridefinire completamente
le
nostre
esistenze:
l’automobile. Al
di
là
della
sua
funzione
principale
–
ossia
trasportare
le
persone
in
modo meccanizzato
sulla
terraferma
all’interno
di
un
abitacolo
–,
l’automobile inaugurava
anche
uno
stile
di
vita:
quello
di
godere
della
libertà
di
andare dove
si
voleva
quando
si
voleva.
Da
soli,
in
coppia,
in
famiglia,
in
compagnia di
amici,
l’automobile
permetteva
di
raggiungere
il
paese
vicino
come
anche
un
altro
continente.
Si
presentava
come
un
contenitore
curato
in
ogni minimo
dettaglio,
capace,
se
necessario,
di
viaggiare
con
il
baule
carico
di bagagli,
il
tettuccio
occupato
da
bici
o
mobili
e
una
roulotte
al
seguito.
Ha contribuito
alla
nascita
della
società
dei
consumi,
in
particolare
ha
favorito l’apertura
dei
centri
commerciali
nelle
periferie,
con
la
loro
fiumana
di persone
aggrappate
al
carrello
della
spesa,
a
zonzo
tra
corsie
chilometriche piene
zeppe
di
prodotti.
Ha
generato
la
costruzione
di
viali,
strade
e marciapiedi
negli
spazi
urbani,
così
come
quella
di
autostrade
e
cavalcavia faraonici,
equivalenti
moderni
delle
piramidi,
ha
lasciato
la
sua
impronta
a terra,
ha
trasformato
la
geografia.
Ha
rappresentato
un
nuovo
mezzo
per recarsi
al
lavoro,
contribuendo
all’espansione
delle
periferie
e
all’aumento del
traffico,
in
particolare
quello
vacanziero,
lo
stesso
raccontato
in
modo quasi
caricaturale
da
Godard
nel
1967
nel
film
Weekend
–
Una
donna
e
un uomo
da
sabato
a
domenica.
Perché
non
è
tutto
oro
quello
che
luccica: anche
l’automobile
aveva
una
sua
zona
d’ombra,
quella
dei
continui
incidenti e
degli
innumerevoli
drammi,
quella
dei
corpi
straziati
e
delle
vite
spezzate. Ancora
oggi
è
una
delle
principali
cause
di
inquinamento
nel
pianeta
e
di distruzione
dei
paesaggi.
Ma
nonostante
tutto,
nell’immaginario
collettivo l’automobile
rimane
il
mezzo
che
ha
permesso
all’uomo
di
disfarsi
di strutture
comuni
obbligate
–
partecipando
in
gran
parte all’individualizzazione
della
società
–,
o
di
percorrere
grandi
spazi ascoltando
sulla
sua
autoradio
La
Traviata,
Elvis
Presley
o
Charles
Trenet, per
esempio,
dandogli
quasi
la
sensazione
di
non
avere
più
alcun impedimento
e
di
godere
di
un’autonomia
illimitata.
È
arrivata
persino
a rappresentare
un
simbolo
di
massima
libertà,
come
mostrato
nel
film Thelma
&
Louise
(Ridley
Scott,
1991)
che
nella
scena
finale
vede
le
due protagoniste
lanciarsi,
dopo
lunghe
peregrinazioni,
dall’alto
di
un
canyon
per sfuggire
a
una
flotta
di
volanti
e
tutte
quelle
costrizioni
che
non
avrebbero potuto
sopportare.
Nessun
altro
oggetto
moderno
potrà
mai
rappresentare da
solo
il
simbolo
di
un
così
lungo
periodo
storico
–
con
le
sue
aspirazioni,
le sue
contraddizioni,
i
suoi
eccessi
–
fino
al
punto
di
dargli
persino
il
suo nome:
civiltà
dell’automobile. Questo
oggetto,
la
cui
struttura
in
oltre
un
secolo
è
rimasta
più
o
meno inalterata,
è
destinato
ora
a
prendere
una
direzione
completamente
diversa. Se
nell’aspetto
e
nella
forma
rimarrà,
in
parte,
simile
–
ovvero
una
scocca
su quattro
ruote
che
trasporta
passeggeri
–,
il
funzionamento,
la
natura
dei percorsi
e
la
vita
al
suo
interno
evolveranno
secondo
modalità
nuove.
Fino ad
oggi
l’uomo,
una
volta
salito
a
bordo,
ha
dovuto
impugnare
il
volante
e manovrarlo;
ma
ben
presto
ci
penserà
un
apparato
tecnico
altamente È
sofisticato
a
prendere
il
comando
e
occuparsi
della
guida.
È
concepito affinché
si
comporti
come
un
organo
sensibile
capace
di
scandagliare l’ambiente
circostante,
sia
nell’immediato
che
in
prospettiva,
e
dotato
di
una serie
di
dispositivi
che
lo
fanno
assomigliare
più
a
una
navicella
spaziale
che alla
classica
automobile
cui
siamo
da
sempre
abituati:
un
sistema
di
lidar (telerilevamento
tramite
laser),
trasmettitori
radar
e
sonar,
sensori, telecamere,
laser
scanner,
ricevitori
GPS… Tutte
queste
dotazioni
gli
permettono
di
raccogliere
informazioni
di
ogni tipo
e
di
analizzarle
in
tempo
reale
per
poi
procedere
a
una
miriade
di comandi
relativi
alla
direzione,
al
controllo
della
velocità,
al
mantenimento della
distanza
di
sicurezza,
alle
fermate…
Il
veicolo,
esattamente
come l’essere
umano,
si
trova,
da
una
parte,
a
dover
sottostare
a
una
serie
di
regole e,
dall’altra,
a
dover
prendere
continuamente
iniziative
e
reagire
in
modo adeguato
agli
avvenimenti.
Gestisce
quasi
simultaneamente
un’infinità
di informazioni,
da
quelle
relative
alle
sue
componenti
interne
a
quelle riguardanti
l’ambiente
circostante
e
le
condizioni
generali,
come
ad
esempio traffico
o
meteo.
Grazie
a
una
visione
sia
microscopica
che
macroscopica, l’automobile
è
dunque
perfettamente
in
grado
di
svolgere,
“in
coscienza”
e
in modo
“sovrano”,
la
funzione
di
pilota.
Una
simile
autonomia
trova spiegazione
nel
fatto
che
essa
è
elaborata
secondo
la
struttura
tecnologica tripartita
determinante
del
nostro
tempo
che
coniuga
sensori,
sistemi
di elaborazione
dati
e
di
intelligenza
artificiale.
In
questo,
e
con
i
compiti
che
le vengono
assegnati,
essa
costituisce,
più
di
qualunque
altro
dispositivo,
la prova
della
recente
dimensione
interpretativa
e
autoapprendente
della tecnica. Ma
non
dobbiamo
pensare
che
le
automobili
siano
corpi
isolati.
Al
contrario, esse
evolvono
all’interno
di
un
insieme
nel
quale
interagiscono
con
una marea
di
elementi,
come
gli
altri
veicoli,
il
suolo,
l’arredo
urbano,
un’infinità di
database…
Lo
scopo
è
quello
di
far
prevalere
la
sicurezza,
l’ottimizzazione energetica
e
la
fluidità.
Per
fare
questo,
tale
sistematica
impone
un
ordine generale,
riconfigura
quello
che,
da
vicino
o
da
lontano,
la
circonda,
perché vista
la
sua
natura
e
la
sua
futura
preponderanza,
non
darà
altra
scelta
che quella
di
adeguarsi
a
logiche
che
diventeranno
uguali
per
tutti.
Perché
a differenza
del
modello
precedente,
a
essere
all’opera
qui
non
è
più
una civiltà,
ma
una
fantasia
di
civiltà
desiderosa
che
tutto
funzioni
all’unisono
in vista
di
edificare
un
universo
privo
di
difetti,
indefinitamente
dinamico
e perfettamente
autoregolamentato.
Essa
contribuirebbe,
in
particolare, all’avvento
del
regno,
o
del
paradiso,
della
non-proprietà,
quello
del
noleggio ad
vitam
æternam
promosso
dal
leasing,
del
car
sharing
generalizzato,
dei
taxi-robot,
in
cui
ciascuno
sarebbe
libero
da
tutta
una
serie
di
pesantezze. Verrebbe
così
a
realizzarsi
l’utopia
di
una
città,
e
di
un
mondo,
in
cui
ogni componente
si
impegnerebbe
a
mantenere
una
ritmica
ottimale,
in
cui niente
sarebbe
più
sottomesso
all’inerzia
e
tutto
evolverebbe
alla
cadenza
di flussi
ondulatori;
qualsiasi
fissità
–
dalla
segnaletica,
ai
semafori,
allo
stesso traffico
–
sarebbe
superata
e
la
rigidità
diventerebbe
obsoleta
in
favore
di tutta
una
serie
di
segnali
che
non
smetterebbero
mai
di
interagire garantendo
in
ogni
momento
il
buon
funzionamento
delle
cose. In
questo
modo
i
parcheggi
sotterranei
in
centro
città
diventerebbero inutili:
ogni
entità,
infatti,
sarebbe
potenzialmente
inarrestabile
e
potrebbe essere
messa
al
servizio
di
tutti;
inoltre,
nel
caso
in
cui
la
domanda
fosse inferiore,
i
veicoli
andrebbero
a
parcheggiarsi
da
soli
in
periferia.
Tutto procederebbe
in
modo
automatizzato,
a
compimento
–
indubbiamente radicale
–
della
visione
cibernetica.
Assisteremmo
così
all’inizio
dell’era
delle feste
in
tutti
quegli
spazi
improvvisamente
“liberi”
dalle
auto,
come
ha promesso
il
comune
di
Parigi,
per
esempio,
nuova
capitale
delle
start
up
e della
“rivitalizzazione
degli
spazi
pubblici”,
che
vuol
fare
in
modo
che
corpi
e merci
non
smettano
di
circolare,
in
direzione
di
un
migliore
sviluppo economico,
offrendo
ai
suoi
abitanti
la
possibilità
di
passeggiare
lungo
viali asettici.
Verrebbe
dunque
ad
avverarsi
l’incubo
di
una
società
felice
nella quale
business
e
svaghi
evolverebbero
di
concerto,
a
pieno
regime
e
in
tutta armonia
in
quanto
sintesi
di
esigenze
fino
a
questo
momento
considerate contraddittorie:
“‘In
futuro
le
automobili
autonome
potranno
funzionare quasi
di
continuo.
Bisogna
dunque
riflettere
sin
d’ora
su
come
riutilizzare tutti
quegli
spazi
nascosti
nei
quali
oggi
ammassiamo
le
nostre
automobili,
e instaurare
un
nuovo
dialogo
tra
la
città
di
sopra
e
la
città
di
sotto’,
afferma entusiasta
Jean-Louis
Missika,
assessore
all’urbanistica
del
comune
di Parigi”.17 In
realtà,
contrariamente
a
questa
visione
distorta
e
ingenua,
quello
che verrà
a
costituirsi
sarà
un
nuovo
tipo
di
zonizzazione
ispirata
a
quella sostenuta
dal
modernismo
della
Carta
di
Atene
che
intendeva
stabilire
una rigida
suddivisione
tra
vie
di
circolazione
e
strade
pedonali.
In
quello
che annuncia,
essa
deriva
da
un
arretramento
rispetto
ai
principi
divergenti attuati
successivamente,
in
particolare
quelli
teorizzati
dal
gruppo
Team
X che
difendeva
le
virtù
della
mescolanza
funzionale
e
sociale.18
Se
oggi
è ancora
possibile
rifiutarsi
di
avere
una
macchina,
in
futuro
questa
scelta implicherà
un
nuovo
tipo
di
zonizzazione,
visibile
quanto
impercettibile,
che escluderà
i
refrattari
da
molte
nuove
dimensioni
chiamate
a
ritmare
le arterie
urbane.
Tuttavia,
al
di
là
dell’ideale
di
un
coordinamento
integrale
provvidenziale,
la funzione
principale
del
veicolo
è
tutta
giocata
al
suo
interno.
È
sull’abitacolo che
si
è
concentrata
l’industria
del
digitale
ed
è
l’abitacolo
che
si
è
riproposta di
ridefinire.
Non
dobbiamo
dimenticare,
infatti,
che
in
origine
il
progetto
di autovettura
“autonoma”
non
è
stato
concepito
dall’industria
automobilistica, ma
da
quella
dei
dati,
nella
fattispecie
da
Google
che
il
9
ottobre
2010, attraverso
la
voce
di
uno
dei
suoi
ingegneri,
il
roboticista
Sebastian
Thrun, ha
annunciato
di
volersi
lanciare
in
questa
nuova
impresa.
La
stessa
azienda che
ambiva
a
“organizzare
tutta
l’informazione
del
mondo”
e
a
metterla
a nostra
disposizione,
dietro
la
concessione
di
accedere
alla
conoscenza
di molti
dei
nostri
interessi,
ora
capiva
per
prima
che,
vista
l’architettura
di sensori,
sistemi
di
elaborazione
dati
e
di
intelligenza
artificiale
che cominciava
a
delinearsi,
era
possibile
elaborare
un
nuovo
organismo,
capace di
occuparsi
in
modo
automatizzato
della
guida
–
facoltà
già
di
per
sé impressionante
–
e,
al
tempo
stesso,
grazie
al
contesto
particolarmente favorevole,
di
monitorare
i
comportamenti
umani. Prima
di
tutto
perché
l’automobile
è
un
luogo
nel
quale
trascorriamo
molto tempo,
e
poi
perché
al
suo
interno
svolgiamo
svariate
attività:
ascoltiamo
la radio
o
la
musica,
parliamo
con
gli
altri
passeggeri,
i
bambini
giocano
o guardano
video
su
schermi
integrati
nei
sedili
o
su
tablet;
a
volte,
quando non
siamo
occupati
nella
guida,
la
usiamo
persino
come
pensatoio
o dormitorio.
E
poi
grazie
a
lei
andiamo
da
un
punto
a
un
altro
ed
effettuiamo tragitti
tracciabili
tramite
GPS
che
forniscono
informazioni
sulle
nostre abitudini,
sui
nostri
interessi,
sulle
nostre
preferenze.
Allora,
per
conoscere tutti
questi
momenti
vissuti
chiusi
dentro
un
guscio,
che
rappresentano
un riflesso
condensato
delle
nostre
personalità,
è
necessario
creare
sistemi
di rilevamento
dei
nostri
gesti.
Innanzitutto
utilizzando
le
funzionalità
offerte dall’interfaccia
vocale
che
permette
di
analizzare
sia
le
conversazioni intrattenute
con
altre
persone
che
quelle
intrattenute
con
i
sistemi.
Poi scomponendo
i
tratti
del
viso
tramite
microcamere,
ma
anche
monitorando l’alito,
la
temperatura
del
corpo,
la
pressione
sanguigna,
il
battito
cardiaco,
il sudore,
l’attività
elettrodermica,
fino
ad
arrivare
alle
onde
Alfa
del
cervello, tramite
una
gran
varietà
di
sensori
integrati
nei
sedili
o
nelle
altre
superfici.
I dati
generati
alimentano
dei
dispositivi
incaricati
di
sondare
le
nostre emozioni
e
rilevare
se
siamo
preoccupati
o
rilassati,
il
nostro
livello
di entusiasmo,
di
stress,
di
gioia
o
di
tristezza…
A
quel
punto,
dopo
essere penetrata
in
ogni
minimo
poro
della
nostra
pelle
e
dopo
aver
scandagliato
la nostra
mente,
l’automobile
è
perfettamente
in
grado
di
pilotarci.
Ci
stiamo
avvicinando
allo
stadio
non
tanto
ultimo,
visto
che
a
quanto
pare
è possibile
spostarne
all’infinito
i
limiti,
quanto
estremo
della
radiografia
dei comportamenti,
e
più
ancora
degli
animi,
delle
profondità
della
coscienza
e dell’inconscio.
Così
tra
noi
e
l’automobile
non
ci
sarà
più
quasi
alcuna distanza;
essa
si
configurerà
come
un
oggetto
onnisciente
e
benevolo
che
non solo
ci
terrà
al
riparo
nel
suo
abitacolo,
ma
ci
circonderà
con
il
suo
plasma, riversandoci
addosso
tutte
le
sue
attenzioni
e
instaurando
con
noi
una relazione
fusionale,
quasi
materna.
Quel
commercio
che
prima
tentava
di sollecitare
la
nostra
attenzione
si
appresta
a
essere
superato;
d’ora
in
poi
si tratterà,
come
all’interno
di
un
utero,
di
parlarci
con
parole
rassicuranti,
di impostare
la
giusta
temperatura,
di
diffondere
effetti
odoriferi,
sonori, cromatici,
luminosi
adatti
al
nostro
stato
psicofisico
al
fine
di
metterci
di buon
umore.
Se
per
come
era
stata
concepita
in
origine
l’automobile suscitava
un
sentimento
di
libertà,
l’autovettura
“autonoma”
sarà completamente
dedita
a
noi,
ad
ascoltare
i
nostri
stati
d’animo
e
a
prevenire ogni
nostro
minimo
bisogno.
Oltre
a
essere
quello
che
è,
l’autovettura “autonoma”
è
la
testimonianza
di
un
nuovo
ethos,
quello
della
gestione, destinata
a
essere
totale,
delle
nostre
vite. Il
termine
“autonoma”,
però,
è
inappropriato
e
fuorviante:
il
veicolo, infatti,
è
pilotato
dall’industria
dei
dati
e
dell’intelligenza
artificiale
che, durante
i
nostri
spostamenti
e
in
base
al
nostro
stato,
intende
offrirci
la possibilità
di
scegliere
in
quale
ristorante,
hotel
o
centro
benessere
andare, quale
film
vedere,
chi
incontrare
e
in
quale
bar…
È
il
riflesso
del
mondo
che verrà.
Forse
così
è
più
facile
capire
come
mai
l’obiettivo
dell’industria
del digitale
non
sia
tanto
quello
di
fabbricare
automobili,
quanto
di
essere
al loro
interno,
sempre
al
nostro
fianco.
L’automazione
non
consiste
soltanto nella
progressiva
eliminazione
dell’uomo,
ma
anche
in
presenze
e
fantasmi che
ci
circondano,
ci
accerchiano,
ci
ossessionano.
La
lotta
industriale
del futuro
vedrà
una
competizione
della
presenza,
nella
quale
ognuno
si impegnerà
a
imporre
il
proprio
impero
spettrale
e
a
fare
fuori
tutti
gli
altri. Sarà
una
sorda
ma
spietata
guerra
tra
fantasmi.
4.4
L’AVVENTO
DI
UN
“POTERE-KAIROS” Autorità.
Costrizione.
Paura.
Sono
questi
i
tre
fondamenti
su
cui
si
basa
ogni potere.
È
grazie
a
questo
imperioso
trittico
che
Dio
o
le
divinità
si
assicurano la
venerazione
delle
comunità
umane.
È
poggiandosi
a
questi
pilastri
che
i capi
tribù
o
i
re
possono
regnare,
o
che
i
tiranni
impongono
la
loro
volontà. Questi
tre
principi
categorici
producono
i
loro
effetti
in
vari
modi
e
a
diversi
gradi,
a
seconda
dei
casi.
Sono
anche
alla
base
dei
regimi
democratici moderni
fondati
sulla
legge,
sui
regolamenti
e
su
un
apparato
di
polizia finalizzati
a
garantire
un
certo
ordine
delle
cose.
Ogni
potere,
infatti,
riveste una
superiorità
simbolica
e
formale
che
gli
consente
di
sottomettere
gli individui
e
genera
in
loro
la
sensazione
che,
non
piegandosi
ai
suoi
codici
e
ai suoi
costumi,
incorreranno
in
qualche
rischio.
Se
questa
armatura
ha prevalso
a
lungo,
sul
volgere
del
XX
secolo
si
è
verificato
un
progressivo cambio
di
rotta
nella
nostra
rappresentazione,
quando
cioè
le
scienze
umane hanno
cominciato
a
svelare
gli
innumerevoli
giochi
di
potere
che,
sotto
varie forme
e
al
di
là
del
tradizionale
ambito
politico,
costellavano
le
nostre
vite. Il
potere
non
si
limiterebbe
a
essere
incarnato
da
un
principe
o
da
un’altra figura
simbolo,
umana
o
istituzionale,
ma
si
estenderebbe,
manifestandosi
a più
livelli:
nella
coppia,
in
famiglia,
sul
posto
di
lavoro,
in
certe
usanze,
nella caratterizzazione
dei
generi,
nel
linguaggio
–
che
con
la
sua
struttura
e
il
suo uso
corrente
contribuisce
a
fissare
delle
norme
–,
ma
anche
in
maniera
del tutto
inaspettata
in
mezzo
alla
calca,
sulla
banchina
della
metropolitana,
o
in una
fila,
per
esempio.
Ad
ogni
modo,
indipendentemente
dalle
sue
forme,
la struttura
tripartita
autorità-costrizione-paura
rimane
invariata.
Nonostante l’evoluzione
delle
definizioni,
essa
continua
a
determinare
la
nostra concezione
e
le
nostre
esperienze
del
potere.
Ma
d’ora
in
poi
ci
troveremo
di fronte
a
una
configurazione
completamente
nuova,
la
cui
natura
inedita
sfida le
nostre
categorie.
Si
fa
strada,
infatti,
un
nuovo
tipo
di
sovranità
che,
per
la prima
volta
nella
storia,
non
è
il
frutto
di
queste
tre
dimensioni,
ma
di
una composizione
completamente
diversa.
Essa
deriva
dall’onniscienza
e dall’onnipresenza
e
prende
il
nome
di
poterekairos. La
sua
caratteristica
non
è
obbligare,
ma
detenere
un
sapere
superiore destinato,
alla
lunga,
a
riferirsi
alla
totalità
del
reale,
cosa
che
gli
attribuisce una
certa
importanza
e
un
certo
ascendente.
Questa
facoltà
non
è
comparsa ex
nihilo,
ma
nasce
da
una
“visione”
che
non
era
a
portata
di
tutti
e inizialmente
ha
avuto
bisogno
di
cogliere
un
nuovo
ethos,
che un’architettura
tecnologica,
allora
in
nuce,
poteva
generare.
Google
è
stato
il primo
ad
averlo
percepito
e
ad
avere
poi,
dagli
inizi
degli
anni
Duemila, progressivamente
perfezionato
il
modello;
dobbiamo
riconoscergli
questa forma
di
prescienza,
questa
capacità
di
intuire
in
anticipo,
prima
di
chiunque altro,
che
l’interpretazione
algoritmica
delle
situazioni
associata
alla descrizione
delle
conseguenti
azioni
da
intraprendere
avrebbe
istituito
un nuovo
ordine
delle
cose.
Quello
che
ha
fatto
è
stato
dunque
sfruttare
i dispositivi
esistenti
a
tal
fine
e,
al
contempo,
elaborare
dei
processi
destinati a
dare
corpo
a
questa
disposizione.
Il
disegno
esige
la
costruzione
di
un
edificio
a
due
piani.
Nel
primo
trovano posto
tutta
una
serie
di
strumenti
sofisticati
volti
a
guidare
i
nostri comportamenti;
questi
strumenti
rappresenteranno
le
armi
in
grado
di collocare
il
loro
detentore
agli
avamposti
della
nuova
lotta
economica
del nostro
tempo:
la
conquista
del
comportamentale.
Questa
funge
da
base indispensabile
per
il
piano
superiore,
incaricato
di
raggiungere
l’obiettivo finale,
ossia
essere
continuamente
parte
integrante
dei
nostri
gesti, individuali
e
collettivi,
sempre
al
nostro
fianco,
sui
nostri
corpi,
mentre facciamo
l’amore,
mentre
dormiamo,
quando
siamo
al
bagno,
in
macchina, sui
mezzi
di
trasporto,
sul
posto
di
lavoro,
al
ristorante,
in
mezzo
agli
amici, nei
momenti
di
gioia
e
in
quelli
di
dolore.
L’industria
del
digitale
deve
ormai dare
prova
di
una
scienza
del
chronos;
è
impegnata
a
essere
presente
su tutta
la
linea
del
tempo
delle
nostre
vite
e
pretende
di
dotarsi
di
tutti
i
mezzi utili
per
apparire,
in
ogni
circostanza,
come
l’unica
entità
adatta
a
garantirci, meglio
di
noi
stessi
e
di
chiunque
altro,
il
buon
funzionamento
delle
cose.
A tal
scopo
è
fondamentale
coltivare
un
acuto
senso
dell’occasione
(kairos), saper
anticipare,
prima
di
tutti
gli
altri,
le
aspirazioni
dichiarate
o
non dichiarate,
reali
o
simulate,
delle
persone,
e
rispondervi;
in
altre
parole,
è fondamentale
ergersi
a
maestro
nell’arte
del
kairos. È
necessario
allora
occupare
l’intero
campo
di
battaglia:
la
casa
connessa, l’automobile
senza
pilota,
il
tempo
libero,
il
benessere,
la
salute, l’istruzione…
Risulta
più
facile
capire
perché
gli
attori
abbiano
sviluppato
dei consorzi
–
come
Alphabet,
casa
madre
di
Google
–
destinati
non
tanto
a offrire
gamme
diversificate
di
riferimenti,
quanto
a
mettere
a
disposizione beni
e
servizi
che
possano
rapportarsi
alla
quasi-totalità
delle
sequenze
del nostro
quotidiano.
Sta
tutta
qui
la
differenza
con
le
grandi
aggregazioni storiche,
come
General
Motors
o
Mitsubishi,
fondate
sulla
moltiplicazione
di attività
industriali
e
commerciali
senza
collegamenti
diretti
le
une
con
le altre.
Dato
che
è
impossibile
coprire
tutti
i
bisogni
della
vita,
la
strategia complementare
consiste
nell’ergersi
a
piattaforma,
nello
svolgere
il
ruolo
di interfaccia
principale,
per
essere
in
grado,
eventualmente
e
in
qualsiasi occasione,
di
mettere
in
contatto
le
persone
e
gli
altri
marchi.
Anche
in questo
caso
Google
si
è
mostrato
perfettamente
all’altezza
tramite
il
suo motore
di
ricerca,
e
lo
stesso
vale
per
Amazon,
e
in
minima
parte
per Facebook
con
Marketplace.
È
la
ragione
per
cui
si
formano
nuovi
tipi
di alleanze,
che
vedono
i
grandi
distributori
come
Walmart
o
Carrefour associarsi
a
Google
per
conquistare
una
posizione
egemonica
nel
commercio online.19
Gli
altoparlanti
intelligenti
e
gli
assistenti
virtuali
rappresentano altri
mezzi
utili
a
consolidare
la
presenza;
la
loro
unica
missione,
per
quanto
riguarda
gli
industriali,
è
quella
di
svolgere
la
funzione
di
piattaforma universale,
ragion
per
cui
gli
attori
maggiori
–
primi
tra
tutti
Google,
Apple
e Amazon
–
intendono
controllare
in
prima
persona
sia
l’ideazione
che
la gestione. Ed
è
anche
la
ragione
per
cui
ora
è
meglio
evitare
qualsiasi
“interruzione
di connessione”
nella
relazione
con
i
clienti,
tanto
da
cercare
un
modo
per consegnare
gli
articoli
anche
quando
in
casa
non
c’è
nessuno.
A
tal
scopo,
nel 2018
Amazon
ha
rilevato
la
start
up
Ring,
specializzata
in
serrature
e campanelli
connessi
e
in
telecamere
piazzate
nelle
vicinanze
o
all’interno delle
abitazioni
per
garantire
le
consegne
in
qualsiasi
circostanza.20
Alla lunga
sarà
possibile
fare
la
spesa
tramite
Echo,
l’altoparlante
smart
di Amazon;
gli
ordini
saranno
gestiti
da
Whole
Foods
Market,
società alimentare
specializzata
in
prodotti
biologici
(acquisita
da
Amazon
nel
2017), e
poi
verranno
disimballati
da
noi
grazie
ai
procedimenti
messi
a
punto
da Ring.
L’azienda
madre
si
trova
così
all’interno
di
un
processo
nuovo,
nel quale
si
articolano
disposizione
al
suggerimento,
registrazione
degli
ordini
e organizzazione
della
logistica
generale.
Donde
tutta
una
serie
di
acquisizioni realizzate
al
fine
di
essere
sempre
più
presente
in
tutti
gli
anelli
della
catena dei
consumi.
Oggigiorno
l’industria
“tech”
più
che
ingegnarsi
a
concepire prodotti
in
senso
stretto,
si
sforza
di
sviluppare
rami
d’azienda
collegati
ai vari
settori
di
attività:
FoodTech,
CleanTech,
HealthTech,
BeautyTech, FinTech,
CivicTech,
HappyTech…
E
“LifeTech”,
potremmo
aggiungere
noi, conformemente
al
recente
emergere
di
una
“industria
della
vita”.21 Potremmo
legittimamente
stupirci
di
fronte
a
queste
dimensioni
faraoniche; eppure
si
tratta
di
una
strategia
elaborata
con
pazienza
e
nel
corso
di
anni; l’intenzione,
più
o
meno
dichiarata,
non
è
tanto
vendere,
quanto
fare
da collegamento,
ben
presto
in
modo
imprescindibile,
tra
il
mondo,
gli
altri
e
il nostro
corpo,
da
una
parte,
e
le
nostre
coscienze
e
tutte
le
fatiche
del quotidiano,
dall’altra. Il
paragone
con
gli
Stati,
ormai
trito
e
ritrito,
risulta
quanto
mai
fuori
luogo, fuorviante
e
miope,
perché
le
modalità
in
vigore
e
i
rispettivi
scopi
non possono
essere
equiparati.
Si
tratta
più
propriamente
di
un
cambiamento nella
nozione
di
potere
il
quale
non
presuppone
più
di
delegare
la
paura
a
un sovrano
che
incarni
lo
Stato
e
protegga
i
cittadini
con
la
sua
autorità, secondo
la
concezione
hobbesiana,
e
neppure
di
istituire
delle
“tecnologie
del potere”
(Foucault)
al
fine
di
imporre
un
ordine,
come
il
“biopotere”
che
cerca di
domare
più
o
meno
surrettiziamente
i
corpi.
Quello
con
cui
abbiamo
a
che fare
sono
le
tecnologie
di
un
potere
nuovo,
che
però
portano
un
nome
diverso:
tecnologie
dell’amministrazione
della
vita
e
della
premura.
La distinzione
aristotelica
tra
polis
e
oikos,
città
e
casa,
politica
e
economia
va sfumando
per
via
di
una
serie
di
potenze
che
si
impegnano
a
essere
sempre presenti,
e
solo
e
soltanto
per
noi.
A
quanto
pare
stiamo
passando,
con
lo stesso
entusiasmo
del
XIX
secolo,
dallo
stadio
del
feticismo
delle
merci analizzato
da
Marx
allo
stadio
del
feticismo
dell’istante
meglio
governato. Dovremmo
smetterla
di
dare
credito
a
quel
fenomeno
sensazionalista
dalla portata
sopravvalutata
che
è
il
transumanesimo,
e
renderci
conto
che
quella che
si
sta
via
via
instaurando
è
un’umanità
completamente
diversa,
non
una “postumanità”,
ma
un’umanità
accudita,
covata,
teleguidata
da
server,
che ha
come
conseguenza
la
subdola
irruzione
di
una
regressione
della
civiltà. Certo,
i
processi
che
si
stanno
formando
hanno
contorni
ben
più
subdoli,
ma sono
destinati
ad
avere
una
portata
diversamente
determinante.
Cosa
stiamo cercando?
Cosa
stiamo
inseguendo,
in
modo
quasi
sconsiderato,
da
un
po’
di tempo
a
questa
parte?
Stiamo
forse
tentando
di
soddisfare
la
nostra propensione
alla
pigrizia,
il
nostro
bisogno
di
sicurezza
e
di
comodità, affidandoci
a
forze
dotate
di
capacità
sempre
più
elevate?
A
questa situazione
fanno
eco
in
modo
inquietante
le
riflessioni
di
Dominique Dubarle,
religioso
e
filosofo
francese
appartenente
all’ordine
dei
domenicani, comparse
nel
1948
su
Le
Monde22
e
così
commentate
da
Norbert
Wiener:
“Il pericolo
con
la
machine
à
gouverner
di
padre
Dubarle
non
è
che
possa esercitare
un
controllo
autonomo
sull’umanità:
è
troppo
rudimentale
e imperfetta
perché
possa
mostrare
anche
solo
un
millesimo
della
condotta indipendente
e
risoluta
tipica
degli
esseri
umani.
Il
vero
pericolo,
ben diverso,
è
che
macchine
come
queste,
per
quanto
impotenti
da
sole,
possano essere
utilizzate
dall’essere
umano
o
da
un
gruppo
di
esseri
umani
per aumentare
il
loro
controllo
sul
resto
dell’umanità”.23 Qualcosa
di
questa
asimmetria
radicale
è
di
certo
destinato
a
prevalere,
ma è
fondamentale
individuare
bene
i
fenomeni
per
evitare
che
la
confusione regni
ovunque
sovrana:
non
siamo
di
fronte
a
delle
forme
di
controllo
o, come
si
sente
spesso
dire
in
giro,
di
“ipercontrollo”,
no.
È
importante cogliere
la
differenza
decisiva
tra
“controllo”
e
“influenza”,
le
loro
finalità sono
ben
diverse.
Il
controllo
intende
restringere
il
margine
di
azione
e assicurarsi
il
dominio;
l’influenza
cerca
di
essere
presente,
di
instaurare
una relazione
teoricamente
ininterrotta
in
vista
di
un
obiettivo
determinato.
A
tal scopo,
è
opportuno
ricorrere
a
strategie
sottili,
avere
un
volto,
poter
essere riconosciuto,
avere
un
nome
e,
al
tempo
stesso,
sapersi
cancellare,
ogni
tanto scomparire
per
dare
la
sensazione
di
lasciare
un
po’
di
respiro,
rassicurare riguardo
il
persistere
di
una
distanza,
per
quanto
piccola.
È
su
questa
tensione
continua
che
si
regge
l’intimità
algoritmico-industriale,
in
equilibrio tra
realtà
tangibile
e
distanza
rispettosa,
tra
entità
rassicurante
e
soffio spettrale.
Una
presenza
eccessiva
sarebbe
inquietante;
un’assenza
evidente spezzerebbe
il
legame. Quello
che
caratterizza
il
potere-kairos
è
il
fatto
di
essere
polimorfo
e adattativo
e
di
non
limitarsi
a
un
registro
ristretto
di
funzioni
ma
di rispondere
a
tutte
le
circostanze
della
vita;
il
suo
scopo
è
quello
di proteggerci,
farsi
carico
della
nostra
igiene
e
del
nostro
benessere,
sollevarci dalle
fatiche,
fare
in
modo
di
farci
godere
di
ogni
situazione,
distrarci…
Sa gestire
le
nostre
paure,
le
nostre
angosce,
le
nostre
mancanze,
le
nostre aspirazioni
segrete,
i
nostri
limiti.
È
dotato
di
una
conoscenza
emotiva
che non
smette
mai
di
affinarsi,
al
confine
con
il
sapere
psicanalitico.
Per
di
più sembra
condensare
virtù
fino
a
qui
considerate
in
antitesi
tra
loro,
offrendo
a tutti
il
meglio,
pretendendo
al
contempo
di
prendere
parte
alla
buona organizzazione
generale,
di
costruire
“comunità
di
interesse”,
di
ridurre l’“impronta
di
carbonio”,
di
permettere
alle
popolazioni
povere
di
uscire dalla
miseria,
di
arricchirci
in
un
modo
o
nell’altro…
In
questa organizzazione
la
soddisfazione
dei
propri
bisogni
e
desideri
sconfina
dal semplice
ambito
personale
per
partecipare
al
“migliore”
assetto
comune, all’interno
di
una
logica
“solidale”
nuova
che
però
si
riallaccia
all’aspirazione hegeliana
analizzata,
in
ottica
marxista,
da
Alexandre
Kojève,
che
puntava all’avvento
di
uno
“Stato
universale
e
omogeneo
nel
quale
la
vita
collettiva […]
coincida
completamente
con
la
‘vita
personale’
che
smette
così
di
essere puramente
‘privata’”.24
Due
livelli
di
potere
vengono
così
a
intersecarsi, agendo
in
molti
modi
sulla
vita
di
ognuno
e
sull’intero
tessuto
sociale.
In questo
senso
ci
troviamo
di
fronte
a
una
dimensione
totalizzante
ma
soft, perché
incaricata
di
lavorare
soltanto
al
perfezionamento
dello
stato
sia particolare
che
generale
delle
cose. Non
è
tanto
il
fatto
che
l’ambito
economico
prenda
il
potere,
quanto
che
esso diventi
la
condizione
per
la
buona
gestione
di
tutte
le
circostanze
umane. Non
era
mai
stata
questa
la
sua
prerogativa;
fino
a
poco
tempo
fa
aveva sempre
risposto
a
una
vocazione
unicamente
funzionale;
ora,
invece,
ci
porta ad
adottare
un
modo
di
stare
al
mondo
che
emana
da
uno
stesso
spirito.
Il potere-kairos
agisce
su
di
noi,
plasma
sempre
più
in
profondità
le
nostre esistenze,
deriva
da
una
governance
più
o
meno
sensibile
del
nostro quotidiano,
ma
non
prende
l’aspetto
di
una
forma
di
potere
e
si
configura
più come
una
sostanza
non
identificata,
di
natura
inedita.
Che
nome
potremmo dare
a
una
creatura
che
cerca
in
ogni
occasione
di
aprirci
delle
porte,
rassicurarci,
accudirci,
gratificarci,
cavandoci
contemporaneamente
il sangue?
Vampiro
benevolo?
Ma
la
vera
abilità
di
questo
vampiro
sta
nel trasmetterci
la
sensazione
che,
prima
o
poi,
ci
lascerà
la
mano,
sta
nel presentarsi,
in
un
modo
o
nell’altro,
come
un
meraviglioso
sostegno
delle nostre
azioni
e
mai
come
un
mentore
che
ci
sottrae
il
potere. In
questo
senso
la
trilogia
autorità-costrizione-paura
viene
estromessa
in favore
di
una
tetralogia
che
mette
insieme
potenza
interpretativa, constatazione,
sottigliezza
suggestiva
e
soddisfazione
provata
per
il
risultato prodotto
da
ogni
azione
corrispondente.
Nessun
potere
prima
d’ora
era
mai derivato
da
una
simile
struttura.
A
essere
ridefinito
è
dunque
il
nostro rapporto
storico
con
il
potere
che
ci
impedisce,
di
fatto,
di
avere
con
lui
un rapporto
distanziato
e
critico
per
poi
eventualmente
cercare
di
affrancarci dal
suo
giogo
usurpatore.
Forse
un
giorno
ci
renderemo
conto
che
la
forza suprema
del
potere-kairos
–
con
la
sua
multiformità
inafferrabile,
la
sua dinamica
permanente
e
la
sua
volontà
di
essere
sempre
presente
–
sta
nel fatto
che
non
possiamo
mai
averlo
di
fronte
a
noi
e
sapere
in
tutta
lucidità
di cosa
si
tratti
esattamente;
sta
nel
fatto
di
non
mostrare
mai
per
intero
il
suo volto
e
di
fuggire
continuamente,
libero
di
esercitare
i
suoi
pieni
poteri, lontano
da
qualsiasi
forma
di
opposizione
conseguente.
4.5
IL
SEQUENZIAMENTO
E
LA
SCOMPARSA
DEL
REALE Ci
ritroveremo
a
celebrare
dei
funerali
mondiali.
Saranno
di
una
portata
mai vista
prima,
a
testimonianza
dell’importanza
della
perdita
che
avremo subito.
Ma
non
avranno
nulla
dell’imponenza
delle
esequie
che
seguono
la scomparsa
di
una
figura
reale
o
di
una
star
del
cinema
o
del
rock:
saranno discreti,
e
non
ci
saranno
lacrime,
piagnistei
o
lamenti.
Anzi,
saranno
festosi e
ci
riempiranno
di
gioia
perché
detestavamo
il
defunto
e
quel
modo
spietato che
aveva
di
obbligarci
a
sottostare
alle
sue
leggi,
sin
dalla
notte
dei
tempi. Le
nostre
vite
saranno
finalmente
libere.
L’irremovibilità
delle
cose, l’asprezza,
la
crudeltà,
l’inafferrabilità
del
destino
stanno
ormai scomparendo.
Tra
qualche
tempo
tutta
questa
pesantezza
non
sarà
altro
che un
vago
ricordo.
Presto
faremo
fatica
anche
solo
a
immaginarla,
a
ricordare tutto
quello
a
cui
ci
costringeva
e
a
cui
ci
esponeva.
Sarà
soltanto
una
reliquia e,
chissà,
forse
non
ne
conserveremo
alcuna
traccia.
Questa
entità agonizzante
e
prossima
alla
morte
è
il
reale,
quella
forza
sorda
e
fino
a
qui inevitabile
che
è
fonte
di
tutte
le
nostre
difficoltà,
dei
rischi,
dei
conflitti, degli
incontri
fortuiti,
delle
gioie
e
dei
dolori,
dei
cambiamenti
contini
e
degli eventi
imprevedibili,
e
che,
senza
avvertire,
cambia
quasi
a
caso,
nel
bene
o
nel
male,
il
corso
dei
nostri
destini.
Quel
reale
contro
cui,
per
dirla
con Jacques
Lacan,
non
smettiamo
mai
di
“andare
a
sbattere”,
perché
non
esiste una
legge
integrale
che
ci
permetta
di
coglierlo
in
ogni
circostanza,
o
delle istruzioni
valide
per
l’infinità
dei
suoi
ambiti.
E
ora
ci
troviamo
ad
assistere alla
sua
estinzione. Il
motivo
per
cui
sta
morendo
è
che,
in
modo
abbastanza
inaspettato,
siamo riusciti
a
farlo
a
parlare.
Non
è
più
fatto
di
pieghe
e
zone
d’ombra,
ma
mostra frazioni
sempre
più
estese
di
sé.
Questo
perché
siamo
riusciti
a
sequenziarlo, a
conoscerlo
in
maniera
dettagliata
grazie
all’applicazione
di
sensori
sulle sue
superfici,
in
grado
di
generare
dati
interpretati
da
sistemi
di
intelligenza artificiale.
Siamo
riusciti
ad
avere
una
visione
sempre
più
ampia,
e
alla
lunga quasi
integrale,
delle
cose,
della
“natura”,
delle
persone,
dei
loro
gesti.
In trent’anni
–
meno
di
una
generazione
–
siamo
passati
dallo
stadio
della società
cosiddetta
dell’“informazione”
a
un’episteme
dotata
di
una comprensione
in
tempo
reale
dei
fenomeni
del
mondo.
E
allora
possiamo determinarci
di
conseguenza
e
raggiungere
lo
stadio
della
coscienza
e
del controllo
assoluto
delle
nostre
azioni.
Non
c’è
più
alcun
limite
al
rilevamento dei
fenomeni
e
alla
nostra
volontà
di
procedere
in
ogni
occasione
nel
modo più
opportuno. L’azienda
SpaceKnow,
per
esempio,
attraverso
immagini
satellitari
e sistemi
di
intelligenza
artificiale,
intende
analizzare
dal
cielo,
come
una
sorta di
divinità
celeste,
la
quasi
totalità
dei
movimenti
che
avvengono
sulla
Terra. Punta
a
stabilire
il
livello
di
attività
di
una
fabbrica
automobilistica attraverso
il
calcolo
del
tasso
di
occupazione
dei
suoi
parcheggi;
quello
di
un porto
commerciale
attraverso
l’inventario
degli
spostamenti
delle
navi; quello
di
una
raffineria
dal
calcolo
dei
camion
che
vi
scaricano
il
petrolio grezzo;
e
potremmo
andare
avanti
all’infinito.
Il
suo
fondatore,
Pavel Machalek,
afferma
di
poter
presto:
“rilevare
e
comprendere
tutta
l’attività umana”.25
Questi
discorsi,
che
fino
a
una
ventina
di
anni
fa
ci
sarebbero sembrati
completamente
deliranti,
trovano
nei
fatti
la
loro
giustificazione, nella
misura
in
cui,
nel
caso
di
certi
settori,
è
diventato
tecnicamente possibile
controllare
con
estrema
precisione
il
loro
corso
evolutivo. Deteniamo
ormai
un
controllo
sempre
maggiore
sul
reale;
possiamo piegarlo
ai
nostri
desideri,
alle
nostre
esigenze,
sottometterlo
alle
nostre categorie;
presto
non
ci
opporrà
più
alcuna
resistenza.
Stiamo
entrando nell’era
della
potenza,
non
nucleare
o
chissà
quanto
prodigiosa,
ma relativamente
discreta,
attribuita
a
tutti
i
settori
della
società
e
a
ognuno
di noi.
A
essere
ridefinito
è
dunque
il
senso
dell’azione
umana
e,
più
in
generale,
il
senso
della
nostra
umanità,
libera
dal
dubbio
e
dal
peso
della responsabilità.
Ci
sembrerà
di
essere
in
totale
fusione
con
il
mondo;
una sensazione,
questa,
appartenente
a
una
dimensione
messianica,
che
riprende la
dichiarazione
di
San
Paolo
il
quale
annunciava
l’unione
di
tutti
gli
uomini tra
loro
e
con
il
cosmo
grazie
all’avvento
della
fede
universale
e riconciliatrice
in
Cristo.
Arriviamo
così
al
“Punto
Omega”
–
concetto elaborato
da
Pierre
Teilhard
de
Chardin
in
Il
fenomeno
umano26
–,
che rappresenta
l’ultima
tappa
dello
sviluppo
della
complessità
verso
la
quale
si dirigeva
inevitabilmente
l’universo,
intrattenendo
un
rapporto
diretto
con
la retorica
cristiana
del
fine
ultimo.
L’ideologia
del
progresso
inaugurata dall’Illuminismo
e
nata
in
gran
parte
da
un
movimento
anticlericale
e
laico desideroso,
nel
suo
primo
impulso,
di
liberarsi
di
un
ordine
religioso sclerotizzante,
sfocerebbe
a
più
di
due
secoli
di
distanza
nella
realizzazione
di una
visione
millenaristica.
Cristo,
San
Paolo,
d’Alembert,
Saint-Simon, Teilhard
de
Chardin,
Norbert
Wiener,
la
visione
siliconiana
che
aspira
a “rendere
il
mondo
un
posto
migliore”,
oggi
si
fonderebbero
grazie all’istituzione,
su
scala
mondiale,
di
un
nuovo
ordine
tecnico-economico
che opererebbe
una
sintesi
inaspettata
e
starebbe
producendo,
già
da
ora,
i
suoi effetti. Di
fronte
alla
scomparsa
del
reale,
sentiamo
il
bisogno
compulsivo
di illuderci
sul
suo
conto,
di
raccontarci
delle
storie.
Questa
continua propensione
a
non
volerlo
accettare
in
quanto
tale,
a
immaginare
che
le
cose abbiano
un
tenore
diverso
da
quello
che
hanno
nei
fatti,
è
stata
definita
da Clément
Rosset
“doppio”.27
Nel
corso
di
tutta
la
sua
opera,
Rosset
ha cercato
di
rammentarci
che
il
reale
non
è
portatore
di
alcun
doppio
di
sé stesso,
che
non
esistono
elementi
all’infuori
di
quelli
in
cui
siamo
immersi
e che
è
inutile
immaginare
delle
scappatoie,
perché
il
reale
è,
e
questo
è tautologico
e
inevitabile.
Si
manifesta
ovunque,
in
ogni
momento
e
in
modo sempre
particolare,28
impedendoci
di
applicare
soluzioni
già
pronte;
in questo
dà
prova
di
una
spietata
crudeltà29
e,
nonostante
tutte
le
nostre costruzioni
e
chimere,
non
possiamo
sfuggire
alla
sua
legge.
Ormai
abbiamo messo
a
punto
un’altra
strategia
che
non
consiste
più
nel
correre
dietro
ai miraggi,
ma
nel
torcere
il
reale,
nell’adattarlo
ai
nostri
canoni,
per
aprire
le porte
al
migliore
dei
mondi,
quello
teorizzato
da
Leibniz
ed
emanante
da Dio,
e
che
oggi
sarebbe
il
risultato
della
miracolosa
potenza
dell’intelligenza artificiale. Quello
che
emerge
è
un
ambiente
trasparente
e
libero
da
costrizioni.
I territori
stranieri
non
vengono
più
percepiti
come
distanti,
ma
come
improvvisamente
vicini,
e
questo
grazie
a
sistemi
di
traduzione
vocale istantanea,
come
Travis
Translator
o
Google
Pixel
Buds,
in
grado
di
metterci in
contatto
con
qualsiasi
individuo
della
Terra
senza
bisogno
di
imparare
la sua
lingua
o
fare
alcuno
sforzo,
riportandoci
così
al
nostro
stato
prebabelico. Oppure
è
possibile
continuare
a
fare
quello
che
stiamo
facendo
mentre
un lovebot,
come
per
esempio
l’assistente
virtuale
Tinder
Box,
seleziona
profili per
noi,
chatta
usando
un
linguaggio
naturale,
mette
“like”
a
foto
e
post
e,
se necessario,
fissa
persino
appuntamenti.
Se
invece
preferiamo
non sbarazzarci
del
tutto
dell’essere
umano,
possiamo
sempre
relazionarci
con un
“essere
virtuale”
come
Azuma,
un
“ologramma
da
compagnia”
per
uomini single,30
o
avere
rapporti
sessuali
con
delle
sex
doll,
bambole
a
grandezza naturale,
come
quelle
fabbricate
dalla
società
RealDoll,31
dotate
di
un
corpo in
silicone
e
di
uno
scheletro
snodato
che
le
rende
capaci
di
assumere
diverse posizioni.
I
“proprietari”
possono
“programmare
la
loro
personalità”, modificarne
il
volto,
scegliere
la
forma
e
la
misura
del
seno,
regolare
il timbro
della
voce
e
dar
loro
un
nome
che
poi
le
bambole
ricorderanno durante
le
“conversazioni”
per
rispondere
più
docilmente
a
tutti
i
desideri. Forse
stiamo
raggiungendo
lo
stadio
doppiamente
psichiatrico
secondo
il quale
diamo
un
senso
a
ogni
cosa
e
ci
determiniamo
di
conseguenza.
Ogni significato
formato
deve
infatti
trovare
immediatamente
un
prolungamento in
un’azione
corrispondente.
La
conseguenza
è
che
ci
ritroviamo
a
essere affetti
da
apofenia,
disturbo
mentale
derivante
da
un’alterazione
della percezione
e
che
consiste
nell’attribuire
un
senso
inappropriato
alle
cose
o nello
stabilire
connessioni
immotivate
tra
i
fatti.
È
a
questo
ordine
che appartengono
tutti
quei
sistemi
pensati
per
“conversare”
con
una
persona scomparsa,
come
il
dispositivo
sviluppato
dalla
start
up
Luka
Inc,
che riunisce
i
messaggi
e
i
post
di
un
defunto,
raccoglie
tutti
gli
articoli
usciti
sul suo
conto
e
progetta
una
chatbot
che
presenta
i
suoi
stessi
“tic
linguistici”, permettendo
così
all’utente
di
“parlare”
con
lui
quando
ne
ha
voglia.
La società
Replika,
che
ha
concepito
un
sistema
simile,
propone
di
ritrovare
il “sosia
di
un
morto
in
un’app
dello
smartphone”.32
Ma
c’è
chi
ha
ambizioni ancora
più
grandi,
come
il
professor
Hossein
Rahnama,
del
MIT
Media
Lab, che
lavora
su
chatbot
cosiddette
di
“eternità
aumentata”
che
si
nutrono
di tutte
le
tracce
disponibili
relative
a
figure
storiche
con
le
quali
sarà
possibile “dialogare”,
come
per
esempio
Giulio
Cesare,
Caravaggio
o
Molière. Siamo
talmente
tanto
esaltati
dall’idea
di
incontrare
sempre
meno
ostacoli che
desideriamo
che
questa
condizione
prenda
una
dimensione
totale
e definitiva.
La
soluzione
potrebbe
essere
a
portata
di
mano,
e
mi
riferisco
agli
impianti
intracerebrali
attualmente
oggetto
di
numerose
ricerche nell’ambito
delle
“interfacce
neurali”
(braincomputer
interface, letteralmente
“interfacce
cervello-computer”).
Come
quelle
che
si
dice
siano sviluppate
da
Neuralink,
una
società
creata
dal
multimprenditore
Elon Musk,
famoso
per
la
sua
propensione
compulsiva
a
spingersi
sempre
oltre qualsiasi
limite.
Il
progetto
consiste
nell’intrecciare
minuscole
componenti elettroniche
tra
i
nostri
miliardi
di
neuroni
al
fine
di
“aumentare”
le
capacità cerebrali
e
poter
“un
giorno
scaricare
o
salvare
i
nostri
pensieri”.
In
quanto, afferma
Musk,
“è
proprio
perché
subiamo
la
concorrenza
delle
intelligenze artificiali
che
dovremmo
anche
noi
diventarne
una,
nella
speranza
di
restare in
gara”,33
affinché
ognuno
di
noi
riesca,
dall’alto
del
suo
prossimo
controllo totale,
a
dominare
in
qualsiasi
momento
il
corso
degli
eventi.
Così,
dato
che viviamo
il
tempo
di
tutte
le
possibilità,
che
generalmente
portano
a
sequele di
deliri
e
a
forme
estreme
di
ingenuità,
Bryan
Johnson
ha
creato
Kernel, una
start
up
destinata
ad
aumentare
la
nostra
“capacità
cognitiva”
e
a
“farci provare
cosa
significa
essere
qualcun
altro,
così
forse
riusciremo
a distruggere
il
concetto
di
nemico”.34
Esiste
forse
testimonianza
più
chiara della
nostra
recente
volontà,
risultato
delle
condizioni
della
tecnica,
di sradicare
qualsiasi
scoria
e
immergerci
in
uno
stato
di
soddisfazione
e
pace perpetue? Un
altro
modo
per
riuscirci
consiste
nel
lavorare,
già
da
ora,
alla progettazione
di
future
intelligenze
artificiali
cosiddette
“generali”,
delle
AGI –
acronimo
di
Artificial
General
Intelligence
–,
delle
“superintelligenze”
che avrebbero
la
meglio
su
tutto.
Delle
IA
“forti”
(strong
AI)
opposte
a
quelle attuali
considerate
invece
“deboli”
(weak
AI)
e
“limitate”
(narrow
AI).
Una simile
prospettiva
sarebbe
“ragionevolmente”
possibile
grazie
in
particolare al
machine
learning
destinato
a
generare
tecnologie
della
perfezione
che portano
all’instaurazione
di
un
mondo
fatto
di
una
stessa
perfezione.
La società
Nnaisense,
per
esempio,
intende
mettere
a
punto
una
“percezione sovraumana
costituita
da
intelligenze
artificiali
polivalenti”,35
dotate
della stessa
varietà
di
capacità
di
cui
è
dotato
l’essere
umano,
ma
superandole infinitamente,
in
conformità
di
ogni
aspirazione
antropomorfica.
Risulta
più chiaro,
forse,
come
mai
c’è
chi
pensa
che
la
nostra
realtà
sia
“simulata”.36 Perché,
contrariamente
alle
nostre
convinzioni
ancestrali
sbagliate,
il
reale non
sarebbe
il
prodotto
di
un’infinità
di
forze
di
ogni
genere,
ma
di
un processo
universale
perfettamente
strutturato
e
del
quale
noi,
per
ignoranza, avremmo
sempre
contrastato
il
corso;
i
recenti
sviluppi
tecnologici permetterebbero
finalmente
di
svelare
il
suo
tenore,
fino
a
qui
rimasto
celato
alla
nostra
coscienza,
e
di
godere
del
suo
pieno
potenziale
concedendoci
a
lui senza
limiti. Stiamo
assistendo
alla
rapida
abolizione
di
qualsiasi
distanza
con
il
reale, quella
che
aveva
sempre
prevalso
sin
dalla
notte
dei
tempi,
in
direzione
di una
fusione
con
il
nostro
ambiente
circostante
che
funge
da
plasma regolatore.
Nel
1637,
nelle
Meditazioni
metafisiche,
Cartesio
racconta
lo sforzo
metodico
del
pensiero,
di
cui
ognuno
di
noi
in
teoria
è
capace,
con l’obiettivo
di
munirsi
dei
giusti
strumenti
per
la
comprensione
del
reale.
Per ritrovare
le
basi
della
certezza
e
rifondare
la
conoscenza
scientifica,
egli ritiene
sia
utile
isolarsi,
ritirarsi
lontano
dai
suoi
contemporanei,
in
una forma,
giudicata
salutare,
di
distacco.
Da
allora
essere
lucido
significherà dedicarsi
al
ritiro,
all’esplorazione
attiva
e
alla
distanza
critica.
La
cosiddetta “intelligenza
artificiale”
produce
una
“luce
bianca”
che
illumina
ogni fenomeno
affinché
niente
rimanga
più
all’interno
di
zone
oscure
ed enigmatiche,
le
stesse,
cioè,
che
mobilitano
la
nostra
intelligenza
e
ci
danno l’opportunità
di
sviluppare
legami
aperti
e
potenzialmente
fecondi
con
gli esseri
e
le
cose. Nietzsche
riteneva
che
la
volontà
di
trovare
un
senso
a
tutto,
di
avere ragione
di
tutto,
fosse
il
sintomo
di
un
rifiuto
dell’irriducibile
complessità
del reale.
Ai
suoi
occhi
era
una
pura
follia,
riconducibile
al
razionalismo socratico
che
pretendeva
di
fornire,
con
la
dialettica,
gli
strumenti
necessari a
superare
le
contraddizioni
del
sensibile,
ad
affrancarsi
dai
tormenti
della vita
e
ad
accedere
alla
verità,
in
conformità
di
una
propensione
che
egli denunciava
in
un
capitolo
del
Crepuscolo
degli
idoli
intitolato
“Il
problema di
Socrate”.
È
proprio
per
questo,
per
questa
nostra
pulsione
a
volerci continuamente
affrancare
dalla
vulnerabilità
e
a
volerci
dotare
di
un controllo
totale,
che
saremmo
arrivati
a
disfarci
di
noi
stessi,
delle
nostre facoltà,
generando
un
nuovo
tipo
di
vulnerabilità,
ad
oggi,
però,
non
ancora evidente.
È
ancora
presto
per
renderci
davvero
conto
delle
sue
prime manifestazioni.
Si
starebbe
annunciando
un
crudele
contraccolpo:
le
tanto agognate
logiche
organico-dinamiche
destinate
a
farci
accedere
a
tutte
le ricchezze
del
mondo
presto
ci
porteranno
a
evolvere
secondo
schemi devitalizzati
che
non
faranno
più
appello
alle
forze
del
nostro
corpo
e
della nostra
mente.
Forse,
nonostante
tutti
i
nostri
sforzi,
non
riusciremo
a disfarci
così
facilmente
del
reale
che
finirà
inevitabilmente
per
manifestarsi: noi
lo
metteremo
alla
porta
e
lui
entrerà
dalla
finestra.
Come
è
accaduto
a Platone
che,
nonostante
continuasse
ad
affermare
che
l’uso
della
ragione
ci mettesse
al
riparo
dal
fato,
si
è
ritrovato,
di
dialogo
in
dialogo,
a
essere
colto dalla
parte
inevitabile
di
ognuno
di
noi,
ossia
l’amore,
l’amicizia,
le
relazioni
passionali
tra
le
persone,
tutta
una
serie
di
forze
vitali
che,
in
un
modo
o nell’altro,
contrastano
con
l’ideale
di
una
razionalità
assoluta
chiamata
a dominare
le
nostre
vite. Perché
quello
che
è
in
gioco
è
il
rifiuto
della
nostra
vulnerabilità,
quella fragilità
costitutiva
della
nostra
umanità,
la
stessa
che
ha
fatto
dire
ad Aristotele
che
“una
vita
così
vulnerabile
è
comunque
la
migliore”.37
La stessa
che
ci
spinge
continuamente
ad
andare
incontro
all’esistenza
e
ai
suoi imprevisti,
insegnandoci
a
far
fronte
al
flusso
degli
eventi,
ad
affrancarci dalla
sola
necessità
per
comportarci
da
esseri
attivi
che
si
avvalgono
di
tutto il
potere
della
propria
sensibilità
e
del
proprio
intelletto.
Martha
Nussbaum ha
lavorato
a
lungo
sul
principio
della
vulnerabilità
e
ha
affermato
che
la consapevolezza
della
propria
fallibilità
è
la
base
per
una
società
immune
da qualsiasi
forma
di
sfruttamento
simbolico
ed
effettivo
delle
debolezze
di chiunque.38
Dall’odio
per
la
nostra
condizione
e
dall’odio
per
il
reale (Nietzsche),
ci
siamo
lanciati
nell’insensata
impresa
di
voler
sradicare
la vulnerabilità
connaturata
nell’esistenza,
quella
che
stimola
la
linfa
del
nostro essere.
Tocca
quindi
a
noi
–
a
tutti
coloro
che
intendono
confrontarsi
senza paura
con
la
concretezza
inesauribile
del
mondo
e
che
sono
pronti
a provarne
i
tormenti
e
le
gioie
e
non
si
nutrono
del
nichilismo
dell’odio
di
sé
e degli
altri,
ma
al
contrario
hanno
fede
nelle
infinite
capacità
umane
di coltivare
i
propri
valori
fondanti
e
inventare
liberamente
forme
plurali
di
vita –,
tocca
a
noi,
dunque,
difendere
il
reale. Il
reale
è
quello
che
deve
essere
difeso
perché
condiziona
la
possibilità
di provare
la
gamma
virtualmente
infinita
delle
nostre
facoltà,
di
perfezionarle e
di
inscriverci
come
individui
singoli
che
evolvono
all’interno
di
una collettività.
Il
reale
è
l’instaurazione,
nell’incertezza,
di
legami
con
gli
altri che
ci
fanno
accettare
la
contraddizione
e
ci
fanno
aprire
a
rappresentazioni e
immaginari
differenti.
Il
reale
è
il
linguaggio,
la
lingua,
le
nostre
lingue
che ci
ordinano
continuamente
di
giocare
con
loro,
di
rischiare
combinazioni
che spezzano
la
routine
e
fanno
scivolare
la
mente,
offrendoci
l’occasione
di
non ridurre
il
nostro
ordinario
a
delle
formule
preconfezionate.
Il
reale
è
il destino
collettivo
che
cerchiamo
di
migliorare
nel
dissenso
e
nell’accordo possibilmente
fruttuosi.
Il
reale
è
l’amore
inverosimile
che
non
avremmo mai
conosciuto,
il
bambino
che
non
sarebbe
mai
nato,
le
ferite
che
ci
fanno crescere.
Il
reale
è
l’inaspettato,
le
sorprese
che
ci
sconvolgono
e
suscitano
il fascino
per
l’istante
che
verrà.
Il
reale
è
quello
che
fa
dire
a
Cervantes
con gioiosa
insolenza
che
“per
la
libertà,
così
come
per
l’onore,
si
può
e
si
deve mettere
a
rischio
la
vita”.39
Il
reale
è
la
fantasticheria,
la
poetica
della
fantasticheria,
l’accettazione
del
silenzio
e
l’ipotesi
spesso
sana
dell’inazione. In
nome
di
tutte
queste
palpitazioni
che
ci
legano
alla
vita,
il
reale
deve essere
difeso
con
le
unghie
e
con
i
denti.
Difendere
il
reale
è
la
principale lotta
politica
del
nostro
tempo.
E
voi
che
intendete
sradicarlo,
siate
pur
certi che
noi
lo
difenderemo
e
che
metteremo
in
atto
tutti
gli
sforzi
necessari
per salvaguardare
questo
reale
che,
sì,
si
riduce
sempre
più,
ma
continua
a sopravvivere.
Il
reale
che
mi
fa
scrivere
queste
pagine,
il
reale
che
costituisce la
sostanza
e
il
sale
della
nostra
vita,
il
motore
delle
nostre
speranze,
sì, sappiate
che
combatteremo
con
tutte
le
nostre
forze
per
preservare
il
nostro reale
che
è
il
campo
di
espressione
della
nostra
libertà,
il
campo
d’azione
dei nostri
destini,
il
nostro
terreno
comune.
In
suo
nome
affiliamo
sin
d’ora
le nostri
armi,
il
combattimento
si
annuncia
feroce,
e
siamo
soltanto
all’inizio.
1.
Cfr.
“la
legge
per
una
Repubblica
digitale”,
promulgata
dall’Assemblea
nazionale
francese
il
7
ottobre 2016.
Questa
legge
di
stampo
tecnoliberista
punta
in
particolare
a
“liberare
l’innovazione
facendo circolare
le
informazioni
e
le
conoscenze,
per
preparare
la
Francia
alle
sfide
mondiali
dell’economia dei
dati”.
http://www.economie.gouv.fr/republique-numerique. 2.
Claude-Henri
de
Rouvroy,
conte
di
Saint-Simon,
L’Organizzatore,
Parigi
1819. 3.
Cfr.
il
rapporto
commissionato
dallo
Stato
a
Erik
Orsenna
e
Noël
Corbin,
ispettore
generale
degli affari
culturali,
“Voyage
au
pays
des
bibliothèques.
Lire
aujourd’hui,
lire
demain”,
ministero
della Cultura,
febbraio
2018.
Sulle
conclusioni
di
questo
rapporto
leggere
l’articolo
di
Éric
Dussert
e
Cristina Ion,
“Bonne
sieste
à
la
bibliothèque”,
Le
Monde
diplomatique,
n.
771,
giugno
2018. 4.
Norbert
Wiener,
The
Human
Use
Of
Human
Beings:
Cybernetics
and
Society,
cit.,
p.
179. 5.
Jean
Baudrillard,
Perché
non
è
già
tutto
scomparso?,
trad.
it.
di
David
Santoro,
Castelvecchi,
Roma 2013,
p.
35. 6.
Jean
Baudrillard,
Perché
non
è
già
tutto
scomparso?,
trad.
it.
di
David
Santoro,
Castelvecchi,
Roma 2013,
p.
35. 7.
Margaret
Thatcher
pronuncia
questa
frase
durante
un’intervista
per
la
rivista
Woman’s
Own
nel settembre
1987. 8.
Hannah
Arendt,
Responsabilità
e
giudizio,
cit.,
pp.
26-27. 9.
Simon
Leplâtre,
“En
Chine,
des
citoyens
sous
surveillance”,
Le
Monde,
15
giugno
2018. 10.
Brice
Pedroletti,
“En
Chine,
le
fichage
high-tech
des
citoyens”,
Le
Monde,
11
aprile
2018. 11.
Anon,
regia
di
Andrew
Niccol,
Netflix,
2018. 12.
Black
Mirror,
“Caduta
libera”
(“Nosedive”),
scritto
da
Charlie
Brooker,
diretto
da
Joe
Wright, stagione
3,
episodio
1,
Netflix,
data
di
messa
in
onda
originale
21
ottobre
2016. 13.
Friedrich
Nietzsche,
Così
parlò
Zarathustra,
Parte
terza,
“Il
convalescente”
(1884),
trad.
it.
di Mazzino
Montinari,
Adelphi,
Milano
2017,
p.
255. 14.
Lewis
Mumford,
Tecnica
e
cultura,
trad.
it.
di
Ettore
Gentilli,
il
Saggiatore,
Milano
1961,
p.
376. 15.
Hannah
Arendt,
Tra
passato
e
futuro,
trad.
it.
di
Tania
Gargiulo,
Garzanti,
Milano
1991,
p.
129. 16.
Alex
Pentland,
Fisica
sociale.
Come
si
propagano
le
buone
idee,
trad.
it.
di
Bernardo
Parrella, Università
Bocconi
editore,
Milano
2015. 17.
Jessica
Gourdon,
“Libérés
des
voitures,
les
sous-sols
deviennent
le
terrain
de
jeu
des
start
up”,
Le Monde,
6
ottobre
2017. 18.
Team
X,
gruppo
di
architetti
composto
da
Aldo
van
Eyck
e
Alison
e
Peter
Smithson,
oppostosi
alle concezioni
razionaliste
del
modernismo.
Si
è
occupato
di
dare
forma
a
dei
principi
che
tenessero
conto del
contesto,
della
storia
degli
abitanti,
dei
loro
desideri,
prediligendo
la
diversità
in
varie
forme.
È stato
attivo
dagli
anni
Cinquanta
fino
all’inizio
degli
anni
Ottanta.
Sulla
sua
storia,
i
suoi
scritti
e
le
sue relazioni
cfr.
in
particolare
Team
10,
19531981,
In
Search
of
a
Utopia
of
the
Present,
NAI
(Nederlands Architectuurinstituut),
Rotterdam
2008. 19.
Cfr.
Jérôme
Marin,
“Face
à
Amazon,
Walmart
s’allie
avec
Google
dans
le
commerce
en
ligne”,
Le Monde,
23
agosto
2017
e
Cécile
Prudhomme,
Alexandre
Piquard,
“Carrefour
s’allie
à
Google
pour contrer
Amazon”,
Le
Monde,
11
giugno
2018. 20.
Nick
Wingfield,
“Amazon
Buys
Ring,
Maker
of
Smart
Home
Products”,
The
New
York
Times,
27 febbraio
2018. 21.
Nozione
che
avevo
sviluppato
in
La
siliconizzazione
del
mondo.
L’irresistibile
espansione
del liberismo
digitale
(trad.
it.
di
Daniele
Petruccioli,
Einaudi,
Torino
2018)
e
che
dava
il
titolo
a
un capitolo
del
libro. 22.
Dominique
Dubarle,
“Vers
la
machine
à
gouverner?”,
Le
Monde,
28
dicembre
1948. 23.
Norbert
Wiener,
The
Human
Use
Of
Human
Beings:
Cybernetics
and
Society,
cit.,
pp.
180-181. 24.
Dominique
Auffret,
Alexandre
Kojève.
La
philosophie,
l’État,
la
fin
de
l’histoire,
Grasset,
Parigi 1990,
p.
98. 25.
Martin
Untersinger,
“SpaceKnow,
l’entreprise
qui
analyse
le
monde
en
croisant
images
satellites
et intelligence
artificielle”,
Le
Monde,
12
marzo
2017. 26.
Pierre
Teilhard
de
Chardin,
Il
fenomeno
umano,
trad.
it.
di
Ferdinando
Ormea,
il
Saggiatore, Milano
1968. 27.
Cfr.
Clément
Rosset,
Le
Réel
et
son
double,
Gallimard,
Parigi
1976. 28.
Cfr.
Id.,
L’Objet
singulier,
Minuit,
Parigi
1979.
29.
Cfr.
Id.,
Le
Principe
de
cruauté,
Minuit,
Parigi
1988. 30.
Morgane
Tual,
“Azuma,
l’hologramme
de
compagnie
destinée
aux
célibataires”,
Le
Monde,
22 luglio
2017. 31.
Yves
Eudes,
“La
poupée
gonflable
de
demain
sera
bavarde
et
connectée”,
Le
Monde,
7
agosto
2017. 32.
Yves
Eudes,
“Replika,
le
double
d’un
défunt
dans
une
appli
mobile”,
Le
Monde,
23
luglio
2017. 33.
Steven
Levy,
“How
Elon
Musk
and
Y
Combinator
Plan
to
Stop
Computer
from
Taking
Over”, Backchannel,
11
dicembre
2015. 34.
Alexandre
Piquard,
“L’intelligence
artificielle,
star
inquiétante
du
Web
Summit
à
Lisbonne”,
cit. 35.
Cfr.
https://nnaisense.com/.
È
alquanto
significativo
che
le
diciotto
fotografie
dei
responsabili presenti
sulla
home
page
del
sito
della
società
ritraggano
soltanto
volti
maschili. 36.
Kevin
Loria,
“Neil
Degrasse
Tyson
Thinks
There’s
a
‘very
High’
Chance
the
Universe
Is
Just
a Simulation”,
Business
Insider,
22
aprile
2016. 37.
Aristotele,
Etica
Nicomachea. 38.
Martha
C.
Nussbaum,
La
fragilità
del
bene:
fortuna
ed
etica
nella
tragedia
e
nella
filosofia
greca, trad.
it.
di
Merio
Scattola
e
Rosamaria
Scognamiglio,
il
Mulino,
Bologna
1996. 39.
Miguel
de
Cervantes,
Don
Chisciotte
della
Mancha
(1615),
seconda
parte,
capitolo
LVIII,
trad.
it.
di Barbara
Troiano
e
Giorgio
Di
Dio,
Newton
Compton,
Roma
2017
(I
ed.
2007),
p.
715.
CAPITOLO
5 Manifesto
dell’azione
nell’epoca
dell’esponenziale
5.1
IL
FALLIMENTO
DELLA
NOSTRA
COSCIENZA Le
rappresentazioni
collettive
evolvono
lentamente
e
quasi
senza
fare rumore.
È
difficile
identificare
i
processi
che
sono
all’origine
di
questi cambiamenti,
nella
maggior
parte
dei
casi
sono
impercettibili
e
sfuggono
a una
netta
discriminazione.
Ciò
che
caratterizza
queste
trasformazioni
per
lo più
silenziose
è
che,
a
differenza
delle
esperienze
personali,
è
generalmente impossibile
datare
con
precisione
i
primi
segni
delle
loro
manifestazioni, perché
non
è
mai
un
unico
evento
a
provocarle
ma
una
serie
di
fatti
che, agendo
più
o
meno
di
concerto
e
seguendo
durate
diverse,
contribuiscono
a rinnovare
surrettiziamente
le
percezioni.
Queste
mutazioni
hanno
bisogno
di tempo
per
cristallizzarsi
e
anche
quando
sembrano
avere
preso
finalmente corpo
continuano
a
mostrarsi
reticenti
all’idea
che
se
ne
possa
stabilire
una genealogia.
Un
esempio:
agli
inizi
del
2010
si
è
prodotta
una
discreta
ma progressiva
metamorfosi
nel
nostro
rapporto
con
le
tecnologie
digitali.
Fino a
quel
momento
oscillavamo
tra
la
soddisfazione,
per
non
dire
la fascinazione,
verso
le
nuove
facoltà
di
cui
ci
facevano
dono,
e
una
certa indifferenza
nei
confronti
di
alcuni
dei
loro
effetti.
Ma
principalmente suscitavano
in
noi
entusiasmo
e
approvazione.
Poi,
ad
un
tratto,
la
nostra serena
approvazione
è
stata
minata
da
alcuni
avvenimenti.
Sarebbe
inutile sciorinarli
tutti,
ma
è
vero
che
ce
ne
sono
stati
alcuni
più
rilevanti
di
altri. Come
l’affermazione
dell’allora
amministratore
delegato
di
Google
Eric Schmidt
che
nel
2010
dichiarò
che
l’azienda
intendeva
“organizzare
tutta l’informazione
del
mondo”,
dando
prova
di
un’ambizione
tanto
sorprendente quanto
preoccupante. Lo
stesso
anno
Nicholas
Carr
pubblicò
un
libro
che
ebbe
un’eco
in
tutto
il mondo,
Internet
ci
rende
stupidi?
Come
la
rete
sta
cambiando
il
nostro cervello,1
e
che
intendeva
esporre
i
diversi
impatti
negativi
sui
nostri comportamenti
e,
singolarmente,
sulle
nostre
capacità
cognitive,
causati dall’utilizzo
abituale
di
internet.
La
rapida
e
contestuale
diffusione
dei
social network,
e
in
particolare
di
Facebook,
cominciava
a
dare
origine
a
slanci compulsivi
di
espressività
che
arrivavano
a
rasentare
l’esibizionismo
con
la pubblicazione
continua
di
foto
favorita
anche
dal
fenomeno,
diventato
ben presto
popolare,
del
selfie.
Inoltre,
in
tutte
le
fasce
di
età
e
di
popolazione, andava
via
via
diffondendosi
una
nuova
patologia:
la
dipendenza
da
schermo.
Un
movimento
ancora
relativamente
sconosciuto
ai
nostri
occhi cominciava
a
far
parlare
di
sé;
dalle
bocche
dei
suoi
adepti,
tutti
per
lo
più concentrati
nella
Silicon
Valley,
uscivano
affermazioni
alquanto
strane
e preoccupanti:
dicevano,
per
esempio,
di
avere
in
mano
il
controllo
delle logiche
della
vita
e
che
un
giorno
non
molto
lontano
sarebbero
stati
in
grado di
sconfiggere
la
morte
attraverso
il
“download
dei
nostri
cervelli”
su
dei
chip in
silicio.
Prenderli
sul
serio
non
era
facile,
ma
con
loro
si
faceva
strada
un limite
che
dava
conto
di
una
forma
di
eccesso,
per
non
dire
di
disturbo psichiatrico,
che
colpiva
le
persone
coinvolte
nella
realizzazione
di
queste innovazioni,
sulle
quali
diventava
legittimo
interrogarsi.
Allo
stesso
modo, cominciavano
a
venire
a
galla
le
complesse
macchinazioni
che
la
maggior parte
di
loro
metteva
in
atto
per
sfuggire
al
fisco
di
molti
Paesi
e
che contribuivano
a
infangare
la
loro
immagine
e
a
porre
una
distanza
nei
loro confronti.
Tutti
questi
fenomeni
suscitavano
legittimamente
delle preoccupazioni,
ma
ci
fu
un
avvenimento
che,
più
di
altri,
rappresentò
il culmine
di
questo
graduale
ma
sempre
più
massiccio
movimento:
le clamorose
rivelazioni
di
Edward
Snowden
nel
giugno
del
2013.
Snowden rivelò
al
mondo
la
portata
colossale,
e
in
gran
parte
illegale,
della sorveglianza
digitale
condotta
dalle
agenzie
di
intelligence
americane
e
di molti
altri
Stati.
Di
colpo
era
evidente
che
la
nostra
percezione
a
livello mondiale
andava
via
via
modificandosi
e
che
bisognava
cominciare
a preoccuparsi
di
una
nuova
questione:
la
protezione
dei
nostri
dati
personali e,
di
conseguenza,
della
nostra
privacy. Si
trattava
di
una
sfida
estremamente
delicata
visto
che
a
essere
in
gioco
era niente
meno
che
la
tutela
della
nostra
intimità,
alla
quale
tutti
teniamo,
e
che rischiava
di
essere
minacciata
dalla
cosiddetta
“rivoluzione
digitale”, risvegliando
i
ricordi
di
spietate
pratiche
passate.
Se
nel
corso
degli
anni precedenti
questi
argomenti
venivano
soltanto
evocati
di
tanto
in
tanto, presto
divennero
le
cause
di
un’ansia
globale.
Un’ansia
certo
peggiorata
dalla serie
di
attentati
perpetrati
dallo
Stato
Islamico
a
partire
da
quello
stesso periodo,
che
comportarono
un
rafforzamento
delle
misure
di
sicurezza
e
dei sistemi
di
controllo
sulle
persone.
Un’ansia
che
non
ha
smesso
di
aumentare, al
punto
di
diventare
l’unico
oggetto
delle
nostre
preoccupazioni relativamente
alle
tecnologie
digitali
e
di
sovradeterminare
le
nostre modalità
di
percezione.
Non
appena
un
nuovo
protocollo
o
l’installazione
di un
dispositivo
sembrano
destare
qualche
sospetto
e
dare
dei
problemi, vengono
immediatamente
e
sistematicamente
ricondotti
alla
questione
dei dati
personali,
della
sorveglianza
e
della
tutela
della
privacy.
Questa preoccupazione
è
diventata
quasi
un
riflesso
generalizzato
che
ormai
copre
tutto
il
resto
nascondendo
gli
altri
fenomeni.
Oggigiorno
assumere
una posizione
“critica”
significa
focalizzarsi
su
questi
argomenti,
pare
non
esserci niente
di
più
scottante.
Alla
fine
questo
atteggiamento
non
dovrebbe sorprenderci
più
di
tanto:
esso
riflette
il
liberismo
politico
delle
democrazie attuali
e
la
nostra
intenzione
di
restringere
la
questione
della
libertà unicamente
alla
nostra
sfera
personale,
conformemente
alla
formula
di Benjamin
Constant
secondo
cui
l’ideale
della
libertà
consiste,
in
fin
dei
conti, in
“una
parte
dell’esistenza
umana
che
resta
necessariamente
individuale
e indipendente
e
che
è
di
diritto
fuori
da
ogni
competenza
sociale”.2 Esistono
istituzioni
politiche
incaricate
di
assicurare
l’applicazione
della legge
sulla
tutela
dei
dati
personali,
come
la
CNIL
(Commission
nationale
de l’informatique
et
des
libertés)
in
Francia,
i
corrispettivi
organismi
europei
o altre
istituzioni
sparse
per
il
mondo
dai
compiti
più
o
meno
simili.
Le
prime vennero
create
alla
fine
degli
anni
Settanta,
quando
la
progressiva informatizzazione
della
società,
e
di
conseguenza
quella
delle amministrazioni,
cominciava
a
mostrarsi
potenzialmente
capace
di intraprendere
la
stessa
vasta
opera
di
schedatura
che
era
stata
in
vigore anche
nel
blocco
comunista,
e
a
cui
si
opponevano
le
democrazie
liberiste.
Se all’epoca
il
loro
ruolo
era
positivo,
in
quanto
facevano
da
freno,
con
il
tempo si
sono
evolute
non
tanto
negli
obiettivi
quanto
nella
natura
dei
loro
compiti che
dovevano
estendersi
all’esame
di
tutti
gli
strumenti
nuovi
che continuavano
ad
apparire,
seguito
dalla
stesura
di
valutazioni
fatte unicamente
sulla
base
della
tutela
delle
libertà
personali.
Questi
organismi dovrebbero
svolgere
il
ruolo
di
guardiani
e
tenere
sotto
controllo
le
derive
di certi
utilizzi
del
digitale
così
come
il
rispetto
di
alcuni
principi
fondamentali. In
realtà
l’ideologia
liberista
che
da
sempre
li
anima,
li
rende
ciechi
nei confronti
di
altre
sfide
altrettanto
importanti.
L’unica
cosa
che
li
preoccupa
è il
rispetto
della
privacy.
Non
c’è
nient’altro
che
li
mobilita,
né
la mercificazione
della
vita
indotta
dalle
infinite
velleità
predatrici
dei
giganti dell’economia
digitale
e
dal
continuo
proliferare
di
start
up,
né
l’estrema razionalizzazione
delle
società
sostenuta
dall’“innovazione
disruptiva”,
né l’involuzione
della
facoltà
di
giudizio
causata
dall’istallazione
di
sistemi,
in particolare
sul
posto
di
lavoro.
No,
niente
di
tutto
questo
è
oggetto
di indagini
o
rapporti.
Anzi,
i
loro
procedimenti
mirano
soltanto
a
sostenere
lo sviluppo
dell’economia
dei
dati
e
delle
piattaforme;
i
responsabili
di
tutte queste
CNIL
non
fanno
che
rivendicare
l’importanza
di
un
“corretto inquadramento
dei
dati”
per
riuscire
a
ottenere
la
fiducia
degli
utenti
e aiutare
lo
sviluppo
dell’industria
digitale.
Per
tradizione,
infatti,
all’interno
dei
regimi
politici
che
hanno
concepito questi
organismi,
lo
Stato
di
diritto
deve
avere
come
scopi
primari
assicurare la
proprietà
privata
e
il
libero
mercato.
Nati
nel
XVIII
secolo
in
Germania
e Inghilterra,
questi
due
principi
dovevano
aiutare
a
contenere
l’esercizio arbitrario
del
potere
in
grado
di
ostacolare
le
iniziative
provenienti
dalle
élite illuminate,
in
particolare
dagli
attori
economici.
Nel
corso
del
tempo,
giuristi e
politologi
li
hanno
affinati
elaborando
un’architettura
legale
destinata
a controllare
l’azione
delle
autorità:
separazione
dei
poteri,
uguaglianza davanti
alla
legge,
indipendenza
della
giustizia.
Il
costituzionalismo
ha tradotto
la
volontà
di
sottomettere
i
governanti
a
delle
regole
definite
in anticipo
e
trascritte
all’interno
di
un
documento
ufficiale:
la
Costituzione. Sembra
dunque
naturale
che
nel
maggio
del
2018
l’Assemblea
nazionale francese
abbia
inserito
nella
Costituzione
la
protezione
dei
dati
personali,
in conformità
della
tradizione
politica
liberista
maggioritaria
del
Paese,
che
qui, visto
quanto
deriva
da
un
chiaro
rifiuto
di
altre
dimensioni
altrettanto decisive,
prende
la
forma
di
un
travestimento
tecnico-social-liberista.3 In
queste
ventate
di
buona
coscienza
si
concentra
tutta
la
doxa
liberista,
a cui
si
unisce
ormai
l’iconoclastia
libertariana.
La
CNIL
organizza
“dibattiti sugli
algoritmi”
e
sulla
“lealtà”
auspicando,
senza
il
minimo
senso
del ridicolo,
la
costituzione
di
una
“piattaforma
nazionale
di
auditing
degli algoritmi”!
Un’assurdità!
Come
se
gli
algoritmi,
nel
loro
groviglio
e
nella
loro abbondanza,
potessero
essere
oggetto
di
“auditing”,
e
su
quale
base?
Il rispetto
della
privacy,
come
sempre?
D’altronde
tutto
il
resto
non
rientra
nel radar
concettuale
e
programmatico
di
questi
enti
che,
nonostante
le
loro buone
intenzioni,
lavorano
alla
rapida
instaurazione
di
un
antiumanesimo per
ora
ancora
mascherato.
E,
a
riprova
di
questo,
di
fronte
al
proliferare
di dispositivi
di
raccolta
dati,
il
“‘laboratorio
di
prospettiva’
della
CNIL
auspica la
creazione
di
‘comitati
consultivi’
sulla
privacy”
nelle
collettività.4
Ancora
e sempre
e
soltanto
questo,
è
il
regno
del
fumo
negli
occhi
e
del
sostegno deliberato
da
parte
delle
istituzioni
pubbliche
a
un
modello
economico
e civile
indegno.
Il
Regolamento
generale
sulla
protezione
dei
dati
(RGPD), nato
in
gran
parte
dall’operato
dei
vari
CNIL,
entrato
in
vigore
nel
maggio del
2018,
che
ha
fatto
saltare
di
gioia
i
“difensori
della
privacy”,
ha
come unico
interesse
quello
di
rispondere
alle
sfide
economiche
con
il
pretesto
di “restituire
il
controllo
agli
internauti”.
Un
dispositivo
che
i
suoi
ideatori hanno
presentato
come
basato
sui
“valori
europei”,
certo,
quei
valori
che hanno
ispirato
l’assillo
per
il
mercato
unico,
forgiati
dalle
storiche
figure europee
liberali,
come
John
Locke,
Montesquieu
o
Alexis
de
Tocqueville
per esempio,
ma
che
avrebbero
rinnegato
altre
figure
non
meno
europee
ma
diversamente
preoccupate
di
difendere
la
dignità
e
l’integrità
umane:
George Orwell,
Simone
Weil,
Günther
Anders,
o
Hannah
Arendt,
per
citarne
alcuni. Perché
queste
organizzazioni
incarnano
in
modo
esemplare
la
gretta ossessione
della
libertà
personale,
la
mediocrità
avvilente
della
propria piccola
libertà
personale.
Ne
sono
un
esempio
le
varie
associazioni
di
“difesa di
un’‘Internet
libera’”,
come
La
Quadrature
du
Net
che,
sulla
home
page
del suo
sito,
dichiara
l’obiettivo
principale
della
sua
lotta:
“Internet
&
Libertés”,5 o
l’Electronic
Frontier
Foundation
che
accoglie
i
visitatori
del
suo
sito
con una
frase
di
stampo
apertamente
siliconiano:
“The
leading
non
profit defending
digital
privacy,
free
speech,
and
innovation”6
(“La
principale organizzazione
non
profit
di
difesa
della
protezione
della
privacy
digitale, della
libertà
di
espressione
e
d’innovazione”).
Questi
gruppi,
così
come
altri, conformemente
al
loro
spirito
geeko-libertariano,
cercano
soltanto
di navigare
al
riparo
dallo
sguardo
altrui
e
delle
autorità,
per
esempio
per scaricare
“liberamente”
file
per
lo
più
sottoposti
al
regime
storico
e inalienabile
del
diritto
d’autore
che
loro,
però,
si
vantano
di
violare.
Questa pratica
viene
infatti
percepita
ormai
come
un
diritto
acquisito,
qualcosa
di cui
non
è
necessario
parlare,
magari
consultando
tutte
le
parti
interessate, perché
tanto
fa
parte
dell’“etica”
di
un’“Internet
libera”.
Un
altro
successo consiste
nell’aver
sostenuto
l’elaborazione
di
servizi
di
messaggistica
criptata o
nel
procedere
a
scambi
commerciali
esenti
da
qualsiasi
tassazione
grazie
ai miracoli
della
blockchain.
Tutte
queste
“comunità”
non
riescono
a
guardare più
in
là
del
chiodo
fisso
della
tutela
della
privacy,
emblematica
dell’egoismo diffuso
dell’epoca;
non
si
preoccupano
mai
delle
modalità
di
organizzazione indotte
dai
sistemi,
dell’utilitarismo
crescente,
delle
logiche
di
potere
in
atto, no:
sono
obnubilate
unicamente
dall’ansia
della
protezione
dei
dati personali.
La
libertà
si
riduce
infatti
a
una
dimensione
strettamente individuale
ma
difesa
all’interno
di
una
“causa
comune”,
alleviando
così l’eventuale
senso
di
colpa
di
sentirsi
chiusi
nel
proprio
soffocante
universo personale.
Questa
concezione,
a
dir
poco
restrittiva,
non
è
forse
moralmente e
politicamente
colpevole
proprio
perché
non
presuppone
più,
per
dirla
con Castoriadis,
“che
abbiamo
accettato
l’alienazione
o
l’eteronimia
politica,
che ci
siamo
rassegnati
all’esistenza
di
una
sfera
statale
separata
dalla collettività,
e
che
abbiamo
finito
con
l’aderire
a
questa
visione
del
potere
(e anche
della
società)
come
un
‘male
necessario’”?7 Questa
“etica”
fondata
sulla
sempiterna
ed
esclusiva
questione
dei
dati personali
e
della
privacy
oggi
funge
da
panacea;
si
ricorre
a
lei
di
continuo, nonostante
crei
confusione,
nasconda
le
questioni
davvero
scottanti
e
lasci campo
libero
ai
vari
sviluppi
tecnologici
e
a
coloro
che
vi
si
applicano,
primi
tra
tutti
i
ricercatori,
gli
ingegneri
e
i
roboticisti,
ai
quali
ultimamente sembra
che
non
riesca
a
uscire
altra
parola
dalla
bocca.
Dato
che
la
maggior parte
di
loro
è
incapace
di
comprendere
l’impatto
di
ciò
che
producono,
dato che
ormai
va
di
moda
esprimere
qualche
“dubbio
critico”,
e
dato
che
la
loro percezione
è
così
tanto
miope,
non
fanno
altro
che
ripetere
in
coro
in
modo meccanico
lo
stesso
ritornello,
sperando
in
questo
modo
di
pulirsi
la coscienza
e
fare
bella
figura
agli
occhi
dell’opinione
pubblica.
Alcuni
di
loro
a volte
scrivono
libri,
generalmente
di
bassa
qualità,
di
poco
interesse
e
fermi su
questa
doxa.
Intervengono
in
congressi
nei
quali
inevitabilmente
arriva sempre
il
momento
fatale
in
cui
attaccano
a
parlare
di
certe
loro “preoccupazioni”
che
però
verranno
controbilanciate
dall’affermazione secondo
cui
è
fondamentale
“mettere
l’uomo
al
centro
del
processo”
e
altre fesserie
del
genere,
dando
la
sensazione
che,
con
intenzioni
simili,
le
cose
si aggiusteranno
da
sole.
Peccato
dimentichino
regolarmente
di
menzionare
gli interessi
economici
in
gioco,
quelli
che
guidano
davvero
le
danze;
del
resto come
potrebbero
farlo,
dal
momento
che
ne
dipendono
direttamente.
Come se
non
bastasse,
a
volte
entrano
a
far
parte
di
“comitati
etici”
composti
da ricercatori
di
tutto
il
mondo,
come
l’IEEE
Standards
Association,8
o
altri creati
dalle
società
stesse,
veri
e
propri
covi
nei
quali
non
si
fa
che
pontificare sul
fatto
che
è
necessario
“utilizzare
bene”
l’intelligenza
artificiale,
sfruttarla secondo
logiche
di
“complementarità”
affinché
venga
messa
finalmente
“a servizio
dell’uomo”.
In
poche
parole,
un
festival
perenne
di
stupidaggini
e luoghi
comuni
animato
da
scienziati
con
la
faccia
da
boy-scout
scrupolosi. Come
Lionel
Prevost,
per
citarne
solo
uno,
direttore
del
laboratorio Learning,
Data,
Robotics
all’École
supérieure
d’informatique,
électronique, automatique
(ESIEA),
che
in
modo
tanto
ingenuo
quanto
irresponsabile dichiara:
“Presto
i
nostri
assistenti
virtuali
si
trasformeranno
in
confidenti
ai quali
raccontare
le
nostre
emozioni,
in
coach
che
ci
aiuteranno
a
preparare
i nostri
colloqui
di
lavoro
e
accompagneranno
i
bambini
o
gli
anziani
in difficoltà.
La
tecnologia
è
qui,
dobbiamo
solo
farne
buon
uso”.9
O
come Cédric
Villani,
che
sarà
pure
un
bravo
matematico,
ma
non
appena
apre bocca
sull’intelligenza
artificiale
non
è
in
grado
di
mettere
insieme
mezza riflessione
sensata
e
non
fa
che
parlare
per
frasi
fatte,
intrise
di
scientismo
e tecnoliberismo.
Villani
sembra
corrispondere
perfettamente
al
ritratto corrosivo
che
Alexandre
Grothendieck
fece
degli
scienziati
arruolati
dagli amministratori
politici
e
dai
media:
“Accade
abbastanza
di
rado
che
gli scienziati
si
interroghino
sul
ruolo
della
loro
scienza
nella
società.
Ho l’impressione
molto
netta
che
più
sono
in
alto
nella
gerarchia
sociale
e,
di conseguenza,
più
sono
identificati
all’establishement,
o
comunque
sono
soddisfatti
della
loro
sorte,
meno
rimettono
in
discussione
questa
religione che
ci
è
stata
inculcata
sin
dalla
scuola
elementare,
secondo
la
quale
ogni conoscenza
scientifica
è
buona,
qualsiasi
sia
il
suo
contesto;
ogni
progresso tecnico
è
buono.
E
di
conseguenza:
la
ricerca
scientifica
è
sempre
buona”.10 Perché
lui,
come
tanti
altri,
si
inscrive
nella
scia
di
una
lunga
tradizione francese
che
da
sempre
integra
una
certa
categoria
di
scienziati
e
ingegneri all’interno
dei
grandi
corpi
dello
Stato
e
che
hanno
contribuito
a
forgiare
il paesaggio
industriale
del
Paese.
Quelli
che
hanno
studiato
all’École
des Mines
o
al
Politecnico
costituiscono,
infatti,
una
sorta
di
aristocrazia specifica
che
si
è
sviluppata
in
stretta
vicinanza
con
il
potere
politico
e
ha manifestato
una
forma
di
sdegno
nei
riguardi
del
resto
del
consesso
sociale. Probabilmente
avrebbero
dovuto
prestare
attenzione
alle
dichiarazioni
di padre
Dubarle
uscite
nel
1948
su
Le
Monde
a
proposito
della
cibernetica: “Forse
non
sarebbe
male
se
le
squadre
creatrici
della
cibernetica affiancassero
ai
loro
tecnici
venuti
da
tutti
gli
orizzonti
possibili
della
scienza anche
qualche
antropologo
serio
e,
perché
no,
anche
un
filosofo
interessato
a questi
argomenti”.11
È
desolante
constatare
che
non
possiamo
più
aspettarci alcuna
vigilanza
o
presa
di
coscienza
da
parte
di
coloro
i
quali
lavorano
agli sviluppi
tecnologici.
Le
cose
sono
cambiate,
e
da
tempo
ormai.
I
matematici e
gli
scienziati
di
oggi
non
hanno
nulla
dell’integrità
di
un
Alexandre Grothendieck,
eppure
ne
avremmo
così
tanto
bisogno.
In
realtà
tutti
questi ricercatori
così
intrisi
di
“etica”
farebbero
meglio
a
smetterla
di pavoneggiarsi
con
i
loro
buoni
principi
e
a
riflettere
in
coscienza
sulle ricadute
delle
loro
“innovazioni”
non
soltanto
sulle
nostre
vite
private,
ma anche
sui
nostri
modi
di
vivere;
temo,
però,
che
non
sarebbero
in
grado
di cogliere
nemmeno
il
senso
di
questa
frase. Sul
podio
dei
vari
paladini
dell’etica
vale
la
pena
citare
la
categoria
dei “sociologi
dei
media
digitali”.
A
caratterizzarli,
nella
stragrande
maggioranza dei
casi,
è
la
limitatezza
del
loro
campo
di
indagine.
La
maggior
parte
di
loro pensa
di
fare
opera
di
“critica”
lavorando,
ancora
una
volta,
sulla
questione dei
dati
personali,
oppure
avviano
tutta
una
serie
di
ricerche
psicocomportamentali
sugli
utenti
di
Facebook,
per
esempio,
analizzando
i
clic,
la durata
e
la
frequenza
degli
accessi,
i
“like”,
le
“condivisioni”
ecc. Generalmente
i
risultati
di
questi
studi
non
solo
rimangono
a
un
livello puramente
osservativo,
ma
vengono
subito
sfruttati
da
marchi
e
agenzie
di marketing,
e
addirittura
dallo
stesso
social
network
per
adeguare
le
sue funzionalità.
Un’altra
particolarità
della
professione
consiste,
da
qualche anno,
nell’interessarsi
alle
“bolle
dei
filtri”,
termine
coniato
da
Eli
Pariser
nel suo
libro
Il
filtro.
Quello
che
internet
ci
nasconde,12
che
indica
il
fatto
di
essere
continuamente
rimandati
alle
proprie
preferenze
durante
la navigazione,
ingenerando
così
presunte
logiche
di
avvitamento
sulle
proprie categorie
e
abitudini.
O
alle
“distorsioni”,
diventate
nel
giro
di
poco
il
nuovo oggetto
di
osservazione
sociologica
alla
moda.
Quelli
che
vi
indagano intendono
portare
alla
luce
i
tropismi
e
i
pregiudizi,
consci
o
inconsci,
che impregnano
gli
algoritmi
per
eventualmente
arginarli;
ma
–
anche
se riescono
ad
agire
su
alcuni
di
questi
–
essi
rimangono
indifferenti all’influenza
abusiva
dei
sistemi
su
un
numero
sempre
crescente
di
situazioni che
per
questo
non
smetterebbero
di
presentarsi.
Di
questi
affronti
i sociologi
del
digitale
non
si
curano:
non
mettono
mai
in
discussione
il
cuore del
modello,
ma
soltanto
alcuni
fenomeni
più
o
meno
significativi
di superficie,
in
quanto
è
proprio
del
loro
esame
che
la
maggior
parte
di
loro vive. In
fin
dei
conti
non
fanno
altro
che
convalidare
i
movimenti
in
corso,
nella misura
in
cui
gli
oggetti
stessi
delle
loro
ricerche
si
mantengono
al
margine delle
questioni
scottanti
del
nostro
tempo.
Quando
mai
un
sociologo
ha trascorso
un
periodo
in
fabbrica
per
osservare
da
vicino
il
modo
in
cui
i sistemi
dirigono
i
gesti
e
i
ritmi
di
lavoro
degli
operai?
Studiare
le
pratiche
di Facebook
è
molto
più
comodo
e
molto
meno
compromettente.
In
realtà l’analisi
degli
utilizzi
del
digitale
non
sembra
essere
più
di
grande
utilità; vista
la
portata
delle
cose,
questi
programmi
di
osservazione
non
hanno
più alcun
senso.
Sarebbe
molto
più
saggio
esaminare
da
vicino
le
intenzioni
degli ideatori;
a
questo
proposito,
sarebbe
opportuno
procedere
a
una
sociologia dei
laboratori,
come
quella
condotta
ormai
molto
tempo
fa
da
Bruno
Latour e
Steve
Woolgar;13
sarebbe
evidente
a
tutti
la
sottomissione
degli
scienziati al
potere
economico.
O
ancora
a
una
sociologia
dei
comportamenti
delle grandi
figure
dell’industria
digitale
o
degli
startupper,
che
farebbe
luce
sulle loro
motivazioni.
Capiremmo
meglio
che
traiettoria
sta
prendendo
la
tecnica da
una
ventina
di
anni
a
questa
parte
e
quali
sono
gli
interessi
che
la determinano.
Ma
è
vero
che
molti
sociologi
sono
dipendenti
di
aziende, come
per
esempio
Orange
o
Microsoft,
e
in
quanto
tali
sono
sottoposti
ai
loro ordini,
il
che
li
porta
a
preferire
di
entrare
in
cantieri
che
non
creino problemi
e
i
cui
lavori
possano
essere
utilizzati
a
fini
strategici.
Sì,
una
parte della
sociologia
contemporanea
è
diventata
questo,
perché
se
è
vero
che
in Francia,
per
esempio,
essa
ha
preso
il
volo
grazie
all’appoggio
di
istituti
di istruzione
superiore
(École
pratique
des
hautes
études,
Conservatoire national
des
arts
et
des
métiers,
Collège
de
France…),
è
vero
anche
che
è stata
poi
progressivamente
integrata
all’interno
di
istituti
privati
e
i ricercatori
hanno
visto
così
diminuire
la
loro
autonomia
e,
di
conseguenza,
la loro
capacità
critica.
Rimangono
poi
i
cosiddetti
“pensatori
di
internet”
–
tra
i
quali
spicca
il giurista
Lawrence
Lessig,
autore
in
particolare
dell’opera
Cultura
libera14
– che,
da
una
decina
di
anni,
si
fanno
carico
di
narrare
la
storia
della
distopia causata
dallo
sviluppo
dei
social
–
quella,
cioè,
della
terribile
delusione
nei confronti
delle
nostre
ardenti
speranze
iniziali
–
e
che
negli
accesi
discorsi pronunciati
nel
corso
delle
messe
geek,
incitano
a
recuperare
quella meravigliosa
ventata
di
libertà
che
ci
offriva
il
web
ai
suoi
inizi.
Ma
a
noi
non servono
“pensatori
di
internet”:
a
noi
serve
un
pensiero
della
digitalizzazione del
mondo,
di
quella
che
sarà
a
lungo
andare
la
sua
automatizzazione
e
di tutte
le
sue
conseguenze
sulle
nostre
vite.
Ma
forse
qui
tocchiamo
una
sorta di
soffitto
di
cristallo
della
coscienza
“critica”
predominante.
Non
che
si debba
essere
a
tutti
i
costi
radicali,
non
è
questo
il
punto;
ma
è
nostro
dovere cogliere
la
radicalità
dei
mutamenti
in
corso
che
portano
con
loro
un cambiamento
civilizzazionale
i
cui
ingranaggi
più
determinanti
fatichiamo ancora
ad
afferrare.
Tim
Berners-Lee,
uno
dei
fondatori
del
web,
si
dice
lui stesso
preoccupato
delle
derive
della
sua
creatura
e
intende
mettere
a
punto un
progetto,
sviluppato
all’interno
del
MIT,
chiamato
Solid,
che
mira
a progettare
una
nuova
architettura
destinata
a
“restituire
il
potere
agli internauti”
e
a
fare
di
ogni
individuo
il
“proprietario
dei
suoi
dati”.15
Questo è
il
chiaro
esempio
di
un
grande
informatico
rimasto
bloccato
in
schemi vecchi
di
trent’anni,
che
non
vuole
vedere
che
il
web
si
è
spinto
ben
oltre
lo schermo
e
non
si
limita
più
a
offrire
un
accesso
all’informazione;
la
sua infrastruttura
è
oggi
sempre
più
sfruttata
al
fine
di
instaurare
un orientamento
algoritmico
dei
comportamenti
che
rappresenta
un’offesa
alle nostre
facoltà.
Il
desiderio
di
“dare
potere
agli
internauti”
deriva
al
contempo da
un’intenzione
assai
ingenua,
eminentemente
restrittiva
e
che
non contraddirà
in
alcun
modo
l’assalto
antiumanista
in
corso.
Limitati
come siamo
dalla
nostra
ristrettezza
di
vedute,
l’unica
cosa
di
cui
ci
preoccupiamo è
questa
benedetta
storia
della
“libertà
personale”,
senza
scomporci minimamente
invece
per
quella
che
rappresenta
la
principale
questione etico-politica:
la
tutela
della
nostra
autonomia
di
giudizio
e
della
nostra incondizionata
libertà
di
esercitarla,
quella
libertà
che
è
il
“coraggio
di servirci
della
nostra
intelligenza”,
per
riprendere
la
famosa
formula
di
Kant, così
emblematica
dell’Illuminismo.
Anziché
stare
in
ansia
per
la
nostra libertà
personale,
faremmo
meglio
a
preoccuparci
per
la
perdita
progressiva e
più
o
meno
insidiosa
di
questo
coraggio,
per
il
nostro
rifiuto
a
dare
prova
di coraggio,
per
questo
dovremo
mobilitarci
in
qualche
modo,
o
ci
renderemo colpevoli
di
un
gigantesco
errore
individuale
e
collettivo.
A
rivelarsi
imperioso
non
è
tanto
il
fatto
di
“riprendere
il
controllo
dei
nostri dati”
e
di
tutta
questa
etica
gretta,
fumosa
e
improduttiva,
quanto
di costruire
un’etica
della
responsabilità
che
faccia
da
punto
di
appoggio
a
una politica
dell’azione
capace
di
far
fronte
alla
varietà
delle
sfide
in
atto. Un’etica
della
responsabilità
preoccupata
del
modo
in
cui
i
nostri
principi,
i fondamenti
della
nostra
umanità
e
della
nostra
civiltà,
vengono
sradicati.
A tale
scopo
dovremmo
fare
appello
all’etica
della
responsabilità
invocata
da Hans
Jonas
che
aveva
capito
che
la
costruzione
di
un
nuovo
ambiente tecnologico
ci
coinvolge
in
modo
completamente
diverso,
in
particolare rispetto
alle
possibili
conseguenze
che
ci
impongono
di
dare
prova
di scrupolosa
attenzione
e
continua
vigilanza.
Perché
con
le
nostre rappresentazioni
restiamo
legati
a
paesaggi
che
invece
sono
cambiati
e
si sono
trasformati
a
una
velocità
tale
per
cui
dovremmo
ripensare
i fondamenti
di
quella
che
noi
consideriamo
essere
l’“etica”:
“Nessuna
etica tradizionale
ci
ammaestra
quindi
sulle
norme
del
‘bene’
e
del
‘male’
alle
quali vanno
subordinate
le
modalità
interamente
nuove
del
potere
e
delle
sue possibili
creazioni.
La
terra
vergine
della
prassi
collettiva,
in
cui
ci
siamo addentrati
con
l’alta
tecnologia,
è
per
la
teoria
etica
ancora
terra
di nessuno”.16
Oggigiorno
urge
prendere
la
misura
delle
cose,
capire
che instaurando
un’infrastruttura
tecnico-economica
inedita,
vengono
a
istituirsi nuovi
giochi
di
potere,
metodi
organizzativi
degradanti,
involuzioni
sociali
e culturali.
Ecco
perché
è
importante
rivendicare
a
gran
voce
le
nostre esigenze
fondamentali,
sforzarci
di
salvaguardale
e,
soprattutto,
dare
loro corpo;
la
nostra
responsabilità
sta
tutta
qui,
è
essa
che
deve
fondare
l’etica del
nostro
tempo,
che
di
fatto
esige
di
trovare
una
concretizzazione
nelle azioni,
visti
i
violenti
assalti
che
le
nostre
richieste
devono
subire.
È
una battaglia
di
portata
civilizzazionale
e
deve
essere
combattuta
se
non vogliamo
vedere
crollare
inesorabilmente
tutto
quello
per
cui
ci
siamo battuti
a
lungo,
e
per
cui
continueremo
a
batterci.
5.2
PER
UN
CONFLITTO
DI
RAZIONALITÀ L’importanza
crescente
assunta
dalla
tecnologia
nella
società
ha
generato due
categorie
di
persone,
situate
l’una
agli
antipodi
dell’altra:
i
tecnofili
e
i tecnofobi.
Esse
danno
conto
di
due
modalità
di
percezione
radicalmente opposte:
da
una
parte,
c’è
chi
considera
la
tecnologia
il
presupposto imprescindibile
per
il
miglioramento
delle
condizioni
di
vita
e
prova
piacere nel
circondarsi
di
novità;
dall’altra,
c’è
chi
pensa
che
la
produzione
di artefatti
contribuisca
a
sviare
stili
di
vita
sobri
e
“autentici”
e
a
deteriorare
il
nostro
ambiente,
generando
profitti
destinati
a
un’élite.
Queste
due
posizioni sono
fondamentalmente
inconciliabili.
Sarebbero
apparse
per
la
prima
volta all’inizio
della
rivoluzione
industriale,
sul
volgere
del
XIX
secolo,
e
da
allora non
avrebbero
più
smesso
di
offrire
terreno
fertile
per
accesi
dibattiti. L’accelerazione
della
digitalizzazione
della
società,
avvenuta
verso
la
metà degli
anni
Novanta,
le
avrebbe
portate
a
esprimersi
con
ancora
maggiore forza,
tanto
da
portare
a
una
netta
divisione
nel
campo
del
dibattito,
cosa
che chiarisce
gran
parte
delle
opinioni
e
delle
forze
in
gioco. Questo
antagonismo
si
è
imposto
in
modo
evidente;
tuttavia,
nella
sua stessa
denominazione,
ha
il
difetto
di
essersi
focalizzato
sui
soli
costituenti, senza
tenere
sufficientemente
conto
del
contesto
che
li
determina. Presuppone
che
gli
oggetti
siano
la
causa
principale,
senza
cercare,
come sarebbe
bene
fare,
di
metterli
in
relazione
con
le
intenzioni
che
sono
alla base
della
loro
concezione.
In
tal
senso,
questa
divisione
nasce
da
una essenzializzazione
della
tecnica,
che
la
riduce
alle
sue
funzioni
primarie
e occulta
il
fatto
che
essa
non
ha
mai
smesso
di
offrirsi
come
uno
strumento per
la
messa
in
atto
di
modalità
organizzative.
Quello
che
caratterizza
la tecnologia
della
modernità
occidentale,
e
in
particolare
quella
del
nostro tempo,
è
che
al
di
là
dei
dispositivi
che
genera,
essa
rappresenta
il
fulcro
per l’instaurazione
di
logiche
economiche,
sociali
e
politiche
e
fa
da
trama preponderante
di
governance.
È
la
ragione
per
cui
questa
classificazione risulta
quanto
mai
fiacca
e
inoperosa:
essa
perde
di
vista
il
fattore
decisivo,
e cioè
che
la
tecnologia,
strutturando,
come
fa,
la
forma
delle
nostre
esistenze individuali
e
collettive,
coinvolge
di
fatto
dei
valori. Sarebbe
bene,
dunque,
ampliare
lo
spettro
percettivo.
L’opposizione,
infatti, non
sta
tanto
tra
quelli
che
apprezzano
gli
oggetti
e
quelli
che
li
aborrono, quanto
tra
quelli
che
sostengono
certi
valori
e
quelli
che,
nel
cuore
e
nella mente,
ne
hanno
altri
e
ci
tengono
a
preservarli.
In
questo
modo
non assisteremmo
più
alla
manifestazione
di
disaccordi
incentrati
sugli
oggetti, ma
su
uno
spirito
della
tecnologia,
che
è
poi
quello
che
si
è progressivamente
messo
a
predominare,
che
alimenta
un
tipo
specifico
di razionalità:
una
ragione
strumentale
estrema.
Ma
questa
non
genera controversie
all’altezza
delle
sfide
nonostante
si
sia
imposta
in
modo massiccio
e
sia
diventata
egemonica. Nella
misura
in
cui
ci
opponiamo
ai
suoi
fondamenti
ed
essa
riesce
a neutralizzare
tutte
le
altre
modalità
possibili,
è
nostro
dovere
affermare
che la
sua
posizione
dominante
è
illegittima
e
difendere
una
razionalità
aperta, inventiva
e
rispettosa
dell’assioma
intangibile
della
pluralità
umana.
In
tal senso,
ci
troviamo
a
essere
coinvolti
in
un
conflitto
di
razionalità,
perché
pretendiamo
di
fare
opera
di
razionalità,
ma
di
una
razionalità
basata
su principi
diversi
in
tutto
e
per
tutto.
Ecco
perché
il
conflitto
–
l’agone dell’antica
Grecia
–
deve
essere
ripristinato;
esso
condiziona
la
perennità
di certi
modi
di
vivere
ai
quali
teniamo;
potremmo
dire
che
a
essere
in
gioco
è un
conflitto
di
aspirazioni.
Esso
ci
impone
di
esprimere
le
nostre
divergenze e
i
nostri
rifiuti:
sta
tutta
qui
l’etica
in
atti,
la
politica
che
intende
agire
sulla realtà,
quella
di
cui
vorremmo
disfarci
così
come
quella
di
cui
ci
siamo
a poco
a
poco,
e
quasi
nell’indifferenza,
disfatti.
A
tal
fine
diamo
prova
di
una razionalità
sottile,
analitica
e
determinata
adatta
a
identificare,
uno
per
uno, i
valori
che
respingiamo
e
a
confrontarli
con
quelli
che,
invece,
vogliamo coltivare. All’opposto
di
una
razionalità
volta
a
fare
di
ogni
fatto
e
gesto
l’oggetto
di transazioni
commerciali
e
a
spostare
continuamente
i
limiti
del
mercato,
noi intendiamo
mettere
le
nostre
vite
al
riparo
da
queste
ambizioni
totalizzanti
e, soprattutto,
trasferire
l’atto
di
consumo
dal
centro
alla
periferia
e
farvi appello
solo
quando
necessario.
All’opposto
di
una
razionalità
che
pretende di
sradicare
il
disordine,
lottare
contro
l’entropia
e
rafforzare
un
controllo sempre
più
esteso
sul
corso
delle
cose,
noi
difendiamo
le
imperfezioni
della vita
che
stimolano
il
nostro
desiderio
di
realizzarci
e
lavorano
senza
sosta alla
costruzione
di
un
mondo
comune
fondato
sull’assioma
cardinale consistente
nel
non
ledere
nessuno.
All’opposto
di
una
razionalità
che considera
l’uomo
un
concentrato
di
difetti
e
conta
di
compensarli
attraverso l’utilizzo
di
macchine
infallibili
e
iperproduttive
che
lo
rendono
“superfluo” (Hannah
Arendt),
noi
celebriamo
i
poteri
virtualmente
infiniti
di
ogni individuo
e
vogliamo
fare
in
modo
che
tutti
possano
beneficiare
delle migliori
condizioni
che
sovrintendono
alla
loro
fioritura
e
alla
loro espressione.
All’opposto
di
una
razionalità
che
genera
di
una
“furia” innovatrice
che
contribuisce
all’ascesa
del
suo
impero
e
all’instaurazione
di un
utilitarismo
generalizzato,
noi
ci
rifiutiamo
di
aspettarci
continuamente un
tornaconto
dal
rapporto
con
la
realtà
e
con
gli
altri
e
coltiviamo
i
poteri della
nostra
inventiva
in
modo
da
sperimentare
la
molteplicità
dei
modi
di vivere
che
parteciperanno
della
nostra
fioritura
individuale
e
collettiva. All’opposto
di
una
razionalità
che
brama
in
ogni
circostanza
di
assecondarci, anticipare
i
nostri
desideri
e
istituire
un
assistentato
algoritmico
del
nostro quotidiano,
noi
facciamo
nostra
la
formula
di
Kant
–
“abbi
il
coraggio
di servirti
della
tua
propria
intelligenza”
(Sapere
aude!)
–
per
portare
avanti
le cose
che
ci
riguardano,
perché
contiamo
di
darci
da
soli
(autos)
la
nostra legge
(nomos),
avvalendoci
pienamente
della
nostra
autonomia
che
fonda
il
dovere
di
responsabilità,
l’imperativo
che
costituisce
l’onore
del
genere umano.
All’opposto
di
una
razionalità
sempre
insoddisfatta
che,
in
modo nevrotico,
aspira
a
rettificare
continuamente
il
corso
degli
eventi
e
a
condurli a
una
condizione
falsamente
superiore,
noi
viviamo
il
presente
in
una
forma sana
di
soddisfazione,
senza
per
questo
rinunciare
a
modificare
lo
stato
delle cose,
ma
al
solo
scopo
di
contribuire
alla
salvaguardia
dei
valori
che giudichiamo
fondamentali
e
alla
realizzazione
delle
nostre
aspirazioni
più importanti.
All’opposto
di
una
razionalità
che
pretende
di
essere
esercitata
in maniera
esclusiva
e,
conseguentemente,
di
liquidare
la
politica,
noi rispondiamo
che
intendiamo
definire
liberamente
il
corso
delle
questioni pubbliche
nella
pluralità
e
nella
contraddizione,
senza
che
questa
impresa possa
mai
finire.
All’opposto
di
una
razionalità
sostenuta
da
un
gruppo ristretto
di
persone
attratte
dall’idea
di
decidere,
da
sole,
di
gran
parte
del destino
dell’umanità,
noi
rimandiamo
al
fenomeno
dell’Antropocene
che oggi,
con
molto
ritardo,
è
fonte
di
una
desolazione
unanime
e
che
in
origine
è dipeso
solo
da
un
piccolo
gruppo
di
individui
che
avevano
imposto
l’uso generalizzato
del
carbone,
a
dispetto
di
tutte
le
sue
conseguenze,
al
solo scopo
di
soddisfare
la
loro
sete
di
guadagno,
secondo
un
processo
analizzato con
precisione
da
Andreas
Malm
nel
suo
libro
L’Anthropocène
contre l’histoire.17 All’opposto
di
una
razionalità
sempre
insoddisfatta
che
ambisce
a
spingere un
po’
più
in
là
i
limiti
per
sfamare
i
propri
appetiti
di
onnipotenza
dando prova
di
una
hỳbris
che
mette
in
pericolo
l’equilibrio
degli
elementi,
noi coltiviamo
le
virtù
della
sobrietà
e
glorifichiamo
la
coscienza
del
limite, quello
che
ci
fa
accontentare
delle
ricchezze
inesauribili
del
reale
e
ci
fa tenere
conto
della
fragilità
del
nostro
ambiente
e
delle
vulnerabilità
di ciascuno.
All’opposto
di
una
razionalità
proiettata
verso
un
futuro immaginario
–
nel
quale
provare
presto
la
beatitudine
dei
fini
ultimi
–,
che deriva
dalla
negazione
dei
nostri
valori
fondanti
e
determina
una
via
già tracciata
che
stroncherebbe
sul
nascere
le
virtualità
offerte
dal
tempo
e dall’espressione
di
tutte
le
soggettività,
e
che
è
arrivata
fino
a
coniare
un termine
che
nel
linguaggio
convalida
questa
direzione
–
disrupzione
–,
noi affermiamo
l’importanza
di
certi
principi
che
ci
vengono
dal
passato,
ai
quali teniamo
e
che
continueranno
a
ispirare
le
nostre
azioni.
Perché
grazie
a Simone
Weil
sappiamo
che
“il
passato
distrutto
non
torna
mai
più.
La distruzione
del
passato
è
forse
il
delitto
supremo.
Ai
giorni
nostri,
la conservazione
di
quel
poco
che
resta
dovrebbe
diventare
quasi
un’idea fissa”.18
All’opposto
di
una
razionalità
che
si
ostina
a
ridurre
ogni
singolo
elemento
e ogni
singolo
gesto
a
dei
codici,
secondo
un
miserabile
riduzionismo
che dovrebbe
d’ora
in
poi
disciplinare
i
nostri
rapporti
con
il
reale,
noi
contiamo di
ricorrere
ai
poteri
che
ci
vengono
dalla
nostra
sensibilità,
l’unica
in
grado di
metterci
pienamente
in
contatto
con
le
emozioni
più
indefinibili
della
vita. All’opposto
di
una
razionalità
che
non
ammette
l’incertezza
e
teme l’imprevisto,
noi
conosciamo
il
potere
creativo
del
caso
–
in
particolare quello
che
ha
condizionato
la
nostra
venuta
al
mondo
–,
e
adoriamo
le sorprese
che
ci
riserva
la
vita,
che
spezzano
la
routine
quotidiana
e contribuiscono
a
farci
uscire
dalle
nostre
abitudini
e
ad
ampliare
l’orizzonte delle
nostre
esperienze.
All’opposto
di
una
razionalità
che
si
nutre
di
una velocità
isterica
destinata
a
ottimizzare
sempre
ogni
singola
circostanza
del reale,
noi
preferiamo
procedere
al
ritmo
di
una
temporalità
che
non
punta mai
a
uno
scopo
e
opera
in
maniera
ciclica,
perché
essa
è
l’unica
valida
e
ci riporta
al
ritmo
degli
astri
e
dei
vegetali
i
quali,
in
una
forma
di
saggezza immutabile,
non
offrono
mai
nulla
di
diverso
da
quello
che
la
stagione permette
loro
di
offrire. All’opposto
di
una
razionalità
che
usa
enunciati
formattati,
si
fa
in
quattro per
impoverire
il
linguaggio
e
fa
parlare
le
macchine
unicamente
a
fini funzionali,
noi
sappiamo
che
una
lingua
che
cerca
di
nominare
precisamente le
cose
spiana
la
strada
a
un
rapporto
più
ricco
con
gli
altri
e
con
la
realtà,
e ci
divertiamo
a
giocare,
fino
all’ironia,
con
le
parole,
facendo
sì
che
la
nostra irriducibile
singolarità
si
manifesti
all’interno
di
un’eredità
comune. All’opposto
di
una
razionalità
che
si
aspetta
che
i
sistemi
ci
rivelino
la
verità, noi
vogliamo
fare
opera
di
parresìa
–
il
termine
greco
che
indica
la
libertà
di “dire
tutto”,
ma
anche
il
coraggio
e
la
franchezza
nell’esprimersi
–,
la
stessa che
ci
sollecita
a
continuare
a
denunciare
questa
razionalità
che
deriva
da
un rifiuto
di
noi
stessi
e
istituisce
a
grandi
passi
un
antiumanesimo
radicale
al quale
ci
opponiamo
con
tutte
le
nostre
forze.
Difenderemo
questi
valori
a
noi tanto
cari,
con
i
nostri
metodi
di
razionalità
plurali,
rigorosi
e
inventivi, armati
fino
ai
denti
per
restituire
a
questa
metodologia
della
razionalità
il posto
che
merita
–
all’estremo
margine
delle
nostre
vite,
il
più
possibile distante
dalle
nostre
realtà.
È
questa
la
nostra
missione,
e
la
perseguiremo con
metodo
e
determinazione.
5.3
ADESSO
ABBIAMO
BISOGNO
DI
ARMI
Forse
solo
oggi
riusciamo
a
cogliere
l’acutezza
del
pensiero
tradizionale cinese
nei
confronti
dei
processi
evolutivi.
La
metamorfosi
continua
che colpisce
ogni
particella
organica
o
inanimata
della
Terra
non
avverrebbe
in modo
evidente
e
rumoroso,
ma
impercettibilmente
e
senza
preavviso.
Questa consapevolezza
delle
“trasformazioni
silenziose”,
a
lungo
analizzata
da François
Jullien,19
è
in
grado
di
discernere
i
movimenti
infinitesimali
ma continui
che
sono
alla
base
di
qualsiasi
cambiamento.
Tuttavia,
lungi dall’operare
un’unica
constatazione,
essa
ispira
un’etica
dell’azione
che presuppone
che
qualsiasi
impresa
desiderosa
di
cambiare
un
certo
stato delle
cose
non
debba
per
nessuna
ragione
procedere
bruscamente
e
con
il desiderio
di
vedere
compiersi
un
cambiamento
radicale
in
poco
tempo.
Si rivelerebbe,
infatti,
un
fiasco
totale
in
quanto
contraddirebbe
la
progressione inevitabilmente
graduale
di
qualsiasi
sostanza.
Molto
meglio
agire
con modestia
e
costanza,
per
dare
corpo
al
desiderio
di
lavorare
a
un
qualunque rinnovamento.
Da
secoli,
infatti,
ogni
volta
che
attraversiamo
un
momento di
insoddisfazione
o
di
crisi,
il
nostro
istinto
–
intrisi
come
siamo
di mitologia
rivoluzionaria
–
è
quello
di
fare
tabula
rasa
in
attesa
di
un
domani migliore.
Ma
la
storia
ci
insegna
che
quando
gli
sforzi
puntano
a
un cambiamento
repentino
e
definitivo,
non
conducono
mai
alla
realizzazione delle
aspirazioni
iniziali
e,
anzi,
si
portano
appresso
soltanto
grandi frustrazioni.
Inoltre,
questa
tendenza
ha
l’enorme
difetto
di
focalizzarsi
su
un unico
obiettivo,
il
solo
contro
il
quale
concentrare
le
proprie
forze
e
opporsi. Perché
ogni
slancio
sedizioso
indica
un
nemico
esclusivo.
Come
la
poetica insurrezionale
del
Comité
Invisible,
per
esempio,
ossessionato
dall’idea
di “insorgere
contro
il
potere”
e
incitare
alla
sommossa,
all’innalzamento
di barricate
e
agli
scontri
di
piazza
con
la
polizia:
“Chi
si
ferma
alle
immagini
di violenza
si
preclude
la
possibilità
di
comprendere
le
ragioni
che
spingono
a correre
tutti
insieme
il
rischio
di
sfasciare,
imbrattare
i
muri,
affrontare
la polizia”.20 Ci
hanno
bombardati
di
utopie
che
pretendevano
di
fornirci
la
chiave
per risolvere,
dall’oggi
al
domani,
quasi
tutte
le
nostre
difficoltà.
È
giunto
il momento
di
procedere
a
una
sana
critica
dell’utopia,
quella
che
presuppone l’esistenza
di
modelli
ideali,
uguali
per
tutti.
Le
tante,
terribili
delusioni
che abbiamo
subìto
ci
hanno
insegnato
a
essere
modesti,
non
tanto
riguardo
alle nostre
aspirazioni,
quanto
riguardo
ai
processi
destinati
a
dare
loro
forma. Ora
che
l’utopismo
messianico
tecnoliberista
ha
vinto
la
battaglia
delle
idee
e prodotto
i
suoi
effetti
terribili
sulle
nostre
vite,
l’unico
modo
per
opporci
non è
certo
costruire
un’altra
utopia,
ma
procedere
con
metodo,
stilando
un elenco
plurale
e
aperto
delle
azioni
da
compiere
sul
campo,
lì
dove
le
cose
succedono,
lì
dove
gli
abusi
sono
perpetrati,
lì
dove
ogni
giorno
vengono commesse
indegnità
nell’ombra.
Questa
soluzione
necessita
di
una
praxis,
e non
certo
di
sermoni
di
“piazza”,
dove
la
politica
è
ridotta
alla
sola
parola, risponde
a
una
funzione
catartica
e
non
producendo
quasi
alcunché
di concreto.
Manifestare
“debout”
non
significa
lamentarsi
in
pubblico
delle proprie
difficoltà
o
di
quelle
della
propria
epoca;
l’“etica
della
discussione”
di spirito
social-liberista
promossa
da
Jürgen
Habermas21
si
è
mostrata
in
tutti i
suoi
limiti
e
in
tutta
la
sua
inefficacia. A
essere
necessaria
non
è
una
“convergenza
di
lotte”,
ma
una
simultaneità di
operazioni
condotte
ovunque
sia
necessario
e
ispirate
da
principi
comuni. “Una
sommossa
organizzata”,
secondo
il
Comité
Invisible,
“è
in
grado
di produrre
quello
che
la
società
non
è
capace
di
generare:
legami
vivi
e irreversibili”.22
Ebbene,
questi
legami
sarebbe
bene
stringerli
non
tanto nell’esaltazione
provvisoria
delle
barricate
innalzate
per
venire
alle
mani
con un
avversario
unico,
quanto
all’interno
di
sforzi
pazienti,
continui,
tenaci, coordinati,
in
grado
di
ostacolare
le
cattive
intenzioni
di
tutti
quegli
attori che
intendono
privarci
di
noi
stessi.
È
solo
scegliendo
di
essere
attivi
nel corso
delle
nostre
esperienze
vissute
che
avremo
la
speranza
di
vedere manifestarsi
il
primo
respiro
di
una
“auto-istituzione
della
società”,
quella rivendicata
da
Cornelius
Castoriadis,
che
invita
ognuno
di
noi
a
fare
leva quanto
più
possibile
sulle
regole
che
sovrintendono
alla
nostra
vita quotidiana. Se
ogni
tanto
veniamo
colti
da
improvvisi
slanci
di
foga,
forse
è
perché
essi
si alternano
a
lunghi
momenti
di
apatia.
Come
quello
che
ci
ritroviamo
a
vivere oggi
nei
confronti
dell’alleanza
tra
industria
del
digitale,
mondo
della
ricerca, social-liberismo,
istituti
di
insegnamento
superiore
e
altri
think
tank.
Di fronte
a
questa
potente
coalizione
che
sta
pianificando
un
crollo civilizzazionale,
l’unico
modo
che
abbiamo
trovato
per
mobilitarci
è difendere
la
tutela
dei
dati
personali
e
trovare
continuamente
da
ridire
in materia
di
“etica”.
Questo
per
dire
a
quale
livello
di
letargia
siamo
arrivati
e
a che
punto
“il
popolo
è
muto,
vegeta
lontano
dalle
alte
sfere
in
cui
si
decide
il suo
destino”23
(Auguste
Blanqui).
O
al
massimo
ci
ostiniamo
a
esigere
più regolazione,
convinti
che
possa
fare
da
parafuoco
contro
eventuali
derive. Beh,
è
un’illusione
sperare
di
poter
contare
sui
legislatori
visto
che
sono
i politici,
in
primo
luogo,
a
sostenere
lo
spirito
tecnologico
dominante attraverso
ingenti
fondi
pubblici,
attraverso
la
sottomissione
al
lobbismo
e attraverso
testi
di
legge
redatti
a
tal
fine,
in
conformità
di
un “ordotecnolibertarismo”
diventato
di
norma
nelle
grandi
democrazie,
in risposta
a
quello
che
Ivan
Illich
dichiarava
più
di
quarant’anni
fa:
“Lo
scopo
di
gran
lunga
predominante
dell’attività
legislativa
e
del
Diritto,
nelle
loro forme
attuali,
è
di
sorreggere
una
società
tesa
verso
l’espansione
indefinita. […]
La
perversione
del
Diritto
è
il
terzo
ostacolo
a
una
attualizzazione politica
dei
limiti”.24
Inoltre
quello
che
caratterizza
gli
sviluppi
tecnologici in
corso
è
che
gran
parte
di
essi
si
sottrae
alla
possibilità
stessa
di inquadrarli.
No,
anziché
illuderci
su
un
“controllo”
esercitato
da un’assemblea
di
eletti,
è
giunto
il
momento
di
opporre
rapporti
di
forza, difendere
un’etica
dell’azione. Abbiamo
abbandonato
la
volontà
di
“essere
padroni
delle
nostre
azioni” (Cartesio,
Le
passioni
dell’anima),
quella
che,
grazie
all’esercizio
del
libero arbitrio,
intende
far
rispettare
i
principi
ai
quali
teniamo,
rendendoci
così “degni
di
stima
agli
occhi
degli
altri
come
di
noi
stessi”.
Se
tutti
ci mettessimo
a
coltivare
questa
virtus,
questa
forza
d’animo,
avverrebbe
una mobilitazione
a
tutti
i
livelli
della
società
per
ostacolare
i
progetti
delle potenze
che
ci
stanno
di
fronte.
Tuttavia,
questa
risoluzione
rischia
di
essere smorzata
dalla
valanga
di
discorsi
che
nascondono
i
fatti,
che
vengono ripetuti
dappertutto
e
contribuiscono
ad
annebbiare
le
nostre
percezioni.
A questa
falsificazione
generalizzata
bisogna
rispondere
con
il
racconto
delle esperienze
individuali,
con
le
testimonianze
di
vite
vissute
esposte
agli
occhi di
tutti.
È
nostro
dovere
ordinare,
ovunque
siamo,
delle
controperizie
che smentiscano
le
parole
degli
esperti
e
gli
interessi
di
cui
si
fanno
portavoce,
al fine
di
suscitare
un’“intolleranza
attiva”.
L’espressione
era
comparsa
nel
1971 su
un
volantino
del
Groupe
d’information
sur
les
prisons
(GIP),
nel
quale aveva
militato
anche
Michel
Foucault,
il
cui
obiettivo
consisteva
nel
rendere pubbliche
le
condizioni
del
mondo
penitenziario:
“Non
bisogna
più
lasciare in
pace
le
prigioni,
in
nessun
posto.
[…]
La
nostra
inchiesta
non
è
fatta
allo scopo
di
accumulare
conoscenze,
ma
per
accrescere
la
nostra
intolleranza
e farne
un’intolleranza
attiva”.25
La
neolingua
tecnoliberista
riuscirà,
con
le sue
formule
preconfezionate,
a
generare
un
immaginario
comune,
a
imporre una
linea
direttrice
tracciata
in
anticipo
e
illustrata
in
modo
emblematico dall’espressione,
diventata
ormai
usuale,
“trasformazione
digitale”.
Ci spaventiamo
per
le
fake
news,
ma
nessuno
mette
in
guardia
su
questa retorica
confusa
e
usurpatrice
che
plasma
le
rappresentazioni
e
contribuisce a
banalizzare
i
dibattiti
e
a
neutralizzare
la
presa
di
coscienza
e
le
iniziative che
potrebbero
derivarne. Nel
saggio
Politics
and
the
English
Language
(La
politica
e
la
lingua inglese),
George
Orwell
ci
aveva
avvertiti
dei
rischi
di
un
impoverimento
del linguaggio,
invitandoci
a
riallacciare
i
rapporti
con
un’“igiene
della
lingua” che
rifuggisse
da
qualsiasi
ampollosità
suscettibile
di
camuffare
i
fenomeni,
visto
che
“pensare
chiaramente
costituisce
un
primo
passo
verso
la rigenerazione
politica”.26
Tocca
allo
scrittore
combattere
“il
cattivo linguaggio”,
“die
Gaunersprache”
come
lo
chiama
Ingeborg
Bachmann, “quello
che
riproduce
e
fissa
il
mondo
in
rappresentazioni
riduttrici”.27 Perché
ricorrere
a
una
lingua
precisa
e
ricca,
soprattutto
quando
è
fatta
di chiarezza
e
cortesia
–
la
chiarezza
è
la
cortesia
del
filosofo
(José
Ortega
y Gasset)
–,
è
uno
scudo
enorme
contro
il
volgare
lessico
tecnoliberista
–
che poi
altro
non
è
che
quello
che
mi
sforzo
di
fare
io
in
questo
libro,
come
in quelli
precedenti
del
resto,
e
che
considero
un’arma
teorico-letteraria. “La
questione
del
lavoro
è
di
un’importanza
suprema;
non
ce
n’è
di
più rilevanti”
(estratto
di
un
decreto
del
governo
provvisorio
della
Repubblica del
1848),28
ed
è
per
questo
che
merita
tutta
la
nostra
attenzione.
Perché
il lavoro
–
sia
per
chi
ne
ha
uno,
sia
per
chi
colleziona
contratti
precari
o
non riesce
a
trovarlo
–,
occupa
gran
parte
del
nostro
tempo
e
dovrebbe,
in
teoria, offrire
a
ciascuno
la
possibilità
di
esprimere
le
proprie
qualità.
Oggi
come oggi,
però,
esso
rappresenta
per
lo
più
quell’ambito
nel
quale
sono
in
gioco rapporti
di
potere
di
ogni
tipo
che,
nei
casi
più
estremi,
avviliscono
le persone
che
li
subiscono,
causando
la
paralisi
delle
loro
capacità.
Certo
tali poteri
sono
all’opera
da
tempo,
ma
oggi
si
trovano
a
essere
esaltati
dalla crescente
diffusione
dei
sistemi
di
guida
dell’azione
umana.
È
importante parlare
di
questi
scenari
emergenti
–
“che
non
bisogna
più
lasciare
in
pace, in
nessun
posto”,
per
dirla
ancora
una
volta
con
Foucault
–,
delle
condizioni imposte
da
queste
“fabbriche
4.0”,
“pilotate
dai
dati”,
vantate
tanto
da società
come
Microsoft,
SAP
o
IBM,
che
concepiscono
queste
architetture, quanto
dagli
azionisti
e
dai
politici
felici
dell’avvento
di
una
nuova
epoca industriale
presto
libera
da
scorie
e
resa
fluida
grazie
alla
“trasformazione digitale
delle
aziende”.
Tocca
alle
persone
trasformate
in
robot
di
carne
e ossa,
che
vivono
in
prima
persona
queste
situazioni,
che
si
vedono
private della
loro
spontaneità
e
alle
quali
viene
negata
la
propria
individualità
–
ma anche
a
quelle
che
operano
nei
servizi
e
si
trovano
sotto
l’autorità
di equazioni
matematiche
che
hanno
ragione
di
tutto,
che
le
privano
dell’uso della
loro
capacità
di
giudizio
e
della
loro
intuizione
–,
tocca
a
loro,
dunque, far
sapere
il
modo
in
cui
questi
meccanismi,
che
puntano
soltanto
a rispondere
a
degli
imperativi
di
produttività,
operano.
Dovrebbero
portarci ad
affermare
insieme
a
Ivan
Illich
che
“a
cominciare
da
adesso,
bisogna
che noi
assicuriamo
collettivamente
la
difesa
della
nostra
esistenza
e
del
nostro lavoro
contro
gli
strumenti
e
le
istituzioni
che
minacciano
o
misconoscono
il diritto
delle
persone
a
utilizzare
la
loro
energia
in
maniera
creativa”.29
Sarebbe
ora
che
i
sindacati
la
smettessero
di
interessarsi
solo
ai
salari
o
a certe
condizioni
di
lavoro,
e
si
preoccupassero
anche
di
tutti
quei
sistemi
che si
fanno
beffe
della
dignità
umana
e
che
è
nostro
dovere
morale
combattere. Faremmo
bene
a
ricorrere
al
diritto
all’astensione
dalle
attività
lavorative
in caso
di
pericolo,
riconosciuto
dal
codice
del
lavoro,
fintantoché
questi sistemi
non
cesseranno
di
essere
in
funzione.
Più
ancora
spetta
a
noi
fare
in modo
che
la
proscrizione
di
questi
processi
diventi
legge,
come
del
resto incita
a
fare
la
Costituzione
della
Repubblica
francese,
nella
forma
che
le
ha dato
nel
1789
la
Dichiarazione
dei
diritti
dell’uomo
e
del
cittadino:
“La
Legge è
l’espressione
della
volontà
generale.
Tutti
i
Cittadini
hanno
diritto
di concorrere,
personalmente
o
mediante
i
loro
rappresentanti,
alla
sua formazione”.
Un
progetto
di
società
ben
diverso
da
quello
che
invita
a redigere
testi
di
legge
destinati
a
favorire
“l’innovazione”,
la
stessa
che conduce
a
estendere
queste
logiche
disumane
e
a
dare
corpo
a
un antiumanesimo
radicale.
Nella
sua
opera
Il
faut
sauver
le
droit
du
travail,30 Pascal
Lokiec
ha
analizzato
i
processi
di
subordinazione
oggi,
e
più
che
mai, in
vigore
nei
rapporti
professionali
mostrando
le
molteplici
strategie
messe in
atto
dalle
aziende
per
aggirare
certi
vincoli
del
diritto,
che
però,
da
un
po’ di
tempo
a
questa
parte,
vengono
ostacolate
dai
dipendenti
attraverso
il ricorso
a
giudici
e
l’appello
ai
diritti
fondamentali.
Tutti
casi
esemplari
di una
politica
dell’azione
esercitata
sul
campo,
che
porta
i
suoi
frutti
e contribuisce
a
stroncare
velleità
illegittime. Anche
in
altri
settori
della
società
dovremmo
far
valere
il
nostro
legittimo diritto
alla
parola,
chiedere
controperizie
e
dire
no
quando
pensiamo
che
le circostanze
lo
impongano.
Il
settore
dell’istruzione,
per
esempio,
che esattamente
come
il
lavoro
è
uno
dei
ambiti
capitali
delle
nostre
vite,
quello in
cui
i
giovani
–
verso
cui
gli
adulti
sono
responsabili
–
dovrebbero
nel corso
degli
anni
acquisire
conoscenze,
imparare
a
esprimere
il
proprio giudizio,
evolvere
all’interno
di
un
gruppo
e
costituirsi
in
quanto
individui singoli
dotati
di
spirito
critico
e
pienamente
capaci
di
esprimere
le
proprie attitudini.
Dagli
anni
Dieci
del
Duemila,
i
politici,
inebriati
dai
discorsi tecnoliberisti
e
sottomessi
al
lobbismo,
fanno
della
“trasformazione
digitale” della
scuola
pubblica
una
priorità
assoluta;
sono
in
estasi
di
fronte
ai
nuovi modelli
pedagogici
derivanti
dall’uso
di
tablet,
applicazioni
didattiche
e intelligenza
artificiale
che
permettono
di
inaugurare
l’era
dell’“insegnamento personalizzato”.
Sostenuti
da
provveditori
preoccupati
soltanto
di
stare
al passo
coi
tempi,
continuano
a
investire
fondi
pubblici
a
questo
scopo, stringendo
partnership
con
gruppi
dell’industria
del
digitale
che,
vista
la grande
offerta
di
mercato,
non
fanno
che
sventolare
soluzioni
miracolose
per
risolvere
la
crisi
della
scuola
che
da
una
trentina
d’anni
ormai
colpisce
le grandi
democrazie. È
responsabilità
dei
professori
e
dei
genitori
non
asserviti
a
questa
misera doxa
affermare
che
la
scuola
non
deve
rappresentare
il
riflesso
della
società, che
essa
deve,
sì,
essere
inserita
nel
suo
tempo,
ma
deve
anche
coltivare
una sana
forma
di
distacco
che
preservi
determinati
principi
considerati indispensabili
alla
formazione
delle
coscienze
illuminate,
come puntualmente
analizzato
da
Hannah
Arendt
in
Tra
passato
e
futuro:
“Non vorrei
essere
fraintesa:
secondo
me
il
conservatorismo,
o
meglio
‘il conservare’,
è
parte
essenziale
dell’attività
educativa,
che
si
prefigge
sempre di
custodire,
proteggere
qualcosa:
il
bambino
dal
mondo,
il
mondo
dal bambino,
il
nuovo
dal
vecchio,
il
vecchio
dal
nuovo”.31
Di
fronte
al relativismo
dell’epoca,
la
sfida
non
è
relegare
il
professore
al
rango
di “coach”
spronando
gli
studenti
a
utilizzare
le
piattaforme,
a
marginalizzare
il suo
sapere
e
a
privarlo
della
sua
autorità.
E
tantomeno
cercare
di
attrezzare bambini
e
adolescenti
affinché
possano,
in
futuro,
“trovare
il
loro
posto”
di fronte
all’annunciata
onnipresenza
dell’intelligenza
artificiale,
convalidando ancora
una
volta
gli
sviluppi
in
corso.
No,
l’urgenza
è
offrire
loro
tutti
i
mezzi necessari
per
costruirsi
in
quanto
esseri
autonomi,
in
particolare
attraverso la
regolare
frequentazione
dei
libri
stampati,
che
favoriscano
l’attenzione
e
la maturazione
della
riflessione,
al
fine
di
prepararli
all’uso
della
distanza critica
e
dell’inventiva
in
ogni
circostanza
e
per
tutta
la
vita.
Sono
queste abilità
che
li
renderanno
capaci
di
determinarsi
all’interno
di
una
società governata
da
sistemi,
e
non
delle
qualsiasi
attitudini
utilitaristiche
derivanti da
una
visione
tanto
meccanica
quanto
riduzionista
delle
cose. E,
ancora,
spetta
a
noi
denunciare
la
progressiva
messa
al
bando
delle competenze
dei
medici
e
delle
loro
facoltà
sensibili
a
beneficio
di
dispositivi chiamati
a
svolgere
non
più
una
funzione
complementare,
ma
esclusiva, convalidando
così
l’opera
di
confisca
della
medicina
messa
in
atto dall’industria
del
digitale
in
combutta
con
il
mondo
farmaceutico.
Sta
tanto al
corpo
sanitario
quanto
a
ciascuno
di
noi
reagire
a
dei
processi
che
violano l’integrità
della
professione
e
minano
i
principi
dell’accesso
universale
alle cure
mediche
e
della
solidarietà.
A
tal
proposito
è
fondamentale
opporre
un netto
rifiuto
all’introduzione
di
“robot
da
compagnia”
all’interno
di
ospedali e
case
di
riposo
che
deriva
da
una
vergognosa
riduzione
del
personale, comporta
una
disumanizzazione
delle
cure
e
ci
offre
una
scappatoia
per sfuggire
dagli
obblighi
che
abbiamo
verso
i
nostri
cari. È
forse
ammissibile
che
in
certi
tribunali
i
sistemi
si
sostituiscano
ai giudici
e
che
il
principio
del
contraddittorio
venga
liquidato
attraverso
perizie
automatizzate
sempre
più
votate
a
dispensare
verità?
Sta
a
tutti
noi,
a ogni
cittadino
suscettibile
di
avere
a
che
fare
con
la
giustizia,
mobilitarci
per pretendere
la
tutela
di
certi
valori
fondanti
della
nostra
civiltà
e
che
da
qui
ai prossimi
vent’anni
rischiano
di
essere
sradicati.
Se
non
lo
faremo,
forse
un giorno
ci
ritroveremo,
come
Josef
K.,
protagonista
del
Processo
di
Kafka,
a essere
arrestati
da
una
macchina
presumibilmente
infallibile
e
alla
quale
non potremo
ribattere
in
alcun
modo.
In
nome
della
nostra
eredità
comune
e delle
nostre
convinzioni,
dobbiamo
esprimere
con
le
parole
e
con
i
fatti
tutto il
nostro
disaccordo
nei
confronti
di
una
tendenza
che
vuole
estrometterci dalla
gestione
delle
nostre
cose
e
che
sta
prendendo
sempre
più
piede
in
vari settori
della
società. Mostrarci
attivi
nella
vita
individuale
è
altrettanto
importante.
Innanzitutto rifiutando
di
riempire,
il
nostro
corpo
e
le
nostre
case,
di
sensori:
il rilevamento
delle
informazioni
riguardanti
i
nostri
flussi
psicologici,
la nostra
attività
sessuale,
il
nostro
sonno,
i
nostri
stati
emotivi
e
le
nostre abitudini
genera
una
quantità
di
dati
poi
utilizzati
a
scopi
commerciali.
E
poi opponendoci
all’uso
degli
“assistenti
virtuali”
e
dei
veicoli
pilotati dall’industria
digitale,
che
rappresenteranno
il
compendio
o
il
colmo
di
tutto quello
che
non
vogliamo,
ossia
una
vita
assistita
in
ogni
circostanza,
sempre pronta
a
offrirci
una
comodità
rassicurante
e
a
fare
del
rilevamento
di
ogni nostro
minimo
gesto
l’occasione
per
generare
profitti.
Inoltre
possiamo esercitare
un
nuovo
tipo
di
pressione
attraverso
i
nostri
atti
di
consumo, scegliendo
prodotti
provenienti
da
piccole
aziende
e
cooperative
che rifiutano
i
metodi
di
gestione
degradanti
e
non
cercano
di
soffocare
i
talenti umani,
ma
al
contrario
puntano
a
favorirne
la
libera
espressione.
Questo atteggiamento
richiede
certo
un
dovere
di
informazione,
attenta
non
soltanto alla
composizione
dei
prodotti
o
allo
sfruttamento
del
lavoro
minorile,
ma anche
allo
spirito
che
prevale
e
ai
metodi
utilizzati;
è
anche
attraverso
queste azioni
che
facciamo
opera
di
una
razionalità
metodica.
Contro
un
mondo economico
perennemente
affamato
e
che
non
esita
a
negare
le
capacità
degli individui
fino
a
eliminare,
in
nome
del
primato
della
produttività,
qualsiasi presenza
umana,
noi
contiamo
di
sostenere,
attraverso
i
nostri
acquisti, sperimentazioni
imprenditoriali
volte
a
garantire
la
dignità
e
la
salute
di tutti,
a
favorire
la
convivialità
e
a
preservare
l’integrità
dell’ambiente
e
dei paesaggi
del
mondo. Far
fallire
questo
assalto
antiumanista
è
possibile,
attraverso
una
miriade di
gesti
concreti,
costanti
e
cumulativi,
a
tutti
i
livelli
della
vita
individuale
e collettiva.
Gli
sproloqui
di
chi
dice
che
questa
traiettoria
è
inevitabile dipendono
dall’ideologia,
perché
non
è
mai
successo
che
un
movimento
che
violi
la
libertà
umana
si
sviluppasse
senza
essere
prima
o
poi
investito
da venti
contrari.
E
dato
che
qualsiasi
risoluzione,
anche
la
più
determinata, rimane
relativa
e,
tutto
sommato,
abbastanza
triste
se
procede
in
modo
solo negativo,
intendiamo
affermare
il
potere
della
nostra
positività,
dare
prova della
nostra
capacità
di
far
nascere
altri
modi
di
vita
e
di
stare
insieme
che siano
plurali,
creativi
e
gioiosi,
perché
è
esattamente
da
questa
duplice tensione
che
traiamo
la
nostra
forza,
e
soprattutto
i
motivi
della
nostra speranza.
5.4
IL
CANTO
DELLE
DIVERGENZE Non
mancano
casi
di
figure
storiche
che,
ispirate
da
una
visione
o
da
lavori teorici
più
o
meno
elaborati,
sono
arrivate
a
proporre
modelli
di organizzazione
politica
capaci
di
risolvere
tutte
le
contraddizioni,
considerati perfetti
e
validi
per
tutti.
Generalmente
queste
costruzioni
sono
rimaste ferme
allo
stadio
intenzionale
o
sono
diventate
oggetto
di
dibattiti.
Più raramente
hanno
ingenerato
azioni
destinate
a
dar
loro
corpo.
Sappiamo bene
che
quando
è
accaduto
che
gruppi
di
persone
si
sono
dotate,
nei
fatti, degli
strumenti
per
realizzarle,
i
risultati
non
solo
non
hanno
corrisposto
alle aspettative,
ma
hanno
portato
a
una
serie
di
situazioni
disastrose. Cionondimeno
queste
posizioni
continuano
a
manifestarsi,
come
se
la
storia non
insegnasse
nulla
e
come
se
dalla
mente
di
un
unico
individuo
potesse giungere
la
verità
circa
il
modo
migliore
di
vivere
insieme.
In
realtà
non appena
un
soggetto
ha
la
presunzione,
la
tracotanza
–
la
follia,
dovremmo dire
–
di
proporre
alla
comunità
umana
un
modo
di
vivere
universalmente valido,
bisognerebbe
che
qualcuno
gli
facesse
presente
che
sta
oltrepassando quelli
che
sono
i
suoi
diritti
e
lo
allontanasse.
Al
giorno
d’oggi,
la
lista
dei profeti
che
sperano
di
vedere
applicata
la
loro
tesi
sull’intera
faccia
della Terra
si
è
di
molto
ristretta,
soprattutto
se
consideriamo
la
proliferazione
che invece
ce
n’è
stata
nei
due
secoli
che
ci
precedono;
qualche
esemplare
in circolazione,
però,
resta
sempre;
alcuni
hanno
persino
un’eco
presso
il pubblico
e
la
stampa,
ed
è
proprio
lì
che
andrebbero
semplicemente
ignorati o
messi
in
ridicolo.
Il
caso
più
emblematico
–
e
più
caricaturale
–
è
senza ombra
di
dubbio
quello
di
Alain
Badiou
il
quale,
conformemente
alla
figura
a dir
poco
obsoleta
dell’intellettuale
che
dal
suo
ufficio
riparato
e
nella
totale rimozione
degli
eventi
passati
dà
in
pasto
al
suo
gregge
soluzioni preconfezionate,
continua
imperterrito
a
ripetere
che
il
comunismo,
“quello vero”
e
non
quello
“imborghesito”,
rappresenta
l’unico
e
irrinunciabile orizzonte
dell’umanità.
Se
queste
visioni
unilaterali
e
totalizzanti
raccolgono
un
certo
consenso
è perché
rispondono
alla
nostra
percezione
dominante
delle
cose,
quella
che,
a dispetto
dell’abbondanza
conclamata
delle
soggettività,
presuppone
che l’esistenza
di
un
modello
esclusivo
sia
la
chiave
per
regolamentare
le questioni
comuni,
che
la
pluralità
di
vedute
dia
luogo
soltanto
al
disordine
e che
la
modalità
considerata
superiore
alla
fine
debba
trionfare
su
tutte
le altre.
Questa
concezione
viene
dalle
profondità
della
nostra
psiche,
dalla nostra
paura
del
reale,
che
ci
spinge
a
rimetterci
a
un
ordine
trascendente,
a un
Dio
monoteista
o
a
un
modello
ideale
di
carattere
platonico,
per
esempio. È
il
risultato,
in
un
senso
o
nell’altro,
della
nostra
volontà
di
trovare
il
modo migliore
per
difenderci
dalle
incognite
dell’esistenza.
La
ricerca
di
una soluzione
idonea
e
duratura
sarebbe
in
fin
dei
conti
una
questione
di
vita
o
di morte.
La
nostra
sfortuna
consiste
nell’aver
ceduto
alle
nostre
angosce
e
a questa
pigrizia
di
pensiero;
consiste
nell’aver
optato
per
uno
schema preminente,
quello
che
apre
la
porta
a
tutte
le
forme
di
dominazione,
di irreggimentazione,
che
limita
le
capacità
degli
individui,
paralizza
il
loro desiderio
di
imboccare
strade
divergenti,
portandoli
inevitabilmente all’abbattimento.
Perché
qualsiasi
vita
che
si
rassegni
a
sottomettersi passivamente
a
un
modello
maggioritario
è
condannata
alla
tristezza. Quello
che
caratterizza
il
modello
tecnoliberista
è
il
fatto
di
imporsi
con forza,
di
soffocare
a
poco
a
poco
qualsiasi
alternativa,
di
plasmare
sempre più
in
profondità
i
nostri
modi
di
vivere,
ma
senza
dare
nell’occhio,
abile
nel giocare
con
il
fascino
dell’estrema
individualizzazione dell’accompagnamento
delle
condotte
pur
nascendo
da
logiche
uniformi. Tuttavia,
di
fronte
a
questa
egemonia,
sarebbe
un
errore,
così
come affermato
da
Gramsci,
cercare
di
opporre
un’altra
egemonia,
una
controegemonia.
Sarebbe
meglio,
piuttosto,
esprimere
senza
riserve
la
nostra pluralità,
tentare
di
istituire
una
moltitudine
di
schemi,
perché
più
questi saranno
numerosi,
meno
sarà
in
vigore
la
preponderanza
di
un
ordine. Difendere
la
molteplicità
non
significa
optare
per
il
relativismo,
ma
farla valere
sulla
base
di
una
comunità
di
principi
dai
quali
può
fiorire
un’infinità di
stili
di
vita.
Tuttavia,
la
pluralità
non
dipende
da
una
condizione
data
né da
un
vago
desiderio,
ma
dalla
volontà
di
andare
incontro
alle
cose
e
alla vita,
di
osare
intraprendere
delle
azioni
allo
scopo
di
staccarsi
da
norme
e abitudini
giudicate
nocive,
di
incamminarci
in
sentieri
inesplorati
che sentiamo
potrebbero
portarci
a
situazioni
benefiche
tanto
per
noi
quanto
per gli
altri.
Insomma,
esige
da
noi
convinzioni
e
un
fermo
desiderio
di sperimentare.
Perché
la
sperimentazione
permette
di
manifestare
nei
fatti
una
distanza dalle
regole
che
ci
vengono
imposte,
cercando
di
mettere
in
opera,
in tantissime
forme
e
a
vari
livelli,
modi
diversi
di
portare
avanti
i
nostri
destini individuali
e
collettivi.
Certo
l’impresa
ha
la
sua
buona
dose
di
rischi,
come per
esempio
quello
di
uscire
dalla
propria
zona
di
comfort
o
di
perdere
la propria
posizione
professionale,
ma
è
guidata
dal
bisogno
di
non sottometterci
più
a
un
ordine
che
giudichiamo
illegittimo
o
inadatto
a
noi.
Fa allora
da
atto
politico
fondatore
che
deriva
da
un
doppio
movimento:
rifiuto di
una
data
situazione
e
tensione
verso
un’altra
che
pensiamo
essere
giusta ma
di
cui
ignoriamo
la
validità.
Essa
riflette
il
nostro
rapporto
con
il
mondo, fatto
di
preoccupazioni,
diffidenza,
ricerca,
voglia
di
rivendicare
la
nostra libertà
e
la
nostra
possibilità
di
sbagliarci.
E
se
ognuno
di
noi
scegliesse
di sperimentare,
di
occuparsi
della
propria
esistenza
e
di
dare
forma
alle aspirazioni
custodite
in
fondo
al
suo
cuore,
allora
emergerebbero
un’infinità di
proposte
che
allontanerebbero
qualsiasi
modello
dominante
e svelerebbero
l’effervescenza
della
vita,
fatta
di
imprevisti
e
incroci
indefiniti di
forze
di
varia
natura. Se
esiste
un
settore
nel
quale
gli
schemi
in
vigore
sono
sempre
più uniformi,
questo
settore
è
proprio
quello
del
lavoro.
Lo
stesso
che,
dalla rivoluzione
industriale,
ha
visto
la
generalizzazione
di
processi standardizzati
di
produzione,
il
fordismo
e
l’instaurazione
di
modalità
di gestione
che
derivavano
da
queste
stesse
logiche,
che
facevano
appello
alla mobilitazione
continua,
ergevano
la
concorrenza
a
modello
di
emulazione
e usavano
l’insicurezza
e
la
precarietà
come
armi
con
cui
fare
pressione.
Se
è vero
che
è
un
dovere
analizzare
queste
modalità
che
schiacciano
i
corpi
e opprimono
le
menti,
comprenderne
gli
ingranaggi
e
denunciarne
abusi
e indegnità,
è
vero
anche
che
non
basta
lamentarsi
del
modello
liberista, conformemente
a
quel
riflesso
tipico
dell’epoca
che
ricorre
continuamente alla
lamentela
ma
di
fatto
non
fa
nulla
per
opporsi.
Decidere
di
attivarsi presuppone
prima
di
tutto
di
avere
coraggio,
coraggio
di
impegnarsi
in
una vita
che
“deve
essere
vissuta,
in
gran
parte,
in
termini
di
sforzi”
(George Orwell,
La
strada
di
Wigan
Pier),
coraggio
di
spezzare
le
catene
e
rischiare avventure
che
potrebbero
aprirci
cammini
di
libertà. Assumersi
questo
rischio
assomiglierà
meno
a
un
salto
nel
vuoto
e spaventerà
meno
se
verranno
istituiti
dei
dispositivi
destinati,
più
che
a sostenerlo,
a
favorirlo.
Perché
se
in
certi
Paesi
esistono
sistemi
mutualistici che,
in
caso
di
licenziamento,
garantiscono
un
aiuto
finanziario
per
un
certo periodo
di
tempo,
dovrebbero
essere
istituiti
anche
dei
sistemi
rivolti
a coloro
i
quali
desiderano
abbandonare
un
posto
di
lavoro
che
non
li
soddisfa
per
impegnarsi
in
un
progetto
–
possibilmente
non
l’ennesima
impresa
o start
up
che
riproduca
il
modello
dominante
–
che
cerchi
di
sperimentare nuove
modalità
organizzative
e
produttive.
La
definizione
dei
criteri
si rivelerebbe
decisiva,
dovrebbe
poggiare
su
una
base
rispettosa
del
diritto fondamentale
delle
persone,
incoraggiando
la
parte
creativa
di
ognuno
e tenendo
conto
dell’ambiente.
Un
progetto
di
società
ben
diverso
da
quello che
punta
a
trasformarci
tutti
in
pittori
della
domenica
o
in
amatori
della pesca
con
la
lenza,
grazie
al
reddito
universale
di
base
–
nuovo
dogma dell’epoca
potentemente
sostenuto
dall’industria
del
digitale
–
che
non
fa che
convalidare
l’eliminazione
progressiva
delle
persone
dai
luoghi
di
lavoro lasciando
mano
libera
all’incessante
espansione
tecnoliberista. È
un’eresia
pensare
che
il
lavoro
sia
in
sé
e
per
sé
una
maledizione;
è
ciò che
è
diventato
a
essere
una
maledizione.
Invece
di
cercare
di
bandirlo
dalle nostre
vite
conformemente
all’antifona
secondo
cui
“la
macchina
è
il redentore
dell’umanità,
il
Dio
che
riscatterà
l’uomo
dalle
sordidae
artes
e
dal lavoro
salariato,
il
Dio
che
gli
farà
dono
dell’ozio
e
della
libertà”
(Paul Lafargue,
Il
diritto
all’ozio),
dobbiamo
sforzarci
di
modificarne
la
natura,
le condizioni,
perché
può
contribuire
alla
pienezza
e
alla
creatività
delle persone.
Possiamo
realizzare
noi
stessi
svolgendo
certi
compiti,
quelli
che
ci permettono
di
esprimere
le
nostre
capacità,
di
ampliare
le
nostre competenze
e
di
perfezionare
le
nostre
qualità.
Visti
gli
improvvisi cambiamenti
in
atto,
sarebbe
bene
confrontarsi
con
queste
sfide
senza cedere
alla
facilità
social-libertariana,
quella
che
per
esempio
fa
dire pigramente
e
grottescamente
a
Benoît
Hamon,
candidato
“socialista”
alle elezioni
presidenziali
francesi
del
2017:
“Il
reddito
universale
rappresenta
il diritto
di
scegliere
autonomamente
cosa
fare
della
propria
vita”.32
Di
fronte a
queste
questioni
di
importanza
decisiva
non
possiamo
accontentarci
di soluzioni
immediate
e
sbrigative
che
mirano
a
“tassare
i
robot”
e
ad abbandonare
l’esigenza
di
costruirci
nell’acquisizione
di
competenze
e
nella pratica
di
un
mestiere. Invece
di
batterci
in
favore
di
un
reddito
di
base
degradante
e
che
non farebbe
altro
che
condurre
all’ignominia
di
una
società
degli
svaghi
perenne, faremmo
meglio
a
sostenere
tutte
quelle
iniziative
che
intendono riappacificarci
con
il
piacere
del
lavoro,
favorire
l’espressione
del
talento, instaurare
uno
spirito
di
convivialità
e
aiuto
reciproco
in
grado
di
generare legami
di
comunità
tra
pari,
in
netta
contrapposizione
con
quella
tendenza, quanto
mai
attuale,
alla
concorrenza
continua,
all’imposizione
di
strutture gerarchiche
vane
e
incoerenti
e
all’assoggettamento
a
capi
innamorati
del potere.
A
queste
condizioni
avremmo
la
speranza
di
vedere
instaurarsi
una
“république
dans
l’atelier”,
per
utilizzare
un’espressione
di
Henri
Feugueray, autore
de
L’association
ouvrière,
industrielle
et
agricole
(1851).33
Queste iniziative,
fondate
sul
principio
della
cooperazione,
sono
strutturalmente contrarie
a
qualsiasi
modello
unico;
esse
si
ispirano,
anzi,
a
principi
comuni, tra
i
quali
quello
di
privilegiare
prima
di
tutto
la
qualità
del
lavoro
– l’estrema
qualità
del
lavoro
–,
quella
per
cui
ci
facciamo
in
quattro
e
che
poi sottoponiamo
all’apprezzamento
altrui.
Quella
a
cui
si
dedica
in
particolare l’artigiano,
e
che
lo
rende
orgoglioso.
L’artigiano
che,
come
ricorda
William Morris,
conosce
tutte
le
tappe
della
fabbricazione,
che
può
affermare
che l’oggetto
che
crea
è
“la
sua
opera”
e
che
non
viene
privato
dei
suoi
poteri, all’opposto
invece
di
tutti
quei
processi
di
impersonalizzazione
in
vigore
oggi per
colpa
di
modalità
di
gestione
che
frazionano
i
compiti. Altro
che
i
fab
lab
e
gli
hackerspace;
altro
che
la
“filosofia
del
fare”
tanto decantata
da
certi
sociologi
che
si
meravigliano
davanti
all’incredibile movimento
di
emancipazione
che
permette
agli
individui
di
trasformarsi
in tuttofare
liberi
dal
giogo
del
capitalismo
e
capaci
di
dare
forma
a
qualsiasi tipo
di
oggetto
grazie
a
una
stampante
3D,
conformemente
all’ideologia hacker
felice
dell’avvento
di
un
“modello
alternativo”
fondato
sulla
farsa
di uno
spirito
“di
squadra”
che
in
realtà
punta
soltanto
a
soddisfare
gli
interessi individuali.
Altro
che
“economia
circolare”,
“economia
solidale”
o
“economia del
bene
comune”,
di
cui
il
discutibile
“premio
Nobel”
per
l’economia
Jean Tirole
–
che
si
meriterebbe
piuttosto
il
premio
della
doxa
e
della
neolingua social-tecnoliberista
–
si
fa
cantore.
Riciclare,
comprare
un
passeggino
di seconda
mano,
puntare
tutto
sul
“chilometro
zero”…
non
sono
queste
le
cose che
fanno
la
differenza.
Quello
che
conta
davvero
è
la
volontà
decisa
e risoluta
di
creare
forme
di
lavoro
dignitose
e
creative.
Questo
è
il
più
grande progetto
politico,
etico
e
civilizzazionale
che
si
possa
concepire. Tuttavia
questa
risoluzione
presuppone
di
non
superare
una
certa
scala. Tornano
alla
mente
le
parole
dell’ebanista
austriaco
nel
film-documentario Nessun
uomo
è
un’isola:34
l’uomo
–
mentre
si
trova
in
mezzo
al
bosco
a
cui è
affezionato,
loda
le
virtù
di
quella
natura
incontaminata,
evoca
con
amore gli
alberi
che
lo
nutrono
e
di
cui
si
vanta
di
rispettare
i
cicli
di
vita
–
afferma che,
vista
la
qualità
dei
prodotti
fabbricati,
la
sua
struttura
non
ha
smesso
di ingrandirsi,
ma
che
non
vuole
superare
il
limite
delle
dieci
persone
per
non snaturare
lo
spirito
che
l’ha
ispirato
sin
dall’inizio.
Perché
la
questione
della scala
riveste
una
portata
etica
e
politica
fondamentale,
determina
la
forma
di una
società
e,
più
ancora,
di
una
civiltà,
conformemente
a
quello
che
aveva già
sottolineato
a
suo
tempo
Ernst
Friedrich
Schumacher
nel
suo
libro
dal
titolo-manifesto
Piccolo
è
bello:
“Qual
è
la
giusta
proporzione?
Dipende
da ciò
che
vogliamo
fare.
La
questione
della
scala
è
assolutamente fondamentale
oggi,
negli
affari
politici,
economici
e
sociali,
come
in
ogni altra
cosa”.35
Per
tentare
di
rispondere
a
questa
esigenza
è
bene
rimettere
in discussione
le
norme
pedagogiche
che,
dal
dopoguerra,
hanno progressivamente
denigrato
le
discipline
umanistiche
e
l’apprendimento delle
pratiche
a
vantaggio
della
matematica
e
di
un
insegnamento
astratto
e utilitaristico.
E
oggi,
come
è
normale
che
sia,
ci
ritroviamo
a
pagarne
il prezzo.
Sta
a
noi
cercare
di
invertire,
senza
ulteriori
indugi,
questa
tendenza. Dobbiamo
rivedere
la
nostra
idea
del
sociale
che
non
deve
più
essere considerato
unicamente
dal
punto
di
vista
dei
vantaggi
che
dà, dell’adeguamento
salariale
o
delle
condizioni
di
lavoro,
ma
anche
in
quanto rivendicazione
legittima
di
beneficiare
della
possibilità
di
esprimere
al meglio
le
proprie
capacità
durante
lo
svolgimento
delle
proprie
mansioni. La
volontà
di
sperimentare
–
che
può
essere
considerata
un
bisogno
vitale
e un
dovere
morale
–
deve
sconfinare
dal
solo
ambito
del
lavoro
e
manifestarsi anche
in
altri
settori
della
società.
Nella
scuola
pubblica,
ad
esempio,
dove chiunque
ne
abbia
il
desiderio
e
la
capacità
dovrebbe
cercare
di
dare
vita
a piccole
strutture
qualificate
per
dispensare
un
insegnamento
fondato
sulla fame
di
sapere,
sul
gusto
per
i
libri
e
per
la
lettura,
sullo
sviluppo
della creatività
e
sull’apprendimento
di
attività
manuali
che
favoriscano
un rapporto
sensibile
con
le
cose
e
ci
riportino
ai
nostri
grandi
principi
fondanti. O
nella
sanità,
dove
medici
e
infermieri
potrebbero
riunirsi
in
collettivi
per difendere
una
diversa
filosofia
delle
cure,
al
riparo
dagli
assalti
dell’industria dei
dati
e
dall’onnipresenza
annunciata
dell’intelligenza
artificiale.
O
nelle case
di
riposo,
dove
a
prevalere
sarebbe
l’attenzione
totale
nei
confronti
del paziente
e
dove
gli
unici
robot
“da
compagnia”
ammessi
sarebbero
quelli
nati dalla
fantasia
dei
nipotini
che,
dopo
averli
disegnati,
li
appenderebbero
alle pareti,
per
esempio.
Ognuno
di
noi
dovrebbe
poter
elaborare
dei
progetti alternativi
considerati
virtuosi
per
la
comunità
e
beneficiare,
in
tal
senso,
del sostegno
della
collettività.
In
questo
modo
saremo
in
grado,
ovunque saremo,
di
lavorare
all’instaurazione
di
un
regime
democratico
altro,
non
più fondato
sul
primato
della
scheda
elettorale,
ma
sul
diritto
–
e
il
dovere
–
di sperimentare
e
costruire
zone
da
difendere
di
varia
natura,
fino
a
mettere
in atto
la
giurisprudenza
quando
lo
riteniamo
necessario,
guidati
dalla convinzione
che
“il
moto
dei
popoli”
è
il
risultato
dell’attività
di
“tutti,
senza esclusione,
gli
uomini
che
hanno
partecipato
a
un
dato
avvenimento”36 (Tolstoj).
Quello
di
cui
abbiamo
bisogno
non
sono
tanto
dei
“beni
comuni”
fondati
sul godimento
–
e
vantati
ogni
due
per
tre
da
una
certa
confusa
ideologia dell’epoca
–
ma
di
modi
di
stare
in
comune,
che
rifuggano
qualsiasi
struttura asimmetrica
di
potere,
favoriscano
la
realizzazione
di
ciascuno
e
rispettino
il principio
inalienabile
della
nostra
pluralità.
Come
definire
l’umanesimo
che dovremmo
difendere?
Non
come
quello
che
ambisce
a
fornirci
un
potere illimitato
sulle
cose,
derivato
da
un
antropocentrismo
dominatore
e devastatore;
ma
come
quello
che
ci
ordina
di
coltivare
le
nostre
capacità,
le sole
in
grado
di
renderci
pienamente
padroni
del
nostro
destino,
di
favorire lo
schiudersi
di
un’infinità
di
possibili,
senza
usurpare
i
diritti
di
nessuno
e dando
voce
al
canto
polifonico
e
ininterrotto
delle
divergenze. Forse
fare
della
propria
vita
un’opera
d’arte
–
individualmente
e collettivamente
–
significa
questo:
cercare
di
liberarci
dalle
norme
e
dalle costrizioni
che
ci
paralizzano
grazie
all’esercizio
continuo
del
nostro
potere creativo
–
considerato
da
Bergson
come
quello
che
condiziona
alla
base l’espressione
della
nostra
libertà
–,
quello
che
testimonia
lo
“slancio
vitale” di
un
mondo
che
“si
inventa
senza
sosta”
e
che,
grazie
a
questa
fiamma,
non subisce
più
gli
avvenimenti
in
maniera
passiva,
rassegnata
e
triste:
“ovunque c’è
gioia,
c’è
creazione;
più
ricca
è
la
creazione,
più
profonda
è
la
gioia”.37 Perché
collocare
il
nostro
rapporto
con
gli
altri
e
con
il
reale
sotto
il
vincolo dell’inventiva
significa
tracciare
passo
dopo
passo
il
nostro
sentiero
e contribuire,
ognuno
secondo
le
proprie
possibilità,
all’opera
comune,
senza frustrazione,
risentimento
o
invidia,
perché
mossi
da
tutte
le
facoltà
del nostro
corpo
e
della
nostra
mente
e
dal
nostro
amore
sconfinato
nei confronti
della
vita.
1.
Nicholas
Carr,
Internet
ci
rende
stupidi?
Come
la
rete
sta
cambiando
il
nostro
cervello,
trad.
it.
di Stefania
Garassini,
Raffaello
Cortina,
Milano
2011. 2.
Benjamin
Constant,
Principi
di
politica
(1815),
trad.
it.
di
Umberto
Cerroni,
Editori
Riuniti,
Roma 1970,
p.
55. 3.
Louis
Delatronchette,
“L’Assemblée
inscrit
la
protection
des
données
personnelles
dans
la Constitution”,
Le
Figaro,
30
luglio
2018. 4.
Claire
Legros,
“À
Marseille,
un
algorithme
pour
‘anticiper
la
sécurité’”,
Le
Monde,
4
febbraio
2018. 5.
https://www.laquadrature.net/en/. 6.
https://www.eff.org/. 7.
Cornelius
Castoriadis,
Domaines
de
l’homme.
Les
Carrefours
du
labyrinthe,
Seuil,
Parigi
1986,
p. 319. 8.
IEEE
Standards
Association,
https://standards.ieee.org/industryconnections/ec/autonomous_systems.html. 9.
Lionel
Provost,
“Le
paysage
des
interfaces
homme-machine
que
nous
connaissons
va
profondément changer”,
Le
Monde,
10
maggio
2017. 10.
Alexandre
Grothendieck,
“Comment
je
suis
devenu
militant”,
Survivre,
n.
6,
gennaio
1971,
pp.
910.
Céline
Pessis,
Survivre
et
Vivre.
Critique
de
la
science,
naissance
de
l’écologie,
Introduction, L’échappée,
Parigi
2014,
p.
35. 11.
Dominique
Dubarle,
“Vers
la
machine
à
gouverner
?”,
cit. 12.
Eli
Pariser,
Il
filtro.
Quello
che
internet
ci
nasconde,
trad.
it.
di
Bruna
Tortorella,
il
Saggiatore, Milano
2012. 13.
Bruno
Latour,
Steve
Woolgar,
Laboratory
Life:
The
Social
Construction
of
Scientific
Facts,
Sage Publications,
Beverly
Hills
e
London
1979. 14.
Lawrence
Lessig,
Cultura
libera,
trad.
it.
di
Bernardo
Parrella,
Apogeo,
Milano
2005. 15.
“‘I
Was
Devastated’:
Tim
Berners-Lee,
The
Man
Who
Created
The
World
Wide
Web,
Has
Some Regrets”,
Katrina
Brooker,
Vanity
Fair,
1
luglio
2018. 16.
Hans
Jonas,
Il
principio
responsabilità.
Un’etica
per
la
civiltà
tecnologica,
a
cura
di
Pier
Paolo Portinaro,
Einaudi,
Torino
2009
(I
ed.
1990),
p.
XXVII. 17.
Andreas
Malm,
L’Anthropocène
contre
l’histoire.
Le
réchauffement
climatique
à
l’ère
du
capital, La
Fabrique,
Parigi
2017. 18.
Simone
Weil,
La
prima
radice,
trad.
it.
di
Franco
Fortini,
Edizioni
di
Comunità,
Milano
1954,
p. 58. 19.
François
Jullien,
Le
trasformazioni
silenziose,
trad.
it.
di
Mario
Porro,
Raffaello
Cortina,
Milano 2010. 20.
Comité
invisible,
Maintenant,
La
Fabrique,
Parigi
2017,
p.
13. 21.
Cfr.
Jürgen
Habermas,
Etica
del
discorso,
trad.
it.
di
Emilio
Agazzi,
Laterza,
Bari
1985. 22.
Comité
invisible,
Maintenant,
cit. 23.
Auguste
Blanqui,
Maintenant,
il
faut
des
armes,
La
Fabrique,
Parigi
2017. 24.
Ivan
Illich,
La
convivialità,
trad.
it.
di
Maurizio
Cucchi,
Red!,
Milano
2005
(I
ed.
1993),
p.
121. 25.
Michel
Foucault,
Il
filosofo
militante.
Archivio
Foucault
2.
Interventi,
colloqui,
interviste.
1971 1977,
trad.
it.
di
Agostino
Petrillo,
Feltrinelli,
Milano
1997,
p.
265. 26.
Cfr.
George
Orwell,
Politics
and
the
English
Language,
Horizon,
Londra
1946. 27.
Françoise
Rétif,
introduzione
a
Ingeborg
Bachmann,
Toute
personne
qui
tombe
a
des
ailes, Gallimard,
Parigi
2015,
pp.
37-38. 28.
Bulletin
de
la
République,
Giornale
ufficiale
del
governo
provvisorio,
decreto
del
28
febbraio
1848, pubblicato
in
data
1
marzo
1848,
citato
da
Michèle
Riot-Sarcey,
in
Le
procès
de
la
liberté.
Une
histoire souterraine
du
XIXème
siècle
en
France,
La
Découverte,
Parigi
2016,
p.
23. 29.
Ivan
Illich,
La
convivialità,
cit.,
pp.
29-30. 30.
Pascal
Lokiec,
Il
faut
sauver
le
droit
du
travail,
Odile
Jacob,
Parigi
2015. 31.
Hannah
Arendt,
Tra
passato
e
futuro,
cit.,
p.
250. 32.
“Le
travail
n’est
pas
une
valeur!”,
dialogo
tra
Benoît
Hamon
e
Pierre-Yves
Gomez,
moderato
da Martin
Legros
e
Samuel
Lacroix,
Philosophie
Magazine,
n.
108,
aprile
2017. 33.
Citato
da
Michèle
Riot-Sarcey,
in
Le
procès
de
la
liberté,
cit.,
p.
47. 34.
Nessun
uomo
è
un’isola,
documentario
di
Dominique
Marchais,
Zadig
Films,
Parigi
2017.
35.
Ernst
Friedrich
Schumacher,
Piccolo
è
bello.
Uno
studio
di
economia
come
se
la
gente
contasse qualcosa,
trad.
it.
di
Daniele
Doglio,
Mursia,
Milano
2011,
p.
71. 36.
Lev
Tolstoj,
Guerra
e
pace,
volume
secondo
(1869),
trad.
it.
di
Enrichetta
Carafa
d’Andria, Einaudi,
Torino
1942,
p.
1390. 37.
Henri
Bergson,
L’energia
spirituale,
trad.
it.
di
Giuseppe
Bianco,
Raffaello
Cortina
Editore,
Milano 2008,
p.
19.
EPILOGO
Io,
polpo
scettico
Siamo
così
vicini
eppure
così
lontani.
La
differenza
sostanziale
è
che
noi,
a differenza
vostra,
per
far
fronte
ai
rischi
della
vita,
ai
pericoli,
alle
malattie, alla
corruzione
non
mettiamo
a
punto
strumenti
per
tutelarci
e
difenderci, non
impugniamo
balestre
o
chissà
quali
armi,
non
alziamo
muri,
non costruiamo
case
di
pietra
né
fortezze,
non
ci
affidiamo
a
re
e
sistemi
politici per
garantirci
la
sicurezza
o
la
sopravvivenza.
Tutte
iniziative
che
vi
tengono più
o
meno
al
sicuro,
ma
che
spesso
vi
costringono
a
evolvere
all’interno
di contesti
limitati,
a
volte
persino
incatenandovi.
Nel
corso
dei
secoli
avete elaborato
molte
tecniche
a
tal
scopo.
Eppure,
nonostante
gli
sforzi
e
i successi,
la
vostra
vulnerabilità
persiste,
non
esiste
nessun
espediente
in grado
di
sradicarla
e
dalla
notte
dei
tempi,
e
fino
a
poco
tempo
fa,
vivete questa
condizione
come
una
fatalità.
Noi,
invece,
all’opposto
di
voi,
non intendiamo
fare
della
preoccupazione
per
i
rischi
della
vita
il
perno
di
tutte
le nostre
azioni:
preferiamo
piuttosto
sviluppare
delle
capacità
che,
di
volta
in volta,
sul
momento
e
nel
miglior
modo
possibile,
ci
aiutino
a
far
fronte
alle circostanze.
Ultimamente
ci
è
giunta
una
notizia:
corre
voce
che
voi
umani siate
stati
toccati
da
un
miracolo.
E
pare
che
non
sia
frutto
del
Cielo
o
di
una scoperta
avvenuta
per
caso,
ma
della
vostra
stessa
mente
e
della
vostra
stessa volontà.
Ad
ogni
modo,
qualcuno
dei
vostri
si
è
messo
di
buona
lena
e
si
è inventato
uno
scudo
definitivo
contro
ogni
vostro
dubbio,
che
ha
risolto
tutte le
vostre
contraddizioni,
preservandovi
dall’incertezza
e
dalle
disgrazie,
e presto
vi
condurrà
alla
beatitudine
eterna. Io
vengo
dall’oceano,
dai
fondali
sabbiosi.
Mi
chiamano
Virgilio,
in
onore
del vostro
principe
dei
poeti.
Voi
e
io
discendiamo
da
una
stessa
stirpe
che
poi, circa
650
milioni
di
anni
fa,
ha
preso
traiettorie
diverse:
durante
una
tappa decisiva
del
processo
evolutivo,
infatti,
i
miei
lontani
antenati
si
sono
rifiutati di
imboccare
la
vostra
stessa
strada;
non
gli
sorrideva
l’idea
di
vedersi costituiti
di
strutture
simmetriche,
ripartizioni
delimitate
e
forme
omogenee; avevano
la
sensazione
che
una
simile
ossatura,
intrisa
di
un’armonia
soltanto apparente,
avrebbe
limitato
l’orizzonte
della
loro
esperienza,
del
loro rapporto
con
gli
elementi,
con
i
loro
simili
e
con
le
altre
specie.
Perciò
hanno preferito
chiedere
alla
natura
di
dotarci
di
corpi
proteiformi,
di conformazioni
malleabili,
di
arti
rigogliosi,
di
organi
che
ignorano
le frontiere.
Con
questo
non
vogliamo
certo
asserire
che
la
nostra
posizione
è
migliore
della
vostra:
anche
voi,
a
partire
dalla
vostra
costituzione
singolare, siete
in
contatto
con
molte
ricchezze
del
mondo.
È
solo
che
le
percepite
da angolature
differenti,
ne
provate
le
gioie
dal
vostro
punto
di
vista,
e
questo
fa parte
della
sconfinata
varietà
dell’universo. Ma
allora
–
mi
chiedo
–
cosa
vi
è
successo?
Io
e
i
miei
simili
non smettiamo
di
chiedercelo.
Per
quale
ragione
vi
siete
messi
a
fare
come Amleto,
avete
preso
in
mano
un
cranio
e
avete
iniziato
a
rimuginare
sulla vostra
tragica
condizione?
Come
siete
arrivati
a
convincervi
del
fatto
che riproducendo
quell’oggetto
–
quella
parte
di
voi,
la
stessa
che
secondo
voi
vi rende
capaci
di
tanti
prodigi,
di
imprevedibili
equazioni,
di
opere
fantasiose, di
sonate
emozionanti,
insomma,
di
tutto
quel
genio
che
a
vostro
parere
fa
la differenza
tra
voi
e
qualsiasi
altra
creatura
–
e
attribuendogli
una
potenza infinitamente
superiore
avreste
ottenuto
la
panacea
a
tutte
le
vostre difficoltà?
Questa
passione
per
voi
stessi
vi
avrebbe
condotto
a
trovare dentro
di
voi
il
rimedio
definitivo
ai
vostri
tormenti
immemori. Ci
tenevo
a
parlarvi,
e
sappiate
che
lo
faccio
anche
a
nome
dei
miei.
Avrei potuto
scegliere
di
starmene
coricato
su
un
letto
di
alghe
scure,
di
vagare
in mezzo
a
polpi
luminescenti
o
di
amoreggiare
con
qualcuna
delle
mie pretendenti;
e
invece
scelgo
di
ascoltare
la
voce
che
mi
ordina
di
parlare
con voi
in
nome
della
nostra
origine
comune.
Prendete
le
mie
parole
come
un consiglio.
Fatene
quel
che
volete,
del
resto
voi
siete
quelli
della
libertà eternamente
rivendicata;
ma
io
non
potevo
non
parlarvi.
Siete
sicuri
che
i mezzi
che
avete
adottato
per
salvarvi
dai
vostri
mali
e
dalle
vostre
angosce
– e
penso
a
tutti
quei
dispositivi
ai
quali
concedete
così
tante
prerogative
e
così tanto
potere
–
non
contribuiranno,
invece,
al
deperimento
delle
vostre capacità
mentali,
all’impoverimento
delle
vostre
facoltà
sensibili,
a
una pigrizia
generale?
È
un
peccato,
siete
creature
della
natura
e
in
quanto
tali potreste
dare
prova
di
maggiore
ingegnosità
e
inventiva,
di
essere
capaci
di più
grandi
prodezze.
Siete
certi
che
non
esistano
altri
modi
per
vivere
meglio che
non
siano
ispirarsi
a
modelli
piegati
alla
vostra
costituzione?
Non
trovate che
questo
progetto
manchi
di
respiro
e
di
audacia
–
quella
stessa
audacia che
invece
vi
caratterizza?
Non
lo
sapete
che
voler
superare
sé
stessi
per sottrarsi
alle
proprie
imperfezioni,
impuntarsi,
come
certi
eroi
antichi attratti
dalla
dismisura,
a
voler
uguagliare
gli
dèi,
equivale
scavarsi
la
fossa da
soli?
Avete
letto
Sofocle
e
la
tragedia
greca
–
peraltro
li
abbiamo
letti anche
noi,
perché
siamo
molto
incuriositi
dalle
vostre
opere
e
cerchiamo
di imparare
da
tutto:
lo
sapete
che
non
c’è
modo
di
sfuggire
al
destino.
Non credete
che
forse,
visto
lo
stato
così
sofisticato
della
vostra
scienza,
avreste fatto
meglio
a
cercare
di
staccarvi
da
certi
schemi
e
adottare
disposizioni
nuove
che
avrebbero
generato
pensieri
inediti,
vi
avrebbero
fatto
provare sensazioni
sconosciute,
vi
avrebbero
aperto
a
un
nugolo
di
dimensioni inimmaginabili?
Non
avete
mai
pensato
che
invece
di
farvi
divorare
dalla strana
ambizione
di
sviluppare
un’“intelligenza
artificiale”,
avreste
potuto concepire
un’“intelligenza
extraterrestre”
o
subacquea,
per
esempio? In
questo
modo
anche
voi,
come
noi
cefalopodi,
potreste
percepire
i
colori oltre
che
con
gli
occhi
anche
con
la
pelle,
grazie
ai
cromatofori
presenti
nello strato
superiore;
e
la
vostra
impressione
delle
cose
ne
avrebbe
guadagnato
in profondità
e
in
rilievo.
Addirittura
potreste
essere
ornati
di
tinte
che
variano in
funzione
dei
fiori,
dei
frutti,
degli
animali,
di
tutti
gli
oggetti
che
sfiorate,
e con
il
vostro
aspetto
caleidoscopico
sareste
la
testimonianza
del
mosaico
del mondo.
Oppure,
in
caso
di
inutili
attacchi,
invece
di
combattere,
potreste optare
per
la
mimetizzazione,
confondendovi
nell’ambiente
e
godere
di
ogni circostanza
del
presente.
Lo
sapete?
E
non
avreste
più
un
solo
cuore,
ma
tre, che
è
la
quantità
perfetta;
grazie
al
sapere
che
ci
contraddistingue,
abbiamo capito
subito
infatti
che
due
attributi
del
sentimento
generano
passioni contrastanti
difficili
da
sopportare,
mentre
un
numero
troppo
ampio
ci
fa uscire
di
testa.
Ragion
per
cui
abbiamo
implorato
la
provvidenza
di
dotarci di
una
composizione
ternaria,
l’unica
in
grado
di
garantirci
una
perfetta attenzione
a
tutti
gli
oggetti
del
nostro
affetto,
evitandoci
così
di
versare
in un
romanticismo
eccessivo
e,
quasi
certamente,
distruttivo.
Vi
lascereste andare
a
esperienze
amorose
di
ogni
tipo,
non
esclusive,
senza
mai pregiudicare
la
dignità
di
nessuno,
né
provare
senso
di
colpa
o
gelosia. A
seconda
delle
vostre
voglie
o
delle
vostre
necessità,
sareste
provvisti
di
una costituzione
apparentemente
priva
di
una
forma
definita,
senza
articolazioni e
angoli
naturali,
che
vi
garantirebbe
il
massimo
della
flessibilità;
ognuno
di voi
potrebbe
trasformarsi
in
Nadia
Comaneci,
la
ginnasta
rumena
che
nel 1976,
per
la
prima
volta
nella
storia,
ottenne
il
massimo
punteggio
ai
Giochi olimpici
di
Montréal
per
quanto
il
suo
corpo
sembrava
non
incontrare alcuna
resistenza,
elastico
e
snodato
come
quello
di
un
mollusco.
Potreste ripiegarvi
su
voi
stessi,
prendere
la
forma
di
una
palla
compatta,
riuscire
a entrare
in
un
carrello
della
spesa
o
viaggiare
comodamente
nel
baule
di
una macchina,
per
esempio.
Avreste
otto
braccia
attorno
alla
bocca
che
vi permetterebbero
di
sperimentare,
in
contemporanea,
un’infinita
di combinazioni
culinarie
personalizzate,
e
i
vostri
chef
stellati
finirebbero relegati
al
rango
di
studentelli
diligenti.
E
voi
che
siete
così
affezionati
ai vostri
neuroni
e
alle
vostre
sinapsi,
tanto
da
volerli
riprodurre
a
miliardi
su chip
in
silicio
allo
scopo
di
ottimizzare
ogni
congiuntura
conformemente
a
una
gretta
mira
connessionistica,
rimarreste
soddisfatti,
non
solo
all’interno del
vostro
cervello,
ma
anche
nella
parte
superiore
del
tubo
digerente
e
nelle braccia.
Comprendereste
il
reale
lontano
da
inoperanti
categorie
binarie
nate dalla
separazione
di
corpo
e
mente;
vedreste
le
vostre
capacità
sensibili
e concettuali
evolvere
di
concerto
e
vi
aprireste
con
gioia
a
tutti
gli
spessori della
vita. Per
tornare
a
un
punto
non
prendereste
mai
la
stessa
strada
che
avete
già percorso
all’andata,
e
in
ognuna
delle
vostre
evasioni
scoprireste
territori nuovi.
La
reattività,
l’adattabilità
e
la
flessibilità,
da
voi
tanto
decantate,
non sarebbero
più
delle
attitudini
che
imponete
a
voi
stessi
per
ottimizzare
tutto, ma
predisposizioni
naturali
che
vi
consentirebbero
di
essere
liberi,
di allontanarvi
senza
indugi
da
tutte
quelle
situazioni
che
vi
urtano
e
di
vibrare in
piena
armonia
con
gli
elementi
del
cosmo.
Potreste
avere
tutte
queste
cose e
molte
altre
ancora
che
io
per
primo
ignoro,
visto
che
tutte
queste disposizioni
verrebbero
ad
aggiungersi
alle
qualità
di
cui
siete
già
in possesso;
restereste
umani
ma
con
una
certa
tendenza,
a
seconda
dei
vostri capricci
o
delle
circostanze,
a
diventare
dei
polpi.
Sarebbe
una
bellissima occasione
per
scambiare
le
vostre
angosce
e
la
vostra
meschina
passione
per il
potere
con
le
gioie
della
scoperta,
con
il
desiderio
dell’ignoto,
con
la curiosità
dell’altrove,
trovandovi
così
nella
condizione
di
rispondere
senza riserve
all’esortazione
di
Victor
Hugo
di
“andare
al
largo”.
E
allora
forse evolvereste,
non
tanto
in
una
società
pacificata,
quanto
in
un
mondo
nel quale
potersi
aggirare
senza
continuamente
cercare
di
tutelarsi,
di
superare gli
altri
e
di
tesaurizzare. Sono
qui
di
fronte
a
voi,
noi
vi
vogliamo
bene
e
parliamo
spesso
di
voi;
siete quelli
che
vengono
sempre
a
trovarci
per
osservarci
o
capirci
meglio,
a
volte anche
per
catturarci
e
sbatterci
sulla
griglia
o
in
padella
col
pomodoro.
Ma non
ce
l’abbiamo
con
voi.
Sì,
forse
non
è
troppo
tardi.
Siete
ancora
in
tempo per
abbandonare
il
miraggio
di
una
replica
onnipotente
di
voi
stessi
e tornare,
dopo
centinaia
di
milioni
di
anni,
a
delle
dimensioni
che
vi libererebbero
dalle
vostre
catene
e
vi
permetterebbero
di
realizzarvi
in quanto
esseri
costituiti
da
molteplici
intelligenze.
Un
mito
hawaiano,
per l’appunto,
considera
il
sottoscritto
–
il
polpo,
dunque
–
il
“superstite solitario”
di
un
mondo
anteriore.
Posso
dirvi
una
cosa?
Questo
“mondo anteriore”
è
meraviglioso,
non
tanto
per
via
dei
fondali
marini,
quanto
per
la sua
ostinazione
a
non
perdere
mai
di
vista
quel
primo
respiro
di
vita
di
cui noi
continuiamo
a
essere
i
garanti.
Volerlo
provare
di
nuovo
amplierebbe improvvisamente
il
vostro
orizzonte
di
vita
–
all’infinito
–,
mettendovi,
per
tutto
il
tempo
che
vorrete,
come
di
fronte
al
“mare,
il
mare,
sempre rinnovato”
(Paul
Valéry).