Rivoluzione artificiale. L'uomo nell'epoca delle macchine intelligenti 8867059386, 9788867059386

"Le macchine possono pensare?". Da quando Alan Turing ha sottratto questa domanda alla letteratura per calarla

426 13 1MB

Italian Pages 117 [116] Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Rivoluzione artificiale. L'uomo nell'epoca delle macchine intelligenti
 8867059386, 9788867059386

  • Commentary
  • Versione migliorata
Citation preview

Andrea Daniele Signorelli





L'uomo nell'epoca delle macchine intelligenti

Ledizioni

© Ledizioni LediPublishing Via Alamanni 11 Milano http://www.ledizioni.it e-mail: [email protected] Prima edizione Ledizioni: Aprile 2019

n volume è stato pubblicato originariamente da Informant nel mese di giugno 2017 Andrea Daniele Signorelli,

Rivoluzione artificiale. [;uomo nell'epoca delle

macchine intelligenti ISBN cartaceo 9788867059386 ISBN eBook 978889819471 Responsabile Collana: Massimo Colasurdo illustrazioni di copertina: Luca Lorenzoni Le riproduzioni a uso differente da quello personale potranno awenire, per

un

numero di pagine non superiore al15% del presente volume, solo a

seguito di specifica autorizzazione rilasciata da Ledizioni, Via Alamanni 11 20141 Milano, e-mail: [email protected]

INDICE 1.

L'intelligenza artificiale è tra noi

P· 7

1 . 1 Dai filtri antispatn ai robot avvocati: la AI è già u11a realtà 1 .2 Le origini dell'intelligenza artificiale 1 .3 Come imparano le AI: tnachine learning e deep learning 1 .4 La catena di tnontaggio dell'intelligenza artificiale 1 .5 L'evoluzione delle Al: il futuro prossimo 1 .6 L'evoluzione delle Al: arriveretno alla superintelligenza artificiale? l.7 I limiti qualitativi e tecnologici delle AI 2.

Etica artificiale

P·47

2 .l La coscienza delle AI 2 .2 Diritti umani per i robot? 2 .3 Il diritto dei robot alla vita e alla procreazione 2 .4 La libertà dalla schiavitù 2 .5 Il diritto di parola e di voto 2 .6 Le responsabilità di una AI 3.1 pericoli per l'uomo

P·75

3 .l Il rischio esistenziale 3 .2 Il pregiudizio dell'algoritmo 3 .3 Se lo sbirro è un algorittno 3 .4 La grande corsa alle artni autonome 3 .5 Il collasso della realtà 4.11 futuro del lavoro

P·93

4. 1 I robot e la disoccupazione di massa 4.2 La via d'uscita del reddito universale 4 .3 Le nuove utopie: l' Accelerazionismo 4.4 Le nuove utopie: il Cotnunismo Autotnatizzato di Lusso



1

L'INTELLIGENZA ARTIFICIALE E TRA NOI

.





1.1 DAl FILTRI A N TISPAM Al RO BOT-AVVOCATI: LA Al E GIA U NA REALTA

La domanda che Alan Turing si è posto nel 1 9501 ( "Le macchine possono pensare? " ) ottiene ancora oggi la stessa risposta di allo­ ra: no, non possono. Le si può però imbottire di una quantità tale di dati da costringerle a metterli in relazione tra loro identificando eventuali collegamenti. Un meccanismo che entra in azione, per fare un esempio, ogni volta che caricate una foto di gruppo su Facebook per pubblicarla e, immediatamente, il social network vi suggerisce nomi e cognomi delle persone che in quella foto compaiono. L'in­ telligenza artificiale di F acebook ha infatti analizzato tutti i dati a sua disposizione - in questo caso, le foto che avete postato nel corso degli anni e i profili dei vostri amici - utilizzandoli per fare delle previsioni sulla loro identità. La tecnologia di Facebook per il riconoscimento facciale (/ace recognition) dimostra soprattutto una cosa: l'intelligenza artificiale è già qui, la vediamo all'opera ogni giorno, la utilizziamo in con­ tinuazione, spesso senza nemmeno saperlo. Certo, le AI (artzficial intelligence) non hanno le sembianze di HAL 9000 o di Skynet, non sembrano essere sul punto di prendere coscienza di se stesse e di ribellarsi all'uomo dando vita a un nuovo ordine mondiale robotico; eppure sono una realtà che sta avendo un itnpatto enorme in ogni ambito, grazie all'abilità che accomuna ognuno di questi software: analizzare una miriade di dati per imparare a distinguerli e associar­ li; un meccanismo che permette a Gmail di individuare ed eliminare la spam, ad Amazon di suggerirvi i libri che potrebbero piacervi o a Google Assistant di organizzarvi il calendario.

l Alan Turing, Computing machinery and intelligence, 1 950. TI saggio è reperibile a

questo link: http ://www. loebner.net/Prizef/TuringArticle.html

8

RIVOLUZIONE ARTIFICIALE

L'esempio di Google Assistant porta inevitabilmente a parlare di una delle applicazioni più promettenti dell'intelligenza artificiale, sulla quale tutti i principali attori della Silicon Valley stanno inve­ stendo massicciamente: gli assistenti virtuali che rispondono alle nostre richieste ( "mostrami dei fihn che potrebbero piacermi" ) e che sono in grado di anticipare i nostri desideri e necessità avendo imparato a conoscerci alla perfezione (ricordandovi, per esempio, che il mercoledì siete soliti fare una telefonata alla mamma). Google Assistant, Siri di Appie, Cortana di Windows e Alexa di Amazon sono solo alcuni degli esempi che dimostrano la diffusione degli assistenti personali, sia vocali come Alexa, sia text-based come Re­ plika; con il quale interloquiamo attraverso un'interfaccia grafica simile a quella degli sms o dei servizi di instant messaging. Descritti così, gli assistenti virtuali (soprattutto quelli che utiliz­ zano il testo scritto) potrebbero non sembrare niente di rivoluzio­ nario: i chatterbot, i programmi che sitnulano il dialogo tra esseri umani, sono tutto tranne che una novità; anzi, richiamano diretta­ mente la celebre ELIZA2, software creato da Joseph Weizenbaum nel 1 966 per fare la parodia di uno psicoterapeuta3• Se i bot che dialogano con le persone sono un'invenzione che ha più di 50 anni, per quale ragione oggi si pensa che possano essere la next big thing del mercato tecnologico? La ragione è semplice: le potenzialità di questi bot, oggi, sono infinitamente superiori a quanto avrebbero potuto esserlo anche solo pochi anni fa; tutto merito di computer dalla potenza di cal­ colo sempre maggiore in grado di analizzare la quantità enorme di dati che viene prodotta quotidianamente attraverso il web, i social network e in generale la internet of things. Siamo ancora agli inizi: gli assistenti testuali hanno bisogno di operatori umani che intervengono nei casi più complessi e ancora 2 Si può parlare con ELIZA a questo link: http ://psych .fullerton .edu/mbimb aum/ psych l 01/Eliza.htm 3 Il chatterbot è diventato famoso anche perché alle domande risponde sempre con ulteriori domande: per esempio, chiedere a ELIZA " Come stai?" provocherà sicura­ mente una sua risposta di questo tipo: "Perché sei interessato a sapere quale sia il mio umore ? " . Un espediente parodistico per imitare uno psicoterapeuta.

L11NTELLICiENZA ARTIFICIALE

È

TRA NOI

9

non ne esiste uno in grado di organizzarci interamente un viaggio o una vacanza; gli assistenti vocali come Alexa di Amazon o Goo­ gle Home hanno invece ancora parecchi difetti e funzionalità limi­ tate. Ma è solamente questione di tempo: grazie alle potenzialità dell'intelligenza artificiale (privacy permettendo) , i bot del futuro succhieranno informazioni dai profili social, dalle app e dal nostro comportamento sul web, per imparare a conoscerci e rispondere in modo semplice, colloquiale e coerente alle nostre richieste. Nonostante gli ambiti in cui l'intelligenza artificiale può trovare applicazione siano pressoché illimitati, sono soprattutto gli assisten­ ti virtuali a suscitare attenzione (e un po' di inquietudine) ; forse perché sono ciò che più da vicino ricorda il modo in cui ci siamo itnmaginati i robot/software del futuro (basti pensare a Her di Spike J onze) , oltre a essere il settore sul quale sono piovuti investitnenti enormi da parte di tutti i protagonisti della Silicon Valley (da Google a Facebook, da Appie ad Atnazon, da Microsoft a IBM) . O forse è che questa applicazione rappresenta l'esempio più semplice ed evidente di come la AI stia invadendo il mercato di massa e sia ormai coinvolta in ogni operazione quotidiana. Ma la stessa tecnologia si sta facendo largo anche in ambito pro­ fessionale, dove sono già all'opera software che assistono gli studi legali - analizzando database sterminati e trovando correlazioni con casi simili a quello su cui sta lavorando un avvocato - e software che assistono i medici per individuare con precisione estrema i primi se­ gni di comparsa, per esempio, del tumore della pelle (cotn'è il caso di Watson, il software di IBM) . Tutto ciò pone una grossa sfida per la nostra società: se i robot e i software sono in grado di svolgere una vastissima gamtna di lavori con una precisione anche superiore a quella utnana (e con costi mol­ to più ridotti) , se il loro impiego non riguarda più solamente lavori scarsamente qualificati, ma anche professioni intellettuali o alta­ mente specializzate, che fine faranno i lavoratori umani? Lo spet­ tro della disoccupazione di massa si sta facendo largo nella nostra epoca, ponendo interrogativi che necessitano una risposta urgente. Il punto è che fermare o anche solo rallentare questa "rivolu­ zione robotica" (che riguarda però anche software imtnateriali) è

10

RIVOLUZIONE ARTIFICIALE

speranza vana: il percorso sembra irreversibile. Il che non significa che l'uomo debba rassegnarsi a diventare superfluo, ma che deve probabilmente iniziare a immaginare una società diversa, in cui il lavoro non sia più l'aspetto dominante delle nostre vite. Una società post-lavoro, insomma, che potrebbe sorgere grazie a misure come il reddito universale (per non parlare delle tesi più estreme, come il Comunismo Autotnatizzato di Lusso) . L'avvento di intelligenze artificiali sempre più evolute non avrà un enorme impatto solo sul tnondo del lavoro, ma ci costringerà ad affrontare itnportanti questioni etiche, richiamando in servizio atti­ vo la filosofia. Non è un caso che, oggi, uno dei pensatori più ascol­ tati quando si parla di temi tecnologici sia un filosofo, un italiano a Oxford: Luciano Floridi. D'altra parte, i temi etici che riguardano il mondo delle AI non sono solo di grande rilevanza, ma anche molto pressanti. Nel 2022, per esetnpio, potrebbero iniziare a circolare per le città le prime auto autonotne comtnerciali, ovvero veicoli che si gui­ dano da soli. Questo significa che sarà un software a decidere come comportarsi in caso di imprevisti: se sterzare all'improvviso per evi­ tare un ostacolo, ma rischiando di investire dei pedoni, o se tirare dritto con il rischio di ferire il conducente. Siamo sicuri di volerei sedere in un veicolo che, in un certo senso e in alcune condizioni, sarebbe di fatto programmato per ucciderei? Un timore che impallidisce davanti agli inquietanti progressi compiuti da software che stanno imparando a utilizzare la memo­ ria, che scoprono come cifrare i loro messaggi e che sono sempre più vicini a fortnulare ragionamenti di tipo umano. Ma fino a dove possono arrivare le AI? Possono evolvere da algoritmi in grado di svolgere un solo compito per prendere la forma di vere intelligenze artificiali, capaci di competere con l'uomo sotto ogni punto di vista e magari, un giorno, !asciarselo alle spalle? La grande attenzione dedicata al tema da serissimi scienziati dimostra come preoccupa­ zioni di questo genere non appartengano più solo al regno della fantascienza. E allora, cotne reagiremo quando davanti a noi compariranno intelligenze artificiali che si comportano come esseri davvero intelli•

L11NTELLICiENZA ARTIFICIALE

È

TRA NOI

11

genti, come esseri che pensano, come- in definitiva - esseri dotati di coscienza? Dovremo indagare a fondo per capire se la loro sia vera coscienza o solo una simulazione di essa, oppure il fatto stesso che si comportino da esseri coscienti significa che debbano essere trattati come tali? E infine: se esseri artificiali intelligenti e coscienti inizie­ ranno a circolare per le nostre città, non dovremo preoccuparci di garantire loro alcuni diritti basilari? Così facendo, però, rischierem­ mo di far venir meno la ragione stessa per cui li stiatno creando: farli lavorare al servizio dell'uomo. Gli interrogativi presentati dalla prossima era delle macchine coinvolgono gli aspetti più complessi della nostra società e mostra­ no come la politica sia in ritardo su un tetna che rischia di diventa­ re prioritario nel giro di pochi anni. Un'analisi dell'impatto che le intelligenze artificiali avranno sulla nostra società, però, non può che partire dalle basi; dal capire come questi algorittni imparino a distinguere e associare dati diventando intelligenti al punto da sconfiggere il campione di un gioco complesso e astratto come Go e suscitando timori (più o meno giustificati) sulla possibilità che, un domani, robot super-intelligenti si possano liberare dalla schiavitù e soppiantare i padroni. 1.2 LE ORIGINI DEL L'I N TELLI GEN ZA A RTIFICIALE

Si parla sempre di intelligenza artificiale, ma il termine rischia di essere fuorviante e di far pensare a macchine in grado di ragionare, di conoscere una materia, di avere consapevolezza di ciò che stanno facendo. Il fatto che una macchina impari a riconoscere la presenza di un gatto nelle foto, però, non significa che sappia che cos'è un gatto; allo stesso modo, il computer che ha battuto Lee Sedol a Go4 non aveva la benché minima idea di che cosa stesse facendo (e lo stesso vale per lo storico, ma diverso, esempio riguardante le partite a scacchi tra Deep Blue di IBM e Gary Kasparov) .

4 http :/l qz. com/63 9952/googles-ai-won-the-game-go-by -defying-millennia-of-ba­ sic-human-instinct/

12

RIVOLUZIONE ARTIFICIALE

Questi software, insomma, non sono in grado di pensare; sono semplicemente capaci di processare una quantità tale di dati da riu­ scire a metterli in relazione tra loro, identificando eventuali collega­ menti o calcolando statisticatnente quale mossa di un determinato gioco abbia la tnaggior probabilità di avere successo. I metodi uti­ lizzati per ottenere questi risultati sono principalmente il machine learning (apprendimento autotnatico) e la sua più recente evolu­ zione, il deep learning (apprendimento approfondito) , una branca del machine learning (sviluppata soprattutto grazie al lavoro svolto da scienziati informatici cotne Andrew Ng e Geoffrey Hinton) che sfrutta numerosi strati di elaborazione per scomporre gerarchica­ mente i dati su livelli di astrazione crescente. L'intelligenza artificiale è una realtà del presente che segnerà in­ delebilmente il nostro futuro. Eppure, le aspettative riposte oggi in questa tecnologia sono, incredibilmente, le stesse che ci si atten­ deva sessant'anni fa. Nel 1958, un articolo del New York Times5 presentava infatti una nuova meraviglia tecnologica, titolando: >. LeCun passò giorni interi in una libreria nei dintorni di Versail­ les, a setacciare paper e ricerche pubblicate prima che il Perceptron n

12 A questo link, una sintetica spiegazione del problema scovato da Minsky: http:/l users.ecs.soton.ac.uklhamad!Hypermail!Explaining.Mind/0 140.html 13 https ://www. technologyreview.com/s/6089 1 1/is- ai-riding- a-one-trick-pony/

18

RIVOLUZIONE ARTIFICIALE

e i network neurali finissero nell'oblio. Pochi mesi dopo, scoprì che un piccolo gruppo di ricercatori della Carnegie Mellon, negli Sta­ ti Uniti, aveva ripreso a lavorare di nascosto sui network neurali. Le parole di LeCun sembrano fare riferimento agli adepti di una setta eretica: . Una teoria adeguata, insomma, c'era già da decenni. E la rivolu­ zione informatica in corso negli anni Ottanta stava fornendo alme­ no uno dei due elementi fondamentali al successo delle intelligenze artificiali: un crescente potere di calcolo. Nel 1 985 , LeCun si unì a questo movitnento di reietti, subito dopo aver conosciuto il loro leader (e altro grande padre della AI moderna) Geoff Hinton, oggi capo della ricerca a Google. Pochi anni dopo, si trasferì brevemente con lui all'università di Toronto, dove iniziò a prendere forma la rivoluzione informatica che oggi è sotto gli occhi di tutti. Per lungo tempo, il lavoro sui neural network è rimasto con­ finato negli angoli più remoti della ricerca scientifico-informatica; ci sono voluti decenni prima che la combinazione fondamentale di potere di calcolo e disponibilità di enormi quantità di dati (forniti grazie a internet, al web, ai social media e quant'altro) facessero esplodere quella che oggi viene considerata la base di una nuova rivoluzione industriale. Nel 20 12 , un paper14 di Hinton e dei suoi studenti di Toronto (dove ancora oggi insegna) stupì il mondo informatico tnostrando le potenzialità delle reti neurali nel rico­ noscimento immagini: era nato il deep learning. Nel frattempo, il Perceptron di Rosenblatt - che fu la base di tutto ciò - continua a prendere polvere là dove si trova dalla fine degli anni Sessanta: allo Smithsonian lnstitute, un museo.

14 https:/lpapers .nips . cc/p aper/4824-imagenet-classification -with- deep - con volu ­ tional-neural-networks .pdf

L11NTELLICiENZA ARTIFICIALE

È

TRA NOI

19

1.3 COME IMPARANO LE Al: MACHINE LEARNING E DEEP LEARNING

Avete presente quando una password viene crackata con il "me­ todo forza bruta" , inserendo una quantità tale di combinazioni di­ verse che a un certo punto il software riesce a individuare quella giusta? Il concetto sottostante il machine learning non è poi così dissimile. Alla base di questa tecnica c'è l'utilizzo di algoritmi che analizzano un paniere di dati, imparano da esso e poi traggono del­ le conclusioni o fanno delle previsioni su qualcosa che esiste nel mondo. Per questo, nella definizione di Arthur Samuel, si parla di : a differenza dei software tradizionali, che si basano su un codice scritto che spiega loro passo dopo passo cosa devono fare, nel caso del ma chine learning la rete neurale è addestrata usando un'enorme quantità di dati attraverso i quali impara a portare a tertnine l' obiet­ tivo che le è stato dato. n computer può imparare in tre modi: tratnite l'osservazione di serie di singoli esempi, esplorando in autonomia i singoli casi e va­ lutando poi alla fine i risultati ottenuti globalmente, oppure tramite l'assegnamento di ricompense positive al verificarsi di comporta­ menti desiderati. Questi metodi rappresentano rispettivamente i tre tipi di apprendimento del machine learning: supervisionato, non supervisionato e rinforzato. Un software che deve imparare a rico11oscere u11 nutnero scritto a mano, per esempio il 5 , viene quindi sottoposto a centinaia di migliaia di immagini di numeri scritti a tnano, in cui è segnalato solo se sono dei 5 oppure non lo sono. A furia di analizzare numeri che sono o non sono dei 5 , il software itnpara a un certo punto a ricono­ scerli correttamente, fornendo una percentuale di risposte corrette estremamente elevata. Da qui a essere davvero intelligenti, ovvia­ mente, ce ne passa: basti pensare che, per itnparare a riconoscere un certo numero, un'intelligenza artificiale deve essere sottoposta a migliaia e migliaia di esempi; a un bambino di quattro anni basta vederne un paio (o qualcuno in più) . , ha scritto il program­ matore Adam Geitgey, >. La sintesi del funzionamento di queste macchine - per quan­ to incompleta ed estremamente semplificata, coerentemente con un testo senza pretese scientifiche ma che vuole analizzare le AI da un punto di vista sociale - permette di immaginare quali siano le infinite potenzialità dell'intelligenza artificiale. Potenzialità che promettono di ridurre drasticamente gli incidenti stradali grazie alle auto autonome, di individuare con largo anticipo e precisione l'in­ sorgenza di tumori (nonché i soggetti maggiormente predisposti) , di dotare chiunque del suo assistente personale e, in definitiva, di migliorare la qualità della vita.

1 9 https://www. technologyreview.com/s/603 868/how-deepminds-memory-tri­ ck-helps-ai-leam-faster/?set=603877 20 https://blogs .nvidia.com/blog/20 16/04/07/horus-help-blind-people-see/

L11NTELLIGENZA ARTIFICIALE

È

TRA NOI

23

C'è però un lato oscuro in tutto ciò: a differenza dei classici software che, come detto, eseguono un codice che spiega loro che cosa devono fare, i programmi basati sul machine e deep learning imparano da soli e non c'è modo di sapere con esattezza perché han­ no imparato; in che modo, cioè, il software è arrivato alla soluzione corretta. Nell'esempio riguardante il prezzo delle case, è pratica­ mente impossibile analizzare ogni singolo peso per scoprire come la macchina, esattamente, è riuscita a stimare correttamente gli appar­ tamenti. Sotto questo aspetto, il machine learning è una scatola nera dentro la quale non c'è modo guardare. , ha scritto Edward G. Monaghan. 21• Possiamo insegnare al nostro cane a riportarci la pallina, ma non sapremo mai esattamente cos'è scattato nel suo cervello nel mo­ mento in cui ha capito cotne comportarsi correttatnente; allo stesso modo, un essere umano non ha realisticamente modo di entrare nel programma e dare un significato ai pesi prodotti da milioni di con­ nessioni interne alla rete neurale. Ma è una cosa importante? Non conta solo che il computer porti a termine il lavoro per cui è stato addestrato? In linea di massima, sì. Ogni tanto, però, questi misteri del machine learning causano situazioni molto imbarazzanti. Ne sa qualcosa Google: nel 20 15 il suo sistema di riconoscimento immagini ha iniziato a catalogare al­ cune persone di colore cotne " gorilla"22• Non essendoci modo di capire esattamente dove l'algoritmo di Google stesse sbagliando, ci si è limitati (temporaneamente) a vietargli di classificare qualunque cosa come gorilla23•

2 1 https://www.wired.com/20 1 6/05/the-end-of-code/ 22 http :/luk.businessinsider.com/google-tags-black-people-as-gorillas-20 15 -7 ? r= U­ S&IR T 23 Un altro aspetto importante è dato dal fatto che il risultato della fase di appren­ dimento dipende dal training set di dati che viene fornito dall'uomo: la bontà dei risultati ottenuti dalla AI dipende in larghissima misura dalla qualità dei dati e dalla correttezza del modo in cui sono stati etichettati.

RIVOLUZIONE ARTIFICIALE

24

Se questo vi sembra un problema di poco conto, pensate alle due applicazioni dell'intelligenza artificiale citate poche righe fa: le auto autonome e i software che diagnosticano le malattie. Se il software che guida un'auto dovrà decidere se investire un bambino che si è gettato all'itnprovviso in mezzo alla strada, oppure sterzare di colpo con il rischio di ferire gravemente l'autista e i passeggeri, è davvero il caso di sapere perché l'auto ha preso una decisione in­ vece che un'altra. Così cotne è importante sapere perché un " com­ puter tnedico " ha sbagliato una diagnosi dopo averne indovinate centinaia di altre. Nel momento in cui scarichiamo sulle AI un numero sempre maggiore di responsabilità, diventa fondamentale sapere come prendono le loro decisioni. Proprio questo è l'obiettivo di un teatn di ricercatori del MIT che ha pubblicato l'anticipazione di uno stu­ dio intitolato 24• Il loro lavoro, ancora agli stadi preliminari, ha uno scopo deci­ sivo: forzare l'algoritmo a " spiegare " perché è giunto a una dete­ minata conclusione. Sintetizzando al massimo25, la macchina viene obbligata a mostrare quali frasi in particolare, all'interno di testi scritti utilizzati come set di dati, hanno giocato un ruolo importante nel farle prendere una determinata decisione, aiutando in questo modo i programmatori a capire quale sia stata la base logica . >, ha spiegato Yi Xiangzhi, chief scientist di UniDT Technology. . Dopodiché, il lavoro manuale necessario a porre le basi dell'evoluzione dell'intelligenza artificiale potrebbe scomparire. 1.5 L'EVOLUZIONE DELLE A l : IL FUTURO PROSSIMO

Se si guarda all'evoluzione dell'intelligenza artificiale, è fonda­ tnentale distinguere tra tre tipi differenti di AI: ANI (arti/icial nar­ row intelligence: intelligenze artificiali limitate, in grado di fare una cosa sola) ; AGI (arti/icial generai intelligence: intelligenze artificiali generali, in grado di fare ogni cosa a livello umano) ; ASI (artificial super intelligence: super intelligenze artificiali, in grado di svolgere molteplici compiti a un livello superiore a quello umano). Prima di approfondire gli ultimi due tipi di AI, vale la pena di rassicurare tutti: non solo al momento siamo fermi alle ANI, ma gli esperti non sono nemmeno sicuri che sia possibile arrivare al prossimo stadio evolutivo. Quando si parla di intelligenze artificiali limitate, si fa infatti ri­ ferimento a tutte quelle che abbiamo visto all'opera fino a questo

28

RIVOLUZIONE ARTIFICIALE

momento: il filtro anti-spam, il software che stabilisce il prezzo delle case, quello che riconosce i numeri scritti a mano e quello capace di sconfiggere il campione di Go. Cosa accomuna, pur nelle loro significative differenze, tutte queste Al? Che sono in grado di fare una cosa sola; e per quanto la facciano benissimo, non sono in grado di fare nient'altro: ogni volta che si vuole affrontare un problema nuovo, si deve ricominciare da zero. Questi limiti sono sufficienti per capire l'enorme distanza che ancora ci separa dal mondo delle intelligenze artificiali generali; una distanza, però, insufficiente a escluderne un futuro avvento, soprattutto se si considera la velocità dei progressi compiuti dalle intelligenze artificiali limitate. Un esperimento del team di ricerca Google Brain29 dà un'idea di quale sia il tenore di questi progressi: tre reti neurali (soprannotninate Alice, Bob e Eve) sono state istru­ ite a comunicare tra di loro. Alice, però, doveva riuscire a inviare a Bob un tnessaggio che Eve non potesse decifrare. Dopo 15mila tentativi, Alice è riuscita nella missione: ha mandato un messaggio cifrato che Bob è stato in grado di interpretare interamente, mentre Eve è riuscito a decrittarlo solo in parte. In poche parole, come ha scritto Arturo Di Corinto, 3 0 • Quello che colpisce è la velocità di questi progressi. N el giro di pochi anni, si sta passando da algoritmi che hanno bisogno di vedere centinaia di migliaia di foto di un cane per imparare a rico­ noscerlo correttamente, a esperimenti riguardanti algoritmi capaci di cifrare i messaggi. Ma non è tutto, si è arrivati anche a intelligenze artificiali, sempre "limitate" , capaci di portare a termine il loro com­ pito al pritno colpo grazie a ciò che sembra essere l'embrione di un • • vero e proprio ragionamento. Nel mese di ottobre 2016, la società DeepMind (sempre di pro-

29 Lo studio si può consultare qui: https://arxiv.org/ abs/1 6 1 0.069 1 8 30 http ://cybersecurity.startupitalia.eu/53222-20 1 6 1 1 02-reti-neurali-google-brain­ apprendono-crittografia-da-sole

L11NTELLICiENZA ARTIFICIALE

È

TRA NOI

zg

prietà di Google) ha pubblicato su Nature3 1 uno studio in cui rive­ la di aver creato una rete neurale dotata di una memoria esterna che le consente di strutturare autonomamente i dati e richiatnarli all'occorrenza per fare deduzioni. Il sistema, chiamato dzf/erentiable neural computer32, è stato capace di pianificare al primo colpo, senza precedenti tentativi, il percorso migliore per spostarsi tra le stazioni della metropolitana di Londra. Un progresso enorme, reso possibile dall'allenamento della macchina (con il classico metodo " sbaglia e riprova" ) su mappe della metro di altre città. Mentre si allenava su queste mappe, la rete neurale ha imparato a utilizzare la sua memo­ ria per immagazzinare dati utili e richiamarli all'occorrenza. Per quanto anche questa AI sia in grado di svolgere un solo com­ pito, la sua capacità di utilizzare in modo pratico la memoria, dando quindi prova di apprendimento, setnbra essere il pritno passo per arrivare a una vera intelligenza artificiale, di tipo utnano, che sappia imparare in tertnini generali e poi richiamare i dati che le servono per sfruttare ciò che ha appreso. In poche parole, una AI che è in grado di fare un ragionamento (da notare che nella serie TV di fan­ tascienza Westworld, le intelligenze artificiali mostrano i primi segni di essere davvero autonome e coscienti nel momento in cui iniziano a usare la memoria) . Ma è davvero attraverso il deep learning che si arriverà a una vera intelligenza artificiale? . A pronunciare queste parole è stato Geoff Hinton, l'uomo che nel 2012 , dall'uni­ versità di Toronto, ha dato il via alla rivoluzione del deep learning e della visione artificiale: 33• Hinton non è soddisfatto: per addestrare un network neurale a riconoscere una penna, per esempio, non solo bisogna rifornirlo di centinaia di migliaia di immagini di penne; tna anche fargliele vedere da tutte le possibili angolazioni. Altrimenti, basterebbe ca3 1 http ://www.nature.com/nature/joumaVv538/n7626/full!nature20 1 0 1 .html 3 2 https:/l deepmind.com/blog/ differentiable-neural- com puters/ 3 3 https ://www. wired. com/story/googles- ai-wizard-unveils-a-new-twist-on-neural­ networks/

30

RIVOLUZIONE ARTIFICIALE

povolgere la vostra Bic e il network neurale non saprebbe più che cosa gli si sta mostrando. Questi software, come abbiamo già visto, non sono per niente bravi ad astrarre e generalizzare la conoscenza, abilità tipicamente umane che consentono ai bambini di imparare a riconoscere un gatto dopo averne visti pochissitni esemplari. A prima vista, questo limite delle AI non sembra così grave: in fondo, viviamo nell'epoca dei big data e siamo quotidianamente somtnersi da un mare di informazioni. Essere in grado di estrarre una tnaggiore conoscenza da una minore quantità di informazioni, però, potrebbe tornare molto utile in campi in cui i dati per l' adde­ stramento di un network neurale non sono poi così numerosi; per esempio, nel settore della sanità. Ed è proprio questo il nuovo obiettivo del 69enne Geoff Hin­ ton, che sta lavorando a un progetto chiamato capsule network - già presentato in alcuni paper34 - che consente ai network neurali di riconoscere un oggetto utilizzando molti tneno dati. Sintetizzando al massimo, il capsule network35 funziona grazie a gruppi di neu­ roni digitali, ognuno dei quali tiene traccia di un diverso elemento dell'immagine - per esempio, le orecchie o il naso di un cane - e del­ la loro relativa posizione nello spazio. In questo modo, un network di svariate " capsule" può utilizzare ciò che ha imparato per capire quando una nuova immagine è, in realtà, solo una diversa angola­ tura di un oggetto già noto. Se l'intuizione di Hinton si dimostrerà di successo, i network neurali funzioneranno in maniera un po' più simile al cervello umano, imparando a generalizzare e a riconoscere un gatto indipendentemente dalla posizione in cui si trova o dall'an­ golatura dalla quale lo vediamo. Il trend dell'evoluzione dell'intelligenza artificiale, insomma, è chiaro: macchine che itn parano a generalizzare, a usare la memoria e in definitiva a imitare setnpre meglio il cervello umano. Ma tutti questi progressi significano forse che le macchine stanno per di­ ventare davvero intelligenti? Nonostante l'avvento di una vera AI

34 https://arxiv.org/abs/1 7 10.09829 35 Qui una spiegazione dettagliata: https ://hackemoon .com/what-is- a-capsnet-or­ capsule-network-2bfbe48769cc

L11NTELLICiENZA ARTIFICIALE

È

TRA NOI

31

sia ancora molto lontano, è innegabile che anche in questo campo si stiano facendo progressi: c'è chi sta cercando di far collaborare network neurali specializzati in compiti diversi e chi sta insegnan­ do a un solo algoritmo a giocare a videogiochi tnolto diversi tra di loro (vedendo in questo una prima scintilla di " generalità" ) . E impossibile escludere che, prima o poi, saremo in grado di progettare un'intelligenza artificiale; quel che è certo è che non avverrà a breve. '

1.6 ARRIVEREMO ALLA SU PERINTELLIGENZA ARTIFICIALE?

Ma fino a dove possono arrivare le Al? Per quanto ci sia il ri­ schio concreto di entrare nel campo della fantascienza, l'entità e la rapidità di questi progressi ci portano a immaginare il momento in cui, in linea teorica, le intelligenze artificiali potrebbero raggiungere il livello umano, evolvendosi in AGI: intelligenze artificiali generali. La definizione che ne dà Tim U rban nel suo saggio The road to Superintelligence36 chiarisce meglio di che cosa si tratti: . Per arrivare a una intelligenza artificiale di questo tipo, gli scien­ ziati hanno probabilmente prima bisogno di comprendere meglio il funzionamento del cervello, ma soprattutto hanno bisogno di com­ puter dalla potenza di calcolo molto superiore a quella che hanno a disposizione oggi. L'idea, sostenuta da chi ritiene che l'approdo a una AGI sia possibile, è infatti che l'elaborazione a una velocità crescente di una massa sempre più imponente di dati consentirà alle 3 6 http ://waitbutwhy.com/2015/0 1/artificial-intelligence-revolution- 1 .html

RIVOLUZIONE ARTIFICIALE

32

intelligenze artificiali, a un certo punto, di compiere un salto evolu­ tivo che le farà diventare veramente intelligenti. Un processo simile venne immaginato già nel 1 995 in Ghost in the Shell, il celebre anitne cyberpunk di Mamoru Oshii ispirato al manga di Masatnune Shirow. Il protagonista, un cyborg di nome Kusanagi, spiega in un monologo cosa lo renda un individuo dotato di personalità: . Lasciando (solo tnotnentaneamente) perdere il tema della co­ scienza, e senza scendere in aspetti tecnici e informatici che esulano dagli obiettivi di questo volume, quanto manca perché si possa ar­ rivare allo sviluppo di una creatura simile: una AI dotata di intel­ ligenza generale? Provare a fare previsioni su un avvenimento che molti ritengono non possa nemmeno verificarsi è già complesso di per sé; le cose diventano ancora più ostiche se si considera che uno degli elementi più itnportanti sembra essere la possibilità di creare un computer che abbia un potere computazionale simile a quello del cervello umano, dei suoi 100 miliardi di neuroni e un milione di miliardi di sinapsi. Numeri impressionanti, ma che potrebbero far pensare al cer­ vello solamente come una macchina dotata di enorme potenza e di una impressionante capacità di problem solving. In un certo senso, in effetti, il cervello è simile a un computer: entrambi sono dotati di unità eletnentari (i neuroni da una parte, i transistor dall'altra) collegate attraverso cotnplessi circuiti allo scopo di processare in­ formazioni veicolate da segnali elettrici. Anche le architetture del cervello e dei computer si assomiglia­ no: entratnbe sono costituite da circuiti dedicati all ' input e output delle infortnazioni, all'elaborazione di queste e alla loro conserva­ zione in tnetnoria. Ma chi è più potente tra i due? Il computer, da questo punto di vista, gode di parecchi vantaggi essendo molto più veloce del cervello a compiere operazioni basilari. I normali PC sono infatti in grado, mediamente, di eseguire 10 miliardi di sempli­ ci operazioni, come l'addizione, al secondo. Al cospetto, il cervello umano impallidisce: , ha spiegato il neuroscienziato Liqun Luo37 · . ll computer gode di un altro vantaggio: la precisione. Senza ad­ dentrarci nei dettagli, si è calcolato che i sistemi informatici possono rappresentare quantità numeriche con una precisione che è milioni di volte superiore a quella del cervello umano, che deve fare i con­ ti con quello che viene definito "rumore biologico " . Tutto questo, comunque, non significa né che il cervello umano sia lento, né che s1a 1mprec1so. Considerate un giocatore di tennis: può seguire la traiettoria di una pallina dopo un servizio colpito a una velocità che raggiunge anche i 250 chilometri orari, scegliere la posizione ottimale per ri­ spondere al colpo, posizionare le braccia e muovere la racchetta per ribattere al servizio. Una notevole quantità di calcoli eseguiti in modo preciso nel giro di qualche frazione di secondo. Adesso im­ maginate di far eseguire lo stesso numero di operazioni a un robot guidato da un normale computer; fallirebbe miseramente. Com'è possibile, considerando che un computer può compie­ re miliardi di operazioni al secondo? >, definibile al­ trimenti come 50• Il buon senso e la creatività: sarebbero queste, quindi, le due ca­ ratteristiche dell'essere umano che le AI non possono replicare. Ma ci sono altri aspetti da tenere in considerazione, per esempio i limiti fisici e tecnologici che potrebbero impedire la nascita di un'intelli­ genza artificiale generale. Per esempio, una AGI potrebbe necessi­ tare di una quantità eccessiva di energia. Senza addentrarci troppo negli aspetti tecnici, vale la pena di segnalare quanto scrive Caleb Scharf, direttore del dipartimento di Astrobiologia alla Columbia University: 51• A livello teorico, ovviamente, non si può escludere che i pro­ gressi tecnologici rendano risibili le previsioni odierne; ma ci sono parecchi altri ostacoli da superare. Per esempio, quello relativo alla fine della Legge di Moore (che è stata valida, con qualche corre­ zione, fin dal 1965 , ma che ha già subito uno stop e rischia di esse­ re invalidata a partire dal 202 1 ): , ha spiegato Neil Thompson del MIT di Boston. 52• Il suo stop, di conse­ guenza, pone una grossa incognita, così come l'eccessivo consumo di energia richiesto dai chip di ultima generazione. D'altra parte, i teorici della singolarità basano i loro assunti pro­ prio sulla crescita costante e senza fine del potere di calcolo a di­ sposizione; ma perché mai le cose dovrebbero andare così? >, prosegue Brandom. . Non essendo dotate dell'abilità di generalizzare e di ragionare astrattamente, le intelligenze artificiali potrebbero non essere in

5 6 https://www. theverge.com/20 1 8/7 /3/175 30232/self-driving- ai-winter-full-auto­ nomy-waymo-tesla-uber

44

RIVOLUZIONE ARTIFICIALE

grado di far fronte a imprevisti anche solo leggermente diversi da quelli già affrontati, e nemmeno di sostenere dialoghi che non siano estretnamente circoscritti. Peggio ancora, non è affatto detto che nel futuro il deep learning - che si basa esclusivamente su calcoli statistici - possa conquistare questa forma di ragionamento. Il tema è stato recentemente sollevato su11'Atlantic da un pio­ niere della AI come Judea Pearl57: . In termini più intuitivi, la tecnologia del deep learning fa molta fatica quando deve affrontare territori non chiaramente definiti, in cui giocano un ruolo importante il ragionamento, il buon senso e il significato. , ha sostenuto il professar Michael I. Jordan in un recente saggio58• . Ma se i critici del deep learning hanno ragione, qual è la strada per arrivare a una vera intelligenza artificiale; o almeno per superare gli ostacoli più immediati che questo settore si trova davanti? Sor­ prendentemente, alcuni scienziati stanno nuovamente valutando le potenzialità della cosiddetta "intelligenza artificiale vecchia manie­ ra" . Invece di sfruttare i big data e un meccanismo di tentativi ed er­ rori, la AI simbolica (in voga fino agli anni '80) prevede di instillare nelle macchine tutta la conoscenza necessaria a svolgere il compito che le è stato dato. Per imparare a giocare a scacchi, quindi, non sarebbe necessario fare centinaia di migliaia di partite (imparando dall'esperienza) , ma è sufficiente che nel software "vecchia manie57 https://www. theatlantic. comltechnologylarchivel20 18105 lmachine-leaming-is­ stuck-on-asking-whyl5606751 https :llmedium. coml@mijordan3 lartifici al-intelligence-the-revolution-ha58 snt-happened-yet-5 e l d5812e l e7

L11NTELLICiENZA ARTIFICIALE

È

TRA NOI

45

ra" vengano codificate tutte le regole degli scacchi. Insomma, una forma di AI in cui la conoscenza viene inculcata dall'alto invece di essere conquistata attraverso l'esperienza. Come abbiamo già visto, questo tipo di AI ha dimostrato di fun­ zionare molto bene quando si tratta di portare a termine compiti che hanno regole estremamente chiare, come avviene, appunto, nel gioco degli scacchi; ma fallisce miseramente in settori ricchi di atnbiguità (come il linguaggio) . , spiega ancora Gary Marcus. >, prosegue Shanahan. . Ma sarebbe sufficiente che una macchina riuscisse a superare reahnente il test di Turing o a soddisfare le tre condizioni poste da Shanahan per dichiararla intelligente? Secondo alcuni filosofi, tra cui John Searle (che a tal proposito ha ideato il famoso esperimento mentale della " stanza cinese"6) , la risposta è negativa: il fatto che

6 Nell'esperimento si immagina una persona del tutto ignorante della lingua cinese che, chiusa all ' interno di una stanza, riceve dall'esterno dei fogli con delle domande

so

RIVOLUZIONE ARTIFICIALE

una macchina sia in grado di simulare un comportamento intelligen­ te non significa che sia davvero intelligente. L'obiezione di Searle può essere però disinnescata partendo da un punto di vista differente, come avviene nel particolare test di Tu­ ring eseguito in Ex Machina: , spiega Nathan, tech-miliardario della Silicon Valley creatore del robot Ava, al suo dipendente Caleb. Nonostante Caleb sappia che Ava è un robot e che quindi non possa essere davvero cosciente, se­ condo N athan la simulazione sarà tahnente convincente da indurlo a considerarla comunque alla stregua di un essere umano. D'altra parte, avrebbe detto Cartesio, è il pensiero, cosa di cui Ava dà ottime prove, che dimostra il fatto di essere, non viceversa (nell'ottica del filosofo francese, peraltro, il corpo dell'uomo non è altro che una tnacchina perfetta). Ma se anche l'analogia tra mac­ chine intelligenti ed esseri utnani fosse possibile, gli uomini conti­ nuerebbero a differire essenziahnente dagli automi per il fatto, per esempio, di provare dolore. Oppure no? 7, scrive ancora Adam Trischler. Probabihnente, se ci trovassimo ad avere a che fare con una macchina capace di superare il test di Turing e di registrare segnali di "dolore" , qualche problema etico inizieremmo a por celo. A quel punto vorremtno però capire se l'essere che ci troviamo davanti ha sviluppato un'ulteriore, e fondamentale, caratteristica: l' autocoin cinese e, seguendo un libro di istruzioni (un programma) , riesce a spedire all'ester­ no dei fogli con le corrette risposte in cinese alle domande che ha ricevuto; questo senza avere la benché minima conoscenza della lingua cinese (http ://www. columbia. edu/ - av72/varia/ 199 1_1 .pdf) https ://www. fastcoexist. com/3 066 7 13/who-will-protect- artificial-intelligen7 ce-from-humanity

ETICA ARTIFICIALE

51

scienza. Per riuscire nell'impresa, secondo8 il professore di Oxford Marcus du Satoy, potremmo affiancare al test di Turing una secon­ da prova: il test del "riconoscimento nello specchio" , utilizzato per capire se alcuni animali (o, come in questo caso, delle macchine) , dimostrano di aver sviluppato il senso del sé riconoscendo la pro­ pria immagine riflessa. Ma abbiamo davvero bisogno di prove scientifiche per capire se un essere è intelligente, autocosciente e, in definitiva, vivo? Ri­ tornando a Ex Machina, il fatto di sapere di essere di fronte a un robot non impedisce a Caleb di sviluppare empatia nei confronti dell'androide. Non è stato necessario condurre nessuna indagine sperimentale sul funzionamento interno di Ava, ma solo parlare con lei e osservare il suo comportamento. >. D'altra parte, non possiamo chiederci ogni volta che incontria­ mo un essere che ci sembra intelligente se lo sia davvero o se si stia solo comportando come tale. Il punto, anzi, potrebbe proprio esse­ re che se qualcuno è in grado di comportarsi in modo intelligente significa che è intelligente. E che quindi vada trattato come tale. Chi sicuramente sarebbe d'accordo con una visione del genere - per tornare agli esempi fantascientifici - è il Signore dei Pupazzi, personaggio centrale del già citato Ghost in the Shell. Il Signore dei Pupazzi, originariamente, è un progetto segreto destinato allo spio­ naggio industriale: un'intelligenza artificiale molto evoluta in grado di muoversi autonomamente nella rete. Nessuno l'ha programma­ to per diventare un'entità cosciente, indipendente e autonoma; si è evoluto da solo, grazie alle sue capacità e al mare di dati a cui ha avuto accesso (il che ricorda molto da vicino le teorie della singola­ rità tecnologica) . Il Signore dei Pupazzi nega inoltre di essere un'intelligenza arti­ ficiale, preferendo definirsi . Nel momento in cui il suo es­ sere "vivo " viene messo in dubbio, ribalta contro gli umani le loro stesse, presunte, certezze. E tu, mi puoi dare prova della tua esistenza ? Come puoifarlo se né la scienza moderna né la filosofia sanno spiegare cos'è la vita? [. . . ] Si potrebbe sostenere che anche il DNA non sia altro che un programma studiato per preservare se stesso. La vita è diventata più complessa nell'immenso mare dell'informatica. E la vita, quando si organizza in specie, fa dei suoi geni il proprio sistema mnemonico,· quindi l'uomo è un individuo solo in virtù della sua intangibile memoria. La memoria non può essere definita, eppure definisce il genere umano. L'avvento dei computer e il conseguente accumulo di innumerevoli informazioni ha dato vita a un nuovo sistema di memoria e di pensiero parallelo al vostro. I:umanità ha sottovalutato le conseguenze della computeriz­ zazione. 10 1 0 ll monologo può essere ascoltato qui: https ://www. youtube .com/watch?v=NJt-

ETICA ARTIFICIALE

53

Seguendo questi discorsi tra il filosofico e il fantascientifico (in cui, ancora una volta, compare la questione della memoria) , la con­ clusione non può che essere una: nel momento in cui avremo a che fare con intelligenze artificiali che si cotnportano come esseri in­ telligenti, vivi e dotati di coscienza, non potretno che considerarle tali e trattarle di conseguenza. Il che apre la porta a una miriade di problemi etici. 2.2 DI RITTI UMA N I PER l ROBOT?

La storia ci ha insegnato quanto sia facile per gli uomini nega­ re identità e diritti ad altri uomini solo perché diversi sotto alcuni aspetti. Westworld ed Ex Machina, seguendo sempre quanto scrive Adam Trischler, mostrano come l'uomo abbia anche la tendenza a trattare le sue invenzioni come se fossero naturalmente, e indipen­ dentemente da ogni altro aspetto, di sua proprietà. Dolores è usata come se fosse un corpo vuoto su cui chiunque possa pagare a suffi­ cienza può, legalmente, sfogarsi come meglio crede (fino ad arrivare alle forme più barbare di stupro, assassinio e tortura) ; Ava esiste invece allo scopo principale di dimostrare il genio del suo creatore. In entrambi i casi, il fatto di aver creato questi esseri ci fa pensare che la nostra proprietà su di essi sia scontata. La sfida per il futuro, se le cose andranno come alcuni pensano, sarà allora riuscire ad accettare che le intelligenze artificiali possano evolvere in qualcosa che non può più essere proprietà dell'uomo. Quando verrà il momento - a meno di non contraddire i valo­ ri fondanti delle società democratiche - dovremo essere pronti a mettere in dubbio i nostri diritti di sfruttare robot-intelligenti per farli lavorare al posto nostro, per assisterci in ogni momento, per obbedire ai nostri ordini. Una proposta di legge depositata al Par­ lamento Europeo11, in cui si chiede che , fa capire come il dibattito si stia facendo largo anche in luoghi ben lontani dalle speculazioni (fanta)scientifi­ che. Nonostante le apparenze, la proposta europea non mira tanto alla tutela dei robot, quanto a porre le basi per un futuro in cui sia giuridicamente chiaro su chi ricadano le responsabilità per le azioni compiute dai robot e in cui il progresso tecnologico abbia ricadute positive per l'intera società. In ogni caso, nonostante le ragioni che hanno portato alla pro­ posta europea siano soprattutto "umane" , il riconoscimento dello status di "persona" alle macchine artificiali sarebbe un passaggio storico, che ci porterebbe inevitabihnente a considerare la possibi­ lità di garantire loro l'accesso ad alcuni diritti basilari. Ma i robot possono davvero essere persone? , spiega Glenn Cohen, professore di Bioetica ad Harvard. 12• Una volta che "l'evoluzione robotica" - ma parlare di robot è fuorviante, perché lo stesso varrebbe anche se ci trovassimo di fron­ te a dei semplici software non forniti di alcun corpo - avrà dotato le macchine di un certo livello di intelligenza e di autocoscienza, non sarà facile sfuggire ai nostri doveri (o, se si vuole, al nostro senso morale13 ): dovremo garantire loro l'accesso ai diritti universali.

12 http://bigthink. com/videos/glenn-cohen-on-ai-ethics-an d-personhood 13 http://www. treccani.it/enciclopedialsenso-morale-dottrina- del_(Dizionario-di-fi-

ETICA ARTIFICIALE

55

2.3 IL DIRITIO DEl ROBOT A LLA VITA E AL LA PROCREAZIONE

Jeremy Bentham, padre dell'Utilitaristno, riteneva 14 che l'ac­ cesso ai diritti fondamentali non fosse appannaggio degli esseri pensanti, ma dovesse essere garantito a tutti gli esseri dotati della capacità di provare dolore (e piacere) . Tale approccio ha portato, in età contemporanea, alla Dichiarazione dei diritti degli animali 15 , proclamata dall'Unesco nel 1 97 8, in cui, tra le altre cose, si vieta che un animale possa essere sottoposto a maltrattamenti e atti crudeli e in cui si specifica che, nel caso in cui la soppressione si renda ne­ cessaria, questa . L'esperienza del dolore vissuta da Terminator (capitolo 2 . 1 ) sugge­ risce che l'intuizione di Bentham potrebbe ancora essere utile per decidere che tipo di comportamento sia giusto tenere nei confronti delle macchine più evolute. Preoccuparci della sofferenza dei robot potrebbe però non esse­ re sufficiente. Se davvero le intelligenze artificiali, in quanto dotate di coscienza di sé e di vera intelligenza, acquisissero lo status di "persona" , non basterebbe fare riferimento ai diritti degli animali, si dovrebbe tornare alla Dichiarazione Universale dei Diritti dell'Uo­ mo16, proclamata a Parigi durante un'assemblea generale delle N a­ zioni Unite nel dicembre 1 948 e frutto del lavoro di rappresentanti di tutte le culture al fine di individuare lo standard comune per i diritti dei popoli. Le conseguenze a cui andretnmo incontro se davvero volessimo garantire alle intelligenze artificiali l'accesso ai Diritti dell'Uomo sa­ rebbero però difficilmente prevedibili. Il punto numero tre della dichiarazione, per esempio, recita: . La prima parte dell'articolo 1 6 invece recita: . Sintetizzando in ma­ niera un po' sbrigativa, si considera generalmente che tra i diritti umani ci siano anche il diritto alla vita ( diritto di essere) e il diritto alla procreazione (segnalato generalmente tra i diritti dei /are ) . Ma come si applicherebbe tutto ciò alle macchine? Se si passa dai discorsi generali ai punti specifici, si va in effetti incontro a numerosi problemi: il diritto alla vita e alla sicurezza, per esempio, ci impedirebbero di agire contro un robot nel modo più setnplice e sicuro possibile: spegnendolo per sempre. Si tratterebbe, infatti, di una grave violazione nei confronti di un essere cosciente e intelligente che ha raggiunto lo status di "persona" . Di fatto, spe­ gnere per sempre un robot equivarrebbe a ucciderlo. E nonostante la sua "uccisione" potrebbe anche essere solo temporanea (a meno che non gli si cancelli anche la memoria e quindi, come abbiamo visto, la sua identità) , è evidente che l'azione in sé genererebbe pa­ recchi problemi etici. Ancora più complessa è la questione della procreazione, una funzione biologica che sembra negata a delle macchine. In Ghost in the Shell, la soluzione a questa carenza viene individuata nella fusione tra due entità, Kusanagi e il Signore dei Pupazzi, allo scopo di dare vita a un ente terzo completamente nuovo. Ma è ovvio che fondersi è cosa ben diversa rispetto al fare figli. Qual è allora l'equivalente robotico del generale prole? La que­ stione viene affrontata nel saggio Robotics and the lessons o/ Cy­ berlaws dal professore di legge Ryan Calo17, secondo il quale le macchine potrebbero desiderare di riprodursi in senso letterale, generando quindi setnplici copie di se stesse. Un diritto del genere, però, potrebbe trasformarsi in un pericoloso privilegio nel momen­ to in cui le intelligenze artificiali iniziassero a creare copie illimitate di se stesse. Una proliferazione che sarebbe dannosa sotto numerosi punti di vista (ci torneremo tra poco) e che potrebbe portarci a ne­ gare alle AI la possibilità di riprodursi. Ma non sarebbe un compor­ tamento deplorevole? Un'alternativa più accettabile viene suggerita dal già citato fisico e filosofo David Deutsch, secondo cui l'insieme 1 7 https://papers .ssm.com/sol3/papers .cfm? abstract_id=2402972

ETICA ARTIFICIALE

57

di tutte le copie dovrebbe essere considerato come " una sola perso­ na" , almeno fino a quando non inizieranno a differenziarsi in segui­ to a diverse esperienze o decisioni. In effetti, nulla fa pensare che una copia possa essere conside­ rata l'equivalente robotico di un figlio; semmai è l'equivalente ro­ botico di un clone. Anche il Signore dei Pupazzi del solito Ghost in the Shell la pensa in questo modo, ma aggiunge un particolare estremamente interessante: così come una specie che non varia di­ venta molto più debole (ed è la ragione per cui, generalmente, i cani meticci godono di salute migliore dei cani di razza) , allo stesso modo una stirpe robotica costituita da copie sarebbe estremamente vulnerabile. Una copia è un 'immagine identica all'originale: esiste la possibili­ tà che un singolo virus riesca a distruggere un'intera serie di sistemi. Inoltre} le copie non sono in grado di riprodurre la varietà del mondo vivente. La vita si perpetua grazie alla diversità} il che implica anche la capacità di sacrzficarsz: se necessario. Nelle cellule si ripete il processo di generazione e rigenerazione} finché un giorno esse muoiono cancel­ lando così un 'intera serie di informazioni. Solo i geni rimangono. Per­ ché ripetere costantemente questo ciclo ? Per sopravvivere} evitando le debolezze insite in un sistema immutabile. ....

E proprio per questo che, nell'impossibilità di generare una vera e propria prole, l'unica soluzione passa per la fusione del Signore dei Pupazzi con Kusanagi, che gli consente di conquistare il primo dei . '



2.4 LA LI BERTA DALLA SC HIAVITU

Nonostante l'ampio consenso che si registra sulla possibilità di allargare, un giorno, i diritti universali a macchine sufficientemente avanzate da poter essere considerate vive, la questione diventa più complessa ogni volta che si passa dal quadro generale all'analisi dei singoli diritti a cui avrebbero concretamente accesso i robot. L' ar-

58

RIVOLUZIONE ARTIFICIALE

ticolo 4 della Dichiarazione Universale dei Diritti dell'Uomo, per esempio, recita: . Se anche l'accesso ai diritti universali per i robot dovesse in qualche modo essere limitato, non si potrebbe sicuramente negare il diritto alla libertà dalla schiavitù a una macchina cosciente e intel­ ligente; così facendo, però, non verrebbe meno la ragione stessa per cui le stiamo creando? Il principale obiettivo nello sviluppo tecnologico di intelligenze artificiali - sia che abbiano la forma di robot, sia che siano solo software - è quello di farle lavorare al posto dell'uomo (com'è il caso dei software che guideranno le auto autonome, sostituendo i taxisti) o al suo fianco (nel caso di software avvocati oppure medi­ ci) . In entratnbi i casi, questi robot e questi software sono chiamati a lavorare agli ordini dell'uomo, senza avere diritto a nulla in cambio: un'evidente fortna di schiavitù. Ovviamente, finché la " schiavitù " non riguarda esseri coscienti, ma semplici programmi estremamente evoluti - come può essere il software alla guida di un'auto autonoma - non si pone alcun proble­ ma etico e non si può nemmeno parlare di schiavitù vera e propria. Ma se si allarga lo sguarda a un futuro in cui macchine dotate di coscienza - macchine create dall'uomo per essere lavoratori sempre più intelligenti, affidabili e in grado di svolgere compiti di grande responsabilità e cotnplessità - circoleranno liberamente per le città e saranno parte integrante della società, ecco che un enorme proble­ ma tnorale inizia a farsi largo. Nel momento stesso in cui l'uomo riuscisse a progettare una macchina davvero intelligente e autocosciente vedrebbe venire meno il suo diritto a sfruttarla, ovvero la ragione stessa per cui è stata progettata. Un cortocircuito che può avere due possibili vie d'uscita: decidere di rallentare lo sviluppo tecnologico in modo da non arrivare alla creazione di AI in grado di conquistare l'accesso ai diritti; oppure scegliere di negarglielo, venendo così meno ai nostri doveri etici e morali. La terza possibilità è invece quella di affronta­ re il problema etico nel motnento in cui (e se) si porrà, pur sapendo

ETICA ARTIFICIALE

59

che, in questo modo, si corrono i rischi maggiori. Un episodio della seconda stagione di Star Trek} The Next Generation, "La misura di un uomo " , può aiutarci a chiarire ulteriormente il quadro. Chi ha seguito Star Trek avrà familiarità con il cotnandante Data, un androide estremamente sofisticato; progettato e costruito in un'unica copia dal defunto dottor Soong. Data è uno degli ufficiali della Enterprise, parte della Flotta Stellare. Nell'episodio in que­ stione, il comandante Maddox, un noto esperto di robotica, è stato autorizzato dall'ammiraglio Nakamura a studiare Data allo scopo di migliorarlo e crearne delle repliche. L'obiettivo di Maddox è di sca­ ricare il cervello di Data in un computer, analizzarlo e poi caricarne una copia in una versione aggiornata e replicabile dell'androide. Si tratta di un procedimento complesso, in cui non c'è alcuna garanzia che tutto vada a buon fine. Oltre al rischio, c'è un altro aspetto che non convince Data: quella copia aggiornata, in ogni caso, sarebbe un essere differente: , replica Data a Maddox, negandogli il suo assenso. Data vuole assicurarsi che all a sua identità venga garantita con­ tinuità: per lui, sottoporsi a questa procedura equivale a morire e ri­ svegliarsi trasformato in qualcun altro. Per questa ragione, l' androi­ de decide di dare le dimissioni da comandante della Flotta Stellare; dimissioni che gli vengono però negate dal comandante Maddox, il quale contesta che Data, in quanto proprietà della Flotta Stellare, abbia diritto a dare le dimissioni e a rifiutarsi di sottoporsi a un aggiornamento, per le stesse ragioni per cui non potrebbe farlo il computer di bordo dell'Enterprise. La questione viene portata al giudice Philippa Louvois, inizial­ mente convinta che la soluzione sia semplice: Data non è un essere senziente, ma una semplice macchina, e di conseguenza, in quanto proprietà della Flotta Stellare, è privo del diritto di rifiutarsi di sot­ tostare agli esperimenti di Maddox e di dare le dimissioni. Una de­ cisione che viene immediatamente impugnata dal capitano Picard, che prende le difese di Data nel processo che viene organizzato, mentre la posizione di Maddox viene sostenuta dal riluttante co­ tnandante Riker:

6o

RIVOLUZIONE ARTIFICIALE

Riker: Vostro onore, c'è solo un risultato e una sola prova rilevan­ te: chiamo alla sbarra il comandante Data. (Data si avvicina alla sedia del testimone e poggia la mano su uno scanner che deve verificarne l}identità). Voce computerzZz,ata: Verzfica: tenente comandante Data. Attuale assegnazione, USS Enterprise, comando della Flotta Stellare. Decora. zzone per . . . Riker: Vostro onore, conveniamo tutti su queste decorazioni Picard: Obiezione vostro onore, che siano elencate completamente Philippa: D'accordo Voce computerizzata: . . . valore e coraggio. Medaglia d'onore, legione d'onore, croce stella re Philippa: Proceda, comandante Riker: Data, che cos} è lei? Data: Un androide Riker: Ovvero? Data: Il dizionarz·o Webster del 24 ° secolo, quinta edizione, definisce un androide come un automa fatto a immagine dell'uomo Riker: Un automa. Fatto da chi? Chi è stato a costruirla ? Data: Il dottor Noonien Soong Riker: Chi era? Data: La più illustre autorità in cibernetica Riker: Più semplicemente, vuole dirmi cos} era ? Data (stranito): Umano ? Dopo una dimostrazione delle abilità e della forza di Data, Riker gli ((svita)} una mano. Riker: Data è la rappresentazione fisica di un sogno; un'idea con­ cepita dalla mente di un uomo. Il suo scopo è di servire i bisogni e gli interessi umani. È un intreccio di reti neurali e algoritmi euristici. Le sue reazioni sono dettate da un elaborato software scritto da un uomo, il suo hardware è stato costruito da un uomo. E ora un uomo lo spegnerà (Riker disattiva Data). Pinocchio ora è rotto, i suoi fili sono stati tagliati.

ETICA ARTIFICIALE

61

L'argomento di Riker è chiaro: Data è una macchina artificiale, costruita dall'uomo per servirne gli scopi; in quanto tale è soggetta alle scelte dell'uomo e può essere spenta. Essendo una macchina, il suo unico valore è quello che gli viene attribuito dai suoi creatori, dall'uomo. C'è però un aspetto che, fin dall'inizio, contraddice al­ meno in parte le tesi di Riker: Data ha ricevuto delle medaglie all'o­ nore e altri riconoscimenti, conferimenti che, solitamente, spettano solo agli umani e che certamente non vengono dati ai computer o agli oggetti. Nella sua difesa, però, il capitano Picard preferisce con­ centrarsi su un altro aspetto. Picard: Il comandante Riker ha dimostrato in maniera drammati­ ca a questa corte come il tenente comandante Data non sia altro che una macchina. Non lo neghiamo, ma è una cosa rilevante? Anche noi siamo macchine,· ma siamo macchine di un tipo diverso. Il coman­ dante Riker ci ha ricordato più e più volte che Data è stato costruito da un umano. Non neghiamo neanche questo. Ma, ancora una volta, è rilevante? Costruire qualcosa implica anche esserne proprietari? I bambini sono creati a partire dai blocchi di costruzione del DNA dei loro genitorz: sono allora di loro proprietà? [. . . ] In questa udienza c'è il rischio di porre dei grossi limiti ai confini della libertà. E penso che dobbiamo stare molto attenti prima di compiere un passo simile.

La difesa di Picard procede chiamando alla sbarra Maddox, se­ condo il quale Data dev'essere considerato una macchina in quanto non è un essere senziente. Per essere considerato tale, è necessario infatti essere dotati di intelligenza, consapevolezza e coscienza. No­ nostante Data possegga sicuramente le prime due qualità, secondo Maddox è la mancanza di coscienza a separare nettamente un uma­ no come Picard da una macchina come Data. Picard: Lei ha dedicato tutta la sua vita allo studio della cibernetica, è corretto ? Maddox: St' Picard: E a Data in particolare? Maddox: St'

62

RIVOLUZIONE ARTIFICIALE

Picard: E adesso lo vuole smantellare Maddox: Così da poter imparare da esso e costruirne altri Picard: Quanti altri? Maddox: Quanti ne serviranno. Centinaia} migliaia se necessario. Non c}è limite Picard: Un solo Data è una curiosità} anzi una meraviglia. Ma mi­ gliaia di Data? Non crede che diventerebbe una razza? E non sarem­ mo giudicati per il nostro modo di trattare questa razza ? Allora mi dica comandante} che cos'è Data? Maddox: Una macchina Picard: Ne è sicuro? Ha soddisfatto due dei suoi tre criteri. E se soddisfasse anche il terzo} la coscienza} anche solo in minima parte} allora cosa sarebbe? Io non lo so. E lei? Eppure è questa la domanda alla quale dobbiamo rispondere. Vostro onore} un}aula di tribunale è un crogiuolo in cui bruciamo le cose irrilevanti finché non restiamo con il prodotto puro} la verità} per sempre. Presto o tardi quest}uomo o qualcun altro come lui riuscirà a replicare il comandante Data}· la decisione che lei prenderà qui questJoggi determinerà come noi consi­ deriamo questa creazione del nostro genio. Quindi rileverà il tipo di gente che siamo. Quello che lui è destinato a essere andrà molto al di là di questa corte e di questo singolo androide e potrebbe signzficati­ vamente ridefinire i limiti dellJindipendenza e della libertà personale espandendoli per alcuni e riducendo/i selvaggiamente per altri. Siete pronti a condannare lui e tutti gli altri che verranno dopo di lui alla schiavitù e alla servitù? Vostro onore} la Flotta Stella re fu fondata per cercare nuove forme di vita. Beh} una eccola qui! Philippa: Lui è qui che mi sta guardando} e io non che cosa sia. Questo caso ha a che fare con la metafisica} con domande che è meglio lasciare ai santi o ai filosofi. Io non sono competente} non sono qua­ lificata per rispondere a esse. Devo emettere una sentenza che cerchi di guardare al futuro. Data è una macchina? St� È di proprietà della Flotta Stellare? No. Tutti noi abbiamo girato attorno alla domanda principale) cioè se Data ha un Janima} ma io non posso dirlo} neanche io posso dire di averla [. . . ] La sentenza di questa corte è che il coman­ dante Data ha la più completa libertà di scelta.

ETICA ARTIFICIALE

63

N el caso illustrato in questo episodio di Star Trek non solo ri­ tornano molti temi che abbiamo affrontato nei capitoli precedenti (compreso, ancora una volta, l'aspetto della memoria) ; tna viene esplicitamente trattato il tema della schiavitù di macchine intelli­ genti costrette a eseguire i nostri ordini e obbedire ai nostri voleri. Un problema rimane comunque aperto: nonostante ci sia accordo generale sui criteri da indagare (intelligenza, consapevolezza, auto­ coscienza) per capire se una macchina è diventata persona, molto più difficile è avere la certezza che una tnacchina abbia raggiunto questo status e debba quindi essere "liberata" . Se si guarda al titolo dell'episodio di Star Trek in questione, "La misura di un uomo " , si capisce che c'è un altro importante aspetto, analizzato da Lucas Introna in un saggio pubblicato su Arti/icial lntelligence & Society18: . Si tratta di un punto di estretna importanza, tna che rischia di portarci in territori filosofici troppo ostici per i tnodesti obiettivi di questo libro. Quel che è certo, inoltre, è che si tratta di considera-

1 8 Lucas D. Introna, The 'measure of a man ' and the ethos of hospitality: towards an ethical dwelling with technology, AI & Society, April 20 1 0, Volume 25 , Numero l , pp 93 -1 02

64

RIVOLUZIONE ARTIFICIALE

zioni che difficilmente avrebbero un peso politico nel momento in cui la nostra società si trovasse ad affrontare, da un punto di vista etico e legale, le questioni sollevate dalla presenza nella società di macchine senzienti; che, in quanto creazione dell'uomo, verrebbero quasi certamente giudicate usando criteri antropocentrici. 2 .5 IL DIRITIO DI PA ROLA E DI VOTO

Un'ulteriore criticità che incontreremo se e quando robot sen­ zienti diventeranno parte integrante della società riguarda i due diritti fondanti delle nostre democrazie: il diritto di espressione (ar­ ticolo 1 9 della Dichiarazione Universale) e il diritto di voto (artico­ lo 2 1 ). In un certo senso, qualcosa si sta già oggi muovendo: negli ultimi anni ci sono stati infatti numerosi casi di intelligenze artificiali che hanno scritto poesie, dipinto quadri, composto canzoni e altro ancora; tutte creazioni sulle quali non detengono, ovviamente, al­ cun diritto (anche perché non saprebbero che farsene) . In ottica fu­ tura, però, la già citata proposta depositata al Parlamento Europeo sulle ''persone elettroniche" prende in considerazione la necessità di . Si tratta, quindi, di legiferare per decidere se le creazioni di un software intel­ ligente siano di proprietà non di chi ha creato quel software, come avviene oggi, ma del software stesso. Lo stesso, in futuro, potrebbe valere anche per i discorsi prodotti da una macchina. Analizzando una situazione simile, i professori di legge Toni Massaro e Helen Norton affermano: 19• La prosecuzione di questo di­ scorso ci pertnette di analizzare delle possibili obiezioni: . C'è un altro aspetto molto importante: il Primo Emendamento degli Stati Uniti20 - ma lo stesso vale per altre leggi costituzionali che regolano questo aspetto - non tutela solo la libertà di espres­ sione del soggetto, ma anche il discorso stesso, che va protetto per il valore che può avere in sé e per le informazioni che può fornire agli ascoltatori. Limitare la libertà di parola di una macchina (sia direttamente, sia negandogli la proprietà dei suoi discorsi) potrebbe quindi causare un danno alla collettività. >. Se dovesse presentarsi l'occasione di proporre un'altra riforma costituzionale, forse dovremtno approfittarne per inserire da qual­ che parte il termine " essere umano " .

2 1 Ryan Calo, Robotics and the lessons of Cyberlaws , California Law Review, Vol. 1 03 , No. 3 , pp . 5 13 -63 (2015 )

ETICA ARTIFICIALE

67

2.6 LE RESPONSABILITÀ DI U NA Al

'

E davvero il caso di interrogarsi su scenari che oltre a essere molto lontani a venire, sono ancora solo ipotetici? In verità, sì. Anzi, se si considera, per esetnpio, il vuoto legislativo di tnolti paesi in tema di "self-driving car" , siatno già ritardo. Mancano pochi anni alla messa in commercio generalizzata delle auto autonotne (si parla del 2022/2023 ) e ancora non c'è una risposta definitiva alla domanda più scontata: di chi è la responsabilità se una di queste auto causa un incidente? Del guidatore, della macchina o del programmatore? Di tutti e tre o di nessuno? La questione, in questo caso, è molto attuale. Negli ultimi anni, gli incidenti si sono moltiplicati. Il pritno caso che fece discutere dell' allocamento delle responsabilità in caso di incidente di un'auto autonoma risale però al febbraio 2016: una self-driving car di Goo­ gle causò un incidente perché, dopo aver individuato un ostacolo, la macchina si spostò nella corsia centrale per evitare l'itnpatto, col­ pendo però la fiancata di un bus. Stando al rapporto dell'incidente, l'intelligenza artificiale ai comandi della vettura aveva visto il bus, ma " supponeva" che avrebbe rallentato per permettere alla macchi­ na di spostarsi nella sua corsia22 • Non è la prima volta che una di queste vetture viene coinvolta in un incidente, ma per la prima volta è stata l'auto senza pilota a causarlo. Di qui la domanda: chi è il respo11sabile? Secondo gli esperti, lo scenario legislativo più probabile è che la colpa non rica­ da sul proprietario dell'auto (se non è responsabile dell'accaduto) , ma sull'azienda che ha costruito il software che " guida" la vettura. In questo caso, quindi, a pagare i danni causati al bus sarà Google. Si tratta di un precedente importante, perché potrebbe sollevarci da ogni responsabilità per i danni causati dai robot che, nel futuro, svolgeranno le commissioni al posto nostro. Tutta la responsabilità, quindi, ricade sui costruttori; che dovran­ no preoccuparsi di compensare l'assenza di empatia delle macchine 22 https :/lwww. scien tificamerican . com/ article/wh o-s-res ponsible-wh e n-a-self-d ri­ ving- car-crashes/

68

RIVOLUZIONE ARTIFICIALE

insegnando loro a prendere la decisione giusta in tutte le situazioni possibili; mentre alla politica spetterà, semmai, il compito di capire come giudicare e punire degli esseri d'acciaio e silicio. Sotto que­ sto aspetto, uno degli interventi più interessanti è quello di Kris Hamtnond, professore di Scienze Informatiche alla Northwestern University: >23 • Quando allora dobbiatno affrontare dei dilemmi etici che riguar­ dano direttamente le macchine? Per esempio, nei casi in cui aderire a regole ben precise, cotne "non uccidere umani" , è impossibile, perché ogni scelta che la tnacchina può prendere la porterebbe co­ munque a violarla. L'esempio standard che riguarda questa situazio­ ne è chiamato "il dilemma del carrello ferroviario" , che presenta la • • situazione seguente.

23 http://www.recode.net/2016/4/13/1 1 644890/ethics-and-artificial-intelligen­ ce-the-mora!-com pass-of- a-machin e

ETICA ARTIFICIALE

69

Un treno ha perso il controllo e procede a velocità massima. Lungo il percorso, si trovano cinque persone legate ai binari che potrebbero essere uccise nel giro di pochi secondi. Un tasto pre­ sente sul treno potrebbe dirottare il vagone su un altro binario, ma anche su questo binario è presente una persona, anch'essa legata, che verrà schiacciata se decidiamo di premere il tasto. Se premiamo il tasto, quindi, muore una persona, se non lo facciamo, ne muoiono cinque. In ogni caso, la nostra azione, o la nostra inazione, causerà la morte di qualcuno. , scrive ancora Kristian Ham­ mond, >. 3.5 IL COLLASSO DELLA RE ALTÀ

l PERICOLI PER L'UOMO

87

In mezzo a tanti dubbi, previsioni e pericoli, una cosa è certa: il mondo in cui viviamo assomiglia sempre più a un'opera distopi­ ca. La colpa non è solo degli algoritmi: Donald Trump è diventato presidente degli Stati Uniti grazie (anche) al supporto di un gruppo di attivisti - noti come alt-right - che sono una via di mezzo tra dei nerd e dei nazisti; i troll russi minacciano le nostre democrazie agendo sui social network; aziende private dal fatturato che supera quello di una piccola nazione raccolgono una quantità incredibile di dati privati sulle nostre vite e il timore che la nostra diventi la società della sorveglianza di massa continua a farsi largo. Non c'è da stupirsi, allora, che in seguito all'elezione di Trum p il capolavoro distopico per definizione, 1 984 di George Orwell, sia schizzato in cima alle classifiche dei libri più acquistati su Amazon; facendo riscoprire a tanti il bispensiero che caratterizza la società del Grande Fratello e che rende possibile credere sia in un'idea (o un fatto) sia nel suo opposto. Qualcosa che ricorda da vicino non solo i concetti di fake news e post-verità (parola dell'anno 20 17 per Oxford Dictionaries) , ma soprattutto i fatti alternativi teorizzati dal­ la consigliera di Trump, Kellyanne Conway1 0 • Se non bastasse, in 1 984 si racconta di guerre senza fine in cui però il nemico continua a cambiare (una situazione non troppo dis­ simile dal caos geopolitico in cui siamo impantanati ormai da due decenni) ; mentre il Grande Fratello che tutto osserva e controlla rievoca per definizione i già citati timori sulla sorveglianza di massa resa possibile da dispositivi tecnologici che ci seguono ovunque. Infine, anche la neolingua usata nel tnondo di 1 984, e creata appositamente per impedire il pensiero critico, si può forzatamente ricollegare alla semplificazione estrema del linguaggio da social, fat­ to più di emoji che di parole. Stiamo quindi vivendo nel mondo di 1 984? In verità, no. Come ha scritto Charles McGrath sul New York Times11, , che guardiamo, ma che ci guarda anche. N el dibattito seguito al bootn di vendite del capolavoro di Orwell, tanti hanno fatto notare come ci fosse un'altra distopia classica in grado di raffigurare con più precisione la nostra società, senza bisogno di scomodare dittature in stile Germania dell'Est che non rappresentano certo l'Occidente di oggi: Il mondo nuovo, pub­ blicato nel 1 932 da Aldous Huxley e di quasi due decenni prece­ dente al capolavoro di Orwell. Quello disegnato da Huxley è un mondo in cui non c'è bisogno della dittatura per tenere a bada le persone; è invece molto più utile dare loro tutto quello che vogliono: , disse lo stesso Huxley rispondendo a una let­ tera di Orwell (che del primo era stato alunno) . Che bisogno c'è di opprimere i cittadini se puoi soggiogarli dando loro tutto quello che vogliono: intrattenimento costante, consumismo sfrenato, droghe che ti fanno sentire bene anche quando bene non stai e altre forme di piacere superficiale che conducono inevitabilmente alla noncu­ ranza e alla placidità? Simbolo di questa società, nel romanzo, è la droga chiamata Soma, una versione migliorata del Valium o degli altri comuni antidepressivi, con un pizzico di psichedelia. Le intuizioni di Huxley sono valse il plauso del sociologo Neil Posttnan, che nel suo classico degli anni Ottanta Divertirsi da mori­ re12 sottolineava gli aspetti che rendevano Il mondo nuovo superiore a 1 984. Posttnan scriveva: . Eppure, gli ultimi sviluppi della nostra società iper-tecnologica, soprattutto quelli legati all'avanzare delle intelligenze artificiali e dei (ro)bot, fanno pensare che ci sia un altro gigante della distopia e della fantascienza rimasto fino a questo momento escluso dal dibat­ tito: Philip K. Dick. Il geniale autore di Ubik e La svastica sul Sole che nei suoi romanzi disegna un mondo in cui - come si legge sulla Boston Review13 - . Nei libri di Dick il falso e il reale si contagiano, rendendo estre­ mamente difficile distinguere l'uno dall'altro. L'esempio più noto - ma non per forza il più significativo - è ovviamente quello dei replicanti de Ma gli androidi sognano pecore elettriche? che ha ispi­ rato Biade Runner. Non è l'unico caso: ne Le tre stimmate di Palmer Eldritch, una droga (il Chew-Z) rende impossibile capire se ci si trovi nel mondo reale o in uno stato di fantasia allucinatoria, mentre ne La svastica sul Sole è addirittura tutto il mondo occidentale a es­ sere falso, appositamente ricreato come tale per ingannare (e tenere buoni) i suoi abitanti. Non siamo ancora giunti a questo punto; eppure la fusione tra reale e finzione, e la sempre maggiore difficoltà nel distinguerle, è qualcosa che anche la nostra società conosce fin troppo bene. Basti pensare a tutto il dibattito sulle fake news (notizie finte che conti­ nuano a essere considerate vere da molti anche quando viene di­ mostrata la loro falsità) o alla proliferazione di bot automatici che su Twitter e non solo si fingono umani per ingannare, manipolare e truffare gli utenti veri (ci è cascato anche Donald Trump14). Andando oltre, l'intelligenza artificiale e i progressi della robo­ tica sembrano in grado di creare un mondo in cui sarà sempre più difficile distinguere chi è umano e chi è robot, in cui androidi molto 13 http ://bostonreview.netlliterature-culture/henry-farrell-philip-k-dick- and-fake­ humans 1 4 h t t p s : / /www. b u s i n e s s i n s i d e r. c o m / t r u m p - t wit t e r- b o t - ni c o l e - p r o t r u ­ mp45 -2 0 17 -8?IR= T

go

RIVOLUZIONE ARTIFICIALE

evoluti come Sophia (androide sociale sviluppato dalla compagnia hongkonghese Hanson Robotics Limited) conquistano la citta di­ nanza e altri si occupano di accudire gli anziani. Infine, algoritmi come quelli progettati dalla startup canadese Lyrebird sono già oggi in grado di imitare la voce di qualunque persona, sincronizzare le parole con il labiale e creare video assolutamente verosimili in cui una personalità cotne Barack Obama dice cose che in realtà non ha mai detto15• Allo stesso modo, un algoritmo creato da un utente di Reddit, noto come Deepfake, permette di creare video in cui il volto di chiunque può essere sostituito. Il primo utilizzo di questo strumen­ to è stata la diffusione di porno in cui le attrici avevano il viso di celebrità come Gal Gadot, la protagonista di Wonder Woman; tna se sono bastate le fake news per scatenare il panico, cosa succe­ derà quando questa tecnologia verrà usata a fini elettorali e in rete circoleranno video finti in cui politici veri vengono piazzati nelle situazioni più imbarazzanti o dicono cose che non hanno mai nem­ meno pensato? Il rischio, come ha scritto Pietro Minto su Il Tasca­ bile16, è di trovar ci di fronte al " collasso della realtà" , in cui nessuno distingue più il vero dal falso e in cui le persone non sanno più a cosa credere; probabihnente lo scenario più dickiano che ci si possa • • 1mmagmare. D'altra parte, lo stesso Dick ha teorizzato nel 1 977 la possibilità che anche il mondo in cui viviamo sia finto, che sia una realtà pro­ grammata al computer. Possiamo davvero derubricare queste teorie come il delirio di una mente tanto geniale quanto instabile (e vittima di pessime abitudine alcoliche? Un mondo in cui le bugie sono fatti alternativi, in cui le fake news vengono prese per vere anche dopo che è stata dimostrata la loro falsità, in cui finti utenti di Twitter manipolati dalla Russia interagiscono con il presidente degli Stati Uniti, in cui i robot ottengono la cittadinanza e video finti di perso­ nalità vere aumentano a dismisura la confusione è sicuramente un mondo di cui Philip Dick avrebbe potuto scrivere. >. . Più utopia di così, si muore: tna è itnportante notare come tutte queste conclusioni siano supportate dai dati raccolti grazie a numerosi studi ed esperimenti che si sono svolti nel corso dei decen­ ni, buona parte dei quali vengono raccontati nel saggio di Bregman. A questo punto, è necessario capire di che forma di reddito di base si stia parlando: del reddito universale (ovvero dato a tutti indipendentemente dall'entità dello stipendio e del patrimonio) o del reddito minimo garantito (che viene elargito solo finché non si 12 Rutger Bregman, Utopia per Realist� 2017 Feltrinelli

104

RIVOLUZIONE ARTIFICIALE

raggiunge una certa soglia) ? , spiega Rut­ ger. >. Il bersaglio di Bregtnan, comunque, è soprattutto il " socialismo perdente" : una sinistra ortnai incapace di proporre una nuova vi­ sione del mondo per una generazione che manca completamente di orizzonti e utopie da inseguire. Una sinistra che si limita a ten­ tare di arginare il fiume populista di destra che, quantomeno, ha il merito di proporre una visione, per quanto distopica e oscura . , prosegue Bregman. . Un aspetto poco considerato, ma assolutamente decisivo, è la possibilità che il reddito universale provochi paradossalmente un aumento dei salari: . Il risultato, sul lungo termine, sarebbe che gli stipendi potreb­ bero allinearsi al valore sociale del lavoro: >, ha spiegato al Guardian17 Aaron Bastani, fondatore di N ovara Media. . I concetti espressi da Bastani potrebbero far sembrare il Cotnu­ nismo Automatizzato di Lusso la versione radicale dell' Accelerazio­ nismo (da cui prende avvio) , che, partendo dalle stesse pretnesse (accettare e anzi abbracciare il capitalistno tecnologico) , giunge a una conclusione più estrema: >, afferma sempre Bastani. Un esempio di come si concretizzerebbe tutto ciò tira in ballo Uber, il colosso del ride sharing che prevede di fare a meno, entro il 203 0, di tutti i suoi autisti grazie all'avvento delle sel/ driving car. Perché la politica dovrebbe permettere a Uber di conquistare un tale vantaggio economico? In fin dei conti, l'unica cosa che l' azien­ da fondata da Travis Kalanick ha inventato è stata una piattaforma che mette in contatto gli autisti con chi ha bisogno di un passag­ gio, trattenendo una percentuale della transazione. La percentuale, però, salirà al 1 00 % quando ogni autista sarà reso obsoleto dalle auto che si guidano da sole: a quel punto, Uber aumenterà drastica­ mente i suoi guadagni senza restituire niente alla società, nemmeno

1 7 https://www. theguardian.com/sustainable-business/20 15/mar/1 8/fully- automa­ ted-luxury- communism-robots -employment

11 4

RIVOLUZIONE ARTIFICIALE

sotto forma di (magri) stipendi ai suoi collaboratori. Perché allora gli stati - invece di provare inutilmente a impedire che la tecnologia faccia il suo corso - non reagiscono nazionalizzando (o almeno clo­ nando) questa e altre piattaforme per fornire un servizio simile, ma senza scopo di lucro, e ridistribuirne i profitti? In questo modo, il lusso sarà disponibile a tutti (dove il concetto di lusso è un po' vago, ma sembra fare riferimento all'accesso col­ lettivo anche a beni non essenziali) : , si legge su Vi"ce18•