Protezione dei dati personali e nuove tecnologie. Ricerca interdisciplinare sulle tecniche di profilazione e sulle loro conseguenze giuridiche 9788849549485

331 60 4MB

Italian Pages [768] Year 2022

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Protezione dei dati personali e nuove tecnologie. Ricerca interdisciplinare sulle tecniche di profilazione e sulle loro conseguenze giuridiche
 9788849549485

Citation preview

Collana del Dipartimento di Scienze Giuridiche dell’Università degli Studi di Firenze 14

Nella stessa collana

 1. Francesca Tamburi, Il ruolo del giurista nelle testimonianze della letteratura romana, 2013.  2. Marco Rizzuti, La sanabilità delle nullità contrattuali, 2015.  3. Vincenzo Putortì (a cura di), La giustizia arbitrale, 2015.  4. Sara Benvenuti, La via francese alla giustizia costituzionale, 2015.  5. Michele Ingenito, Il processo penale contro l’imputato irreperibile, 2016.  6. Evoluzione e valutazione della ricerca giuridica, a cura di Giuseppe Conte, 2016.  7. Simona Viciani, Errore in medicina e modelli di responsabilità, 2016.  8. Ettore Maria Lombardi, La «responsabilizzazione» delle autorità di controllo del mercato finanziario, 2016.  9. Abuso del diritto, a cura di Giovanni Furgiuele, 2017. 10. Michele Ingenito, Le presunzioni cautelari nel processo penale, 2017. 11. Andrea Bucelli, Abitazione e condominio. Contributo allo studio dei diritti e degli interessi in comunione, 2018. 12. Monica Parodi, L’adesione dell’Unione europea alla CEDU: dinamiche sostanziali e prospettive formali, 2020. 13. Simone Torricelli (a cura di), Ragionando di diritto delle pubbliche amministrazioni, 2020.

Protezione dei dati personali e nuove tecnologie. Ricerca interdisciplinare sulle tecniche di profilazione e sulle loro conseguenze giuridiche a cura di

Adelina Adinolfi e Andrea Simoncini

La pubblicazione è stata sottoposta a una procedura di valutazione a opera di blind referees. Volume pubblicato con il contributo di

Adinolfi, Adelina e Simoncini, Andrea (a cura di) Protezione dei dati personali e nuove tecnologie Ricerca interdisciplinare sulle tecniche di profilazione e sulle loro conseguenze giuridiche Collana del Dipartimento di Scienze Giuridiche dell’Università degli Studi di Firenze, 14 Napoli: Edizioni Scientifiche Italiane, 2022 pp. XIV+754; 24 cm ISBN 978-88-495-4948-5 © 2022 by Edizioni Scientifiche Italiane S.p.A. 80121 Napoli, via Chiatamone 7 Internet: www.edizioniesi.it E-mail: [email protected] I diritti di traduzione, riproduzione e adattamento totale o parziale e con qualsiasi mezzo (compresi i microfilm e le copie fotostatiche) sono riservati per tutti i Paesi. Fotocopie per uso personale del lettore possono essere effettuate nei limiti del 15% di ciascun volume/fascicolo di periodico dietro pagamento alla siae del compenso previsto dall’art. 68, comma 4 della legge 22 aprile 1941, n. 633 ovvero dall’accordo stipulato tra siae, aie, sns e cna, confartigianato, casa, claai, confcommercio, confesercenti il 18 dicembre 2» 000.

Indice

Prefazione di Luigi Salvadori » IX Introduzione alla ricerca di Adelina Adinolfi e Andrea Simoncini  » XI Il contesto internazionale ed europeo Andrea Simoncini, La proposta di regolazione europea dell’intelligenza artificiale. Prime riflessioni

 » 1

Adelina Adinolfi, Processi decisionali automatizzati e diritto antidiscriminatorio dell’Unione europea  » 31 Davide Baldini, La valutazione d’impatto sulla protezione dei dati: quale ruolo per i diritti fondamentali degli interessati?  » 53 Costanza Di Francesco Maesa, La profilazione nel contesto del diritto internazionale  » 75 Diego Mauri, Tecniche di profilazione e uso della forza contro individui: la prospettiva dei diritti umani e del diritto internazionale umanitario  » 103 Olivia Lopes Pegna, Tutela dei dati personali e accesso alla giustizia nel contenzioso transfrontaliero: la disciplina della competenza giurisdizionale nel Regolamento UE n. 2016/679 (GDPR)  » 119 Tutela dei dati personali e profilazione nel sistema democratico Andrea Cardone, Profilazione a fini politico-elettorali e tenuta della democrazia rappresentativa: una lezione per le riforme istituzionali e per la regolazione del pluralismo democratico in Rete  » 131 Silvia Sassi, Il contrasto alla disinformazione in Unione europea: una tutela per la tenuta della democrazia  » 147 Paolo Corona, Democracy in… bits. Breve riflessione sui nuovi percorsi dell’opinione pubblica nell’era digitale  » 171

Tutela della riservatezza e utilizzo dei dati personali Giuseppe Mobilio, Profilare tramite riconoscimento facciale: il caso della sicurezza urbana  » 183 Federico Gravino, La tutela del diritto alla buona fama e alla riservatezza. Passi compiuti e passi da compiere tra GDPR e Decreto della Conferenza episcopale italiana del 24 maggio 2018  » 203 Laura De Gregorio, Canada (Attorney General) v. Fontaine: un complicato bilanciamento tra riservatezza e interesse pubblico al vaglio della Corte suprema canadese  » 231 Veronica Federico, Le sfide dell’utilizzo dei dati personali post mortem per l’identificazione dei migranti senza nome deceduti durante il viaggio. Riflessioni su privacy, database genetici, dignità, diritto all’identificazione e diritto a conoscere la sorte dei propri cari a partire dalle esperienze degli Stati del Mediterraneo centrale  » 245 Marco Cecili, L’identificazione del migrante: tra sviluppo di database europei ed esigenze di tutela  » 269 Federico Ungaretti Dell’Immagine, Verifica del green pass e tutela del diritto alla protezione dei dati personali  » 295 Nuove tecnologie e pubblica amministrazione Ippolito Piazza, Intervento pubblico, iniziativa privata e tutela dei diritti nel social housing  » 315 Chiara Sartoris, Sanità digitale e tutela dei dati personali

 » 347

Benedetta Vivarelli, Profilazione dei dati e aziende sanitarie » 363 Nicolò Acquarelli, La scuola digitale. Brevi considerazioni su servizi scolastici e nuove tecnologie  » 391 Profilazione e tutela della privacy nell’attività lavorativa William Chiaromonte e Maria Luisa Vallauri, I controlli a distanza sul lavoro nell’era digitale  » 405 Samuele Renzi, Decisioni e processi automatizzati, profilazione dei dati personali e tutela dei diritti dei lavoratori » 431

La tutela dei dati nella sfera del diritto privato Sara Landini, Transizione digitale e mercato assicurativo

 » 455

Ettore M. Lombardi, Il consumatore-investitore e la valutazione del rischio finanziario: tra criteri di percezione e selezione dei dati, «alea iacta est» e responsabilità  » 487 Riccardo Iacovelli, Innovazione tecnologica e attività creditizia: la responsabilità della banca per illecito trattamento dei dati  » 509 Enza Cirone, La decisione algoritmica nelle Organizzazioni Autonome Decentralizzate (DAOS): Panopticon o Panacea?  » 535 Tommaso Polvani, La responsabilità da illecito trattamento dei dati personali  » 557 Il sistema giustizia e gli sviluppi tecnologici: giustizia predittiva e trattamento dei dati personali Erik Longo, Predizione, profilazione e giustizia: le prospettive costituzionali  » 581 Filippo Donati, Trasparenza della giustizia e anonimizzazione dei provvedimenti giudiziari  » 609 Paola Felicioni, Il trattamento dei dati genetici tra efficacia investigativa e tutela della riservatezza  » 625 Lorenzo Algeri, Giustizia predittiva: intelligenza artificiale e processo penale  » 653 Marco Torre, Nuove tecnologie e trattamento dei dati biometrici nel processo penale: il sistema automatico di riconoscimento delle immagini  » 679 Matteo Gabbiani, Il processo civile nel prisma dell’intelligenza artificiale  » 697 Lucilla Galanti, Considerazioni sulla tutela processuale post mortem dei dati personali  » 731

Prefazione L’esigenza di assicurare il rispetto dei diritti fondamentali della persona, tra i quali la protezione della vita privata, la difesa della dignità umana e della salute e il divieto di discriminazione, sono diventati temi straordinariamente attuali che hanno superato gli ambiti degli addetti ai lavori. Lo sviluppo delle nuove tecnologie e i riflessi, a livello sociale, della rivoluzione digitale stanno avendo conseguenze sempre più rilevanti per la vita delle persone ed ecco perché questi studi presentano oggi un certo interesse anche per la generalità dei cittadini. La seguente ricerca è stata finanziata dalla Fondazione CR Firenze ed è il risultato di un lavoro multidisciplinare svolto presso il Dipartimento di Scienze Giuridiche dell’Università di Firenze. Essa si propone di conseguire sia obiettivi di carattere scientifico sia finalità didattiche e operative promuovendo iniziative di formazione universitaria e di diffusione pubblica delle conoscenze. Lo scopo è accrescere la competenza professionale dei soggetti pubblici e privati interessati al trattamento dei dati e di concorrere, allo stesso tempo, a migliorare il livello di tutela delle persone rispondendo ai bisogni della società civile e contribuendo ad agevolare la conformità alle normative vigenti. Il progetto ha inoltre consentito, grazie al sostegno della Fondazione CR Firenze, di cofinanziare 18 borse o assegni di ricerca nei diversi settori disciplinari coinvolti ed ha permesso a giovani studiosi di sviluppare la loro attività di ricerca e di migliorare le loro capacità sia per future attività accademiche sia per opportunità di occupazione in attività del territorio. Si è così contribuito alla crescita scientifica di giovani ricercatori offrendo loro la possibilità di svolgere attività scientifiche nell’Ateneo fiorentino e di acquisire o migliorare competenze su aspetti di rilevante incidenza pratica. Un ambito, quello della formazione, che la nostra Fondazione sta supportando con grande determinazione nella consapevolezza di quanto il capitale umano sia prezioso, soprattutto in questa fase post pandemica, per la rinascita del territorio e del Paese. Un altro aspetto importante della ricerca è stato la spiccata sinergia tra il livello scientifico (tecnico giuridico) e quello pratico (formazione

X

Luigi Salvadori

e diffusione dei risultati). È stato così creato un sito internet (profilaw. it) nel quale vengono messi liberamente a disposizione materiali di ricerca, articoli in open access, aggiornamenti normativi e giurisprudenziali. Sul sito sono resi disponibili anche materiali di carattere divulgativo e linee guida, destinati all’informazione pubblica e degli operatori interessati. Sul tema della ricerca e, più in generale, sulla regolazione delle nuove tecnologie, sono stati organizzati convegni scientifici e si sono svolte varie iniziative seminariali rivolte a studenti e a dottorandi della Scuola di Giurisprudenza. È stato infine aperto un nuovo insegnamento («Diritto della società digitale») e alcuni corsi facoltativi, già avviati in varie discipline, sono stati dedicati ad approfondire la regolazione degli sviluppi tecnologici. Alcuni contributi del volume hanno preso in esame questioni profondamente innovative la cui regolazione costituisce una difficile sfida non solo per la scienza giuridica ma anche dal punto di vista etico e valoriale: si pensi, in particolare, alle applicazioni della intelligenza artificiale, ai sistemi di riconoscimento biometrico, o, ancora, al trattamento dei dati genetici e alle nuove forme di controllo dell’attività lavorativa. È stato dunque uno stimolante sforzo collettivo per il quale dobbiamo ringraziare, in primo luogo, i due coordinatori Adelina Adinolfi e Andrea Simoncini, oltre ai docenti e ricercatori che hanno voluto contribuire a questo lavoro corale. Tutto ciò nella consapevolezza, anzi direi, nella certezza che, per dirla con Albert Einstein, «in caso di conflitto tra l’umanità e la tecnologia, vincerà l’umanità». Luigi Salvadori Presidente Fondazione CR Firenze

Introduzione alla ricerca Il volume espone i risultati di una ricerca triennale svolta presso il Dipartimento di Scienze Giuridiche dell’Università di Firenze. Diversamente da quanto spesso avviene per i volumi collettanei di area giuridica non si tratta della raccolta di una pluralità di ricerche individuali, svolte separatamente e «collazionate» al momento della loro pubblicazione. Si raccolgono, invece, dei lavori maturati nell’ambito di un progetto di ricerca volto ad esaminare il tema del rapporto tra protezione dei dati e nuove tecnologie considerandolo in una pluralità di prospettive disciplinari: ciò nella convinzione, condivisa dagli autori, che questo approccio possa contribuire alla comprensione dei complessi fenomeni con i quali la scienza giuridica si trova a confrontarsi e che determinano le attuali riflessioni scientifiche e istituzionali volte alla individuazione di nuovi paradigmi normativi. La natura multidisciplinare del lavoro appare, quindi, come una sua intrinseca caratteristica, in diverse accezioni: in primo luogo, in ragione delle numerose aree scientifiche «rappresentate» nel volume, dal diritto pubblico e costituzionale, a quello amministrativo, all’ambito privatistico e del lavoro, al diritto processuale sia civile che penale; in secondo luogo, per il tentativo di combinare le diverse articolazioni verticali degli studi giuridici, considerando, nelle loro interrelazioni, la dimensione internazionale e dell’Unione europea, quella comparatistica e nazionale sino a quella regionale e locale. L’afferenza ad una medesima sede universitaria di tutti i partecipanti alla ricerca ha certamente favorito il dialogo e il confronto multidisciplinare, contribuendo così alla realizzazione di un progetto che si propone di essere realmente «collettivo», e anche permettendo utili sinergie nella definizione degli ambiti e delle modalità di indagine. Il progetto ha consentito, grazie al sostegno dell’Ente Cassa di Risparmio di Firenze, di cofinanziare diciotto assegni o borse di ricerca nei diversi settori disciplinari coinvolti; ciò ha permesso a giovani studiosi di sviluppare la loro attività di ricerca con una modalità «collaborativa» e inserendosi nella comunità scientifica del Dipartimento. Ne risulta un volume che ha inteso dare spazio a tutti coloro che hanno

XII

Adelina Adinolfi e Andrea Simoncini

contribuito alla ricerca, includendo anche dottorandi e ricercatori che a diverso titolo collaborano con il Dipartimento. Le caratteristiche della ricerca si riflettono sulla struttura del volume che, evitando una rigida ripartizione per settore disciplinare, ha invece cercato di individuare delle macroaree tematiche all’interno delle quali collocare i diversi contributi. Senza avere alcuna pretesa di esplorare tutte le questioni attinenti al tema oggetto della ricerca – a motivo sia della loro ampiezza sia dell’esigenza di non limitare la varietà degli interessi scientifici dei partecipanti - si affiancano contributi che percorrono trasversalmente alcune problematiche centrali: tra queste, la principale si declina nei vari aspetti relativi all’individuazione delle conseguenze che le nuove applicazioni tecnologiche determinano in relazione alla tutela dei diritti fondamentali e, quindi, alla ricerca di strumenti di regolazione che permettano lo sviluppo tecnologico nel rispetto di tali diritti. Il carattere tecnico ed eterogeneo dei temi affrontati rende utile qualche breve osservazione introduttiva con l’obiettivo sia di tracciare in modo concreto il campo dell’indagine – riferendo le «domande di ricerca» che sorgono dalla prassi e attorno alle quali il progetto è stato costruito – sia di fornire qualche precisazione terminologica. Uno dei tanti neologismi che la travolgente trasformazione digitale in cui stiamo vivendo ha portato con sé, è l’espressione «Internet of Things» (IoT). Con questa locuzione intendiamo il fatto che un numero crescente di «cose» di uso comune – dal telefono alla lavatrice, dall’auto alla carta di credito, dalla videocamera al Gps dell’auto (o dell’orologio), dalla fidelity card del supermarket alla bicicletta noleggiata via «app» – sono in realtà dispositivi capaci di produrre dati riguardanti le nostre azioni, i nostri spostamenti, in definitiva, le nostre preferenze. Ma vi è già chi sostiene che anche l’IoT, in realtà, sia ormai datato e debba esser sostituito con l’«Internet of Everything» (IoE), ovverosia, l’«interconnessione di persone, processi, dati e cose»1, nozione che non limita la connessione alle cose o agli oggetti fisici, ma considera anche le persone ed i processi di relazione. Ad ogni modo, non v’è dubbio che quella in cui oggi viviamo è la società dei dati2. 1  Secondo la definizione offerta nello studio elaborato da Cisco, The Internet of Everything. Cisco IoE Value Index Study, in: cisco.com/c/dam/en_us/about/business-insights/docs/ioe-value-index-faq.pdf 2 F. Faini, Data society: governo dei dati e tutela dei diritti nell’era digitale, Milano 2019.

Introduzione

XIII

La «datificazione» della vita – dal neologismo inglese «datification»3 – è quella trasformazione della nostra realtà per cui «processi o attività che erano prima invisibili sono trasformati in dati»4; l’individuo stesso diventa – secondo l’icastica definizione di McAfee e Brynjolfsson – un «walking data generator»5 in una pluralità di azioni che esso svolge. Ovviamente, questa estensiva digitalizzazione della vita comune porta con sé come conseguenza la produzione di una quantità sempre crescente di dati, fenomeno conosciuto anche come big data. L’Internet of Everything, così, finisce per produrre quantità sterminate di dati che, ovviamente, eccedono qualsiasi capacità umana di elaborazione intelligente. È così che i protagonisti assoluti degli ultimi decenni sono divenuti, da un lato, i sistemi automatici di elaborazione dei dati e dall’altro, le potenze di calcolo; in una parola: i computers. Ma l’ultima e più raffinata frontiera della computer science è rappresentata dalla cosiddetta «intelligenza artificiale», ovverosia da quei sistemi tecnologici capaci di «apprendere» dalla mole infinita di dati (il c.d. «machine learning») e, dunque, di scoprire correlazioni, ricorrenze e, addirittura, effettuare valutazioni, previsioni o predizioni, giungendo fino ad imitare l’intelligenza umana. È quello che Soshana Zuboff definisce il «behavioral surplus»6 ovverosia un flusso di informazioni prodotto dalla «datificazione» e destinato ad alimentare macchine intelligenti, che contribuisce a fabbricare «prodotti predittivi» in grado di anticipare cosa faremo, cosa sceglieremo, come ci comporteremo. L’introduzione di queste innovazioni tecniche sta causando una vera e propria rivoluzione epocale nel settore del trattamento dei dati in generale e, dunque, anche in un sottosettore della elaborazione dei dati tout court che riguarda molto da vicino il diritto: quello dei dati personali. Com’è noto il Regolamento UE n. 679 del 2016, meglio noto come «GDPR», considera «dato personale», qualsiasi informazione riguardante una persona fisica identificata o identificabile e che dunque può fornire informazioni sulle sue caratteristiche, le sue abitu3   S. Newell, M. Marabelli, Strategic opportunities (and challenges) of algorithmic decision-making: A call for action on the long-term societal effects of ‘datification’ in The Journal of Strategic Information Systems, 2015, pp. 3-14. 4  T. Elliott, The datification of daily life, Forbes, 2013, in www.forbes.com/ sites/sap/2013/07/24/the-datification-of-daily-life/?sh=5d5c8c5f17f9. 5   A. McAfee e E. Brynjolfsson, Big data: the management revolution, in Harv. Bus. Rev., 2012, pp. 60-68. 6  S. Zuboff, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Roma 2019.

XIV

Adelina Adinolfi e Andrea Simoncini

dini, il suo stile di vita, le sue relazioni personali, il suo stato di salute, la sua situazione economica. È quindi chiaro che fin quando parliamo di algoritmi di intelligenza artificiale che si limitano a trattare dati non personali – ad esempio i dati barometrici, anemometrici, termici – e da questi desumono modelli predittivi per le previsioni metereologiche, nulla quaestio. Ma se i dati in questione sono personali e le predizioni vengono utilizzate per classificare, valutare e prevedere il comportamento di uomini, donne e bambini – il fenomeno che oggi va sotto il nome di «profilazione» – allora lo scenario cambia drammaticamente soprattutto per il rilievo che queste forme di trattamento hanno nell’ordinamento giuridico e per l’esigenza di individuare nuovi modelli di regolazione. È alla luce di questo contesto che il Dipartimento di Scienze Giuridiche dell’Università degli Studi di Firenze ha inteso far convergere i propri interessi di ricerca sul tema della protezione dei dati personali in relazione allo sviluppo delle nuove tecnologie, considerando questo come uno degli aspetti più rilevanti nella trasformazione sociale oggi indotta dalla rivoluzione digitale. Nel congedare il volume vorremmo rivolgere un ringraziamento a tutti i docenti e ricercatori che vi hanno contribuito, sia agli autori degli scritti pubblicati nella raccolta sia anche a coloro che hanno fornito il loro apporto attraverso il dialogo e il confronto sui temi della ricerca: l’ampiezza della partecipazione e la varietà delle aree disciplinari coinvolte hanno permesso di realizzare un lavoro che si è proposto di essere effettivamente corale dando espressione ad una comunità scientifica. Un particolare ringraziamento al dott. Davide Baldini per la preziosa collaborazione nella preparazione del volume. Firenze, 2 maggio 2022 Adelina Adinolfi e Andrea Simoncini

Il contesto internazionale ed europeo

Andrea Simoncini*

La proposta di regolazione europea dell’intelligenza artificiale. Prime riflessioni1 Sommario: 1. Premessa: i twin objectives e la via europea all’intelligenza artificiale. – 2. La proposta di Regolamento europeo sulla intelligenza artificiale; a) Un bilanciamento asimmetrico?; b) L’architettura della proposta. – 3. Il modello di regolazione e le esigenze del mercato; a) La scelta della fonte: «regolamento» anziché «direttiva»; b) Il risk-based approach; c) Il (mancato?) ruolo dei «Codici di condotta». – 4. La proposta e i principi del Constitutional Law of Technology; a) Trasparenza; b) Non esclusività; c) Comprensibilità; d) Non discriminazione. – 5. Spunti conclusivi.

1. Esiste una via europea all’intelligenza artificiale? Esiste, cioè, un modello di «sviluppo regolato» per questo settore tecnologico che da più parti è considerato il più promettente per il nostro futuro? La corsa globale, come sappiamo, è iniziata già da tempo e i due principali inseguitori sono, da un lato, l’industria privata nordamericana e, dall’altro, l’industria (sostanzialmente) di stato cinese. La prima caratterizzata da una (sostanziale) assenza di regolazione2 e la seconda caratterizzata dall’assenza di un vero mercato. Può l’Europa inserirsi vantaggiosamente in questa corsa, ribadendo il proprio modello di un’economia di mercato capace di garantire un elevato livello di protezione dei diritti? E, soprattutto, siamo ancora in tempo? Ovvero la distanza dei «front-runners» è ormai troppo ampia per essere colmata? Per tentare di rispondere a questi interrogativi, è necessario prendere le mosse dai documenti e dalle dichiarazioni che hanno segnato l’ultimo decennio dell’Unione europea e che ne hanno orientato lo sviluppo verso un deciso investimento strategico sull’economia dei dati e sull’Intelligenza artificiale. Il White Paper on Artificial Intelligence, presentato dalla Commissione nel febbraio 20203, riconosce come la * Professore di Diritto costituzionale nell’Università di Firenze. 1  Si ringrazia la dottoressa Valentina Pagnanelli, dottoranda di ricerca presso l’Università degli Studi di Firenze, per aver collaborato nelle ricerche connesse alla stesura del presente lavoro e per aver discusso una versione preliminare dello stesso. 2   Ovviamente, per «regolazione» qui intendiamo la regolazione di settore; negli Stati Uniti esiste pur sempre la regolazione generale antitrust dei settori industriali. 3  www.ec.europa.eu/info/sites/default/files/commission-white-paper-artifi© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Andrea Simoncini

4

crescita economica e il benessere sociale dell’UE si basino sul valore creato dai dati e come l’Intelligenza artificiale sia una delle più importanti applicazioni della data economy, ma avverte al contempo sui rischi connessi all’utilizzo di queste tecnologie, ponendo tra gli obiettivi delle politiche europee una corretta gestione degli stessi. È l’idea dei «twin objectives» - del «duplice obiettivo»: «promuovere l’adozione dell’IA e affrontare i rischi associati a determinati usi di questa nuova tecnologia». Nel discorso tenuto al Masters of Digital 2021, la Presidente Von der Leyen ha sottolineato quanto le imprese digitali europee abbiano patito la difficoltà di espandersi oltre i confini nazionali. Ciò è avvenuto a causa di regole poco chiare, che hanno ritardato gli investimenti e portato le imprese a scegliere contesti e mercati più favorevoli di quello europeo4. Von der Leyen sostiene che ci siano ora le condizioni per superare le iniziali difficoltà, a partire dalla disponibilità di enormi quantità di dati: i dati generati dalle macchine sono il carburante per la ripresa dell’Europa, porteranno ricchezza e benefici per l’economia e per il pianeta5. 2. a) Lo strumento fondamentale per perseguire questi ambiziosi cial-intelligence-feb2020_en.pdf 4  «For years, our digital businesses have dealt with way more obstacles than their competitors abroad. And small and promising European companies have had a hard time when trying to scale up beyond national borders. Investment has been delayed because the rules of the game were not clear. And as a result of all this, too many European businesses have left our continent in order to grow. Today I would like to tell you about how we are changing this – with more public investment and with business-friendly rules, so that Europe’s Digital Decade can begin», Discorso della Presidente Von der Leyen al Masters of Digital 2021, 4 febbraio 2021, reperibile al link www.ec.europa.eu/commission/presscorner/detail/en/SPEECH_21_419. 5  «Machine-generated data can be the fuel for Europe’s recovery: We are literally sitting on a goldmine. Every day, every European business produces data without even noticing. Research tells us that the potential value of data produced in Europe will soon reach EUR 1.5 trillion a year. Imagine: 1.5 trillion, and we are only using a tiny percentage of this treasure. Data can make our fields more fertile. It can predict a machine’s failure and fix it before it even happens. Data can cut Europe’s energy consumption massively, with benefits for the planet and for your balance sheets too», ibidem. Peraltro il tema dello sfruttamento della «prossima ondata di dati» compariva nel Libro bianco sull’Intelligenza artificiale (COM(2020) 65 final) quale opportunità da cogliere per colmare lo svantaggio competitivo europeo nel settore dello sviluppo di tecnologie AI, svantaggio dovuto alla minore disponibilità di dati, conseguenza diretta dell’assenza, nel panorama europeo, di soggetti detentori di piattaforme online e app destinate ai consumatori, cfr. p. 4. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La proposta di regolazione europea dell’intelligenza artificiale

5

«obiettivi gemelli» è la proposta di Regolamento sull’Intelligenza artificiale (Artificial Intelligence Act, AIA). Nella Relazione alla proposta presentata dalla Commissione il 21 aprile 2021, l’Intelligenza artificiale viene definita come «una famiglia di tecnologie in rapida evoluzione che può portare una vasta gamma di vantaggi economici e sociali attraverso l’intero spettro di industrie e attività sociali. Migliorando la previsione, ottimizzando le operazioni e l’allocazione delle risorse e personalizzando l’erogazione dei servizi, l’uso dell’intelligenza artificiale può supportare risultati positivi dal punto di vista sociale e ambientale e fornire vantaggi competitivi chiave alle aziende e all’economia europea. Tale azione è particolarmente necessaria nei settori ad alto impatto, compresi i cambiamenti climatici, l’ambiente e la salute, il settore pubblico, la finanza, la mobilità, gli affari interni e l’agricoltura»6. La Relazione prosegue ricordando come ai benefici siano inscindibilmente legati rischi per gli individui e la società. Rischi nuovi, come nuove sono le tecnologie a disposizione. L’approccio proposto dall’Unione, coerentemente con la strategia digitale complessiva, è quello di un equilibrio che assicuri una leadership europea in campo tecnologico 6   Proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (Legge sull’Intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione, COM(2021) 206 final, Relazione, p. 1. Sulla proposta si veda C. Casonato e B. Marchetti, Prime osservazioni sulla proposta di regolamento dell’Unione Europea in materia di intelligenza artificiale, in Biolaw Journal - Rivista di BioDiritto, 2021, III; p. 415 ss. Più in generale sulla regolamentazione europea dell’intelligenza artificiale: A. Adinolfi, L’Unione europea dinanzi allo sviluppo dell’intelligenza artificiale: la costruzione di uno schema di regolamentazione europeo tra mercato unico digitale e tutela dei diritti fondamentali, in S. Dorigo (a cura di), Il ragionamento giuridico nell’era dell’intelligenza artificiale, Pisa 2020, pp. 13-35; A. Amidei, La governance dell’intelligenza artificiale: profili e prospettive di diritto dell’Unione europea, in U. Ruffolo (a cura di), Intelligenza artificiale. Il diritto, i diritti, l’etica, Milano 2020, pp. 571-588; J. Andraško, M. Mesarčík, O. Hamuľák, The regulatory intersections between artificial intelligence, data protection and cyber security: challenges and opportunities for the EU legal framework, in AI and Society, 2021, XXXVI, pp. 623-636; R. Angelini, Intelligenza artificiale e governance. Alcune riflessioni di sistema, in F. Pizzetti (a cura di), Intelligenza artificiale, protezione dei dati personali e regolazione, Torino 2018, p. 293 ss.; A. Pajno et al., AI: profili giuridici. Intelligenza Artificiale: criticità emergenti e sfide per il giurista, in BioLaw Journal – Rivista di BioDiritto, 2019, III, p. 206 ss.; A. D’aloia, Il diritto verso “il mondo nuovo”. Le sfide dell’Intelligenza Artificiale, in BioLaw Journal Rivista di BioDiritto, 2019; A. Reichman, G. Sartor, Algorithms and Regulation, in H.-W. Micklitz, O. Pollicino, A. Reichman, A. Simoncini, G. Sartor e G. De Gregorio (a cura di), Cambridge 2021, pp. 131-181.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

6

Andrea Simoncini

e che garantisca ai cittadini la possibilità di trarre beneficio dagli sviluppi tecnologici senza vedere compromessi i valori e la garanzia del rispetto dei diritti fondamentali riconosciuti e protetti dall’Unione7. Dinanzi alla concreta architettura della proposta occorrerà chiedersi se quello raggiunto sia un effettivo contemperamento tra i due obiettivi, o se piuttosto in realtà si sia realizzato un bilanciamento «asimmetrico», in cui una delle due finalità finisce per prevalere sull’altra. L’impressione, infatti, è che in questa fase di grande rilancio di una economia europea fondata sui dati e sui servizi generati dai sistemi di Intelligenza artificiale, la tutela dei diritti fondamentali resti in secondo piano. Ci interrogheremo, dunque, nei prossimi paragrafi, per capire se all’interno della dualità «mercato - diritti», che rappresenta da sempre la cifra dell’Unione europea8, il raggiungimento degli obiettivi di 7   «Tuttavia, gli stessi elementi e tecniche che alimentano i benefici socioeconomici dell’IA possono anche comportare nuovi rischi o conseguenze negative per gli individui o la società. Alla luce della velocità del cambiamento tecnologico e delle possibili sfide, l’UE si impegna a perseguire un approccio equilibrato. È nell’interesse dell’Unione preservare la leadership tecnologica dell’UE e garantire che gli europei possano beneficiare delle nuove tecnologie sviluppate e funzionanti secondo i valori, i diritti e i principi fondamentali dell’Unione», cfr. Proposta di Regolamento sull’Intelligenza artificiale, Relazione, p. 1. 8  Cfr. ex plurimis M. Cartabia, Principi inviolabili e integrazione europea, Milano 1995; R. Adam, Da Colonia a Nizza: la Carta dei diritti fondamentali dell’Unione europea, in Il diritto dell’Unione europea, 2000, IV; R. Bifulco, M. Cartabia e A. Celotto (a cura di) L’Europa dei diritti: commento alla Carta dei diritti fondamentali dell’Unione Europea, Bologna 2001; U. De Siervo, L’ambigua redazione della Carta dei diritti fondamentali nel processo di costituzionalizzazione dell’Unione europea, in Diritto pubblico, 2001; G.F. Ferrari (a cura di), I diritti fondamentali dopo la Carta di Nizza. Il Costituzionalismo dei diritti, Milano 2001; L. Trucco, Carta dei diritti fondamentali e costituzionalizzazione dell’Unione europea, Torino 2013; S. Gambino, Livello di protezione dei diritti fondamentali (fra diritto dell’Unione, convenzioni internazionali, costituzioni degli Stati membri) e dialogo fra le Corti. Effetti politici nel costituzionalismo interno ed europeo, federalismi.it, 2014, XIII; E. Malfatti, I “livelli” di tutela dei diritti fondamentali nella dimensione europea, Torino 2015; G.F. Aiello, La protezione dei dati personali dopo il Trattato di Lisbona, in Osservatorio del diritto civile e commerciale, 2015, II, p. 425-426; A. Barbera, La Carta dei diritti: per un dialogo fra la Corte italiana e la Corte di Giustizia, in Rivista AIC, 2017, IV; G. Pino, Il costituzionalismo dei diritti. Struttura e limiti del costituzionalismo contemporaneo, Bologna 2017; F. Bravo, Sul bilanciamento proporzionale dei diritti e delle libertà “fondamentali”, tra mercato e persona: nuovi assetti dell’ordinamento europeo?, in Contratto e impresa, 2018, I, p. 190 ss.; N. Lazzerini, La Carta dei diritti fondamentali dell’Unione europea. I limiti di applicazione, Milano 2018; G. Canzio, L’applicazione della Carta dei diritti fondamentali e il dialogo tra le Corti, in V. Piccone, O. Pollicino (a cura di), La Carta dei diritti fondamentali dell’Unione europea. Efficacia ed effettività, Napoli 2018.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La proposta di regolazione europea dell’intelligenza artificiale

7

natura squisitamente economica (sintetizzati nelle «storiche» libertà di circolazione delle persone, dei servizi, delle merci, dei capitali, cui oggi deve aggiungersi anche «dei dati»), non finisca ancora una volta per prevalere. Con un esito ancor più paradossale, dal momento che, a fronte di una prestazione insoddisfacente sul versante della tutela dei diritti, corrisponde una proposta di regolazione avvertita come eccessiva e troppo vincolistica da parte dell’industria9. Visto che siamo ancora alle fasi iniziali del percorso legislativo, occorrerà continuare a profondere sforzi per trovare una soluzione appropriata, che non tradisca questo equilibrio. Sebbene i fattori economici e tecnologici impongano in maniera sempre più rilevante il loro lessico e le loro esigenze, occorre, in questo momento cruciale, mettere alla prova delle nuove sfide contemporanee, la vocazione originaria del costituzionalismo, tesa alla limitazione dei poteri in funzione di una garanzia effettiva dei diritti10. Nel delicato equilibrio tra costi e benefici per i diritti e le libertà degli individui, il diritto costituzionale è chiamato a leggere le trasformazioni in atto nella società algoritmica, riequilibrando i poteri, specie quelli privati economici e tecnologici, a difesa della libertà e dignità della persona umana11. b) La proposta di Regolamento sull’Intelligenza artificiale propone un modello europeo per l’immissione sul mercato e l’utilizzo di software basati su approcci di apprendimento automatico, approcci basati sulla logica e sulla conoscenza, approcci statistici, stima bayesiana, metodi di ricerca e ottimizzazione12, che realizzi una sintesi tra le regole volte allo sviluppo di sistemi sicuri, innovativi e competitivi sul mercato globale, e gli strumenti di tutela per i diritti delle persone fisiche, con particolare attenzione alle implicazioni umane ed etiche dell’IA. Il rispetto dei diritti fondamentali e dei valori dell’Unione, la cer9   Cfr. B. Mueller, How Much Will the Artificial Intelligence Act Cost Europe?, July 2021, https://datainnovation.org/2021/07/how-much-will-the-artificial-intelligence-act-cost-europe/ 10  C. Casonato, Potenzialità e sfide dell’intelligenza artificiale, in BioLaw Journal - Rivista di BioDiritto, 2019, I, p. 178. 11   Quello che ho chiamato diritto costituzionale «ibrido», un diritto costituzionale che conosca e si esprima nel linguaggio della tecnologia, v. A. Simoncini e S. Suweis, Il cambio di paradigma nell’intelligenza artificiale e il suo impatto sul diritto costituzionale, in Rivista di filosofia del diritto, 2019, I, p. 86 ss. 12   Cfr. Allegato I alla proposta di Regolamento sull’IA.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Andrea Simoncini

8

tezza del diritto, il miglioramento della governance, l’agevolazione dello sviluppo di un mercato non frammentato per applicazioni di Intelligenza artificiale lecite, sicure ed affidabili13 sono gli obiettivi specifici che la Commissione ha dichiarato di perseguire attraverso l’Artificial Intelligence Act. Nella elaborazione della proposta è stato scelto un «approccio proporzionato basato sul rischio»14, il cosiddetto «risk-based approach», di classico utilizzo nei casi in cui un sistema tecnologico non è oggetto né a divieto assoluto né a liceità assoluta. Si tratta di un metodo di regolamentazione orientato al mercato, flessibile e adattabile ai cambiamenti tecnologici e al rapido sviluppo che caratterizzano la tecnologia. L’articolato fornisce una definizione generale di «sistema di Intelligenza artificiale» dopodiché suddivide i sistemi di IA in: sistemi «vietati, ad alto rischio, a rischio moderato e a rischio basso». Per i sistemi di Intelligenza artificiale «ad alto rischio», sono individuati alcuni requisiti specifici e stringenti. Ad essi si affiancano obblighi per fornitori, utenti ed altri soggetti (fabbricanti, rappresentanti autorizzati, importatori, distributori), oltre che procedure per la valutazione di conformità. Per i sistemi «a rischio moderato» sono previsti solamente degli obblighi di trasparenza, e nulla è richiesto a tutti gli altri sistemi, appartenenti alla categoria residuale considerata «a basso rischio». Il Titolo II descrive le pratiche di Intelligenza artificiale vietate. Si tratta di sistemi di IA che comportano un rischio ritenuto inaccettabile per la salute, la sicurezza o i diritti fondamentali. Sono sistemi proibiti quelli che utilizzano tecniche subliminali per influenzare il comportamento delle persone e i sistemi che sfruttano le vulnerabilità di persone disabili o anziane per influenzarne il comportamento in modo da causare un danno psichico o fisico ad esse stesse o ad altri. Sono vietati anche i sistemi utilizzati da autorità pubbliche per la valutazione della affidabilità o la classificazione delle persone fisiche in base al loro comportamento sociale o su aspetti della personalità, nei casi in cui il social scoring comporti trattamenti

  Proposta di Regolamento sull’IA, Relazione, p. 3.   Ivi. Per una interessante analisi della Proposta si veda anche C. Casonato e B. Marchetti, Prime osservazioni sulla Proposta di Regolamento dell’Unione Europea in materia di Intelligenza Artificiale, in Biolaw Journal, 2021, III. 13

14

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La proposta di regolazione europea dell’intelligenza artificiale

9

pregiudizievoli o sfavorevoli di determinate persone o interi gruppi in contesti sociali non correlati a quelli in cui i dati sono stati generati oppure trattamenti sfavorevoli sproporzionati rispetto al comportamento sociale. Infine è vietato l’uso di sistemi di identificazione biometrica in tempo reale in spazi accessibili al pubblico per motivi di law enforcement. Segue una lista di eccezioni, di condizioni e di regole procedurali che ove applicate consentono di superare tale divieto. Il Titolo III pone la disciplina generale per gli High-risk Artificial Intelligence systems, individuando le condizioni in base alle quali un sistema può essere considerato «ad alto rischio». In particolare (art. 6 AIA)15: deve trattarsi di un sistema destinato ad essere utilizzato come componente di sicurezza di un prodotto, o essere esso stesso un prodotto, disciplinato dalla normativa di armonizzazione dell’Unione richiamata nell’allegato II della proposta di Regolamento; inoltre, il prodotto, il cui componente di sicurezza è il sistema di IA, o il sistema di IA stesso in quanto prodotto, deve essere soggetto a una valutazione della conformità da parte di terzi ai fini dell’immissione sul mercato o della messa in servizio di tale prodotto ai sensi della normativa di armonizzazione dell’Unione che è richiamata nel già citato allegato II. Infine, il par. 2 dell’art. 6 rimanda all’allegato III, contenente un elenco di sistemi che, a seguito di una valutazione effettuata «a monte», sono stati valutati ex se «ad alto rischio»16. Il 15   L’art. 6 dell’AIA contiene una classificazione dei sistemi ad alto rischio (completata dagli allegati II e III) e prevede il necessario rispetto dei requisiti stabiliti nel capitolo II quale condizione per l’immissione in commercio: un procedimento di verifica della conformità; il rilascio di una dichiarazione di conformità (art. 48) e l’apposizione del marchio europeo (art. 49) che consente la circolazione nel mercato; la registrazione in una banca dati accessibile al pubblico posta sotto il controllo della Commissione (art. 60); la sottoposizione del sistema di IA ad alto rischio, una volta immesso nel mercato, ad una vigilanza post-market, volta a monitorare periodicamente il rispetto da parte dell’algoritmo delle condizioni stabilite dal Regolamento. 16   Tra i sistemi valutati ad alto rischio «a monte» vi sono, ad esempio, quelli destinati a essere utilizzati dagli istituti bancari per valutare l’affidabilità creditizia delle persone fisiche o per stabilire il loro merito di credito (a eccezione dei sistemi di IA messi in servizio per uso proprio da fornitori di piccole dimensioni). La questione relativa ai possibili esiti discriminatori delle tecniche algoritmiche nel settore bancario è annosa, al riguardo si rinvia, tra gli altri: C. Havard, «On the take»: The Black Box of Credit scoring and mortgage discrimination, in Public Interest Law Journal, 2011, p. 241 ss.; Federal Trade Commission, Big Data: a tool for inclusion or exclusion, FTC, January 2016, consultabile sul sito www.ftc.gov. Sul tema, poi, è di particolare interesse il contributo di M. Fourcade e K. Healy, Classification situations: Life-chances

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

10

Andrea Simoncini

capo 2 del Titolo III è poi dedicato ai requisiti per i sistemi ad alto rischio17. Il Titolo IV pone, infine, per talune categorie, obblighi minimi di trasparenza (specie quando sia previsto l’utilizzo di chatbot e deep fake) finalizzati a rendere edotte le persone quando stanno interagendo con una Intelligenza artificiale. Per il deep fake è stabilito l’esonero dagli obblighi di informazione se previsto dalla legge per la persecuzione di reati, o nei casi di esercizio della libertà di espressione, delle arti e delle scienze. 3. a) Su questa generale architettura normativa possono effettuarsi alcune prime riflessioni. Innanzitutto, la scelta di procedere «direttamente» con un Regolamento, piuttosto che con una Direttiva. Per il tema della protezione dei dati personali – altro settore di fortissimo impatto trasversale e profondamente legato a quello tecnologico - si scelse la forma della Direttiva (la n. 46 del 1995), volendo lasciare agli Stati membri maggiore flessibilità e discrezionalità in fase di recepimento per individuare le misure per conformarsi agli obiettivi europei. Com’è noto, il successivo proliferare di legislazioni nazionali non sempre coordinate, ha posto l’Unione davanti all’ossimoro di un Mercato Unico regolato da leggi (troppo) diverse. Nel 2016, quindi, si passò ad adottare un Regolamento (il n. 679) per ottenere, attraverso una fonte immediatamente applicabile, l’obiettivo di riunificare la disciplina. La scelta di saltare una fase iniziale di attuazione flessibile, preferendo la fonte regolamentare nasce, probabilmente, da quella esperienza: il rischio di attuazioni diversificate - che finiscono per diventare un grave ostacolo alla creazione di un mercato unico dei beni e servizi tecnologici - viene ridotto attraverso un atto direttamente applicabile in tutta l’Unione europea, ispirato alla visione unitaria del Digital Single Market18. in the neoliberal era, in Accounting, Organizations and Society, 2013, p. 559 ss., nel quale gli Autori analizzano i rischi e l’impatto di un sistema automatizzato di valutazione del merito creditizio sulle popolazioni meno abbienti, mettendo in luce come gli algoritmi possano acuire le differenze sociali e la distinzione tra classi. 17   L’art. 9 introduce il sistema di gestione dei rischi, mentre l’art. 10 è dedicato al centrale tema dei dati. Viene regolamentato l’uso dei dati di addestramento, convalida e prova, con una specifica che riguarda l’utilizzo di categorie particolari di dati personali. 18   Si veda Proposta di Regolamento sull’IA, Relazione, p. 7: «La scelta di un regolamento come atto giuridico è giustificata dalla necessità di un’applicazione uniforme ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La proposta di regolazione europea dell’intelligenza artificiale

11

b) Alla stessa logica si ascrive l’adozione del «risk-based approach», cioè la scelta di suddividere i sistemi di Intelligenza artificiale in fasce di rischio, inserendo la descrizione dei sistemi «ad alto rischio» in un allegato al Regolamento, modificabile con procedure decisionali particolari19 . Come sa bene chi studia le tematiche connesse alle fonti del diritto, comunque lo si scriva, un elenco presenta sempre un inevitabile livello di «rigidità» per cui, includendo alcune fattispecie, se ne escludono altre contigue, problema che si aggrava esponenzialmente in settori in continua evoluzione come quello tecnologico20. Indubbiamente, anche questa scelta origina dall’esigenza di voler assicurare chiarezza nelle regole e omogeneità nella loro applicazione per evitare un’eccessiva regimazione e frammentazione del mercato, obiettivo dichiarato della Commissione e che ha giustificato, come abbiamo già detto, la scelta dello strumento regolamentare, anziché della Direttiva. Nella Relazione che accompagna la proposta di Regolamento viene chiarito come si sia scelto un quadro giuridico solido e al contempo flessibile, proporzionato e «basato sul rischio». Il legislatore europeo vorrebbe così intervenire stabilendo requisiti minimi cui i sistemi di IA debbono rispondere, senza però ostacolare lo sviluppo tecnologico, e senza aumentare i costi per l’immissione sul mercato di tali innovazio-

delle nuove regole, come la definizione di IA, il divieto di talune pratiche dannose consentite dall’IA e la classificazione di taluni sistemi di IA. L’applicabilità diretta di un regolamento, conformemente all’art. 288 TFUE, ridurrà la frammentazione giuridica e faciliterà lo sviluppo di un mercato unico per sistemi di IA leciti, sicuri e affidabili».  19   Art. 7 della proposta. La Commissione, consapevole dell’estrema mutevolezza delle applicazioni di IA, introduce due meccanismi di flessibilità del quadro normativo: in primo luogo, la Proposta AIA si completa di alcuni allegati (fondamentali, per esempio, per individuare la categoria dei dispositivi ad alto rischio) modificabili anche al di fuori del procedimento legislativo ordinario; in secondo luogo, si prevede un obbligo generale di revisione del Regolamento a cinque anni dalla sua entrata in vigore e, successivamente, con cadenza quinquennale. 20   La flessibilità viene garantita dalla Commissione, cui l’art. 7 attribuisce il compito, alla presenza di determinate condizioni, di aggiornare la lista dei sistemi ad alto rischio elencati nell’Allegato III. L’art. 73 prevede che gli atti delegati adottati dalla Commissione entrino in vigore solo in assenza di obiezioni da parte del Parlamento e del Consiglio. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

12

Andrea Simoncini

ni, al contempo mitigando i possibili rischi per la salute, la sicurezza e i diritti fondamentali. Può essere utile su questa scelta confrontare il sistema ipotizzato dalla proposta AIA con la disciplina attuale in materia di protezione dei dati; altra disciplina europea che, anch’essa, ha scelto di porsi in prospettiva anticipatoria di riduzione dei rischi piuttosto che di sola punizione-repressione ex post delle violazioni. L’approccio basato sul rischio nella proposta AIA, è declinato in modo molto differente rispetto a quanto previsto nel Regolamento 2016/67921. Nel GDPR il «risk-based approach» congiuntamente al principio di «responsabilizzazione», delinea una modalità di valutazione e gestione del rischio che ricade sul titolare del trattamento22. È il titolare, infatti, a dover svolgere l’analisi dei rischi e predisporre le misure tecniche e organizzative adeguate per mitigarli. Nel GDPR, in ossequio al principio di accountability, è il titolare, responsabile per i trattamenti di dati personali che si svolgono sotto la sua autorità, che esegue una analisi dei rischi e adotta misure tecniche e organizzative adeguate a mitigarli, in modalità bottom-up. Nel prospettato Regolamento sull’Artificial Intelligence Act, invece, non vi è spazio per un giudizio bottom-up, ma al contrario la valutazione dei vari sistemi di Intelligenza artificiale viene svolta direttamente dal legislatore, a priori, e le categorie a rischio – così come le misure da applicare – sono fissate in direzione top-down («l’intervento legale è adattato alle situazioni concrete nelle quali sussiste un motivo di preoccupazione giustificato o nelle quali tale preoccupazione può essere ragionevolmente prevista nel prossimo futuro23»). Nel White Paper del 202024 la Commissione aveva effettivamente 21   V. A. Mantelero, La gestione del rischio, in G. Finocchiaro (a cura di), La protezione dei dati personali in Italia. Regolamento UE n. 2016/679 e d.lgs. 10 agosto 2018, n. 101, Torino 2019, p. 473 ss. 22   Cfr. G. Finocchiaro, Il quadro d’insieme sul regolamento europeo sulla protezione dei dati personali, in G. Finocchiaro (a cura di), La protezione dei dati personali in Italia. Regolamento UE n. 2016/679 e d.lgs. 10 agosto 2018, n. 101, cit., p. 17 ss.; F. Pizzetti, Intelligenza artificiale, protezione dei dati personali e regolazione, Torino 2018, pp. 46-48. 23   Proposta di Regolamento sull’IA, Relazione, p. 7. 24  «In linea di principio il nuovo quadro normativo per l’IA dovrebbe essere efficace nel raggiungimento dei propri obiettivi, senza tuttavia essere talmente prescrittivo da creare oneri sproporzionati, in particolare per le PMI. Per raggiungere tale equilibrio la Commissione ritiene opportuno seguire un approccio basato sul rischio», cfr. Libro bianco sull’Intelligenza Artificiale, cit., p. 19.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La proposta di regolazione europea dell’intelligenza artificiale

13

indicato quello appena delineato come l’approccio da seguire, sottolineando l’importanza di individuare criteri chiari per distinguere tra le varie applicazioni e stabilire ed applicare ai sistemi di IA «ad alto rischio» prescrizioni specifiche e obbligatorie25. Va anche considerato che il c.d. risk-based approach è oggi una forma di regolazione molto presente nell’attività di normazione europea26. Ciononostante, lo stesso principio ha visto applicazioni sensibilmente differenti in diversi contesti normativi. Come poc’anzi ricordato, nel GDPR l’introduzione dell’accountability ha delineato un risk-based approach modellato sull’attività di valutazione svolta dal titolare del trattamento. Nella proposta di Digital Services Act il legislatore ha svolto preliminarmente una valutazione del rischio, assegnando poi gli intermediari di servizi digitali a distinte fasce di rischio cui corrisponde l’applicazione di discipline diversificate. Il risk-based approach del Regolamento sull’intelligenza artificiale è, infine, un ulteriore terzo modello europeo di approccio basato sul rischio. In questo caso, come hanno correttamente osservato De Gregorio e Dunn, la valutazione viene svolta a priori con l’intento «di regolare non un diritto fondamentale», come nel caso della data protection, «non la condotta degli attori che si muovono nel Digital Single Market, quanto piuttosto di regolare direttamente i diversi sistemi tecnologici impiegati nei sistemi di IA»27. Una conseguenza piuttosto evidente di questa valutazione del rischio svolta a priori e cristallizzata nelle norme, è la netta diversificazione delle discipline previste per ciascuna fascia di rischio: ad un elenco particolareggiato di requisiti ed obblighi per i sistemi high-risk, corrisponde solo l’obbligo di trasparenza per alcuni degli altri sistemi28, 25  Questa impostazione è stata valutata criticamente dall’European Data Protection Supervisor, che ha evidenziato come la definizione di sistemi di intelligenza artificiale ad alto rischio sia troppo ristretta e rigida e ponga problemi di interpretazione ed applicazione, v. European Data Protection Supervisor, Opinion on the European Commission’s White Paper on Artificial Intelligence – A European approach to excellence and trust, Opinion 4/2020, p. 10 ss. Per una sintesi del documento si veda C. Masciotta, Protezione dei dati personali e uso degli algoritmi. Indagine a partire dalla prassi: la dimensione europea, in Osservatorio sulle fonti, 2021, II, p. 745 ss. 26   Come evidenziano puntualmente G. De Gregorio e P. Dunn, Profiling under Risk-based Regulation: Bringing together the GDPR and the DSA, www.assets. ctfassets.net/iapmw8ie3ije/5EuxLPaUIsgGt7R6PgeuFK/c9269e55e10bb2a7a0b392624c08f4d0/De_Gregorio_Dunn_My_Data_is_Mine__1_.pdf 27   Ivi, p. 11. 28   Art. 52 - Obblighi di trasparenza per determinati sistemi di IA

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

14

Andrea Simoncini

mentre per la categoria residuale nulla è previsto29. Tale scelta è giustificata dalla volontà, più volte ribadita da parte della Commissione, di non appesantire con oneri burocratici e costi le piccole e medie imprese30. Ciononostante, il divario tra i sistemi ad alto rischio, altamente regolati, e tutti gli altri sistemi di IA consentiti, appare forse eccessivo. c) Una scelta regolatoria che avrebbe potuto dare flessibilità all’in1. I fornitori garantiscono che i sistemi di IA destinati a interagire con le persone fisiche siano progettati e sviluppati in modo tale che le persone fisiche siano informate del fatto di stare interagendo con un sistema di IA, a meno che ciò non risulti evidente dalle circostanze e dal contesto di utilizzo. Tale obbligo non si applica ai sistemi di IA autorizzati dalla legge per accertare, prevenire, indagare e perseguire reati, a meno che tali sistemi non siano a disposizione del pubblico per segnalare un reato. 2. Gli utenti di un sistema di riconoscimento delle emozioni o di un sistema di categorizzazione biometrica informano le persone fisiche che vi sono esposte in merito al funzionamento del sistema. Tale obbligo non si applica ai sistemi di IA utilizzati per la categorizzazione biometrica, che sono autorizzati dalla legge per accertare, prevenire e indagare reati. 3. Gli utenti di un sistema di IA che genera o manipola  immagini o contenuti audio o video che assomigliano notevolmente a persone, oggetti, luoghi o altre entità o eventi esistenti e che potrebbero apparire falsamente autentici o veritieri per una persona («deep fake») sono tenuti a rendere noto che il contenuto è stato generato o manipolato artificialmente. Tuttavia il primo comma non si applica se l’uso è autorizzato dalla legge per accertare, prevenire, indagare e perseguire reati o se è necessario per l’esercizio del diritto alla libertà di espressione e del diritto alla libertà delle arti e delle scienze garantito dalla Carta dei diritti fondamentali dell’UE, e fatte salve le tutele adeguate per i diritti e le libertà dei terzi. 4. I paragrafi 1, 2 e 3 lasciano impregiudicati i requisiti e gli obblighi di cui al titolo III del presente regolamento. 29   Si tratta di sistemi di IA come i filtri antispam o alcuni videogiochi, che sono ritenuti non rischiosi (o minimamente rischiosi) per i diritti o la sicurezza dei cittadini. 30   V. Proposta di Regolamento sull’IA, Relazione, p. 3: «la presente proposta presenta un approccio normativo orizzontale all’IA equilibrato e proporzionato, che si limita ai requisiti minimi necessari per affrontare i rischi e i problemi ad essa collegati, senza limitare od ostacolare indebitamente lo sviluppo tecnologico o altrimenti aumentare in modo sproporzionato il costo dell’immissione sul mercato di soluzioni di IA»; ivi, pp. 10-11: «L’opzione prescelta […] prevede un quadro normativo soltanto per i sistemi di IA ad alto rischio, con la possibilità per tutti i fornitori di sistemi di IA non ad alto rischio di seguire un codice di condotta. […] Al fine di affrontare i possibili svantaggi per le PMI, tale opzione comprende diverse disposizioni destinate a sostenere la loro conformità e ridurre i loro costi […] Le imprese o le autorità pubbliche che sviluppano o utilizzano una qualsiasi applicazione di IA non classificata come ad alto rischio sarebbero soggette soltanto ad obblighi minimi di informazione. Potrebbero tuttavia scegliere di riunirsi ad altri soggetti e adottare congiuntamente un codice di condotta per seguire requisiti adeguati e per assicurare che i loro sistemi di IA siano affidabili. In tal caso i costi sarebbero al massimo pari a quelli dei sistemi di IA ad alto rischio, ma molto probabilmente inferiori». Cfr. anche l’art. 71 della proposta di ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La proposta di regolazione europea dell’intelligenza artificiale

15

tero sistema è il ricorso ai Codici di condotta; ricorso che, come sappiamo, è stato centrale nella disciplina di un settore analogo ed importante quale quello della «privacy»31. Per questo tipo di fonte di self e co-regulation - che vede l’attuazione dei principi posti dalla norma europea affidata agli stessi soggetti destinatari della disciplina ovvero a loro associazioni rappresentative è prevista solo la facoltà di adozione per i fornitori di servizi e sistemi di IA a medio o basso rischio che intendano volontariamente rispettare i requisiti previsti per i sistemi ad alto rischio32. Nonostante sia presentata dai documenti preparatori come una scelta preferenziale33, il ruolo strategico dei Codici di condotta nella architettura normativa della proposta appare notevolmente depotenziato. In aggiunta alla possibilità di estendere i requisiti previsti per i sistemi ad alto rischio a quelli a medio o basso rischio, è prevista la facoltà generale (ovvero riferita a tutti i sistemi di IA a rischio alto, medio e basso) di adottare Codes of conduct per l’applicazione volontaria di requisiti definiti - con scelta francamente molto discutibile34 - «ulteRegolamento, ove si precisa che le sanzioni debbono tener conto degli interessi dei fornitori di piccole dimensioni e delle start-up e della loro sostenibilità economica. 31   Per una analisi generale sul ruolo delle fonti di co-regolazione e di auto-regolazione nel settore della privacy sia consentito rinviare a A. Simoncini, I codici deontologici di protezione dei dati personali nel sistema delle fonti. L’emersione di un nuovo “paradigma” normativo?, in U. De Siervo (a cura di) Osservatorio sulle fonti 1999, Torino 2000; v. anche S. Sileoni, Autori delle proprie regole. I codici di condotta per il trattamento dei dati personali e il sistema delle fonti, Padova 2012. 32   L’art. 69 prevede che la Commissione e gli Stati membri incoraggino l’adozione di Codici di condotta «intesi a promuovere l’applicazione volontaria ai sistemi di IA diversi dai sistemi di IA ad alto rischio» dei requisiti previsti per questi ultimi. 33   Nella relazione di presentazione ed accompagnamento della proposta di Regolamento, si chiarisce come vi fossero quattro opzioni strategiche sul tavolo, caratterizzate da gradi diversi di intervento normativo. L’opzione prescelta («strumento legislativo orizzontale dell’UE che segue un approccio proporzionato basato sul rischio + codici di condotta per i sistemi di IA non ad alto rischio») viene presentata come quella in grado di limitare i rischi per i diritti fondamentali e la sicurezza delle persone, mantenendo i costi di conformità al minimo, non gravando quindi sulle PMI: «Le imprese o le autorità pubbliche che sviluppano o utilizzano una qualsiasi applicazione di IA non classificata come ad alto rischio sarebbero soggette soltanto ad obblighi minimi di informazione. Potrebbero tuttavia scegliere di riunirsi ad altri soggetti e adottare congiuntamente un codice di condotta per seguire requisiti adeguati e per assicurare che i loro sistemi di IA siano affidabili. In tal caso i costi sarebbero al massimo pari a quelli dei sistemi di IA ad alto rischio, ma molto probabilmente inferiori», cfr. Proposta di Regolamento sull’Intelligenza artificiale, Relazione, p. 11. 34   Appare francamente inappropriato definire valori come la sostenibilità ambientale, la protezione delle diversità e l’inclusione delle disabilità come finalità «ulteriori» © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

16

Andrea Simoncini

riori», quali: la sostenibilità ambientale, l’accessibilità per i disabili, il coinvolgimento dei portatori di interesse e l’attenzione alla diversità. All’applicazione dei codici, comunque, non si collegano né semplificazioni amministrative o agevolazioni all’ingresso al mercato, né riduzioni nelle sanzioni35. Anche in questo caso, quindi, si segue l’indirizzo di non «ispirarsi» alla disciplina GDPR. Nel sistema normativo di protezione dei dati personali la scelta, infatti, è diametralmente opposta36. L’art. 40 del GDPR «scommette» sui Codici di condotta, come strumenti di co-regolazione del mercato estremamente importanti. I codici di condotta «privacy», infatti, possono individuare regole per assicurare la sicurezza dei trattamenti, ma anche la concreta azionabilità dei diritti degli interessati37, ed in tal senso possono essere considerati come dei veri e propri «allegati» al GDPR38. A livello nazionale, il Codice della privacy fa dipendere la legittimità di alcuni trattamenti dalla adesione a Codici di condotta39 (rectius alle regole deontologiche40). Infine, come ricordato, l’art. 83 par. 2 lettera j) del Regolamento 2016/679, prevede che nel valutare e, dunque, meramente facoltative, nonché affidate alla volontaria attivazione dei destinatari delle norme attraverso i codici di condotta. 35   L’art. 71 della proposta si limita a prevedere che nel decidere l’importo delle sanzioni amministrative pecuniarie si debba tener conto della natura, gravità e durata della violazione e delle sue conseguenze, dell’eventuale emissione di ulteriori sanzioni per la stessa condotta da parte di altre autorità di vigilanza del mercato, delle dimensioni e della quota di mercato dell’operatore che ha commesso la violazione. 36   Cfr. A. Cataleta, Codici di condotta, l’approccio soft law che spingerà l’adeguamento al GDPR, in Agendadigitale, 13 maggio 2019. 37   Ibidem. 38   Così F. Pizzetti, GDPR e Intelligenza artificiale. Codici di condotta, certificazioni, sigilli, marchi e altri poteri di soft law previsti dalle leggi nazionali di adeguamento: strumenti essenziali per favorire una applicazione proattiva del Regolamento europeo nell’epoca della IA, in A. Mantelero e D. Poletti (a cura di), Regolare la tecnologia: il Reg. UE 2016/679 e la protezione dei dati personali. Un dialogo fra Italia e Spagna, Pisa 2018, p. 82. 39   Sebbene con i distinguo necessari, in quanto nella elaborazione nazionale le regole deontologiche previste dall’art. 2-septies, così come le misure di garanzia ex art. 2-quater sono promosse dal Garante e non è prevista l’iniziativa delle associazioni rappresentative dei titolari e responsabili del trattamento, come invece indicato nella procedura di adozione dei codici di condotta delineata nell’art. 40 del GDPR. 40  Si veda in proposito l’art. 2-quater del Codice privacy (d.lgs. n. 196/2003), come novellato dal d.lg. n. 101/2018, relativo alle regole deontologiche per i trattamenti previsti dalle disposizioni di cui agli articoli 6, par. 1, lettere c) ed e), 9, par. 4, e al capo IX del Regolamento: il rispetto delle regole deontologiche approvate secondo la procedura indicata nella norma costituisce condizione essenziale di liceità e correttezza del trattamento. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La proposta di regolazione europea dell’intelligenza artificiale

17

l’ammontare di una sanzione pecuniaria da infliggere in caso di violazione l’autorità di controllo possa valutare, tra gli altri elementi, l’adesione del titolare a Codici di condotta41. Completato questo primo esame degli aspetti connessi all’architettura generale della proposta, passiamo ora esaminare la portata «costituzionale» della proposta di Regolamento con riguardo al suo contenuto sostanziale. L’interrogativo cui cercheremo di rispondere è se l’Artificial Intelligence Act rappresenti o meno un passo in avanti nella ricerca di un corretto bilanciamento tra sviluppo industriale e tutela dei diritti fondamentali42 nel contesto di quello che possiamo definire lo European Constitutional law of Technology43. 4. Nel sistema giuridico europeo è possibile oggi individuare alcuni principi fondamentali riguardanti l’utilizzo delle nuove tecnologie

41   Sull’art. 40 del GDPR si vedano: L. Bolognini, E. Pelino e C. Bistolfi, (a cura di), Il regolamento privacy europeo. Commentario alla nuova disciplina sulla protezione dei dati personali, Milano 2016, p. 283 ss.; G.M. Riccio, G. Scorza e E. Belisario (a cura di), GDPR e normativa privacy. Commentario, Milano 2018, p. 352 ss.; A.R. Popoli, Codici di condotta e certificazioni, in G. Finocchiaro (a cura di), La protezione dei dati personali in Italia. Regolamento UE n. 2016/679 e d.lgs. 10 agosto 2018, n. 101, Torino 2019, p. 527 ss.; S. Sileoni, Art. 40, in R. D’orazio, G. Finocchiaro, O. Pollicino e G. Resta (a cura di), Codice della privacy e data protection, Milano 2021, p. 584 ss.; T. Annecca, Codici deontologici e GDPR, in R. Panetta (a cura di), Circolazione e protezione dei dati personali, tra libertà e regole del mercato, Milano 2019, p. 621 ss.; D. Poletti e M.C. Causarano, Autoregolamentazione privata e tutela dei dati personali: tra codici di condotta e meccanismi di certificazione, in E. Tosi (a cura di), Privacy Digitale. Riservatezza e protezione dei dati personali tra GDPR e nuovo Codice Privacy, Milano 2019, p. 369 ss. 42   Sullo stesso solco si colloca la recentissima proposta di una dichiarazione europea sui diritti e i principi digitali, che la Commissione ha presentato al Parlamento e al Consiglio il 26 gennaio 2022. 43   Sulle sfide del diritto costituzionale di fronte all’Intelligenza artificiale si vedano, ex plurimis: C. Casonato, Intelligenza artificiale e diritto costituzionale: prime considerazioni, in Diritto pubblico comparato ed europeo, 2019, Fascicolo Speciale, pp. 101-130; C. Colapietro e A. Moretti, L’Intelligenza Artificiale nel dettato costituzionale: opportunità, incertezze e tutela dei dati personali, in BioLaw Journal Rivista di BioDiritto, 2020, III, pp. 359-387; F. Faini, Intelligenza artificiale e diritto: le sfide giuridiche in ambito pubblico, in BioLaw Journal - Rivista di BioDiritto, 2019, I; T. Groppi, Alle frontiere dello Stato costituzionale: innovazione tecnologica e intelligenza artificiale, in Giurcost.org, 2020, III, 28 settembre 2020; O. Pollicino e G. De Gregorio, Constitutional Law in the Algorithmic Society, in H.-W. Micklitz, O. Pollicino, A. Reichman, A. Simoncini, G. Sartor e G. De Gregorio (a cura di), Constitu­tional Challenges in the Algorithmic Society, 2021, p. 3 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

18

Andrea Simoncini

emergenti44; questi principi, di matrice tanto normativa quanto giurisprudenziale, derivano da una serie di fonti dislocate in livelli istituzionali e normativi tra loro diversi: pensiamo alle norme contenute nelle costituzioni nazionali, così come nella Carta dei Diritti Fondamentali dell’Unione Europea, ma anche a normative di livello «sostanzialmente» costituzionale, come, ad esempio, in materia di privacy, quanto espresso dal Regolamento GDPR. In questo composito «strato costituzionale» dell’ordinamento giuridico europeo, sono rintracciabili quattro principi fondamentali che si applicano a sistemi di IA. Innanzitutto, il principio di «trasparenza». Con esso si intende l’affermazione del diritto della persona di essere informata del fatto che sta interagendo con un sistema di IA. Ovverosia, ogni qualvolta una persona è sottoposta ad una interazione con una macchina, essa ha il diritto di essere informata sull’esistenza di tale sistema tecnologico. Questo principio, oltre ad evitare che il soggetto che interagisce con la macchina venga indotto in una falsa rappresentazione della realtà, costituisce la base per l’attivazione di tutti gli altri principi (che presuppongono una interazione cosciente uomo-macchina). In secondo luogo, il principio di «non esclusività». È il ben noto diritto - riconosciuto anche dall’art. 22 del GDPR - a non essere sottoposti a una decisione presa esclusivamente sulla base di un algoritmo. Un modo equivalente per indicare lo stesso valore è espresso dalla direttiva dello «Human In The Loop», ovverosia il diritto che nel sistema tecnologico sia comunque previsto (rectius garantito) l’intervento umano. In terzo luogo, il principio di «comprensibilità». Questo principio afferma il diritto ad avere sempre una spiegazione comprensibile delle motivazioni delle decisioni prese da un sistema di IA, quando queste decisioni interferiscono con la libertà di una persona. Ogni persona sottoposta a un sistema di IA ha il diritto di avere informazioni significative sulla logica interna al sistema. È il tema

44   Per l’esatta ricostruzione di questi principi sia consentito rinviare a A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in Biolaw Journal, 2019, I, p. 67 ss.; A. Simoncini, Amministrazione digitale algoritmica. Il quadro costituzionale, in R. Cavallo Perin e D.U. Galetta (a cura di), Il diritto dell’amministrazione pubblica digitale, Torino 2020, p. 38 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La proposta di regolazione europea dell’intelligenza artificiale

19

conosciuto nel dibattito globale come Explicable Artificial Intelligence (XAI). Infine il principio di «non discriminazione algoritmica». Il diritto, cioè, a non essere sottoposti a una decisione presa sulla base di un algoritmo addestrato su basi dati parziali, discriminatori o illegali. Se, dunque, questi possono essere considerati principi fondamentali di diritto costituzionale europeo che riguardano i sistemi tecnologici ed in particolare quelli che utilizzano algoritmi di IA, in che rapporto si pone la proposta AIA con tali principi? a) La proposta AIA in effetti recepisce espressamente il principio di trasparenza nell’art. 52, ove si prevede che i sistemi di IA destinati ad interagire con le persone fisiche siano progettati in modo che queste ultime ne siano sempre informate, a meno che ciò non risulti evidente dalle circostanze e dal contesto di utilizzo. I paragrafi 2 e 3 fanno espresso riferimento ai sistemi di riconoscimento delle emozioni, ai sistemi di categorizzazione biometrica e ai c.dd. deep fake. L’obbligo di trasparenza riguarda tutti i sistemi di IA, anche quelli non ad alto rischio e non si applica a quei sistemi autorizzati dalla legge a perseguire finalità di indagine e repressione dei crimini. Del principio di trasparenza, si può inoltre trovar traccia nella parte della proposta AIA dedicata ai sistemi di IA del tutto proibiti. In particolare, l’art. 5 par. 1 lett. a) della proposta, vieta radicalmente l’utilizzo di sistemi basati su tecniche subliminali, che «agiscono senza che una persona ne sia consapevole» - applicando dunque il principio di «trasparenza» -. In questi casi di relazione uomo-macchina incosciente, due sono i rischi da evitare. Il primo (e più immediato) è l’inganno, ovverosia una falsa rappresentazione del contesto in cui ci si pone in relazione al sistema tecnologico; il secondo è che, in assenza di consapevolezza dell’interazione con un sistema di IA, la persona si trovi nell’impossibilità di attivare tutti gli strumenti che l’ordinamento pone a sua tutela in casi del genere. b) Il principio di non esclusività, nella sua forma di garanzia del Human Oversight - ovvero del dovere della sorveglianza umana -, è

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Andrea Simoncini

20

previsto dall’art. 14 della proposta di Regolamento45. La supervisione umana è inserita nel processo di minimizzazione del rischio dei danni alla salute, alla sicurezza o ai diritti fondamentali, specie quando tali rischi persistano anche a seguito dell’applicazione dei requisiti previsti dalla legge. Le misure predisposte dovrebbero consentire alla persona coinvolta nella sorveglianza di: individuare autonomamente anomalie e disfunzioni del sistema; mantenere la consapevolezza rispetto all’eccessivo affidamento ai risultati del sistema; essere capace di interpretare gli

  Art. 14 - Sorveglianza umana 1. I sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui il sistema di IA è in uso. 2. La sorveglianza umana mira a prevenire o ridurre al minimo i rischi per la salute, la sicurezza o i diritti fondamentali che possono emergere quando un sistema di IA ad alto rischio è utilizzato conformemente alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, in particolare quando tali rischi persistono nonostante l’applicazione di altri requisiti di cui al presente capo. 3. La sorveglianza umana è garantita mediante almeno una delle seguenti misure: a) misure individuate e integrate nel sistema di IA ad alto rischio dal fornitore prima della sua immissione sul mercato o messa in servizio, ove tecnicamente possibile; b) misure individuate dal fornitore prima dell’immissione sul mercato o della messa in servizio del sistema di IA ad alto rischio, adatte ad essere attuate dall’utente. 4. Le misure di cui al par. 3 consentono le seguenti azioni, a seconda delle circostanze, alle persone alle quali è affidata la sorveglianza umana: a) comprendere appieno le capacità e i limiti del sistema di IA ad alto rischio ed essere in grado di monitorarne debitamente il funzionamento, in modo che i segnali di anomalie, disfunzioni e prestazioni inattese possano essere individuati e affrontati quanto prima; b) restare consapevole della possibile tendenza a fare automaticamente affidamento o a fare eccessivo affidamento sull’output prodotto da un sistema di IA ad alto rischio («distorsione dell’automazione»), in particolare per i sistemi di IA ad alto rischio utilizzati per fornire informazioni o raccomandazioni per le decisioni che devono essere prese da persone fisiche; c) essere in grado di interpretare correttamente l’output del sistema di IA ad alto rischio, tenendo conto in particolare delle caratteristiche del sistema e degli strumenti e dei metodi di interpretazione disponibili; d) essere in grado di decidere, in qualsiasi situazione particolare, di non usare il sistema di IA ad alto rischio o altrimenti di ignorare, annullare o ribaltare l’output del sistema di IA ad alto rischio; e) essere in grado di intervenire sul funzionamento del sistema di IA ad alto rischio o di interrompere il sistema mediante un pulsante di «arresto» o una procedura analoga. 5. Per i sistemi di IA ad alto rischio di cui all’allegato III, punto 1, lettera a), le misure di cui al par. 3 sono tali da garantire che, inoltre, l’utente non compia azioni o adotti decisioni sulla base dell’identificazione risultante dal sistema, a meno che essa non sia stata verificata e confermata da almeno due persone fisiche. 45

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La proposta di regolazione europea dell’intelligenza artificiale

21

output, decidere di non usare, ignorare, annullare, ribaltare l’output; da ultimo, premere lo «stop button», cioè intervenire sul funzionamento del sistema o interromperlo con un pulsante di arresto. A ben vedere, però, non vi è una chiara corrispondenza tra il principio sopra richiamato di non esclusività e questa formulazione contenuta nell’art. 14 della proposta. In effetti, non si comprende se la proposta imponga per ogni sistema IA ad alto rischio un intervento umano «all’interno del processo decisionale» del sistema stesso e cioè se la decisione possa essere «del tutto» demandata alla persona fisica. Effettivamente, una cosa è prevedere che un processo decisionale automatico dinanzi ad una anomalia possa essere interrotto dall’esterno da un agente umano (c.d. stop button), altra cosa è stabilire che il processo automatico non possa produrre i suoi effetti senza l’intervento di un agente umano. E questo è un punto dirimente in quanto la giurisprudenza ad oggi esistente in Italia, ad esempio, in materia di decisioni delegate a sistemi tecnologici autonomi richiede che tali decisioni non possano mai del tutto sostituire l’azione della persona umana che, invece, deve sempre essere in grado di avere il pieno controllo del processo decisionale (rimanendo domina del processo decisionale)46. Anche su questo punto può aiutare la comparazione con il sistema GDPR. Mentre nella disciplina privacy, l’attuazione del principio di non esclusività è centrato sulla «decisione»47 assunta a seguito di un trattamento interamente automatizzato (imponendo con l’art. 2248, a 46   Si veda la vicenda relativa alle assunzioni dei docenti, di cui alle sentenze del TAR Lazio n. 9230 del 2018 e del Consiglio di Stato n. 8472 del 2019, in cui viene richiamato il principio di non esclusività della decisione algoritmica, deducibile dall’art. 22 del Regolamento 2016/679: «Nel caso in cui una decisione automatizzata “produca effetti giuridici che riguardano o incidano significativamente su una persona”, questa ha diritto a che tale decisione non sia basata unicamente su tale processo automatizzato (art. 22 Reg.). In proposito, deve comunque esistere nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatica. In ambito matematico ed informatico il modello viene definito come HITL (Human in the loop), in cui, per produrre il suo risultato è necessario che la macchina interagisca con l’essere umano», cfr. par. 15.2. V. anche A. Simoncini, L’algoritmo incostituzionale, cit., p. 73 ss. 47   Resta riflette sulla ristrettezza della nozione di «decisione», che lascia fuori dal campo di tutela numerose fattispecie, in particolare di microtargeting, cfr. G. Resta, Governare l’innovazione tecnologica: decisioni algoritmiche, diritti digitali e principio di uguaglianza, in Politica del diritto, II, giugno 2019, p. 225. 48   Cfr. G. Sartor e A. Simoncini, Art. 22 in R. D’Orazio, G. Resta, G. Finocchiaro e O. Pollicino, (a cura di) Codice della Privacy e Data Protection, Milano 2021.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Andrea Simoncini

22

pena di illegittimità, l’intervento umano), nel caso della proposta di Regolamento AIA il focus non è sulla singola «decisione», ma sul «funzionamento» del sistema di IA. Di conseguenza, lo human oversight sembra limitarsi alla verifica del corretto funzionamento del sistema rispetto a quanto indicato nelle istruzioni d’uso, non lasciando spazio a valutazioni sui risultati e sulle conseguenze sull’utente. c) Uno dei principi fondamentali per una tecnologia delle decisioni costituzionalmente sostenibile è che tali decisioni, quando interferiscono con le posizioni soggettive, siano comprensibili. Ebbene, nella proposta AIA un riferimento al principio di explicability può essere rinvenuto nell’art. 13, rubricato «Trasparenza e fornitura di informazioni agli utenti»49. Il primo paragrafo richiede che i sistemi di Intelligenza   Art. 13 - Trasparenza e fornitura di informazioni agli utenti 1.I sistemi di IA ad alto rischio sono progettati e sviluppati in modo tale da garantire che il loro funzionamento sia sufficientemente trasparente da consentire agli utenti di interpretare l’output del sistema e utilizzarlo adeguatamente. Sono garantiti un tipo e un livello di trasparenza adeguati, che consentano di conseguire il rispetto dei pertinenti obblighi dell’utente e del fornitore di cui al capo 3 del presente titolo. 2.I sistemi di IA ad alto rischio sono accompagnati da istruzioni per l’uso in un formato digitale o non digitale appropriato, che comprendono informazioni concise, complete, corrette e chiare che siano pertinenti, accessibili e comprensibili per gli utenti. 3.Le informazioni di cui al par. 2 specificano: a) l’identità e i dati di contatto del fornitore e, ove applicabile, del suo rappresentante autorizzato; b) le caratteristiche, le capacità e i limiti delle prestazioni del sistema di IA ad alto rischio, tra cui: i) la finalità prevista; ii) il livello di accuratezza, robustezza e cibersicurezza di cui all’art. 15 rispetto al quale il sistema di IA ad alto rischio è stato sottoposto a prova e convalidato e che ci si può attendere, e qualsiasi circostanza nota e prevedibile che possa avere un impatto sul livello atteso di accuratezza, robustezza e cibersicurezza; iii) qualsiasi circostanza nota o prevedibile connessa all’uso del sistema di IA ad alto rischio in conformità alla sua finalità prevista o in condizioni di uso improprio ragionevolmente prevedibile, che possa comportare rischi per la salute e la sicurezza o per i diritti fondamentali; iv) le sue prestazioni per quanto riguarda le persone o i gruppi di persone sui quali il sistema è destinato a essere utilizzato; v) ove opportuno, le specifiche per i dati di input o qualsiasi altra informazione pertinente in termini di set di dati di addestramento, convalida e prova, tenendo conto della finalità prevista del sistema di IA; c) le eventuali modifiche apportate al sistema di IA ad alto rischio e alle sue prestazioni, che sono state predeterminate dal fornitore al momento della valutazione iniziale della conformità; 49

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La proposta di regolazione europea dell’intelligenza artificiale

23

artificiale ad alto rischio garantiscano un funzionamento sufficientemente trasparente da consentire agli utenti di interpretare l’output e utilizzarlo adeguatamente. La norma specifica anche che debbono essere garantiti un tipo ed un livello di trasparenza adeguati a consentire al fornitore e all’utente di rispettare i propri obblighi. La proposta di Regolamento prevede che attraverso la predisposizione di istruzioni d’uso siano fornite agli utenti informazioni concise, complete, chiare e corrette, pertinenti, accessibili e «comprensibili». A dire il vero, le informazioni che debbono essere fornite all’utente sono quelle di natura industriale/commerciale e riguardano principalmente l’identificazione del fornitore, le caratteristiche tecniche del sistema, le prestazioni, il corretto utilizzo, la sicurezza, la necessità di sorveglianza umana, le regole di manutenzione. In altre parole, seguendo l’approccio risk-based ed il modello di regolazione proprio della normativa sui prodotti pericolosi, qui la «spiegazione» fornita all’utente/consumatore del sistema di IA consiste in una descrizione generale del funzionamento. Anche in questo caso ci sembra di dover sottolineare la notevole distanza esistente tra il principio di comprensibilità e la regolazione ipotizzata nella proposta. La «comprensibilità», ovvero quella «explicability» nella versione anglofona cui fa riferimento il principio costituzionale, infatti, ha un ben chiaro obiettivo di tutela: fornire al soggetto interessato dalla decisione algoritmica una motivazione tale da essere, se del caso, oggetto di scrutinio e verifica giurisdizionale. Occorrerebbe, dunque, quantomeno una lettura «costituzionalmente orientata» della proposta e, muovendo dal riferimento alla comprehensibility, la si potrebbe interpretare come il diritto per l’utente di ottenere una spiegazione che attenga non solo al sistema di produzione della decisione, ma anche alle motivazioni del singolo output, alla singola decisione presa dal sistema di IA. Non va dimenticato, infatti, che solo se si è in grado di ottenere una motivazione comprensibile del comportamento dell’algoritmo nel caso specifico e concreto, si può effettivamente reagire a tale comportamento, soprattutto quando d) le misure di sorveglianza umana di cui all’art. 14, comprese le misure tecniche poste in essere per facilitare l’interpretazione degli output dei sistemi di IA da parte degli utenti; e) la durata prevista del sistema di IA ad alto rischio e tutte le misure di manutenzione e cura necessarie per garantire il corretto funzionamento di tale sistema, anche per quanto riguarda gli aggiornamenti software. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

24

Andrea Simoncini

esso sia percepito come lesivo. Ed in tale direzione può essere letto e interpretato anche il punto iii) del par. 3 lett. b) dell’art. 13 AIA, ove si richiede che le istruzioni d’uso informino l’utente rispetto a qualsiasi circostanza nota o prevedibile che possa comportare rischi per la salute, la sicurezza, i diritti fondamentali. Interessante poi è l’intersezione tra il principio di «comprensibilità» ed il principio di «non esclusività» contenuto nella lettera d) del par. 3 dello stesso art. 13, in cui si prevede che debbano essere fornite informazioni rispetto alle misure di sorveglianza umana, «comprese le misure tecniche poste in essere per facilitare l’interpretazione degli output dei sistemi di IA da parte degli utenti». Lo stesso avviene nel par. 4 lett. a) dell’art. 14, che tra le misure volte a garantire la sorveglianza umana prevede la possibilità per il «sorvegliante» di «comprendere appieno le capacità e i limiti del sistema di IA ad alto rischio», e per la lettera c) che richiede all’umano la capacità di «interpretare correttamente» gli output del sistema. d) «Last but not least», anche il principio di non discriminazione è richiamato nella proposta AIA, segnatamente all’art. 1050. Anche 50   Art. 10 - Dati e governance dei dati 1. I sistemi di IA ad alto rischio che utilizzano tecniche che prevedono l’uso di dati per l’addestramento di modelli sono sviluppati sulla base di set di dati di addestramento, convalida e prova che soddisfano i criteri di qualità di cui ai paragrafi da 2 a 5. 2. I set di dati di addestramento, convalida e prova sono soggetti ad adeguate pratiche di governance e gestione dei dati. Tali pratiche riguardano in particolare: a) le scelte progettuali pertinenti; b) la raccolta dei dati; c) le operazioni di trattamento pertinenti ai fini della preparazione dei dati, quali annotazione, etichettatura, pulizia, arricchimento e aggregazione; d)la formulazione di ipotesi pertinenti, in particolare per quanto riguarda le informazioni che si presume che i dati misurino e rappresentino; e) una valutazione preliminare della disponibilità, della quantità e dell’adeguatezza dei set di dati necessari; f) un esame atto a valutare le possibili distorsioni; g) l’individuazione di eventuali lacune o carenze nei dati e il modo in cui tali lacune e carenze possono essere colmate. 3. I set di dati di addestramento, convalida e prova devono essere pertinenti, rappresentativi, esenti da errori e completi. Essi possiedono le proprietà statistiche appropriate, anche, ove applicabile, per quanto riguarda le persone o i gruppi di persone sui quali il sistema di IA ad alto rischio è destinato a essere usato. Queste caratteristiche dei set di dati possono essere soddisfatte a livello di singoli set di dati o di una combinazione degli stessi. 4. I set di dati di addestramento, convalida e prova tengono conto, nella misura

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La proposta di regolazione europea dell’intelligenza artificiale

25

in questo caso, come abbiamo già osservato, in ossequio al risk-based approach, il principio non viene affermato come diritto della persona, quanto come requisito funzionale del sistema tecnologico. La norma, declinando in modo molto dettagliato il principio di esattezza dei dati, richiede ai sistemi di IA ad alto rischio di utilizzare - per addestrare, convalidare e testare i propri algoritmi - set di dati «pertinenti, rappresentativi, esenti da errori e completi»51. In questo modo la proposta intende garantire il principio di non discriminazione, innanzitutto evitando il principale fattore di distorsione di questi sistemi tecnologici, ovverosia quello di essere addestrati su basi di dati già distorte o discriminanti, secondo il ben noto adagio dei computer scientists: GIGO (ovvero Garbage In Garbage Out). Va però anche segnalato che, da più parti, in sede industriale, sono stati sollevati dubbi sulla pratica applicabilità di questa parte della proposta, la quale finirebbe per imporre un livello troppo elevato di qualità dei dati da utilizzare (relevant, representative, free of errors and complete), così dunque da vietare, di fatto, le IA ad alto rischio. 5. La proposta di Regolamento sull’Intelligenza artificiale, quantomeno nella sua versione attuale, non sembra aver ancora raggiunto un soddisfacente punto di equilibrio tra la funzione di booster per lo

necessaria per la finalità prevista, delle caratteristiche o degli elementi particolari dello specifico contesto geografico, comportamentale o funzionale all’interno del quale il sistema di IA ad alto rischio è destinato a essere usato. 5. Nella misura in cui ciò sia strettamente necessario al fine di garantire il monitoraggio, il rilevamento e la correzione delle distorsioni in relazione ai sistemi di IA ad alto rischio, i fornitori di tali sistemi possono trattare categorie particolari di dati personali di cui all’art. 9, par. 1, del regolamento (UE) 2016/679, all’art. 10 della direttiva (UE) 2016/680 e all’art. 10, par. 1, del regolamento (UE) 2018/1725, fatte salve le tutele adeguate per i diritti e le libertà fondamentali delle persone fisiche, comprese le limitazioni tecniche all’utilizzo e al riutilizzo delle misure più avanzate di sicurezza e di tutela della vita privata, quali la pseudonimizzazione o la cifratura, qualora l’anonimizzazione possa incidere significativamente sulla finalità perseguita. 6. Per lo sviluppo di sistemi di IA ad alto rischio diversi da quelli che utilizzano tecniche che prevedono l’addestramento di modelli si applicano adeguate pratiche di gestione e governance dei dati, al fine di garantire che tali sistemi di IA ad alto rischio siano conformi al par. 2. 51   Il par. 3 richiede anche che i data set di addestramento, convalida e prova posseggano «proprietà statistiche appropriate» anche per quanto riguarda le persone o i gruppi di persone sui quali il sistema di intelligenza artificiale ad alto rischio è destinato ad essere usato. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

26

Andrea Simoncini

sviluppo dell’industria IA e la garanzia dei valori giuridici fondanti dell’Unione europea. La proposta, in particolare, se guardata sotto il profilo della tutela dei diritti, sembra avere ancora ampie zone d’ombra. Anche ad una prima lettura emerge, infatti, un chiaro «sbilanciamento» verso la considerazione della IA come «prodotto» potenzialmente pericoloso e non come potenziale causa di violazione di alcuni diritti fondamentali. La scelta operata dalla Commissione nella proposta AIA è quella di estendere anche ai sistemi di Intelligenza artificiale il modello del New Legislative Framework52, ovverosia il quadro giuridico europeo per la commercializzazione dei prodotti nell’Unione. Il NLF è un complesso normativo adottato per migliorare le norme di vigilanza del mercato, al fine di proteggere i consumatori dai danni causati da prodotti non sicuri, compresi quelli importati da paesi extra UE. Esso si applica ai prodotti che possono rappresentare un pericolo per la salute o l’ambiente, stabilendo le regole per l’accreditamento degli organismi di valutazione della conformità; fissa i requisiti per la notifica degli organismi di valutazione della conformità; rafforza la disciplina di riconoscimento ed utilizzo del marchio CE. La scelta è, quindi, quella di applicare anche ai sistemi di Intelligenza artificiale questo modello di regolazione ex post, basato sulla identificazione di pericoli già esistenti, predeterminati in via legislativa, top-down. In questo modo, mentre per principi di natura più strutturale, quale quello di «trasparenza» e di «non discriminazione»53, la proposta contiene indicazioni efficaci, per altri principi di natura più sostanziale, quali quello di non essere sottoposti a decisioni prese «esclusivamente» da sistemi automatici ovvero il diritto ad ottenere motivazioni comprensibili per tali decisioni, la proposta appare clamorosamente reticente. D’altra parte, non siamo di fronte ad una proposta di disciplina generale dell’IA, quanto ad una mera rimodulazione della disciplina

52   Il pacchetto del 9 luglio 2008 è costituito dal Regolamento (CE) N. 765/2008 del Parlamento europeo e del Consiglio, che stabilisce i requisiti per l’accreditamento e vigilanza del mercato per quanto riguarda la commercializzazione dei prodotti, dalla Decisione 768/2008/CE del Parlamento europeo e del Consiglio, relativa a un quadro comune per la commercializzazione dei prodotti e dal  Regolamento (CE) 2019/1020 del Parlamento europeo e del Consiglio, sulla vigilanza del mercato e sulla conformità dei prodotti. 53  V. supra, par. 4, lett. d.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La proposta di regolazione europea dell’intelligenza artificiale

27

commerciale ed industriale, rispetto ad una nuova porzione di mercato in attesa di regolazione specifica. L’aspetto, però, paradossale della proposta è che essa non sembra soddisfare neppure il versante «industriale». Abbiamo ricordato le posizioni per cui i costi conseguenti all’applicazione della regolazione sull’IA da parte delle imprese sarebbero del tutto proibitivi54. La proposta, quindi, sembra riuscire nel difficile risultato di scontentare sia chi è attento alle ragioni della crescita dell’industria tecnologica, sia chi è preoccupato per le ragioni della tutela dei diritti dinanzi ai nuovi pericoli che tale industria può causare. Su questo dato apparentemente contraddittorio, vorremmo proporre alcune rapide riflessioni. La prima riguarda l’ambizione dell’Unione europea di conquistare una posizione di leadership tra le economie mondiali basate sulla IA. L’Unione europea ambisce ad entrare con strumenti nuovi ed un approccio volto al massimo sfruttamento della economia dei dati55 in un mercato globale, saldamente dominato ormai da decenni da USA e Cina; ebbene, questa strategia sarà sufficiente a colmare il gap esistente nei confronti della Cina e delle Big Tech statunitensi? Oggi, se scor-

54   Si veda B. Mueller, How Much Will the Artificial Intelligence Act Cost Europe?, July 2021, p. 4: «We estimate that the Artificial Intelligence Act would cost European businesses €10.9 billion per year by 2025, having cost the economy €31 billion by then. This excludes the opportunity cost of foregone investment into AI. Our analysis, based on the European Commission’s own impact assessment of the AIA, indicates that the AIA will cause a 40 percent profit reduction for a European business with a €10 million turnover that deploys a high-risk AI system. The provisions of the AIA, however wellintended, will extract a heavy price from an increasingly uncompetitive European economy». Questa analisi è stata poi contestata dal CEPS, che ha chiarito come i risultati in commento dipendano da una lettura non corretta del documento Study to support an impact assessment of regulatory requirements for Artificial Intelligence in Europe, pubblicato nell’aprile 2021, cfr. https://www.ceps.eu/clarifying-thecosts-for-the-eus-ai-act/, Clarifying the costs for the EU’s AI Act. 55   «Negli Stati Uniti, l’organizzazione dello spazio di dati è affidata al settore privato, con ripercussioni significative in termini di concentrazione. In Cina si assiste a una combinazione tra sorveglianza governativa e forte controllo delle imprese Big Tech su massicce quantità di dati, senza sufficienti garanzie per i cittadini. Al fine di mettere a frutto il potenziale dell’Europa dobbiamo trovare una nostra strada europea, che consenta di equilibrare il flusso e l’ampio utilizzo dei dati mantenendo nel contempo alti livelli di privacy, sicurezza, protezione e norme etiche», cfr. Commissione europea, Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle Regioni - Una strategia europea per i dati, COM(2020) 66 final, p. 4.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Andrea Simoncini

28

riamo la lista delle prime dieci AI companies del mondo56, non vi è una compagnia europea57. In tutte queste classifiche primeggiano Cina, Corea del Sud, USA. D’altra parte, la competizione mette sempre più a confronto l’Unione europea con mercati sensibilmente differenti. Si tratta di mercati molto meno regolamentati di quello europeo, o di esperienze totalmente peculiari come quella cinese, in cui possiamo parlare di «imprese economiche di Stato», difficilmente paragonabili con altri sistemi. È dunque realistico inseguire queste economie? A che condizioni possiamo proporre un «modello europeo» realmente competitivo ed attrattivo per gli investitori? E in questo scenario, il modello europeo dei twin objectives (sviluppo del mercato e tutela dei diritti fondamentali) è ancora da considerarsi un booster, o piuttosto rischia di rivelarsi un rallentamento per la spinta produttiva dell’industria 4.0 e in senso più ampio dell’intelligenza artificiale? Al di là del dilemma tra approccio di matrice industriale ovvero garantista, resta comunque il fatto che oggi, nel mercato globale, la regolazione rappresenta comunque un «costo» aggiuntivo tanto per l’impresa che, in certi casi, per i cittadini. Anche volendo rimanere all’interno di questa logica puramente «economica», è fondamentale ricordare che un costo aggiuntivo diviene una condizione sfavorevole per la produzione ed il mercato solo se non vi è una chiara percezione del valore aggiunto che esso rappresenta. Dinanzi a costi immotivati o irragionevoli, la reazione non potrà che essere negativa, sia da parte dei produttori che degli utenti finali e questa considerazione vale anche per i «costi regolativi». Questa riflessione vale anche per il settore della regolazione delle nuove tecnologie emergenti, per le quali, dinanzi all’iniziativa legislativa europea, si rischia - ancora una volta - di prefigurare regolazioni delle quali non si coglie diffusamente il valore o l’utilità. Qui l’argomento si sposta dall’ambito strettamente giuridico a quello socio-culturale e per illustrarlo può essere d’aiuto ricordare il caso di un settore molto vicino a quello della regolazione della tecnologia: quello delle politiche per l’ambiente. Molte aziende oggi debbono sostenere costi regolativi ingenti per rispettare le regole ambientali. Per

 www.aimagazine.com/ai-applications/top-10-artificial-intelligence-brands.   In effetti, la prima società nell’ elenco di cui alla nota precedente (DeepMind) avrebbe anche sede legale in nel Regno Unito, ma è di proprietà di Alphabet Inc (la compagnia americana che possiede il brand Google). 56 57

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La proposta di regolazione europea dell’intelligenza artificiale

29

lungo tempo, tale rispetto è stato avvertito come un peso sproporzionato o una distorsione del libero mercato. Fino a quando sul piano sociale e culturale è iniziata ad emergere una forte e chiara consapevolezza diffusa del valore dei beni ambientali e dell’equilibrio ecologico nel suo complesso. Ebbene, se la regolazione è percepita come necessaria a proteggere valori concretamente sentiti dal sistema sociale come imprescindibili, lo stesso mercato si mostra in grado di sostenere il costo di questa regolazione. Ma questo è avvenuto perché innanzitutto sul piano sociale e culturale è cresciuta la consapevolezza collettiva dell’importanza decisiva della tutela dell’ambiente e degli ecosistemi per il nostro futuro (come mostrano la recente conferenza delle Nazioni Unite sui cambiamenti climatici58 e dall’ultimo vertice del G20). Affinché il costo di una nuova regolazione dei sistemi di intelligenza artificiale sia socialmente accettato, occorre innanzitutto che si accresca e si consolidi la consapevolezza culturale del valore di tale regolazione: la creazione di una sfera tecnologica che quando interferisce con la vita, sia «a prova di diritti fondamentali». L’obiettivo da perseguire, quindi, prima che un assetto giuridico, è un modello culturale di società che vada oltre i principi strettamente consumeristici, finalizzati alla protezione del consumatore di prodotti pericolosi, ma che miri ad un ambiente in cui lo sviluppo tecnologico più avanzato si combini con la garanzia effettiva dei diritti fondamentali di libertà, uguaglianza e dignità. L’auspicio è, dunque, che nel procedimento di elaborazione che ancora separa la proposta di AIA dalla sua approvazione, si possa produrre un passo in avanti nella considerazione della dimensione della tutela dei diritti fondamentali nell’era dell’Intelligenza artificiale. Un’elaborazione che non può sganciarsi dalla progressiva maturazione di una consapevolezza pubblica diffusa della necessità di questa regolazione, maturazione condivisa tra operatori e cittadini disposti a sopportarne i costi sia in termini economici che amministrativi.

  UN Climate Change Conference UK 2021 COP26, www.ukcop26.org.

58

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Adelina Adinolfi*

Processi decisionali automatizzati e diritto antidiscriminatorio dell’Unione europea Sommario: 1. Funzioni e caratteristiche dei meccanismi decisionali automatizzati – 2. Particolarità del meccanismo decisionale automatizzato e diritto antidiscriminatorio – 3. Il quadro normativo attuale: rilevanza del diritto antidiscriminatorio e delle regole sulla protezione dei dati personali – 4. Le strategie normative e le proposte elaborate dalla Commissione europea – 5. Qualche osservazione conclusiva.

1. Il ricorso a processi decisionali automatizzati si riscontra, negli Stati membri dell’Unione europea, in un sempre più ampio novero di ambiti e di contesti, sia nell’attività amministrativa e giudiziaria che nel settore privato1. Le funzioni e modalità di tali processi sono assai eterogenee ed interessano, per menzionarne solo alcune, decisioni relative alla selezione del personale o alla determinazione della produttività dei dipendenti, all’accesso a determinati benefici e prestazioni, al calcolo del rischio assicurativo e della solvibilità, sino alla valutazione dell’eventualità di recidiva di un condannato2. La crescente diffusione di tali strumenti ha fatto emergere – come posto in evidenza sia dalla prassi sia da studi empirici – i rischi di violazione dei diritti fondamentali che discendono dall’utilizzo di algoritmi e di tecniche di profilazione sulle quali i processi automatizzati si fondano. Senza poter entrare in dettagli tecnici, si può intendere per decisione automatizzata, ai fini di questa breve analisi, il processo attraverso il quale un algoritmo, sulla base di dati e criteri ad esso forniti mediante un processo di «apprendimento», produce un determinato risultato (output); tale processo può essere totalmente automatico (ad es., il programma che colloca nello spam i messaggi e-mail con deter* Professoressa di Diritto dell’Unione europea nell’Università di Firenze.   Un’ampia ricognizione dei vari meccanismi utilizzati negli Stati membri dell’Unione si riscontra nella ricerca del gruppo di esperti di diritto antidiscriminatorio Algorithmic discrimination in Europe: challenges and opportunities for gender equality and non-discrimination law, European Equality Law Network/European Commission, 2020. 2   Tali aspetti, indicati in via solo esemplificativa, sono considerati in diversi scritti di questo volume; v., in particolare, i contributi di Landini, Renzi, Longo e Algeri. 1

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

32

Adelina Adinolfi

minate caratteristiche o elimina dalla rete i messaggi che esprimono odio razziale) oppure prevedere un controllo o intervento umano. In tale processo acquista rilievo la tecnica della profilazione che, secondo il Regolamento generale sui dai personali (di seguito GDPR)3, può definirsi come un procedimento che, correlando alcune caratteristiche personali o comportamentali note, ne inferisce altre provvedendo ad una classificazione4. Alcuni sistemi decisionali si fondano, inoltre, su applicazioni di intelligenza artificiale (come il machine learning) e producono risultati che, implicando margini discrezionali, sfuggono alla prevedibilità dell’esito ottenuto rendendo talora difficile finanche risalire alle motivazioni che lo hanno determinato5. Se la natura eterogenea dei processi decisionali automatizzati non consente una ricostruzione complessiva delle conseguenze che essi comportano in relazione al rispetto dei diritti fondamentali, un elemento comune a tali sistemi attiene, tuttavia, all’esigenza che ne sia garantita la conformità al principio di non discriminazione. Il rischio di differenziazioni ingiustificate è infatti insito in tecniche che si fondano su criteri relativi a caratteristiche delle persone e su aspetti del loro

3   Regolamento (UE) 2016/679 del 27 aprile 2016 relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (Regolamento generale sulla protezione dei dati). 4  L’art. 4 del GDPR definisce la profilazione indicando che essa comprende «qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati personali per valutare determinati aspetti personali relativi a una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica». Tuttavia, i procedimenti decisionali spesso si fondano su dati non personali (in particolare i big data) anonimi o resi tali. Il manuale redatto dalla Agenzia per la tutela dei diritti fondamentali (di seguito FRA) indica in modo sintetico che la profilazione consiste in «categorising individuals according to personal characteristics»; le caratteristiche possono essere non mutevoli (come l’età o l’altezza) oppure modificabili, come abitudini o comportamenti (Preventing unlawful profiling today and in the future: a guide, Publications Office of the European Union, Luxembourg 2018, p. 10). 5   È peraltro incerto il confine tra le applicazioni riconducibili all’intelligenza artificiale e quei processi automatizzati che, sebbene evoluti, non presentano caratteristiche di autonomia tali da ritenerli collocati in tale categoria normativa. In relazione a orientamenti che emergono anche dalla giurisprudenza italiana v. F. Paolucci, Algoritmi e intelligenza artificiale alla ricerca di una definizione: l’esegesi del Consiglio di Stato, alla luce dell’AI Act, in Giustizia Insieme, 8 aprile 2022.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Processi decisionali automatizzati

33

comportamento, correlandole variamente al fine di inferirne ulteriori elementi utilizzati a fini valutativi o predittivi6. Le peculiarità dei sistemi decisionali fondati su algoritmi pongono in dubbio l’adeguatezza dei paradigmi del diritto antidiscriminatorio a rilevare e contrastare le discriminazioni che tali sistemi possono porre in essere. Ciò implica complesse questioni che interessano la scelta e l’individuazione delle informazioni utilizzate, le modalità di «addestramento» del sistema, le interrelazioni tra i parametri di riferimento, nonché l’applicazione del processo decisionale e la sua trasparenza. Ulteriori incertezze attengono al regime della responsabilità, che può essere variamente riferita ai soggetti che, a diverso titolo, intervengono lungo tutta la catena della programmazione e dell’utilizzo del sistema, dalla fase di design sino alla sua concreta applicazione. Ci si domanda, inoltre, se le potenziali discriminazioni derivanti dai sistemi automatizzati coincidano con quelle tipizzate in relazione ai gruppi protetti o se, invece, ne sorgano di nuove non inquadrabili tra i motivi «tradizionali» oggetto di tutela. Nell’ambito delle prospettive di regolazione delle nuove tecnologie, gli aspetti relativi alla discriminazione algoritmica sono strettamente connessi al contesto normativo dell’UE, in ragione delle fonti rilevanti – la Carta dei diritti fondamentali, i principi generali, la normativa derivata - e dell’incidenza che queste producono negli ordinamenti nazionali7. L’Unione appare attualmente come un laboratorio in cui si discutono e sperimentano soluzioni che tengono conto sia del qua6   Come ha messo in luce uno studio condotto dall’Agenzia dell’Unione europea per i diritti fondamentali, appare evidente «the potential for discrimination in using big data for automated decision-making», #BigData: Discrimination in data-supported decision making, FRA Focus, maggio 2018. 7  Il complesso normativo dell’Unione relativo al diritto antidiscriminatorio è assai vasto e articolato. Alle due direttive specificamente rivolte al contrasto delle discriminazioni (2000/43, che attua il principio della parità di trattamento fra le persone indipendentemente dalla razza e dall’origine etnica, e 2000/78, che stabilisce un quadro generale per la parità di trattamento in materia di occupazione e di condizioni di lavoro), si affianca un ampio e consolidato insieme normativo relativo alla parità di genere; altre disposizioni concernono gruppi specifici protetti da alcuni motivi di discriminazione, come, tra gli altri, i cittadini di Stati terzi lungo soggiornanti (Direttiva 2003/109/CE) e i dipendenti di agenzie di lavoro interinale (Direttiva 2008/104/ CE). Un diverso insieme normativo concerne il divieto di discriminazioni in base alla nazionalità in relazione ai cittadini dell’Unione. Cfr. in argomento, tra i lavori ad ampio raggio sul diritto antidiscriminatorio, C. Favilli, La non discriminazione nell’Unione europea, Bologna 2008; Manuale di diritto europeo della non discriminazione, FRA, 2010; M. Barbera (a cura di), Il nuovo diritto antidiscriminatorio, Milano 2017;

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

34

Adelina Adinolfi

dro normativo esistente – e, quindi, della capacità di adattarlo in via interpretativa ai procedimenti automatizzati – sia della elaborazione di nuove regole. Queste ultime concernono soprattutto l’intelligenza artificiale, e risultano perciò rilevanti in relazione ai procedimenti decisionali che si fondano, in tutto o in parte, su tecniche riconducibili a tale sistema. Le normative in corso di elaborazione – che convergono oggi, dopo un’attività preparatoria assai ampia, sulla proposta di Regolamento sull’intelligenza artificiale8 – pongono al centro della strategia regolatoria l’esigenza di assicurare il rispetto dei diritti fondamentali. Le soluzioni normative in discussione rivelano un’evidente tensione tra la volontà di rafforzare la competitività dell’economia europea, promuovendo le applicazioni tecnologiche innovative, e l’esigenza che queste ultime si sviluppino nel rispetto dei diritti e principi enunciati dalla Carta dei diritti fondamentali e della giurisprudenza della Corte di giustizia9. Ci si propone di seguito di evidenziare le principali peculiarità che rendono incerta la collocazione dei sistemi decisionali automatizzati all’interno degli schemi tipici del diritto antidiscriminatorio europeo10,

M. Barbera e S. Borelli, Principio di eguaglianza e divieti di discriminazione, WP CSDLE “Massimo D’Antona”, n. 451/2022. 8   Proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione COM(2021) 206 def., 21.4.2021. Sulla proposta v. in questo volume il contributo di Andrea Simoncini. 9   La presenza di due diverse finalità risultava già dalla strategia generale adottata nel 2018 (L’intelligenza artificiale per l’Europa, 25 aprile 2018, COM(2018)237 def.) dalla quale emergeva il duplice obiettivo della Commissione di «rendere l’UE un polo di classe mondiale per l’IA, assicurando nel contempo che l’IA sia antropocentrica e affidabile». 10   Si possono menzionare tra i non numerosi lavori che hanno approfondito la questione dell’incidenza del diritto antidiscriminatorio dell’Unione in relazione alle decisioni algoritmiche P. Hacker, Teaching fairness to Artificial Intelligence: Existing and Novel Strategies Against Algorithmic Discrimination Under EU Law, in Comm. mark. law rev., 2018, p. 1143 ss.; R. Xenidis e L. Senden, EU Non-discrimination Law in the Era of Artificial Intelligence: Mapping the Challenges of Algorithmic Discrimination, in U. Bernitz et al. (a cura di), General Principles of EU Law and the EU Digital Order, Kluwer, Alphen aan der Rijn 2019; D. Baldini, Article 22 GDPR and the prohibition of discrimination. An outdated provision?, in Cyberlaws.it, 20 agosto 2019. Cfr. anche in argomento F. Zuiderveen Borgesius, Discrimination, artificial intelligence, and algorithmic decision-making, Council of Europe, Directorate General of Democracy, 2018; M. Szpunar, Reconciling new technologies with existing EU law – Online platforms as information society service providers, in Maastricht Journal of European and Comparative Law, 2020, IV, p. 400 ss.; R. Xenidis, Tuning ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Processi decisionali automatizzati

35

per poi ricostruire brevemente l’attuale quadro normativo dell’Unione applicabile a tali sistemi ed esaminare, infine, alcuni aspetti delle proposte di regolazione sinora delineate dalla Commissione ed attualmente in corso di esame. 2. Come si è sopra accennato, nei processi decisionali automatizzati gli algoritmi sui quali questi si fondano possono essere istruiti, mediante la tecnica della profilazione, per identificare e selezionare gruppi con caratteristiche comuni. Questo metodo implica il rischio che degli effetti discriminatori possano trarre origine da diverse fasi della progettazione e dell’utilizzo di tali processi, da quella del design e dello sviluppo, alla raccolta dei dati e all’individuazione dei criteri per la loro interrelazione, sino a quella dell’istruzione del sistema e alla sua applicazione pratica11. Tentando una tassonomia di tali possibili effetti al fine di valutarne la riconducibilità allo schema del diritto antidiscriminatorio europeo, si può anzitutto rilevare che potrebbero in ipotesi essere previsti dei criteri direttamente discriminatori di gruppi protetti; potrebbe, ad esempio, essere operata una classificazione volta a selezionare coloro che, mediante le informazioni disponibili o deducibili, appartengono ad una certa etnia o religione. Se tale ipotesi può apparire improbabile12, non deve trascurarsi, invece, che anche quando gli algoritmi non sono istruiti con un criterio riconducibile a un motivo di discriminazione, essi possono produrre l’effetto di selezionare dei gruppi protetti13. EU equality law to algorithmic discrimination: Three pathways to resilience, ivi, 2021, p. 736 ss. 11   V. tra i molti contributi, M. Hildebrandt e S. Gutwirth S. (a cura di), Profiling the European citizen, Springer, 2008, p. 17 ss.; I. Mendoza e L. Bygrave, The right not to be subject to automated decisions based on profiling, in T. Synodinou et al. (a cura di), EU Internet Law, Springer, 2017, p. 77 ss. Casi di discriminazione sono riferiti anche da R. Xenidis, Tuning EU equality law to algorithmic discrimination, cit. 12   Come osserva R. Xenidis, Tuning EU equality law to algorithmic discrimination, cit., p. 747, è difficile che «algorithmic proxy discrimination to be considered as direct discrimination because its definition in EU law involves a causality link between a given treatment and a protected ground, while inferential analytics rely on correlations». Sulla complessa distinzione tra discriminazione diretta e indiretta nelle decisioni algoritmiche v. M. Barbera, Discriminazione algoritmica e forme di discriminazione, in Labour and Law Issues, 2021, VII, p. 13 ss. 13  V. R. Xenidis e L. Senden, EU non-discrimination law in the era of artificial intelligence, in U. Bernitz et al. (a cura di), General Principles, cit., p. 3. Nel già menzionato manuale adottato dalla FRA si osserva che anche quando la profila© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

36

Adelina Adinolfi

La principale particolarità dei sistemi automatizzati, ossia costruire classificazioni derivanti dalla correlazione di diversi criteri, implica il rischio di discriminazioni di carattere intersezionale. Tale ipotesi si differenzia dai casi di discriminazioni multiple, cioè che riguardano, allo stesso tempo, motivi diversi, come ad es. una discriminazione fondata sia sul sesso sia sull’età. La discriminazione intersezionale ha, invece, come peculiare caratteristica, quella di risultare dalla combinazione di due o più criteri che, come effetto della loro interrelazione, danno origine ad una violazione14. Giacché gli algoritmi basano il loro risultato proprio sulla correlazione tra criteri diversi, ne deriva l’eventualità che l’intersezione di alcune variabili determini una situazione di svantaggio. Il diritto antidiscriminatorio dell’Unione sembra poter fornire tutela rispetto a tali particolari forme di discriminazione pur in assenza di specifiche indicazioni normative; la giurisprudenza della Corte di giustizia, benché scarsa e non lineare sul punto, fornisce qualche elemento a favore di un’interpretazione ampia15. zione non è legata direttamente a fattori di discriminazione vi sono altri tipi di dati che «can be strongly correlated with these characteristics, effectively acting as proxies for such protected characteristics». Si porta l’esempio dei dati relativi ai passeggeri di voli aerei (indicando come le informazioni sulle preferenze dietetiche possono rivelare il credo religioso) e a quelli acquisiti in base al sistema ETIAS sul controllo della circolazione degli stranieri; tale sistema, che «is based on the combination of a certain nationality and occupational group, may result in targeting an ethnic group or nationality which in a certain country typically works in a particular economic sector, such as construction or agriculture» (p. 117). Si menziona anche uno studio statunitense dal quale è emerso che in base ad un sistema di profilazione gli annunci di lavoro per posizioni più elevate e meglio retribuite venivano trasmessi ad una percentuale ristretta di donne, facendo prospettare una discriminazione di genere. 14  V. infra la definizione di discriminazione intersezionale enunciata dalla Commissione europea in relazione alle diseguaglianze di genere. 15   Nella sentenza nel caso Parris (Corte giust., 24 novembre 2016, C-443/15, David L. Parris c. Trinity College Dublin e a., EU:C:2016:897), la Corte sembra avere nettamente escluso qualsiasi possibilità di considerare una discriminazione intersezionale che non si fondi su un cumulo di motivi di discriminazione già tipizzati; essa ha affermato che «se è vero che una discriminazione può essere fondata su più di uno dei motivi indicati all’art. 1 della direttiva 2000/78, non esiste, tuttavia, alcuna nuova categoria di discriminazione che risulti dalla combinazione di alcuni di tali motivi, quali l’orientamento sessuale e l’età, e che possa essere constatata quando sia stata esclusa una discriminazione sulla base dei medesimi motivi, considerati in modo separato». Da alcune altre pronunce, invece, possono essere tratti alcuni elementi che sembrano poter preludere ad un atteggiamento favorevole verso il riconoscimento della discriminazione intersezionale; v. in argomento D. Schiek, On uses, abuses and non-uses of intersectionality be-fore the European Court of Justice, in Centre of European and Transnational Studies, in European (Legal) Studies on-line papers, 2018, III. V. anche ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Processi decisionali automatizzati

37

Occorre inoltre considerare che le decisioni automatizzate possono dare origine soprattutto a discriminazioni collettive: come si osserva nel già menzionato rapporto del gruppo di esperti sulle discriminazioni «…equality and non-discrimination systems that are strongly based on an individual rights and individual complaints system, and lack opportunities for bringing collective or class actions, may not be able to adequately address the problems and challenges inherent to algorithmic decision making»16. Tale osservazione è senza dubbio convincente se si guarda alle caratteristiche proprie degli algoritmi, i quali possono dare vita ad un meccanismo decisionale tale da produrre effetti discriminatori generalizzati; la rilevanza di azioni collettive ai fini della tutela contro le discriminazioni è peraltro riconosciuta dall’Unione non solo per effetto degli obblighi generali di attuazione in capo agli Stati membri17 e dei richiami specifici alla tutela giurisdizionale effettiva nelle direttive antidiscriminatorie, ma è anche sollecitata dalla raccomandazione 2013/396/UE sui ricorsi collettivi che riguardano violazioni di diritti conferiti dalle norme dell’Unione18. Un ulteriore dato peculiare attiene alla circostanza che le discriminazioni derivanti da processi automatizzati possono emergere, più che in altre ipotesi, in assenza di un soggetto che ne sia vittima. Il diritto dell’Unione fornisce, anche a tale riguardo, una protezione in base ai criteri enunciati nella giurisprudenza della Corte di giustizia che ha ritenuto vietati i potenziali effetti discriminatori di determinati comportamenti. Così, essa ha dichiarato che l’affermazione di un datore di lavoro che indichi di non voler assumere persone appartenenti ad una certa etnia19 ovvero quella del dirigente di una squadra che escluda di reclutare dei calciatori di orientamento omosessuale20 costituiscono T. Degener, Intersections between Disability, Race and Gender in Discrimination Law, in A. Lawson e D. Schiek (a cura di), European Union Non-Discrimination Law and Intersectionality, Ashgate, Farnham 2016, p. 29 ss. 16   Algorithmic discrimination in Europe: challenges and opportunities for gender equality and non-discrimination law, cit., p. 77. 17   Ci si intende riferire all’art. 19, par. 1, comma 2, TUE in base al quale gli Stati membri «stabiliscono i rimedi giurisdizionali necessari per assicurare una tutela giurisdizionale effettiva nei settori disciplinati dal diritto dell’Unione». 18   Cfr. in argomento C. Favilli, I ricorsi collettivi nell’Unione Europea e la tutela antidiscriminatoria: verso un autentico approccio orizzontale, in Il Diritto dell’Unione europea, 2014, p. 439 ss. 19   Corte giust., 10 luglio 2008, causa C-54/07, Centrum voor gelijkheid van kansen en voor racismebestrijding c. Firma Feryn NV, ECLI:EU:C:2008:397. 20  Corte giust., 25 aprile 2013, causa C-81/12, Asociaţia Accept c. Consiliul © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

38

Adelina Adinolfi

comunque un comportamento discriminatorio in quanto scoraggiano le persone appartenenti ai gruppi discriminati dal rispondere ad offerte di lavoro. Benché le direttive non prevedano espressamente il caso di una discriminazione nei confronti di vittime indeterminate, la Corte afferma che verrebbe altrimenti pregiudicata la finalità delle direttive volte a «promuovere le condizioni per una partecipazione più attiva sul mercato del lavoro»21. Si possono peraltro immaginare situazioni nelle quali l’appartenenza ad un gruppo sia determinata in modo errato, come può avvenire, ad esempio, quando dai dati tratti da motori di ricerca o da affermazioni sui social media emergano comportamenti riferibili apparentemente ad un criterio di protezione22. Ciò ha indotto la Commissione europea ad affermare che le direttive antidiscriminatorie proteggono anche situazioni nelle quali una persona è sfavorita in base ad una convinzione errata circa le sue caratteristiche23. In ogni caso, è evidente che i dati statistici possono non corrispondere, per le loro stesse caratteristiche, alla totalità delle situazioni individuate24. Naţional pentru Combaterea Discriminării, ECLI:EU:C:2013:275. 21   Così nel caso Feryn, cit., ove si aggiunge che «l’esistenza di siffatta discriminazione diretta non presuppone un denunciante identificabile che asserisca di essere stato vittima di tale discriminazione» (par. 25). 22  V. R. Xenidis, Tuning EU equality law to algorithmic discrimination, cit.; M. Kullmann, Platform work, algorithmic Decision-Making and EU gender Equality law, in International Journal of Comparative Labour Law and Industrial Relations, 2018, I, p. 1 ss.; F. Donati, Intelligenza artificiale e giustizia, in Rivista AIC, 2020, I. Riguardo ai dati comportamentali non corretti sui quali può essere basata la profilazione R. Xenidis porta l’esempio di una persona che ricerca su internet dei ristoranti per disabili per segnalarli ad un proprio conoscente e viene profilata come disabile benché non lo sia (p. 748). 23   La Commissione ha infatti promosso un’interpretazione delle direttive antidiscriminatorie secondo la quale esse vietano «anche le situazioni in cui una persona subisce una discriminazione diretta basata sulla percezione o supposizione errata che presenti le caratteristiche tutelate dalle direttive stesse, per esempio se un candidato a un posto di lavoro non è selezionato perché il datore di lavoro ritiene erroneamente che sia omosessuale o di una particolare origine etnica», Relazione congiunta sull’applicazione della direttiva 2000/43/CE del Consiglio, del 29 giugno 2000, che attua il principio della parità di trattamento fra le persone indipendentemente dalla razza e dall’origine etnica e della direttiva 2000/78/CE del Consiglio, del 27 novembre 2000, che stabilisce un quadro generale per la parità di trattamento in materia di occupazione e di condizioni di lavoro, COM(2014)2, 17 gennaio 2014, p. 10. 24   Il già menzionato manuale della FRA evidenzia che anche quando la profilazione è fondata su dati statistici, «Stereotypes may reflect some statistical truth. However, even in these cases, they remain problematic if they result in an individual being treated as member of a group and not based on his/her individual situation», p. 16. Riguardo alle conseguenze dell’utilizzo di dati statistici è portato un esempio tratto ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Processi decisionali automatizzati

39

La distinzione tra discriminazione diretta25 e indiretta26 appare alquanto incerta in relazione alle decisioni algoritmiche. Come sopra accennato, sembra difficile che possa configurarsi una discriminazione di natura diretta27; è invece più probabile che dei criteri apparentemente neutrali (come la residenza) possano comportare uno svantaggio comparativamente superiore per un gruppo protetto (ad esempio l’origine etnica) nella intersezione con alcuni dati e caratteristiche. Un caso emblematico di discriminazione algoritmica si è posto nell’ordinamento italiano riguardo alla piattaforma di una società di consegna a domicilio di prodotti alimentari che diminuiva il punteggio dei lavoratori assenti penalizzandoli nell’assegnazione di ulteriori sessioni di lavoro. Se il criterio sembrava apparentemente neutrale, in realtà le assenze venivano conteggiate tenendo conto anche delle giornate nelle quali erano organizzate manifestazioni sindacali e scioperi. A seguito di un ricorso proposto contro l’impresa da alcune organizzazioni sindacali, il Tribunale di Bologna ha, nell’ordinanza del 31 dicembre

dall’evidenza secondo la quale le donne vivono più degli uomini; considerato che un qualsiasi uomo può vivere più di una determinata donna, le decisioni fondate su tale assunto comportano il rischio di non essere corrette in un determinato caso, ma di fornire solo un dato medio. Con un ulteriore esempio si rileva che se l’80% dei residenti in una certa area paga in ritardo i debiti, è verosimile che una banca, se utilizzerà tale criterio, non concederà prestiti anche al 20% di residenti che invece provvede tempestivamente. 25   Secondo l’art. 2, par. 2, lett. a), della Direttiva 2000/78, che codifica l’orientamento espresso nella giurisprudenza della Corte di giustizia, una discriminazione di questo tipo si verifica quando, sulla base di uno qualsiasi dei motivi di cui all’art. 1 della medesima Direttiva, una persona è trattata meno favorevolmente di quanto lo sia un’altra in una situazione paragonabile. 26   La medesima Direttiva definisce la discriminazione indiretta (art. 2, par. 2, lett. b) indicando che questa sussiste «quando una disposizione, un criterio o una prassi apparentemente neutri possono mettere in una posizione di particolare svantaggio le persone che professano una determinata religione o ideologia di altra natura, le persone portatrici di un particolare handicap, le persone di una particolare età o di una particolare tendenza sessuale, rispetto ad altre persone, a meno che tale disposizione, tale criterio o tale prassi siano oggettivamente giustificati da una finalità legittima e i mezzi impiegati per il suo conseguimento siano appropriati e necessari». 27   Come sottolinea M. Barbera esaminando il caso Deliveroo, «Il problema che si pone è se tale identificazione sia frutto o meno di una decisione consapevole da parte di chi usa l’algoritmo. In questo caso, i confini fra discriminazione diretta e indiretta diventano labili», Discriminazione algoritmica e forme di discriminazione, cit., p. 13. V. anche M.V. Ballestrero, La cecità discriminatoria della piattaforma, in Labor, 2021, p. 104 ss. e M. Barbera e S. Borelli, Principio di eguaglianza e divieti di discriminazione, WP CSDLE “Massimo D’Antona”, n. 451/2022, pp. 55-56. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

40

Adelina Adinolfi

202028, riconosciuto il carattere discriminatorio di tale sistema, giacché esso viola il divieto di discriminazione in base alle «convinzioni personali», all’interno del quale, ai sensi del diritto dell’Unione, deve considerarsi compreso il principio della libertà sindacale29. Ci si può infine domandare se la decisione algoritmica possa dare origine a nuovi motivi di discriminazione oltre che riflettere, con strumenti tecnologici, gli stereotipi correnti e i motivi tipizzati nelle fonti normative30. Tra le ipotesi riferite in studi empirici si segnala, ad esempio, come possa risultare discriminatorio un sistema che determini un punteggio relativo alla affidabilità di un creditore tenendo conto dei dati statistici sui ritardi di pagamento nel quartiere in cui egli risiede31. È stato evidenziato al riguardo un vuoto di tutela giacché lo status finanziario delle persone non rientra tra i motivi di discriminazione previsti dal diritto dell’Unione benché tale meccanismo porti a rafforzare le diseguaglianze sociali32. Si può tuttavia osservare che la Corte di giustizia ha enunciato un principio generale di non discriminazione che può declinarsi anche in motivi diversi da quelli indicati negli atti normativi; nella costruzione della Corte, le direttive antidiscriminato-

28   FILCAMS CGIL BOLOGNA e altri c. Deliveroo Italia, ordinanza 2949/2019 del 31 dicembre 2020. 29   Infatti, «il rider che aderisca ad uno sciopero, e dunque non cancelli almeno 24 ore prima del suo inizio la sessione prenotata, può subire un trattamento discriminatorio, giacché rischia di veder peggiorare le sue statistiche e di perdere la posizione eventualmente ricoperta nel gruppo prioritario, con i relativi vantaggi». 30   Approfondisce questo aspetto R. Xenidis, Tuning EU Equality Law, cit., la quale osserva che «in this context, predictive analytics is liable to perform discrimination in two ways. On the one hand, existing statistical disparities, including but not limited to current patterns of discrimination, become reified through their own performance as norms for future decision-making. On the other hand, predictive algorithms also generate self-fulfilling prophecies of discrimination because users’ behaviours and expectations shift to adapt to their logic, so that in creating knowledge about the future they also inevitably partly shape it», p. 754. 31   Sul caso menzionato e per ulteriori esempi v. F. J. Zuiderveen Borgesius, Strenghtening legal protection against discrimination by algorithms and artificial intelligence, in The International Journal of Human Rights, 2020, p. 2 ss. Si riferisce, tra l’altro, di studi empirici, soprattutto statunitensi, dai quali emerge come dei criteri apparentemente neutrali quale il luogo di residenza possono amplificare discriminazioni, come, ad esempio, essere considerati in relazione al calcolo del livello di propensione alla recidiva per i residenti in una certa zona. 32   V. F. J. Zuiderveen Borgesius, cit., si domanda se vi siano discriminazioni che potrebbero sfuggire al divieto; i casi che vengono portati sembrano, tuttavia, prospettare non tanto motivi ulteriori rispetto a quelli previsti quanto una diversa articolazione degli stessi, in particolare di carattere intersezionale.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Processi decisionali automatizzati

41

rie si limitano, infatti, a dare espressione al divieto già operante quale principio generale33. A ciò si aggiunge che la Carta dei diritti fondamentali lascia aperti i motivi di discriminazione, indicando nell’art. 21 un elenco da ritenersi di carattere non tassativo. Peraltro, come sopra rilevato, anche criteri in apparenza distanti da quelli tipizzati possono indirettamente produrre un’incidenza su di essi, configurandosi, secondo la terminologia a tal fine utilizzata, come proxies, cioè operando come variabili che producono una diseguaglianza se interrelate con i motivi di discriminazione34. 3. Sebbene il processo decisionale algoritmico non sia regolato da specifiche norme dell’Unione, sono tuttavia numerose le fonti, sia primarie sia derivate, nelle quali si riscontrano principi e regole che possono avere rilevanza al fine di garantire la conformità di tale processo ai diritti fondamentali e, più specificamente, al divieto di discriminazione. Il carattere frammentario delle regole di diritto derivato rende alquanto complessa la ricostruzione del quadro normativo sotto il profilo sistematico e del coordinamento tra le fonti; vi sono altresì incertezze in merito all’applicabilità al processo decisionale automatizzato di alcune regole di carattere generale e alla possibilità di interpretarne i contenuti in modo tale da modellarli sulle peculiarità che, come si è sopra cercato di evidenziare, caratterizzano questo processo. I principali settori normativi che vengono a tal fine in considerazione sono quelli relativi al diritto antidiscriminatorio e alla tutela dei dati personali. Per il primo profilo, il divieto di discriminazione sancito dall’art. 21 della Carta dei diritti fondamentali presenta il vantaggio della flessibilità poiché enuncia dei motivi di discriminazione che, come lascia chiaramente intendere la lettera della disposizione riferendosi «in par33   Come indicato nel celebre caso «Mangold», Corte giust., 22 novembre 2005, causa C-144/04, Werner Mangold c. Rüdiger Helm, EU:C:2005:709; v. anche la sentenza Corte giust., 19 gennaio 2010, causa C-555/07, Seda Kücükdeveci c. Swedex GmbH & Co. KG, ECLI:EU:C:2010:21. 34  Perciò, come osservato nel rapporto Algorithmic Discrimination in Europe (cit.), «proxy discrimination questions the boundaries of the exhaustive list of protected grounds defined in Article 19 TFEU and sheds new light on the rôle and place of the non-exhaustive list of protected grounds to be found on Article 21 of the EU Charter», p. 9. In argomento v. tra gli altri A.E.R. Prince e D. Schwarcz, Proxy Discrimination in the Age of Artificial Intelligence and Big Data, in Iowa Law Review, 2020, III, p. 1257 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

42

Adelina Adinolfi

ticolare» ad alcuni criteri, sono elencati in via meramente esemplificativa35. La disposizione può essere perciò intesa in modo da consentire una protezione più ampia rispetto a quella per la quale l’art. 19 TFUE conferisce all’Unione un potere normativo; ciò potrebbe permettere di considerare ulteriori gruppi vulnerabili – come, ad esempio, le persone in stato di detenzione, i richiedenti asilo, le vittime della tratta – oppure di prospettare altri motivi di discriminazione, quali l’accesso ai servizi sociali o all’istruzione. La rilevanza dell’art. 21 rispetto a norme interne è tuttavia subordinata alla presenza di una disposizione che possa fornire il collegamento materiale necessario a determinare l’applicazione della Carta ai sensi del suo art. 51, par. 1, come interpretato dalla Corte di giustizia36. In questa prospettiva assume rilievo anche la protezione garantita dal principio generale di non discriminazione, che ha il medesimo ambito applicativo poi delineato nella giurisprudenza della Corte di giustizia riguardo alla Carta. È infatti significativo che la Corte abbia ritenuto che, come sopra ricordato, le direttive antidiscriminatorie si limitano a dare «espressione concreta» ad un principio generale che è già operante, in quanto tale, nell’ordinamento dell’Unione. Esse si configurano, quindi, come elementi di collegamento che consentono di ricondurre una normativa nazionale all’ambito applicativo della Carta e dei principi generali. Una giurisprudenza evolutiva fondata sul carattere esemplificativo dei motivi di discriminazione enunciati dalla Carta e sul carattere aperto del principio generale potrebbe consentire alla Corte di accogliere un atteggiamento meno rigoroso di quello che l’ha indotta a ritenere che i motivi di discriminazione non possano estendersi al di là di quelli previsti dalle direttive37. La concreta incidenza 35  V. C. Favilli, Commento all’art. 21 della Carta dei diritti fondamentali, in R. Mastroianni, O. Pollicino e F. Pappalardo (a cura di), Carta dei diritti fondamentali dell’Unione europea, Milano 2017, p. 413 ss.; D. Martin, Article 21 CFR, in M. Kellerbauer, M. Klamert e J. Tomkin (a cura di), The EU Treaties and the Charter of Fundamental Rights: A Commentary, Oxford 2021; C. Kilpatrick e H. Eklund, Article 21 – Non-Discrimination, in S. Peers et al. (a cura di), The EU Charter of Fundamental Rights – A Commentary, Hart, 2021. 36  V. la sentenza Corte giust., 26 febbraio 2013, causa C-617/10, Åklagaren c. Hans Åkerberg Fransson, ECLI:EU:C:2013:105 e la giurisprudenza successiva. In argomento v. N. Lazzerini, La Carta dei diritti fondamentali dell’Unione europea: i limiti di applicazione, Milano 2018. 37   Ci si riferisce alla sentenza Corte giust., 11 luglio 2006, causa C-13/05, Sonia Chacón Navas c. Eurest Colectividades SA, ECLI:EU:C:2006:456, nella quale la Corte ha ritenuto che una discriminazione fondata sulla malattia non possa essere

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Processi decisionali automatizzati

43

dell’art. 21 della Carta è peraltro rafforzata in quanto la Corte, riprendendo l’orientamento accolto riguardo al corrispondente principio generale, ne ha riconosciuto l’idoneità a produrre effetti diretti anche orizzontali, rendendolo così uno strumento rilevante in presenza di una pluralità di situazioni discriminatorie38. L’attività normativa delle istituzioni, non potendo trovare il proprio fondamento nella Carta, è limitata alle sole azioni volte a combattere le discriminazioni che concernono i motivi tipizzati dall’art. 19 TFUE. La struttura della disposizione è prettamente settoriale, prospettando l’adozione di normative volte a contrastare singoli motivi di discriminazione (come è avvenuto per la Direttiva relativa alla razza e all’origine etnica) o relative a particolari ambiti o settori (quale la Direttiva che vieta alcune discriminazioni sul luogo di lavoro). L’art. 19 potrebbe perciò dare fondamento a normative che specifichino le modalità di applicazione, rispetto ai processi decisionali automatizzati, del divieto delle discriminazioni tipizzate; per la formulazione che lo caratterizza, esso non sembra invece fornire una base giuridica pienamente adeguata per l’adozione di atti volti a combattere discriminazioni aventi carattere intersezionale. Il secondo asse normativo di riferimento – relativo al diritto alla protezione dei dati personali – presenta interesse sotto due profili. In primo luogo, gli atti derivati aventi ad oggetto la tutela dei dati39 possono fornire, secondo il criterio sopra ricordato, il collegamento normativo che permette l’applicazione, rispetto al diritto nazionale, del principio di non discriminazione enunciato dalla Carta e riconosciuto quale principio generale. Rilevano, in secondo luogo, aspetti che – direttamente o in modo indiretto – possono riguardare le modalità applicative e le caratteristiche dei processi decisionali automatizzati. Un’incidenza su tali processi deriva anzitutto dall’art. 22 del GDPR che prevede il diritto dell’individuo a non essere sottoposto a una «deinclusa tra i motivi previsti a meno che questa non comporti una disabilità. V. anche la sentenza Corte giust., 18 dicembre 2014, causa C-354/13, Fag og Arbejde (FOA) c. Kommunernes Landsforening (KL), ECLI:EU:C:2014:2463. 38   Tra le pronunce rilevanti si veda ad esempio la sentenza Corte giust., 17 aprile 2018, causa C-414/16, Vera Egenberger, ECLI:EU:C:2018:257 nella quale la Corte riconosce l’effetto orizzontale dell’art. 21 della Carta in relazione al divieto di discriminazione in base alla religione. 39   Per i dati non personali rileva il Regolamento UE 2018/1807 del 14 novembre 2018 relativo a un quadro applicabile alla libera circolazione dei dati non personali nell’Unione europea. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

44

Adelina Adinolfi

cisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona». L’efficacia di tale disposizione, anche ai fini del contrasto di eventuali discriminazioni, dipende dal significato – in realtà assai incerto – da attribuire al termine «decisione», nonché alla effettiva portata dell’intervento umano richiesto e all’interpretazione delle eccezioni a tale principio40. Sebbene il GDPR non enunci regole specifiche riguardo al divieto di discriminazione41 i criteri previsti ai fini del trattamento – che deve avvenire in modo lecito, corretto e trasparente – possono esercitare una funzione strumentale riguardo all’accertamento di discriminazioni. Più specificamente, l’art. 35 prevede che sia redatta una valutazione di impatto ad opera dei titolari del trattamento qualora questo implichi «l’uso di nuove tecnologie» e si possa «presentare un rischio elevato per i diritti e le libertà delle persone fisiche»42; inoltre, allorché sia impiegato «un processo decisionale automatizzato, compresa la profilazione», il regolamento impone al titolare l’obbligo di fornire alcune informazioni aggiuntive, tra le quali «informazioni significative sulla logica utilizzata» ai fini della decisione (art. 15, par. 1, lett. h). Tali regole risultano funzionali alla tutela antidiscriminatoria e, in 40  Un’interpretazione che ritenga sufficiente un intervento umano minimo rischia di pregiudicare l’efficacia del requisito posto; v. su tale aspetto, anche per riferimenti alla giurisprudenza, E. Bayamlioglu, Transparecy of Automated Decisions in the GDPR: An Attempt for systemisation, in www.researchgate.net/publication/322382673_Transparency_of_Automated_Decisions_in_the_GDPR_An_Attempt_for_systemisation. Sulle difficoltà interpretative dell’art. 22 cfr. P. de Hert e G. Lazcoz, Radical rewriting of Article 22 GDPR on machine decisions in the AI era, in European Law Blog, 13 ottobre 2021. Le rilevanti incertezze suscitate dalla disposizione renderebbero assai utile un rinvio pregiudiziale alla Corte di giustizia. Sull’interpretazione dell’art. 22 v. in questo volume il contributo di C. Di Francesco Maesa. 41   Vi sono alcuni espliciti riferimenti al principio di non discriminazione nelle motivazioni dell’atto. Il considerando 71 indica che il titolare del trattamento deve utilizzare procedure che impediscano, tra l’altro, «effetti discriminatori nei confronti di persone fisiche sulla base della razza o dell’origine etnica, delle opinioni politiche, della religione o delle convinzioni personali, dell’appartenenza sindacale, dello status genetico, dello stato di salute o dell’orientamento sessuale, ovvero che comportano misure aventi tali effetti». Sono inoltre segnalati nei considerando 75 e 85 i rischi di discriminazione che possono sussistere in caso di violazione dei dati personali che non sia affrontata in modo adeguato e tempestivo. 42   Su tale relazione v. in questo volume D. Baldini, p. 55 ss. In argomento cfr. D. Hallinan, Fundamental Rights, the Normative Keystone of DPIA, in European Data Protection Law Review, 2020, II, p. 178 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Processi decisionali automatizzati

45

particolare, permettono di costruire un diritto di accesso agli algoritmi al fine di verificare se strumenti automatizzati utilizzati per l’adozione di determinate decisioni – come, ad esempio, la definizione della solvibilità di un creditore o la selezione dei candidati ad un impiego – siano fondati su criteri discriminatori. L’accesso a tali informazioni, benché non facile per ragioni tecniche, risulta uno strumento determinante per accertare se un sistema automatizzato produca, nella sua concreta applicazione, un trattamento discriminatorio. Il carattere strumentale che il GDPR può assumere nel contrasto delle discriminazioni prodotte da un processo decisionale algoritmico è reso evidente da una sentenza emessa dal Tribunale di Amsterdam l’11 marzo 2021 nel caso «Ola Drivers»43. Una società di noleggio di auto con conducente era accusata di utilizzare per l’assunzione dei dipendenti e ai fini della entità della loro retribuzione un meccanismo di valutazione mediante un algoritmo fondato su criteri ritenuti discriminatori. La Corte olandese si è fondata sul GDPR per affermare che la società doveva fornire le informazioni necessarie a rendere trasparenti e verificabili le scelte effettuate, rendendo noti i principali criteri di valutazione e il loro ruolo nella decisione automatizzata relativa ai richiedenti, evitando le conseguenze discriminatorie della profilazione. Benché il quadro fornito dalle fonti dell’Unione si articoli sui due principali assi normativi del diritto antidiscriminatorio e della tutela dei dati personali, alcuni altri segmenti di regolazione si riscontrano, in ambiti materiali diversi, in atti normativi dai quali risultano essenzialmente obblighi di trasparenza44. 4. La strategia normativa delineata dall’Unione europea per la regolazione delle nuove tecnologie si incentra su due obiettivi prioritari: garantire che queste si sviluppino assicurando il rispetto dei diritti 43  Causa C/13/699705, ECLI:NL:RBMAS:2021:1019. V. S. Peers, The Ola & Uber judgments: for the first time a court recognizes a GDPR right to an explanation for algorithmic decision-making, in eulawanalysis.blogspot.com, 29 aprile 2021. 44   Tra questi possono ricordarsi le normative sul commercio elettronico e a tutela dei consumatori (sulle quali v. da ultimo la Risoluzione del Parlamento europeo del 12 febbraio 2020 sui processi decisionali automatizzati: garantire la tutela dei consumatori e la libera circolazione di beni e servizi), nonché alcune normative di carattere tecnico come il Regolamento delegato (UE) 2017/589 della Commissione del 19 luglio 2016 che integra la direttiva 2014/65/UE per quanto riguarda le norme tecniche di regolamentazione relative a imprese di investimento che effettuano la negoziazione algoritmica.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Adelina Adinolfi

46

fondamentali45 e sostenere la loro sperimentazione e diffusione al fine di rafforzare la competitività dell’economia europea sul piano internazionale. Tale duplicità di obiettivi, che già risultava dai documenti elaborati tra il 2018 e il 2020, emerge con chiarezza dalla strategia presentata dalla Commissione nell’aprile 2021; questa si declina, infatti, in una proposta di Regolamento, che intende dettare norme volte a disciplinare la progettazione e l’utilizzo delle applicazioni dell’intelligenza artificiale, e in un «piano» di carattere operativo che mira a favorire lo sviluppo di attività innovative da parte delle industrie europee. Occorre inoltre tenere presente che la definizione di un quadro comune di regolazione delle nuove tecnologie è funzionale alla realizzazione del mercato interno: la presenza di norme uniformi o armonizzate riguardo a prodotti e servizi di tecnologia avanzata è infatti strumentale a consentirne la libertà di circolazione nell’area del mercato unico europeo. Riguardo alla tutela dei diritti fondamentali ciò implica l’esigenza di individuare uno standard comune di protezione e di costruire regole tecniche e meccanismi di controllo che ne assicurino in modo uniforme il rispetto. La consapevolezza dei rischi che l’evoluzione tecnologica comporta in relazione ai diritti fondamentali è costantemente presente nei documenti della Commissione e condiziona i contenuti normativi delle azioni proposte46. Il divieto di discriminazione riveste, senza dubbio, un ruolo significativo nella strategia elaborata dalla Commissione ed è spesso esplicitamente menzionato benché esso sia di per sé incluso nei riferimenti ai diritti fondamentali47. Nella relazione che accompagna la proposta di regolamento sulla intelligenza artificiale48 l’intento di   Cfr. in argomento M. Szpunar, op. cit., p. 400 ss.   Si segnala anche la recente proposta di dichiarazione europea sui diritti e i principi digitali per il decennio digitale (COM(2022)28, 22 gennaio 2022) nella quale si esprime l’impegno a «garantire che i sistemi algoritmici siano basati su insiemi di dati adeguati al fine di evitare discriminazioni illecite e consentano la supervisione umana dei risultati che riguardano le persone». Per l’aspetto qui considerato, la dichiarazione avrebbe un valore meramente ricognitivo di principi e norme già applicabili. V. sulla Dichiarazione P. De Pasquale, Verso una Carta dei diritti digitali (fondamentali) dell’Unione europea?, in Diritto dell’Unione europea-Osservatorio europeo, marzo 2022. 47   Si può ricordare in via esemplificativa il Libro Bianco del 2019 sulla intelligenza artificiale in cui si muove dalla considerazione che il crescente uso di algoritmi pone specifici rischi in relazione alla tutela dei diritti fondamentali e soprattutto riguardo alla eguaglianza e non discriminazione, COM(2020) 65 def., p. 3. 48   Relazione sulla proposta di regolamento, COM(2021) 206 def., 21.4.2021. 45 46

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Processi decisionali automatizzati

47

evitare che i procedimenti decisionali automatizzati violino il principio di non discriminazione emerge come centrale tra gli obiettivi della proposta. Si indica che questa intende integrare il diritto antidiscriminatorio europeo vigente «con requisiti specifici che mirano a ridurre al minimo il rischio di discriminazione algoritmica, in particolare in relazione alla progettazione e alla qualità dei set di dati utilizzati»; a ciò si aggiungono «obblighi relativi alle prove, alla gestione dei rischi, alla documentazione e alla sorveglianza umana durante l’intero ciclo di vita dei sistemi di IA». Si muove dal presupposto che alcune caratteristiche dell’intelligenza artificiale, come «opacità, complessità, dipendenza dai dati, comportamento autonomo», possono incidere negativamente sui diritti fondamentali sanciti dalla Carta; pertanto, con l’obiettivo di definire i requisiti per un’intelligenza artificiale affidabile e antropocentrica, la proposta «intende migliorare alcuni diritti, tra i quali il divieto di discriminazione di cui all’art. 21 della Carta dei diritti fondamentali». Tali presupposti e finalità si riflettono in alcune misure che, per quanto qui interessa, concernono i procedimenti decisionali che utilizzano l’intelligenza artificiale. L’approccio normativo generale della proposta, fondata sulla determinazione di diversi livelli di rischio, a ciascuno dei quali corrisponde una specifica disciplina, è utilizzato anche in riferimento a tali procedimenti. Tra i sistemi che possono ledere il divieto di discriminazione si menzionano, in primo luogo, quelli che forniscono un «punteggio sociale» alle persone per accedere a determinati benefici o servizi pubblici. Poiché tali meccanismi possono portare a risultati discriminatori e all’esclusione di determinati gruppi49, il livello di rischio è ritenuto talmente elevato da indurre a vietarne totalmente l’utilizzo. Altri strumenti decisionali vengono classificati come ad alto rischio e sono perciò soggetti a particolari misure limitative, di autorizzazione e di sorveglianza umana50. Tra questi, si includono i sistemi utilizzati 49   Infatti, «il punteggio sociale ottenuto da tali sistemi di IA può determinare un trattamento pregiudizievole o sfavorevole di persone fisiche o di interi gruppi in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti, o a un trattamento pregiudizievole che risulta ingiustificato o sproporzionato rispetto alla gravità del loro comportamento sociale». 50   L’art. 14 richiede la sorveglianza umana in relazione ai sistemi ad alto rischio, declinata in una serie di attività in relazione alle diverse circostanze. Rilevano anche i criteri enunciati dall’art. 10 della proposta. V. in proposito il contributo di A. Simoncini in questo volume, p. 20 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

48

Adelina Adinolfi

per determinare l’accesso agli istituti di istruzione e formazione professionale o per valutare i risultati di un iter formativo. È significativo che la determinazione del livello elevato del rischio venga connessa alla rilevanza che le decisioni assunte hanno per il futuro delle persone poiché, determinando il percorso d’istruzione e professionale di una persona, esse possono «incidere sulla sua capacità di garantire il proprio sostentamento». Si evidenzia come tali sistemi possono violare il diritto all’istruzione e alla formazione, nonché «il diritto alla non discriminazione, e perpetuare modelli storici di discriminazione». Un’analoga cautela è espressa riguardo ai processi decisionali utilizzati per l’assunzione dei lavoratori e per la valutazione dell’attività dei dipendenti, classificati anch’essi come sistemi ad alto rischio in quanto suscettibili di produrre «un impatto significativo sul futuro di tali persone in termini di future prospettive di carriera e sostentamento». Nel definire i rischi dei meccanismi di valutazione relativi all’attività lavorativa, sono menzionati, ma in via solo esemplificativa, i motivi di discriminazione enunciati dall’art. 19 TFUE, sottolineando che tali meccanismi «possono perpetuare modelli storici di discriminazione, ad esempio nei confronti delle donne, di talune fasce di età, delle persone con disabilità o delle persone aventi determinate origini razziali o etniche o un determinato orientamento sessuale». Nella categoria dei sistemi ad alto rischio sono inclusi altri strumenti decisionali di natura predittiva, come quelli relativi alla valutazione del rischio di recidiva nonché alla solvibilità e affidabilità creditizia delle persone51. Il criterio individuato ai fini della definizione del livello di rischio attiene, anche in questo caso, alla rilevanza che le decisioni presentano per gli interessati e al pregiudizio che una decisione negativa può comportare al fine di beneficiare di determinati diritti. Riguardo, in particolare, alle decisioni relative alla concessione di crediti, si evidenzia come esse «determinano l’accesso […] alle risorse finanziarie o a servizi essenziali quali l’alloggio, l’elettricità e i servizi di telecomunicazioni» e possono «portare alla discriminazione di persone o gruppi e perpetuare modelli storici di discriminazione, ad esempio in base all’origine razziale o etnica, alle disabilità, all’età o all’orientamento sessuale, o dar vita a nuove forme di effetti discriminatori». Il metodo di classificazione del rischio utilizzato nella proposta è assai rilevante nella prospettiva della 51   La proposta di regolamento sull’intelligenza artificiale elenca in allegato i sistemi ad alto rischio (allegato III).

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Processi decisionali automatizzati

49

tutela dei diritti fondamentali poiché collega il rispetto del principio di non discriminazione alla possibilità di beneficiare di ulteriori diritti (come quelli relativi alle opportunità di reddito). Ulteriori programmi e proposte normative, concernenti una varietà di tematiche, hanno rilievo, per alcuni aspetti, riguardo al rischio di discriminazioni poste in essere mediante processi decisionali automatizzati. Tra questi, la proposta relativa al lavoro mediante piattaforme52 e la proposta di Regolamento sui servizi digitali (Digital Service Act), sulla quale si è recentemente espresso in prima lettura il Parlamento europeo53, che impone requisiti di trasparenza degli algoritmi utilizzati a fini commerciali. Si può altresì menzionare il documento della Commissione che delinea la strategia per l’eguaglianza di genere 2020-2025 nel quale, riconosciuto che l’intelligenza artificiale rischia di rafforzare le diseguaglianze54, si afferma l’esigenza di contrastare le discriminazioni che derivano dalla intersezione di criteri diversi; la Commissione indica, perciò, che la «strategia sarà attuata utilizzando, come principio trasversale, l’intersezionalità, vale a dire la combinazione del genere con altre caratteristiche o identità personali e il modo in cui tali intersezioni contribuiscono a determinare esperienze di discriminazione specifiche». Benché relativa alla intersezione della sola diseguaglianza di genere con criteri che possono causare una discriminazione, tale affermazione lascia intendere la volontà della Commissione di aprire la strada ad un orientamento volto a superare la rigida distinzione tra i singoli motivi di discriminazione; come sopra accennato, tale approc-

52   Proposta di direttiva relativa al miglioramento delle condizioni di lavoro nel lavoro mediante piattaforme digitali, COM (2021) 762, 9 dicembre 2021. 53   Proposta di Regolamento del Parlamento europeo e del Consiglio relativo a un mercato unico dei servizi digitali (legge sui servizi digitali) che modifica la direttiva 2000/31/CE, COM(2020)825. Il Parlamento europeo ha adottato a larghissima maggioranza la propria risoluzione legislativa il 5 luglio 2022 (2020/0361(COD) proponendo alcune modifiche relative anche ai limiti alla profilazione per finalità pubblicitarie. La proposta intende contrastare i rischi di diffusione di contenuti illegali (come l’incitamento all’odio o la vendita di prodotti contraffatti), la manipolazione delle informazioni (ad esempio riguardo alla salute, al dibattito civile e politico); ulteriori rischi possono concernere gli effetti del servizio sull’esercizio dei diritti fondamentali compreso «il diritto alla non discriminazione» che possono sorgere, ad esempio, «in relazione alla progettazione dei sistemi algoritmici utilizzati dalle piattaforme online di dimensioni molto grandi». 54  Un’Unione dell’uguaglianza: la strategia per la parità di genere 2020-2025, COM(2020)152, 5 marzo 2020, p. 2.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

50

Adelina Adinolfi

cio può presentare una particolare rilevanza nel contrasto delle discriminazioni algoritmiche. 5. La dialettica tra i vantaggi dell’evoluzione tecnologica e l’esigenza di definire regole di contenimento necessarie affinché questa si sviluppi conformemente ai diritti fondamentali fa emergere, nei documenti e nelle proposte dell’Unione, un complesso bilanciamento tra interessi e valori ai fini della ricerca di un adeguato punto equilibrio. Lo sforzo progettuale, che si colloca nel contesto di un vastissimo dibattito dottrinale e istituzionale, muove dalla consapevolezza del rischio che il paradigma antidiscriminatorio, maturato attraverso la normativa e la giurisprudenza della Corte di giustizia, risulti inadeguato dinanzi alle peculiarità del processo decisionale algoritmico. Se il divieto di discriminazioni che risulta dall’art. 21 della Carta e dal principio generale costituisce un solido quadro di riferimento, esso ha tuttavia, difficoltà a svilupparsi in un’attività normativa derivata lungo l’asse del diritto antidiscriminatorio. La tipizzazione dei motivi di discriminazione e il rigoroso procedimento legislativo speciale previsto dall’art. 19 TFUE rendono improbabile uno sviluppo normativo su tale versante. Ne è prova evidente la situazione di stallo nella quale tuttora versa la proposta di Direttiva antidiscriminatoria orizzontale presentata dalla Commissione nel 200855. Il Parlamento europeo ne ha, anche in tempi più recenti, sollecitato l’adozione chiedendo, nella Risoluzione sull’attuazione della Carta dei diritti fondamentali adottata nel 201956, di portarne a  termine l’approvazione «senza indugio al fine di garantire ulteriormente i diritti fondamentali nell’UE tramite l’adozione di una legislazione concreta dell’Unione». Il dibattito istituzionale si salda, a questo proposito, con le più ampie riflessioni sulla opportunità di «attuazione» della Carta mediante l’adozione di atti normativi il cui fondamento deve, tuttavia, riscontrarsi all’interno dei Trattati istitutivi57. 55   Proposta di direttiva del Consiglio recante applicazione del principio di parità di trattamento fra le persone indipendentemente dalla religione o le convinzioni personali, la disabilità, l’età o l’orientamento sessuale, COM(2008)426, 2 luglio 2008. 56   Risoluzione del Parlamento europeo del 12 febbraio 2019 sull’attuazione della Carta dei diritti fondamentali dell’Unione europea nel quadro istituzionale dell’UE, 2017/2089(INI). 57  Strategia per rafforzare l’applicazione della Carta dei diritti fondamentali dell’Unione europea, Bruxelles, 2.12.2020 COM(2020) 711 final. Cfr. in argomento O. De Schutter, The Implementation of the Charter by the Institutions of the European Union, in S. Peers, T. Hervey, J. Kenner e A. Ward (a cura di), Commentary

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Processi decisionali automatizzati

51

Più promettenti appaiono le attività normative condotte lungo l’asse della regolazione delle nuove tecnologie, mediante azioni che possono trovare fondamento giuridico nelle disposizioni relative al funzionamento del mercato interno e alla tutela dei dati personali. Come si è riferito, l’obiettivo di tutela dei diritti fondamentali è centrale nella proposta di regolamento sull’intelligenza artificiale benché questa trovi la propria base giuridica negli articoli 16 TFUE, relativo alla protezione dei dati di carattere personale, e 114 TFUE che attribuisce all’Unione la competenza al ravvicinamento delle legislazioni nazionali necessario ai fini del funzionamento del mercato interno. Rileva al riguardo non solo il nesso, sopra ricordato, tra la definizione di uno standard comune di protezione dei diritti fondamentali e il fine di garantire la libertà di circolazione di merci e servizi, ma anche il mainstreaming dell’art. 8 TFUE per cui «nelle sue azioni l’Unione mira a eliminare le ineguaglianze, nonché a promuovere la parità, tra uomini e donne». Tale disposizione, pur non potendo fornire una base giuridica all’attività normativa, richiede che questa si svolga – in ogni settore di intervento – conformemente al principio generale da essa enunciato. Nonostante gli esiti incerti delle strategie normative attualmente in discussione, emergono alcuni elementi significativi riguardo alla possibilità di modulare il paradigma antidiscriminatorio dell’Unione rispetto al processo decisionale algoritmico; tra questi, la definizione di regole che interessano tutta la catena dei processi decisionali – dal loro design sino alla concreta applicazione –, un emergente intento di sviluppare la tutela anche nei confronti delle discriminazioni intersezionali, nonché la possibilità che i principi di trasparenza relativi al trattamento dei dati personali consentano di costruire un diritto di informazione e di accesso agli algoritmi quale presupposto della tutela antidiscriminatoria.

on the EU Charter of Fundamental Rights, Hart Publ., Oxford and Portland (Oregon) 2013; N. Lazzerini, Le clausole generali della Carta dei diritti fondamentali nel law-making europeo: codificazione e innovazione nella determinazione del livello di tutela, in A. Annoni, S. Forlati e F. Salerno (a cura di), La codificazione nell’ordinamento internazionale e dell’Unione europea, Napoli 2019, p. 507 ss. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Davide Baldini*

La valutazione d’impatto sulla protezione dei dati: quale ruolo per i diritti fondamentali degli interessati?

Sommario: 1. La valutazione d’impatto sulla protezione dei dati nel GDPR – 2. La rilevanza dei «diritti e libertà fondamentali delle persone fisiche» nell’ambito della valutazione d’impatto sulla protezione dei dati e le divergenze interpretative – 3. Il trattamento di dati personali e il potenziale impatto su molteplici diritti e libertà fondamentali riconosciuti dal diritto dell’Unione - 3.1 il caso della profilazione dei rider nei provvedimenti Foodinho e Deliveroo del Garante – 4. Il carattere procedurale della normativa sulla protezione dei dati personali – 5. Oltre la privacy: la valutazione d’impatto come strumento volto a mitigare i rischi per i diritti e le libertà fondamentali interessati dall’attività di trattamento.

1. La valutazione d’impatto sulla protezione dei dati (di seguito indicata con l’acronimo inglese di «DPIA», ossia Data Protection Impact Assessment) costituisce una delle maggiori novità introdotte dal Regolamento (UE) 2016/6791, rispetto al previgente regime derivante dalla Direttiva 95/46/CE2, nonché una delle principali espressioni del c.d. approccio basato sul rischio e del principio di responsabilizzazione (meglio noto come accountability)3 del titolare del trattamento, i quali permeano l’interpretazione dell’intero impianto normativo4. Pur costituendo un perno fondamentale del quadro normativo dell’Unione in materia di protezione dei dati personali5, non vi è ad * Borsista di ricerca in Diritto dell’Unione europea nell’Università di Firenze. 1  Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati). Il Regolamento è meglio noto con l’acronimo inglese di «GDPR», ossia General Data Protection Regulation. 2  Direttiva 95/46/CE del Parlamento europeo e del Consiglio, del 24 ottobre 1995, relativa alla tutela delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati. 3  Il GDPR prevede che il titolare del trattamento attui misure adeguate per garantire ed essere in grado di dimostrare il rispetto di detto regolamento, tenendo conto tra l’altro dei «rischi aventi probabilità e gravità diverse per i diritti e le libertà delle persone fisiche» (art. 24, par. 1, GDPR). 4  O. Linskey, The Foundations of EU Data Protection Law, Oxford 2016, passim. 5  Per una panoramica relativa al ruolo e all’importanza della DPIA si vedano, tra gli altri, F. Mollo, Gli obblighi previsti in funzione di protezione dei dati personali, in N. Zorzi Galgano (a cura di), Persona e mercato dei dati. Riflessioni sul GDPR, Mi© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

54

Davide Baldini

oggi uniformità di vedute in merito al contenuto della valutazione d’impatto, con particolare riferimento all’obbligo in capo al titolare del trattamento di effettuare una valutazione in merito ai rischi per i diritti e le libertà degli interessati prodotti dall’attività di trattamento. Prima di addentrarci nel merito della questione, è tuttavia opportuno premettere un breve esame dell’istituto in parola. Il riferimento normativo fondamentale in materia di valutazione d’impatto è l’art. 35 del GDPR6, il quale disciplina le ipotesi in cui il titolare del trattamenlano 2019, pp. 285-92; D. Hallinan, Fundamental Rights, the Normative Keystone of DPIA, in European Data Protection Law Review, 2020, II, p. 178 ss.; R. Binns, Data Protection Impact Assessments: A Meta-Regulatory Approach, in International Data Privacy Law, 2017, VII, I, p. 22 ss.; D. Kloza, N. Van Dijk, R. Gellert, I. Borocz, A. Tanas, et al., Data protection impact assessments in the European Union: complementing the new legal framework towards a more robust protection of individuals, in d.pia.lab Policy Brief, 2017, I. 6  Di seguito si riporta il testo dell’art. 35 GDPR: «1. Quando un tipo di trattamento, allorché prevede in particolare l’uso di nuove tecnologie, considerati la natura, l’oggetto, il contesto e le finalità del trattamento, può presentare un rischio elevato per i diritti e le libertà delle persone fisiche, il titolare del trattamento effettua, prima di procedere al trattamento, una valutazione dell’impatto dei trattamenti previsti sulla protezione dei dati personali. Una singola valutazione può esaminare un insieme di trattamenti simili che presentano rischi elevati analoghi. 2. Il titolare del trattamento, allorquando svolge una valutazione d’impatto sulla protezione dei dati, si consulta con il responsabile della protezione dei dati, qualora ne sia designato uno. 3. La valutazione d’impatto sulla protezione dei dati di cui al par. 1 è richiesta in particolare nei casi seguenti: a) una valutazione sistematica e globale di aspetti personali relativi a persone fisiche, basata su un trattamento automatizzato, compresa la profilazione, e sulla quale si fondano decisioni che hanno effetti giuridici o incidono in modo analogo significativamente su dette persone fisiche; b) il trattamento, su larga scala, di categorie particolari di dati personali di cui all’art. 9, par. 1, o di dati relativi a condanne penali e a reati di cui all’art. 10; o c) la sorveglianza sistematica su larga scala di una zona accessibile al pubblico. 4. L’autorità di controllo redige e rende pubblico un elenco delle tipologie di trattamenti soggetti al requisito di una valutazione d’impatto sulla protezione dei dati ai sensi del par. 1. L’autorità di controllo comunica tali elenchi al comitato di cui all’art. 68. 5. L’autorità di controllo può inoltre redigere e rendere pubblico un elenco delle tipologie di trattamenti per le quali non è richiesta una valutazione d’impatto sulla protezione dei dati. L’autorità di controllo comunica tali elenchi al comitato. 6. Prima di adottare gli elenchi di cui ai paragrafi 4 e 5, l’autorità di controllo competente applica il meccanismo di coerenza di cui all’art. 63 se tali elenchi comprendono attività di trattamento finalizzate all’offerta di beni o servizi a interessati o al monitoraggio del loro comportamento in più Stati membri, o attività di trattamento che possono incidere significativamente sulla libera circolazione dei dati personali all’interno dell’Unione. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La valutazione d’impatto sulla protezione dei dati

55

to è tenuto a eseguire una DPIA e ne tratteggia altresì il contenuto minimo, senza tuttavia fornirne una definizione. Il Gruppo di Lavoro Articolo 29, ossia l’organo istituito dall’art. 29 della Direttiva 95/46/ CE e che riuniva le autorità di controllo per la protezione dei dati di tutti gli Stati Membri dell’Unione7, ha cercato di sopperire a tale lacuna all’interno delle «Linee guida in materia di valutazione d’impatto sulla protezione dei dati»8, ove si legge che la DPIA può essere definita «un processo inteso a descrivere il trattamento, valutarne la necessità e la 7. La valutazione contiene almeno: a) una descrizione sistematica dei trattamenti previsti e delle finalità del trattamento, compreso, ove applicabile, l’interesse legittimo perseguito dal titolare del trattamento; b) una valutazione della necessità e proporzionalità dei trattamenti in relazione alle finalità; c) una valutazione dei rischi per i diritti e le libertà degli interessati di cui al par. 1; e d) le misure previste per affrontare i rischi, includendo le garanzie, le misure di sicurezza e i meccanismi per garantire la protezione dei dati personali e dimostrare la conformità al presente regolamento, tenuto conto dei diritti e degli interessi legittimi degli interessati e delle altre persone in questione. 8. Nel valutare l’impatto del trattamento effettuato dai relativi titolari o responsabili è tenuto in debito conto il rispetto da parte di questi ultimi dei codici di condotta approvati di cui all’art. 40, in particolare ai fini di una valutazione d’impatto sulla protezione dei dati. 9. Se del caso, il titolare del trattamento raccoglie le opinioni degli interessati o dei loro rappresentanti sul trattamento previsto, fatta salva la tutela degli interessi commerciali o pubblici o la sicurezza dei trattamenti. 10. Qualora il trattamento effettuato ai sensi dell’art. 6, par. 1, lettere c) o e), trovi nel diritto dell’Unione o nel diritto dello Stato membro cui il titolare del trattamento è soggetto una base giuridica, tale diritto disciplini il trattamento specifico o l’insieme di trattamenti in questione, e sia già stata effettuata una valutazione d’impatto sulla protezione dei dati nell’ambito di una valutazione d’impatto generale nel contesto dell’adozione di tale base giuridica, i paragrafi da 1 a 7 non si applicano, salvo che gli Stati membri ritengano necessario effettuare tale valutazione prima di procedere alle attività di trattamento. 11. Se necessario, il titolare del trattamento procede a un riesame per valutare se il trattamento dei dati personali sia effettuato conformemente alla valutazione d’impatto sulla protezione dei dati almeno quando insorgono variazioni del rischio rappresentato dalle attività relative al trattamento». 7  Il Gruppo di Lavoro Art. 29, che nell’ambito del quadro dettato dalla Direttiva aveva compiti sostanzialmente consultivi – ivi compresa l’approvazione di linee-guida e altri strumenti di soft law –, è stato sostituito dal Comitato Europeo per la Protezione dei Dati, istituito e disciplinato agli artt. 64 e ss. del GDPR e dotato di poteri maggiormente incisivi. 8  Gruppo di Lavoro Art. 29 per la Protezione dei Dati, Linee guida in materia di valutazione d’impatto sulla protezione dei dati e determinazione della possibilità che il trattamento «possa presentare un rischio elevato» ai fini del regolamento (UE) © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

56

Davide Baldini

proporzionalità, nonché a contribuire a gestire i rischi per i diritti e le libertà delle persone fisiche derivanti dal trattamento di dati personali». Con riguardo all’ambito applicativo dell’istituto, ai sensi dell’art. 35 GDPR il titolare del trattamento non è obbligato a svolgere una valutazione d’impatto su ogni operazione di trattamento posta in essere, ma soltanto sul trattamento o sul gruppo di trattamenti che possono «presentare un rischio elevato per i diritti e le libertà delle persone fisiche», in particolare laddove il trattamento «prevede in particolare l’uso di nuove tecnologie, considerati la natura, l’oggetto, il contesto e le finalità del trattamento». Lo stesso legislatore, al par. 3 dell’art. 35 GDPR, ha codificato tre macro-categorie di attività che comportano di per sé un rischio elevato, ricomprendendovi in particolare i trattamenti che prevedono una «valutazione sistematica e globale di aspetti personali relativi a persone fisiche, basata su un trattamento automatizzato, compresa la profilazione, e sulla quale si fondano decisioni che hanno effetti giuridici o incidono in modo analogo significativamente su dette persone fisiche», i trattamenti «su larga scala, di categorie particolari di dati personali […], o di dati relativi a condanne penali e a reati» e infine i trattamenti che implicano una «sorveglianza sistematica su larga scala di una zona accessibile al pubblico». Dal canto suo, al fine di supportare i titolari del trattamento nell’individuazione delle attività di trattamento che comportano un rischio elevato, il Gruppo di Lavoro Articolo 29 ha enucleato all’interno delle linee-guida sopra citate alcune fattispecie aggiuntive che implicano la presenza di un rischio elevato quali, ad esempio, la circostanza che il trattamento preveda la valutazione della persona o l’assegnazione di un punteggio (è questo il caso della profilazione)9, oppure laddove venga fatto un uso innovativo o applicazione di nuove soluzioni tecnologiche od organizzative. In base alle predette linee-guida, nel caso in cui l’attività di trattamento integri almeno due delle fattispecie individuate

2016/679, adottate il 4 aprile 2017, come modificate e adottate da ultimo il 4 ottobre 2017, WP 248 rev.01. 9  In particolare, la valutazione della persona o l’assegnazione di un punteggio in merito ad «aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze o gli interessi personali, l’affidabilità o il comportamento, l’ubicazione o gli spostamenti dell’interessato» (cfr. considerando 71 e 91 GDPR, richiamati a p. 9 delle linee-guida). ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La valutazione d’impatto sulla protezione dei dati

57

dal Gruppo di Lavoro, come regola generale il titolare dovrà svolgere una valutazione d’impatto prima di eseguire il trattamento10. Sempre al fine di meglio individuare l’ambito applicativo dell’istituto, in attuazione del par. 4 dell’art. 35 GDPR anche l’Autorità garante per la Protezione dei dati personali (il «Garante») è intervenuta sul punto, prevedendo una serie di fattispecie che, laddove integrate dall’attività di trattamento, fanno scattare automaticamente in capo al titolare l’obbligo di eseguire la valutazione d’impatto11. Quanto al contenuto minimo della DPIA, l’art. 35, par. 7, GDPR, in combinato con i considerando 84 e 90, dispone che essa debba includere, come minimo: 1) una descrizione dei trattamenti previsti e delle finalità del trattamento; 2) una valutazione della necessità e proporzionalità dei trattamenti; 3) una valutazione dei rischi per i diritti e le libertà degli interessati; 4) le misure previste per affrontare i rischi e dimostrare la conformità al Regolamento. Nella misura in cui i requisiti minimi appena indicati siano integrati, il GDPR non vincola tuttavia il titolare del trattamento a seguire una determinata metodologia di svolgimento della valutazione d’impatto. A tale riguardo, il titolare resta libero di scegliere (o di creare esso stesso) la metodologia che intende seguire, purché essa includa e prenda in considerazione in maniera esaustiva gli elementi sopra richiesti. In applicazione del principio di responsabilizzazione, la metodologia dovrà essere illustrata e, più in generale, la DPIA dovrà essere debitamente documentata ed eventualmente esibita su richiesta dell’autorità di controllo per la protezione dei dati competente. Completa la disciplina appena enucleata l’art. 36 GDPR, rubricato «consultazione preventiva», in base al quale il titolare del trattamento è tenuto a consultare l’autorità di controllo per la protezione dei dati competente laddove, all’esito della DPIA e dell’eventuale adozione di misure per mitigare gli impatti sui diritti e libertà fondamentali dell’interessato, ritenga che il rischio relativo al trattamento risulti ancora elevato. L’autorità è tenuta a fornire un parere entro termini predefiniti12, prorogabili in caso di documentata necessità, e può, se lo ritiene Cfr. p. 12 delle linee-guida citate. Autorità garante per la Protezione dei dati personali, Provvedimento n. 467 dell’11 ottobre 2018, G.U. n. 269 del 19 novembre 2018. 12  Ossia otto settimane, con eventuale proroga di ulteriori sei settimane per ragioni documentate e previa comunicazione al titolare del trattamento (cfr. art. 36, par. 2, GDPR). 10  11 

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

58

Davide Baldini

necessario, esercitare i propri poteri previsti dal GDPR, in particolare vietando al titolare la effettuazione dell’attività di trattamento13. Tra gli elementi costitutivi della valutazione d’impatto sopra indicati, è l’analisi dei rischi per i «diritti e le libertà degli interessati» a costituire uno degli elementi più discussi e controversi, come si vedrà do seguito. 2. Nell’ambito dell’art. 35 GDPR, la locuzione «diritti e libertà delle persone fisiche» rileva in due differenti circostanze: in primo luogo, si potrebbe dire «a monte», al fine di valutare se l’attività di trattamento debba essere sottoposta a una previa valutazione d’impatto, occorre che il titolare del trattamento verifichi se la stessa produca un «rischio elevato per i diritti e le libertà delle persone fisiche» (art. 35, par. 1, GDPR); in secondo luogo e soprattutto essa rileva «a valle», in quanto laddove si determini che l’attività di trattamento presenti un simile rischio elevato e debba dunque essere intrapresa una DPIA, il titolare è tenuto a effettuare una analisi di tali rischi come parte della valutazione d’impatto e, all’esito dell’analisi, indicare le misure previste al fine di affrontarli (art. 35, par. 7, lett. c, GDPR). Appare, dunque, di fondamentale importanza che tale locuzione venga intesa in maniera coerente e uniforme, pena il crearsi di situazioni di incertezza e di possibile frammentarietà nell’applicazione della normativa, in contrasto con uno degli obiettivi fondamentali del GDPR, vale a dire la creazione di un quadro normativo coerente in materia di protezione dei dati personali all’interno dell’Unione, così come sancito dall’art. 1, par. 3 e dal considerando 10 GDPR. Tuttavia, come accennato in apertura, non vi è ad oggi uniformità di vedute in merito all’interpretazione di tale importante elemento della DPIA. In buona sostanza, sul punto si sono venuti a creare due diversi orientamenti interpretativi: da un lato, vi è chi ritiene che il titolare del 13  In dottrina si è rilevato come l’istituto della consultazione preventiva previsto dall’art. 36 GDPR richiami da vicino l’istituto del «controllo preliminare» di cui all’art. 20 dell’abrogata Direttiva 95/46/CE, che lasciava la possibilità agli Stati Membri di decidere se sottoporre alcune categorie di trattamenti all’obbligo di autorizzazione preventiva da parte dell’autorità di controllo: F. Mollo, op. cit., p. 290. La differenza più evidente tra i due istituti, chiara espressione del principio di responsabilizzazione, è che nel nuovo paradigma dettato dall’art. 36 GDPR la scelta di consultare l’autorità di controllo è rimessa interamente alla determinazione del titolare del trattamento: invero, è stato osservato che tale allocazione della scelta sul titolare del trattamento è foriera di possibili sottostime del rischio.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La valutazione d’impatto sulla protezione dei dati

59

trattamento debba valutare l’interferenza che l’attività di trattamento può comportare sull’intero catalogo dei diritti e libertà fondamentali tutelati dal diritto dell’Unione così come riconosciuti anzitutto all’interno della Carta dei diritti fondamentali dell’Unione europea14; dall’altro, chi ritiene sufficiente che il titolare si limiti a effettuare una valutazione dei rischi che l’attività di trattamento comporta per la conformità con le sole disposizioni del GDPR15. In base a quest’ultima ricostruzione interpretativa, la valutazione d’impatto dovrebbe limitarsi a verificare, in maniera analitica e documentata, che l’attività di trattamento oggetto di valutazione rispetti tutte le disposizioni materiali del GDPR, come ad esempio la presenza di idonea base giuridica, il soddisfacimento degli obblighi in materia di trasparenza, il rispetto dei diritti dell’interessato e via dicendo. In altri termini, la DPIA esaurirebbe la propria funzione nella puntuale verifica della conformità con il GDPR stesso, senza alcun obbligo per il titolare valutare eventuali impatti su ulteriori diritti fondamentali – diversi dal solo diritto alla protezione dei dati personali – che potrebbero essere messi in pericolo dall’attività di trattamento; di conseguenza, tale filone interpretativo è stato efficacemente definito in dottrina come «compliance assessment approach» alla valutazione d’impatto16. Una delle metodologie più diffuse per l’esecuzione di DPIA, ossia la «Privacy Impact Assessment Methodology» elaborata dalla influente autorità di controllo per la protezione dei dati francese (la «Commission Nationale de l’Informatique et des Libertés» o «CNIL»)17 si basa 14  In dottrina, sostengono questa ricostruzione, tra gli altri: D. Hallinan, Fundamental Rights, the Normative Keystone of DPIA, in European Data Protection Law Review, 2020, II, p. 178 ss.; C. Quelle, The ‘Risk Revolution’ in EU Data Protection Law: We Can’t Have Our Cake and Eat It, Too, in R. Leenes, R. van Brakel, S. Gutwirth e P. De Hert (a cura di), Data Protection and Privacy: The Age of Intelligent Machines, Oxford 2017, p. 33 ss.; F. Mollo, op. cit., p. 289; K. Demetzou, Risk to the ‘Rights and Freedoms’: A Legal Interpretation of the Scope of Risk under the GDPR, in D. Hallinan, R. Leenes, S. Gutwirth e P. de Hert (a cura di), Data Protection and Privacy: Data Protection and Democracy, Oxford 2019, p. 127. 15  In dottrina, si vedano ad esempio le posizioni di: R. Gellert, Understanding the notion of risk in the General Data Protection Regulation, in Computer Law and Security Review, 2017, p. 279 ss.; D. Kloza, N. Van Dijk, R. Gellert, I. Borocz, A. Tanas et al., op. cit. 16  D. Hallinan, Fundamental Rights, the Normative Keystone of DPIA, in European Data Protection Law Review, 2020, II, p. 178 ss., passim. 17  Si veda: CNIL, Privacy Impact Assessment (PIA) Methodology (Policy, 2018) in www.cnil.fr/sites/default/files/atoms/files/cnil-pia-1-en-methodology.pdf; CNIL, Privacy Impact Assessment (PIA) Templates (Policy, 2018) in www.cnil.fr/sites/defau

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

60

Davide Baldini

proprio su quest’ultimo orientamento. La metodologia adottata dalla CNIL, comprende infatti una mera verifica della conformità del trattamento con le disposizioni sostanziali del GDPR, ma non tiene in considerazione eventuali impatti su altri diritti fondamentali. In altri termini, in base a questa metodologia, la valutazione d’impatto restituisce un esito positivo laddove il titolare del trattamento riesca a dimostrare che tutte le disposizioni materiali del GDPR siano rispettate. Tale posizione pare basarsi su un assunto fondamentale: la puntuale conformità alle disposizioni del GDPR da parte dell’attività di trattamento – da accertare mediante esecuzione della valutazione d’impatto – risulterebbe, da sola, sufficiente a garantire il rispetto dei diritti e delle libertà fondamentali della persona per cui l’attività di trattamento oggetto di valutazione comporta un «rischio elevato» (il quale ha determinato in prima battuta l’insorgere dell’obbligo di eseguire la valutazione d’impatto). Detto altrimenti, il rischio elevato per i diritti e le libertà fondamentali delle persone fisiche a cui fa riferimento l’art. 35 – e che ha fatto sorgere in primo luogo l’obbligo di eseguire la valutazione d’impatto – verrebbe adeguatamente mitigato grazie al solo rispetto delle disposizioni materiali del GDPR; la conformità con la normativa sulla protezione dei dati esaurirebbe cioè completamente l’esigenza di tutela dell’interessato rispetto ai rischi elevati per i diritti e le libertà prodotti dall’attività di trattamento oggetto di valutazione. Nonostante l’endorsement da parte dell’autorevole autorità garante francese alla teoria del «compliance assessment approach», la stessa presta tuttavia il fianco a molteplici critiche. La prima, e più evidente, è costituita dal rilievo che la locuzione «diritti e libertà fondamentali» ha già un preciso significato nell’ambito dell’ordinamento giuridico dell’Unione, riferendosi all’intero catalogo dei diritti e libertà fondamentali della persona riconosciuti dal diritto primario18. Di conseguenza, alla luce del principio di uguaglianza, lt/files/atoms/files/cnil-pia-2-en-templates.pdf; CNIL, Privacy Impact Assessment (PIA) Knowledge Bases (Policy, 2018) in www.cnil.fr/sites/ default/files/atoms/files/ cnil-pia-3-en-knowledgebases.pdf. 18  Come noto, la disposizione chiave in materia tutela dei diritti fondamentali è costituita dall’art. 6 TUE, il quale riconosce come fonti rilevanti la Carta dei diritti fondamentali dell’Unione europea, la Convenzione europea per la salvaguardia dei diritti dell’uomo e delle libertà fondamentali (tuttavia, l’adesione da parte dell’Unione alla CEDU è ad oggi, come noto, inattuata, a motivo della incompatibilità di un accordo a tal fine previsto dichiarata dalla Corte di giustizia: v. Corte giust., 18 dicembre 2014, Parere 2/13, ECLI:EU:C:2014:2454) e i principi generali del diritto dell’Unione. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La valutazione d’impatto sulla protezione dei dati

61

che impone di interpretare in maniera uniforme le disposizioni del diritto dell’Unione che non contengono un rinvio al diritto degli Stati membri19, non pare possibile ridurre la valutazione d’impatto a una semplice verifica della conformità del trattamento con le disposizioni del GDPR, in quanto tale ricostruzione si pone in contrasto con la nozione di «diritti e libertà fondamentali» già vigente nell’ambito del diritto dell’Unione. Peraltro, ad avviso di chi scrive, la ricostruzione sopra indicata si presta a due ulteriori critiche, come si cercherà di dimostrare nei prossimi paragrafi: in primo luogo, l’esperienza concreta suggerisce che, al fine di apprestare un adeguato ed effettivo livello di tutela per le persone interessate20, non si possa prescindere da un’accurata valutazione dell’impatto che l’attività di trattamento può avere sui diversi diritti fondamentali protetti dal diritto dell’Unione, in particolare quando lo stesso è basato sull’impiego «di nuove tecnologie» (espressione, non a caso, utilizzata dall’art. 35, par. 1, GDPR), che possono interferire concretamente con una pluralità di diritti della persona (come si cercherà di argomentare al par. 3); dall’altro lato, essa non appare coerente con la ricostruzione teorica ormai prevalente del diritto alla protezione dei dati personali di cui all’art. 8 della Carta come un diritto di carattere procedurale teso a salvaguardare tutti i diritti e libertà fondamentali riconosciuti dal diritto primario dell’Unione che potrebbero essere impattati dall’attività di trattamento (come si cercherà di argomentare al par. 4). 3. Il progresso tecnologico degli ultimi decenni, in particolare lo sviluppo e la proliferazione di algoritmi e sistemi di intelligenza di arti19  Si veda, per un’applicazione di tale principio in materia di protezione dei dati personali, il par. 47 della sentenza «Planet 49» della Corte di Giustizia (Corte giust., 1° ottobre 2019, causa C-673/17, Bundesverband der Verbraucherzentralen und Verbraucherverbände – Verbraucherzentrale Bundesverband eV c. Planet49 GmbH, ECLI:EU:C:2019:801) e la giurisprudenza ivi citata: «A tal riguardo, si deve ricordare che dalle esigenze tanto dell’applicazione uniforme del diritto dell’Unione quanto del principio di uguaglianza discende che i termini di una disposizione del diritto dell’Unione, la quale non contenga alcun rinvio espresso al diritto degli Stati membri al fine di determinare il suo senso e la sua portata, devono normalmente dar luogo, in tutta l’Unione, ad un’interpretazione autonoma e uniforme [sentenze del 26 marzo 2019, SM (Minore soggetto alla kafala algerina), C‑129/18, EU:C:2019:248, punto 50, e dell’11 aprile 2019, Tarola, causa C‑483/17, EU:C:2019:309, punto 36]». 20  Il che costituisce uno degli scopi principali del GDPR (cfr. considerando 10 del GDPR).

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Davide Baldini

62

ficiale volti a profilare l’individuo, ha messo chiaramente in luce come le attività di trattamento possano mettere in pericolo molteplici diritti e libertà fondamentali della persona, diversi e ulteriori rispetto ai soli diritti alla privacy e alla protezione dei dati personali. La nozione di «trattamento» di «dati personali»21 accolta dal GDPR e che vale a integrarne il campo di applicazione materiale22, è infatti estremamente ampia: possono rientrarvi tanto attività del tutto semplici e ordinarie, quali l’invio di e-mail o il riempimento di moduli di raccolta dati, quanto quelle complesse e articolate, quali il tracciamento, profilazione e sistematica diffusione di grandi quantità di dati personali presso le migliaia di attori che compongono il c.d. «programmatic advertising» nel momento in cui all’utente di internet viene presentata una pubblicità personalizzata23, oppure la valutazione automatizzata del merito creditizio ai fini della concessione di un prestito da parte di un istituto bancario. In tale contesto, numerosi sono i diritti che possono essere impattati, quando non del tutto compromessi, a causa delle attività di trattamento maggiormente complesse e basate sull’utilizzo di nuove tecnologie. Tale circostanza non è stata soltanto messa in luce da attenta dottrina24 e da documenti adottati da Unione europea e Consiglio d’Europa25, ma le stesse autorità di controllo degli Stati membri fanno Cfr., rispettivamente, art. 4, nn. 1 e 2, GDPR. Cfr. art. 2, par. 1, GDPR. 23  Per un approfondimento della tematica del programmatic advertising, ivi compreso l’impatto sui diritti fondamentali della persona, si veda l’efficace disamina di G. D’ippolito, Profilazione e pubblicità targettizata on line. Real-time bidding e behavioural advertising, Napoli 2021. 24  Si veda, ad esempio, A. Mantelero e M.S. Esposito, An evidence-based methodology for human rights impact assessment (HRIA) in the development of AI data-intensive systems, in Computer Law & Security Review, 2021, XLI; M. Alì, P. Sapiezynski, M. Bogen, A. Korolova, A. Mislove e A. Rieke, Discrimination through optimization: How Facebook’s ad delivery can lead to skewed outcomes, in Proceedings of the ACM on Human-Computer Interaction, 2019, p. 1 ss. 25  Si veda, ad esempio, la posizione adottata dal Gruppo indipendente di esperti ad alto livello sull’intelligenza artificiale, Orientamenti etici per un’IA affidabile, www. ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai, o ancora: Commissione europea, Un’Unione dell’uguaglianza: la strategia per la parità di genere 2020-2025, 5.3.2020, COM(2020) 152 final, ove si legge che «Gli algoritmi e l’apprendimento automatico ad essi correlato, se non sufficientemente trasparenti e robusti, rischiano di riprodurre, amplificare o contribuire a pregiudizi di genere di cui i programmatori possono non essere a conoscenza o che sono il risultato di una specifica selezione di dati»; nell’ambito del Consiglio d’Europa, si veda in particolare: Consultative Committee of the Convention for the Protection of Individuals with 21  22 

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La valutazione d’impatto sulla protezione dei dati

63

non di rado espresso riferimento all’interno delle proprie decisioni agli impatti negativi sui diritti e libertà fondamentali riconosciuti dal diritto dell’Unione che possono essere prodotti dalle attività di trattamento26. In particolare, è noto che la tecnica della profilazione27, specie laddove utilizzata al fine di prendere le decisioni automatizzate di cui all’art. 22 GDPR28, comporta elevati rischi per molteplici diritti e le libertà fondamentali delle persone interessate: si pensi ai possibili effetti discriminatori derivanti dall’impiego di algoritmi utilizzati per la selezione del personale a causa di una errata o superficiale configurazione degli algoritmi e/o da bias presenti nella base dati di partenza29, alla regard to automatic processing of personal data (Convention 108), Guidelines on Artificial Intelligence and Data Protection, Strasbourg, 25 January 2019. È interessante notare come questi ultimi due documenti siano stati espressamente citati dal Garante all’interno dei provvedimenti avverso Foodinho e Deliveroo, esaminati al par. 3.1 che segue. 26  Per una efficace rassegna, si veda A. Mantelero e M.S. Esposito, op. cit., pp. 17-27. Gli autori prendono in rassegna più di settecento provvedimenti di cinque tra le principali autorità di controllo per la protezione dei dati di Stati Membri o ex-Stati Membri dell’Unione (in particolare, quelle di Belgio, Francia, Germania, Italia e Regno Unito), così come provvedimenti adottati dal Comitato europeo per la protezione dei dati, al fine di dimostrare che i diritti fondamentali diversi dal diritto alla privacy e alla protezione dei dati rappresentano già un elemento preso in considerazione dalle autorità, nell’ambito delle proprie decisioni. 27  L’art. 4, n. 4, GDPR fornisce la seguente definizione di profilazione: «Qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati personali per valutare determinati aspetti personali relativi a una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica». 28  Ossia, non già tutte le decisioni automatizzate riguardanti una persona, ma soltanto quelle che comportano un effetto giuridico sulla persona o hanno un effetto analogamente significativo sulla stessa e che non prevedono alcun coinvolgimento umano significativo. Per un approfondimento sulla portata e sugli effetti dell’art. 22 GDPR, si veda a tale riguardo Gruppo di Lavoro Art. 29 per la Protezione dei Dati, Linee guida sul processo decisionale automatizzato relativo alle persone fisiche e sulla profilazione ai fini del regolamento 2016/679, adottate il 3 ottobre 2017, versione emendata e adottata in data 6 febbraio 2018, WP 251 rev.01. 29  Lo stesso legislatore dell’Unione riconosce espressamente tale pericolo al considerando 71 GDPR, cpv.: «Al fine di garantire un trattamento corretto e trasparente nel rispetto dell’interessato, tenendo in considerazione le circostanze e il contesto specifici in cui i dati personali sono trattati, è opportuno che il titolare del trattamento utilizzi procedure matematiche o statistiche appropriate per la profilazione, metta in atto misure tecniche e organizzative adeguate al fine di garantire, in particolare, che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori e al fine di garantire la sicurezza dei dati personali secondo una modalità che tenga conto dei potenziali rischi esistenti per gli interessi e i diritti dell’interessato e © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

64

Davide Baldini

possibile menomazione del diritto alla libertà di espressione nel caso di utilizzo di algoritmi per filtrare automaticamente i contenuti condivisi dagli utenti su piattaforme online, arrivando perfino alla profonda distorsione del funzionamento della democrazia rappresentativa a causa di pervasive attività di micro-targeting all’interno di social network30 e a molte altre casistiche che sono state osservate in dottrina31. Proprio a causa dell’elevato rischio per i diritti e le libertà dell’interessato, il legislatore dell’Unione ha sottoposto questo tipo di decisioni automatizzate a un divieto generale32 ai sensi dell’art. 22, par. 1, GDPR, superabile solo nelle specifiche circostanze indicate ai paragrafi 2 e 4 di tale articolo e sempre che siano state poste in essere dal titolare del trattamento le garanzie di cui al par. 3; inoltre, per lo stesso motivo l’art. 35, par.1, lett. a), GDPR, stabilisce che laddove il titolare del trattamento intenda porre in essere un’attività di trattamento consistente nella «valutazione sistematica e globale di aspetti personali relativi a persone fisiche, basata su un trattamento automatizzato, compresa la profilazione, e sulla quale si fondano decisioni che hanno effetti giuche impedisca tra l’altro effetti discriminatori nei confronti di persone fisiche sulla base della razza o dell’origine etnica, delle opinioni politiche, della religione o delle convinzioni personali, dell’appartenenza sindacale, dello status genetico, dello stato di salute o dell’orientamento sessuale, ovvero che comportano misure aventi tali effetti.[…]». Per un esempio di come la erogazione di pubblicità personalizzata da parte di Facebook possa comportare conseguenze discriminatorie, si veda M. Alì, P. Sapiezynski, M. Bogen, A. Korolova, A. Mislove e A. Rieke, op. cit. 30  A tale riguardo, si veda il contributo di A. Cardone all’interno di questo volume. 31  La casistica dei possibili impatti di attività di trattamento sui diritti fondamentali della persona è virtualmente illimitata e in continua evoluzione. Per una efficace rassegna, si veda A. Mantelero e M.S. Esposito, op. cit. 32  Non manca, in dottrina, chi dubita della natura dell’art. 22, par. 1, GDPR, quale divieto oggettivo, ricostruendo piuttosto la disposizione come un diritto soggettivo applicabile su richiesta dell’interessato, principalmente a causa della collocazione sistematica della disposizione all’interno del Capo III del GDPR, rubricato «Diritti dell’interessato» e della formulazione ambigua della norma: in tal senso, si veda ad esempio L.A. Bygrave, Article 22. Automated individual decision-making, including profiling, in C. Kuner, L.A. Bygrave e C. Docksey (a cura di), The EU General Data Protection Regulation: A Commentary, Oxford 2021, p 96 ss.; L. Tosoni, The right to object to automated individual decisions: resolving the ambiguity of Article 22(1) of the General Data Protection Regulation, in International Data Privacy Law, 2021, XI, p. 145 ss. Il dibattito sembra tuttavia essere in gran parte superato a valle della netta presa di posizione delle autorità di controllo degli Stati membri nell’ambito delle linee-guida sul processo decisionale automatizzato (cfr. supra, nota 28), che ricostruiscono espressamente la disposizione quale divieto generale (pp. 21-22 delle linee-guida citate). ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La valutazione d’impatto sulla protezione dei dati

65

ridici o incidono in modo analogo significativamente su dette persone fisiche» scatta di per sé l’obbligo di effettuare una previa valutazione d’impatto33. 3.1 Come sopra osservato, la circostanza che alcune attività di trattamento – quali la profilazione – possano interferire con molteplici diritti e libertà fondamentali non è stata messa in evidenza soltanto in dottrina, ma si sta progressivamente affermando nelle decisioni di diverse autorità di controllo, quale il Garante italiano. In particolare, nel corso del 2021 il Garante ha avuto modo di adottare due provvedimenti sanzionatori avverso le società «Foodinho S.r.l.»34 e «Deliveroo Italy S.r.l.»35, aventi per oggetto la profilazione e le decisioni automatizzate. Tali provvedimenti rivestono particolare interesse non solo in quanto costituiscono due tra le prime ipotesi applicative del discusso art. 22 GDPR36, ma anche perché il Garante si è altresì soffermato – sebbene in maniera non particolarmente approfondita – sul ruolo della valutazione d’impatto nella mitigazione di possibili effetti discriminatori derivanti dall’impiego di algoritmi di profilazione. Venendo al merito delle decisioni, Foodinho (società appartenente al gruppo Glovo) e Deliveroo sono due società attive nel settore del 33  Allo stesso modo, il Garante ha incluso all’interno dell’elenco di trattamenti che devono essere necessariamente sottoposti a previa valutazione d’impatto (si veda la nota 11 che precede) la seguente fattispecie «Trattamenti automatizzati finalizzati ad assumere decisioni che producono “effetti giuridici” oppure che incidono “in modo analogo significativamente” sull’interessato, comprese le decisioni che impediscono di esercitare un diritto o di avvalersi di un bene o di un servizio o di continuare ad esser parte di un contratto in essere (ad es. screening dei clienti di una banca attraverso l’utilizzo di dati registrati in una centrale rischi)». 34  Autorità garante per la Protezione dei dati personali, Provvedimento n. 234 del 10 giugno 2021, doc. web n. 9675440. La presente decisione è stata tuttavia annullata dal Tribunale di Milano ad aprile 2022, sul rilievo che lo stesso fosse sproporzionato in merito ai parametri sanzionatori di cui all’art. 83 GDPR. 35  Autorità Garante per la Protezione dei Dati Personali, Provvedimento n. 285 del 22 luglio 2021, doc. web n. 9685994. 36  Oltre alla discussione relativa alla natura dell’art. 22 GDPR (cfr. supra, nota 32), tale disposizione è stata oggetto di critiche sia da chi vi vede un ostacolo nel progresso tecnologico e in particolare nello sviluppo di sistemi di intelligenza artificiale (si veda, ad esempio, D. Castro e E. Chivot, Want Europe to have the best AI? Reform the GDPR, in www.iapp.org/news/a/want-europe-to-have-the-best-ai-reform-thegdpr/), sia da chi – al contrario – ritiene che la disposizione sia facilmente aggirabile e non idonea ad apprestare un adeguato livello di tutela (si veda, ad esempio, S. Wachter, Data protection in the age of big data, in Nature Electronics, 2019, pp. 6-7).

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Davide Baldini

66

c.d. delivery che svolgono attività consistenti nella consegna verso i consumatori finali di beni, alimentari e non, forniti da esercenti con i quali dette società hanno concluso accordi commerciali; gli ordini vengono effettuati dai consumatori mediante l’utilizzo di un’applicazione a ciò dedicata. Per effettuare dette consegne, Foodinho e Deliveroo si avvalgono di soggetti persone fisiche (c.dd. «rider»), che vengono inquadrati quali lavoratori autonomi e il cui rapporto contrattuale con la società – consistente nell’esecuzione delle consegne nei confronti dei consumatori che richiedono una consegna a Foodinho e Deliveroo tramite le relative applicazioni – è gestito mediante l’impiego di piattaforme digitali che assegnano in maniera automatizzata le consegne a ciascun rider, in tempo reale. Al fine di svolgere in maniera efficiente la propria attività, entrambe le società si avvalgono di complessi algoritmi di profilazione che assegnano un punteggio ai rider; tale punteggio determina a sua volta la frequenza di assegnazione delle consegne sulla base di taluni parametri, quali la frequenza con cui ciascun rider accetta o declina le consegne che gli vengono proposte, l’ubicazione del medesimo rispetto al luogo di consegna (che viene rilevata mediante geo-localizzazione del relativo dispositivo mobile) e i giudizi (c.dd. «feedback») che consumatori ed esercenti possono esprimere nei confronti dell’operato dei rider. Il Garante ha anzitutto ritenuto che l’impiego di un simile sistema decisionale privo di intervento umano integri, da un lato, la nozione di «profilazione» dettata dall’art. 4, n. 4, GDPR37, e, dall’altro, costituisca una decisione avente un effetto significativo sulla persona in maniera analoga a una decisione giuridica, integrando in tal modo il divieto generale di cui all’art. 22, par. 1, GDPR. Ciò sulla base del rilievo per cui «attraverso il punteggio la società valuta pertanto l’operato del rider e produce, in tal modo, un effetto significativo sulla sua persona proponendo o negando l’accesso alle fasce orarie e la relativa possibilità di effettuare la prestazione (consegna di cibo o altri beni) oggetto del contratto»38. Sebbene, in entrambi i casi, il Garante abbia ritenuto integrata l’esenzione dal divieto generale contenuta al par. 2, lett. a, dell’art. 22 GDPR, in quanto l’assegnazione automatica delle corse risultava «necessaria per la conclusione o l’esecuzione di un contratto tra

37  38 

Si veda, supra, la nota 27. Si veda il par. 3.3.6 del «provvedimento Foodinho» (supra, nota 34).

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La valutazione d’impatto sulla protezione dei dati

67

l’interessato e un titolare del trattamento»39, l’Autorità ha concluso che la attività di trattamento in parola comportasse un rischio elevato per i diritti e le libertà fondamentali dei rider, con particolare riguardo al pericolo di effetti discriminatori derivanti dalla attribuzione del punteggio di valutazione di ciascun rider. A tale riguardo, né Foodinho né Deliveroo risultavano aver posto in essere una valutazione d’impatto sulla protezione dei dati40, finalizzata a valutare accuratamente detto rischio e a considerare eventuali misure adeguate a scongiurare o mitigare il rischio di discriminazioni ingiustificate, in violazione del divieto di discriminazione vigente nel diritto dell’Unione41. In tal modo, i rider risultavano esposti a potenziali discriminazioni non adeguatamente identificate e mitigate nell’ambito di una DPIA, con effetti negativi che potevano interessare le loro possibilità di guadagno. Pare dunque evidente che, nella realtà dei fatti, così come nella prassi applicativa del GDPR, le attività di trattamento consistenti nella

Ibidem. In entrambe le casistiche considerate, il Garante ha ritenuto che l’obbligo di esecuzione della valutazione d’impatto derivasse dal carattere innovativo della piattaforma digitale utilizzata per assegnare le consegne, dall’impiego della geo-localizzazione, dal fatto che venissero trattati su larga scala dati personali relativi a persone «vulnerabili» in quanto parte di un rapporto di lavoro e dalla esecuzione di attività di profilazione e di decisione automatizzata. Cfr. par 3.3.5 del provvedimento Foodinho (supra, nota 34) e par. 3.3.6 Deliveroo (supra, nota 35). Si veda, in particolare, il seguente passaggio del Provvedimento avverso Deliveroo: «Il trattamento di un numero elevato di dati di diverso tipo, riferiti ad un numero rilevante di interessati, effettuato anche attraverso la piattaforma digitale che si basa sulle funzioni algoritmiche precedentemente descritte, infatti, combinando domanda e offerta, ha un evidente carattere innovativo. Si ritiene quindi che da tali trattamenti possano derivare rischi per i diritti e le libertà degli interessati in quanto relativi alla “valutazione di aspetti personali, in particolare mediante l’analisi o la previsione di aspetti riguardanti il rendimento professionale, [ ...], l’affidabilità o il comportamento, l’ubicazione o gli spostamenti, al fine di creare o utilizzare profili personali; se sono trattati dati di persone fisiche vulnerabili [...]; se il trattamento riguarda una notevole quantità di dati personali e un vasto numero di interessati” nonché “se il trattamento può creare discriminazioni” (v. considerando 75 del Regolamento)». 41  Art. 21 della Carta, rubricato «Non discriminazione», il quale così recita: «1. È vietata qualsiasi forma di discriminazione fondata, in particolare, sul sesso, la razza, il colore della pelle o l’origine etnica o sociale, le caratteristiche genetiche, la lingua, la religione o le convinzioni personali, le opinioni politiche o di qualsiasi altra natura, l’appartenenza ad una minoranza nazionale, il patrimonio, la nascita, gli handicap, l’età o le tendenze sessuali. 2. Nell’ambito d’applicazione del trattato che istituisce la Comunità europea e del trattato sull’Unione europea è vietata qualsiasi discriminazione fondata sulla cittadinanza, fatte salve le disposizioni particolari contenute nei trattati stessi». 39  40 

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

68

Davide Baldini

profilazione dell’individuo siano in grado di produrre gravi interferenze con diritti fondamentali diversi e ulteriori rispetto ai soli diritti alla privacy e alla protezione dei dati personali. A ben vedere, peraltro, lo stesso legislatore dell’Unione dimostra di aver tenuto in debita considerazione quanto precede, prevedendo all’art. 1, par. 3, del GDPR che: «Il presente regolamento protegge i diritti e le libertà fondamentali delle persone fisiche, in particolare il diritto alla protezione dei dati personali». Come già evidenziato da attenta dottrina42, l’utilizzo dell’espressione «in particolare» mette in luce la circostanza che il GDPR sia preordinato a tutelare una pluralità non predeterminabile di diritti e libertà fondamentali, i quali non sono dunque riducibili ai soli diritti alla privacy e alla protezione dei dati personali. 4. Come anticipato al par. 2 che precede, vi è un’ulteriore ragione di ordine sistematico per la quale l’intero catalogo dei diritti e libertà fondamentali riconosciuti dal diritto dell’Unione dovrebbero essere presi in considerazione nell’ambito della valutazione d’impatto. In particolare, secondo la ricostruzione prevalente, le norme che compongono il GDPR e, di riflesso, lo stesso diritto alla protezione dei dati personali sancito all’art. 8 della Carta43, sono composti da principi e regole volti a regolare le modalità di svolgimento delle attività di trattamento, ma in cui sono sostanzialmente assenti i casi in cui viene posto un divieto di esecuzione di determinate attività o finalità di trattamento44. La circostanza che le norme del GDPR abbiano, cioè, un

42  Si veda, ad esempio, D. Hallinan, Fundamental Rights, the Normative Keystone of DPIA, in European Data Protection Law Review, 2020, p. 183. 43  In base alle Spiegazioni relative alla Carta dei diritti fondamentali (G.U.U.E. C 303 del 2007), il diritto alla protezione dei dati personali sancito all’art. 8 della Carta è in larga parte derivato dal diritto secondario dell’Unione. Per una esaustiva disamina sull’origine di questo diritto fondamentale nel diritto dell’Unione, si veda G.G. Fuster, The Emergence of Personal Data Protection as a Fundamental Right of the EU, New York 2016. 44  Una delle poche casistiche di norme del GDPR che pongono un divieto è costituito dall’art. 22, par. 1, di cui si è parlato brevemente al par. 3 che precede, oppure il divieto generale di trattamento di particolari categorie di dati di cui all’art. 9, par. 1. Sulla natura procedurale della normativa dell’Unione in materia di protezione dei dati personali, si vedano ad esempio P. De Hert, Data protection as bundles of principles, general rights, concrete subjective rights and rules, in European Data Protection Law Review, 2017, II, p. 160 ss.; D. Hallinan, Fundamental Rights, the Normative Keystone of DPIA, ivi, 2020, II, pp. 184-5; L. Dalla Corte, A Right to a Rule: On

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La valutazione d’impatto sulla protezione dei dati

69

carattere spiccatamente procedurale piuttosto che sostanziale riflette, da un lato, l’assunto che le attività di trattamento di dati personali siano attività di per sé legittime, laddove rispettino i requisiti dettati dal GDPR; dall’altro, tale carattere procedurale contribuisce a garantirne la flessibilità necessaria per far fronte al rapido progresso tecnologico e minimizzare, così, l’inevitabile processo di obsolescenza del GDPR. Come è stato efficacemente osservato in dottrina, la natura procedurale della normativa dell’Unione sulla protezione dei dati implica che la stessa non sia idonea di per sé ad identificare rischi «sostanziali» per i diritti e le libertà fondamentali dell’interessato45: in questo senso, la conformità al dettato normativo del Regolamento da parte di una specifica attività di trattamento vale a instradare tale attività nel solco di una legalità e correttezza meramente procedurale, il che, pur producendo innegabili vantaggi per i soggetti interessati, quali ad esempio la riduzione dell’asimmetria informativa tra titolare e interessato grazie agli obblighi in materia di trasparenza, oppure la possibilità per l’interessato di esercitare un elevato livello di controllo sul trattamento dei propri dati personali mediante l’esercizio dei diritti soggettivi riconosciuti dagli artt. 15-21 GDPR, non è di per sé idoneo a evitare che un’attività di trattamento, seppur pienamente rispettosa delle disposizioni materiali del GDPR, produca interferenze inaccettabili con altri diritti e libertà fondamentali.46 Sebbene la conformità con il Regolamento possa certamente contribuire a ridurre la gravità di tali interferenze, essa non appare in grado di identificarle compiutamente, né tanto meno di mitigarle. Riprendendo l’esempio delle società di delivery, si pensi al caso dell’utilizzo di un algoritmo diretto a identificare eventuali comportamenti fraudolenti dei rider, prevedendo in tali ipotesi una risoluzione automatica del contratto di lavoro47: anche laddove l’attività di trattamento fosse perfettamente in linea con il Regolamento (ad esempio, the substance and essence of the fundamental right to personal data protection, in D. Hallinan, R. Lennes, S. Gutwirth e P. De Hert (a cura di), op. cit. 45  D. Hallinan, Fundamental Rights, the Normative Keystone of DPIA, in European Data Protection Law Review, 2020, pp. 184-185. 46  D. Hallinan, Fundamental Rights, the Normative Keystone of DPIA, ivi, p. 185. 47  La presente fattispecie non è di fantasia, poiché simili attività vengono effettivamente svolte in questi termini dalle società di delivery. Si veda, sul punto, il report di Worker Info Exchange, Managed by Bots. Data-Driven Exploitation in the Gig Economy, https://5b88ae42-7f11-4060-85ff-4724bbfed648.usrfiles.com/ugd/5b88a© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

70

Davide Baldini

ove venga raccolta e trattata la quantità strettamente necessaria di dati personali in ossequio al principio di minimizzazione dei dati, l’attività si fondi su una base giuridica legittima ai sensi dell’art. 6 e su una delle eccezioni previste dall’art. 22, par. 2, il rider abbia ricevuto in maniera chiara e facilmente accessibile tutte le informazioni sul trattamento previste dall’art. 13, ecc.), nessuna disposizione materiale del GDPR è in grado di prevenire adeguatamente il verificarsi di possibili conseguenze discriminatorie, nel caso in cui tale rischio non sia stato preso in considerazione dal titolare del trattamento nella fase di progettazione e di utilizzo dell’algoritmo. Ecco che, da questa prospettiva, la valutazione d’impatto sulla protezione dei dati si inserisce nel dettato normativo al fine di sopperire a tali carenze strutturali della normativa: la DPIA costituisce cioè lo strumento con il quale il titolare del trattamento è tenuto a identificare e mitigare ex ante i rischi per i diritti e libertà fondamentali dell’interessato eventualmente prodotti dalla attività di trattamento48. La circostanza che tale compito venga demandato al titolare – ossia al soggetto che decide di porre in essere l’attività – appare coerente con il principio di responsabilizzazione, che permea l’interpretazione dell’intero dettato normativo. Da tale prospettiva, ne risulta chiara la funzione di norma di chiusura e valvola di sfogo dell’intero sistema. 5. Alla luce di quanto precede, sembra difficile affermare che il perimetro dei «diritti e libertà fondamentali delle persone fisiche» a cui si riferisce l’art. 35 GDPR possa esaurirsi in un riferimento ai soli diritti alla privacy e alla protezione dei dati personali. Una interpretazione maggiormente in linea tanto con il dettato normativo, quanto con la realtà delle attività di trattamento basate su nuove tecnologie che sono

e_8d720d54443543e2a928267d354acd90.pdf, specialmente il Case Study Algorithmic Control alle pp. 27-30. 48  Si veda, sul punto, C. Quelle, op. cit., p. 46: «The DPIA opens up space to consider sensitive data protection issues because of its focus on the impact on the rights and freedoms of individuals and on the proportionality of this impact in relation to the purposes pursued by the controller» e D. Hallinan, Fundamental Rights, the Normative Keystone of DPIA, in European Data Protection Law Review, 2020, p. 183: «the DPIA risk assessment process becomes relevant precisely by virtue of the uncertainty as to the potential negative impact of data processing on rights and freedoms. Given such uncertainty, it makes little sense, ex ante, to limit the normative reference point for the identification of risks to a defined sub-set of rights and freedoms. Contextually, it makes much more sense to consider the fundamental rights framework in totality». ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La valutazione d’impatto sulla protezione dei dati

71

ormai sempre più diffuse, impone di ritenere che il riferimento vada inteso all’intero catalogo dei diritti e libertà fondamentali riconosciuti e protetti dal diritto dell’Unione. Pare, dunque, doversi concludere nel senso che il legislatore dell’Unione abbia inteso le valutazioni d’impatto sulla protezione dei dati quale strumento volto non solo a verificare in maniera analitica la conformità del trattamento con le regole e i princìpi stabiliti dal GDPR stesso (c.d. «compliance assessment approach» alla valutazione d’impatto), ma anche – e soprattutto – al fine di identificare e mitigare adeguatamente i rischi per tutti i diritti e le libertà fondamentali derivanti da attività di trattamento basate su tecnologie innovative. A tale riguardo, tenuto conto del rapido progresso tecnologico e della estrema variabilità e imprevedibilità delle interferenze che le nuove tecnologie possono produrre sui diritti e libertà fondamentali, l’art. 35 GDPR pone dunque sul titolare l’onere di verificare questo aspetto e di mitigare sufficientemente eventuali interferenze così individuate. La valutazione d’impatto gioca dunque un ruolo chiave nel quadro regolatorio in materia di protezione dei dati, introducendo un importante elemento di flessibilità all’interno del dettato normativo finalizzato a ridurre nel tempo la – inevitabile – obsolescenza del GDPR rispetto alla emergenza di nuove tecnologie e pratiche di trattamento dati, poiché i loro effetti sui diritti e libertà fondamentali non erano pronosticabili durante il procedimento legislativo che ne ha portato all’adozione49. Da questa prospettiva, la valutazione d’impatto appare strettamente collegata con il principio di correttezza stabilito dall’art. 5, par. 1, lett. a, GDPR50, che obbliga il titolare del trattamento a tenere in considerazione gli interessi, i diritti e le libertà fondamentali dell’interessato, evitando che l’attività di trattamento produca impatti ingiustificati su di essi51. Secondo alcuni autori, la valutazione d’impatto sarebbe dun-

49  Si veda, sul punto: Commissione europea, Impact Assessment Accompanying the document General Data Protection Regulation (SEC(2012) 72 final, 2012), p. 63. 50  Il quale viene richiamato altresì dallo stesso art. 8 della Carta, sebbene con il diverso nome di «principio di lealtà». 51  Comitato europeo per la protezione dei dati, Linee guida 4/2019 sull’art. 25. Protezione dei dati fin dalla progettazione e per impostazione predefinita, versione 2.0, adottate il 20 ottobre 2020, pp. 19-21.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Davide Baldini

72

que volta ad attuare concretamente il principio di correttezza, costituendo un esempio di approccio meta-regolatorio52. Da ultimo, vale la pena osservare come lo stesso Gruppo di Lavoro Articolo 29 abbia espressamente accolto questa ricostruzione interpretativa all’interno delle linee-guida in materia di valutazione d’impatto sulla protezione dei dati53, all’interno delle quali si legge che: «il riferimento a “diritti e libertà” degli interessati riguarda principalmente i diritti alla protezione dei dati e alla vita privata, ma include anche altri diritti fondamentali quali la libertà di parola, la libertà di pensiero, la libertà di circolazione, il divieto di discriminazione, il diritto alla libertà di coscienza e di religione». Tuttavia, ad avviso di chi scrive, né la lettera dell’art. 35 GDPR, né le linee-guida appena citate, contengono sufficienti indicazioni su come il titolare del trattamento dovrebbe, nella pratica, valutare e mitigare il rischio che l’attività di trattamento comporta per i diritti e le libertà fondamentali all’interno della valutazione d’impatto. Tenuto conto dell’elevata complessità della materia e della quantità di risorse necessaria per eseguire in maniera corretta la DPIA – la quale richiede la compresenza di conoscenze specialistiche non solo giuridiche, ma anche tecnologiche e di business – nonché della sempre maggiore pervasività e diffusione di attività di trattamento basate sull’utilizzo di tecnologie innovative, non pare ad oggi realistico demandare al titolare del trattamento l’esecuzione di valutazioni d’impatto che prendano compiutamente ed efficacemente in considerazione i rischi per quei diritti e libertà fondamentali messi in pericolo dall’attività di trattamento. Al fine di dare compiuta attuazione a questo fondamentale istituto del Regolamento, è dunque auspicabile che il Comitato europeo per la protezione dei dati rivisiti le linee-guida sulla valutazione d’impatto emanate nel 2017 dal suo predecessore54, le quali sono invero assai scarne in merito al contenuto e alle modalità di svolgimento della vaR. Binns, op. cit. Si veda supra, nota 8: «L’art. 35 fa riferimento al possibile rischio elevato “per i diritti e le libertà delle persone fisiche”. Come indicato nella dichiarazione del gruppo di lavoro art. 29 sulla protezione dei dati sul ruolo di un approccio basato sul rischio nei quadri giuridici in materia di protezione dei dati, il riferimento a “diritti e libertà” degli interessati riguarda principalmente i diritti alla protezione dei dati e alla vita privata, ma include anche altri diritti fondamentali quali la libertà di parola, la libertà di pensiero, la libertà di circolazione, il divieto di discriminazione, il diritto alla libertà di coscienza e di religione» (p. 11). 54  Si veda supra, nota 8. 52  53 

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La valutazione d’impatto sulla protezione dei dati

73

lutazione d’impatto, al fine di fornire indicazioni specifiche e puntuali sull’argomento. Negli ultimi anni, non sono mancati in dottrina i contributi volti a codificare una metodologia per l’esecuzione di veri e propri Fundamental Rights Impact Assessments in materia di protezione dei dati, anche traendo spunto dalle decisioni delle stesse autorità di controllo per la protezione dei dati degli Stati Membri dell’Unione55, alle quali il Comitato potrebbe fare riferimento all’interno di una versione aggiornata delle linee-guida o di un altro strumento di soft law.

55 

Si veda ad esempio, A. Mantelero e M.S. Esposito, op. cit.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Costanza Di Francesco Maesa*

La profilazione nel contesto del diritto internazionale

Sommario: 1. Introduzione sulla nozione di profilazione nel contesto del diritto internazionale ed europeo. – 2. La profilazione e il diritto alla privacy nel contesto del diritto internazionale. Atti adottati in seno alle Nazioni Unite. – 3. Strumenti giuridici in tema di profilazione e diritto alla privacy adottati in seno al Consiglio d’Europa. – 4. Breve raffronto con la disciplina della profilazione adottata nel contesto del diritto dell’Unione europea. – 5. Conclusioni.

1. Nel contesto del diritto internazionale non esiste uno strumento giuridico vincolante che fornisca una definizione del concetto di profilazione dei dati. La profilazione, tuttavia, è stata definita in atti internazionali non giuridicamente vincolanti come le raccomandazioni e, a livello europeo, in atti giuridici vincolanti adottati dalle istituzioni europee1. Nel prosieguo, dunque, per definire tale concetto, ci riferiamo alla definizione che ne è stata data in atti non vincolanti di diritto internazionale o negli atti di diritto europeo, quali la Direttiva 2016/680 e il Regolamento Generale sulla protezione dei dati. Dalla lettura di questi documenti si ricava che per attività di profilazione s’intende il processo attraverso cui informazioni e dati personali vengono raccolti, combinati con altri dati, come i dati non personali o statistici, e, infine, elaborati attraverso algoritmi al fine di analizzare o predire i comportamenti o le decisioni future di una determinata categoria di individui2. In pratica, dunque, l’attività di profilazione consiste in una forma di trattamento automatizzato di dati effettuata su dati personali che ha come obiettivo quello di valutare o prevedere aspetti personali3, come «il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, * Docente a contratto del corso “Diritto in biotecnologie” (settore Diritto dell’Unione europea) nell’Università di Siena. 1   Si veda sul punto i successivi parr. 2, 3 e 4. 2   Si veda I. Spiecker Döhmann, O. Tambou, P. Bernal, M. Hu, C. A. Molinaro et al., Multi-Country. The Regulation of Commercial Profiling – A Comparative Analysis, in European Data Protection Law Review, 2016, IV, p. 535 ss. 3   Nello stesso senso, si leggano le Linee guida sul processo decisionale automatizzato relativo alle persone fisiche e sulla profilazione ai fini del regolamento 2016/679, adottate il 3 ottobre 2017, ed emendate in data 6 febbraio 2018, dal Gruppo di lavoro Art. 29 per la protezione dei dati, 17/IT, WP 251 rev.01, p. 7. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

76

Costanza Di Francesco Maesa

l’ubicazione o gli spostamenti» di una determinata persona fisica4. L’attività di profilazione può, dunque, essere utilizzata per due finalità: per analizzare specifiche caratteristiche di un individuo o per predire il comportamento di un certo individuo, come avviene nel settore della prevenzione dei reati, soprattutto nella lotta e prevenzione del terrorismo, o nel settore del controllo alle frontiere esterne5. Un aspetto peculiare della profilazione consiste nel fatto che gli individui sono categorizzati sulla base di alcune loro caratteristiche specificamente osservate, da cui, con un certo margine di errore, ne vengono desunte altre che non sono oggettivamente osservabili6. I profili degli individui così creati sono utilizzati in diversi ambiti che spaziano da quello commerciale, a quello della salute, al settore della giustizia. Nell’ambito della repressione dei reati, per esempio, sulla base del modello statunitense, anche in Europa si stanno cominciando a sperimentare sistemi basati su algoritmi grazie ai quali è possibile predire se un determinato soggetto sta per commettere un reato7. In tale ambito, così come nel settore del controllo delle frontiere esterne e del contrasto all’immigrazione irregolare, le potenziali implicazioni negative dell’uso di questi meccanismi di giustizia predittiva sono ancora maggiori, considerato che la violazione dei diritti fondamentali in questi casi può avere ripercussioni estremamente dannose nei confronti degli individui. Tra i diritti fondamentali che possono essere lesi, si può, per esempio, menzionare, oltre al diritto alla protezione dei dati personali, il diritto alla libertà personale, il diritto ad un giusto processo e il diritto alla presunzione di innocenza8. Lo stesso deve

4   Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016 relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (Regolamento generale sulla protezione dei dati o «GDPR» con l’acronimo inglese che verrà utilizzato nel prosieguo), L 119/1, del 4 maggio 2016, art. 4. 5   Al proposito, si veda Agenzia dell’Unione Europea per i diritti fondamentali (con l’acronimo inglese e d’ora innanzi “FRA”), Preventing unlawful profiling today and in the future: a guide, 2018. 6   J.-M. Dinant, C. Lazaro, Y. Poullet, N. Lefever e A. Rouvroy, Application of Convention 108 to the Profiling Mechanism - Some ideas for the future work of the consultative committee (T-PD), Doc. T-PD 01, p. 3. 7   Si veda al riguardo, R.M. O’Donnell, Challenging racist predictive policing algorithms under the equal protection clause, in New York University Law Review, 2019, III; B. Perego, Predictive policing: trasparenza degli algoritmi, impatto sulla privacy e risvolti discriminatori, in BioLAW Journal – Rivista di BioDiritto, 2020, II. 8   B. Perego, Predictive policing, cit.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La profilazione nel contesto del diritto internazionale

77

dirsi nel caso in cui l’attività di profilazione sia utilizzata dalle autorità preposte al controllo della frontiera per prevenire e individuare casi di immigrazione irregolare9. Anche in questo settore, infatti le violazioni dei diritti fondamentali degli individui interessati possono avere gravissime ripercussioni nei confronti di questi soggetti, dal momento che un individuo potrebbe essere considerato un soggetto pericoloso, o anche un potenziale terrorista, sulla base di sistemi di identificazione che si fondano su metodi predittivi che raggruppano le persone in specifiche categorie di individui considerate pericolose per la sicurezza statale sulla base di calcoli algoritmici. In ogni caso, indipendentemente dal settore in cui viene attuata l’attività di profilazione, essa è una pratica molto invasiva, che può comportare importanti violazioni della privacy e della sfera privata degli individui10. Anche nell’ipotesi in cui la profilazione sia utilizzata nel settore commerciale essa comporta ingerenze molto significative nella sfera personale degli individui. Basandosi sulle informazioni raccolte dai prodotti che sono stati precedentemente acquistati da un cliente, le aziende di shopping online, per esempio, tramite l’attività di profilazione basata su megadati, suddividono gli utenti e clienti in «profili» e li raggruppano in diversi modelli che riflettono le «caratteristiche di un tipo di personalità»11, ossia dei gruppi omogenei per caratteristiche e comportamenti sempre più dettagliati. L’obiettivo è quello di pervenire alla chiara identificazione di ogni singolo utente (cosiddetto «single out»), ovvero del suo terminale, e, attraverso di esso, anche del profilo di uno o più utilizzatori di quel dispositivo. Ciò permette alle imprese che commercializzano i propri prodotti online di mettere a disposizione servizi e prodotti sempre più conformi alle specifiche esigenze del cliente, sia alla fornitura di pubblicità mirata, che abbia un elevato grado di successo. In tal modo, sono altresì monitorati i comportamenti dei visitatori dei siti internet utilizzati e i profili ottenuti, i quali possono avere un notevole valore di mercato, possono essere sfruttati

9   Per un approfondimento delle conseguenze che ha l’intelligenza artificiale e le altre nuove tecnologie hanno sui diritti umani, nell’ambito della gestione delle frontiere, si veda A/75/590. 10   A livello internazionale, infatti, il diritto alla protezione dei dati personali, specificamente per quanto riguarda i minori, è tutelato in quanto corollario del diritto dei minori alla vita privata, art. 8 CEDU. 11   Si veda FRA, Manuale sul diritto europeo in materia di protezione dei dati, 2018, p. 394.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

78

Costanza Di Francesco Maesa

commercialmente12. In questo caso, l’attività di profilazione può diventare un problema se viene utilizzata per manipolare le persone, per esempio a fini di campagna politica13. Da quanto detto sopra si comprende che, nel regolamentare le attività di profilazione, occorre effettuare un bilanciamento tra due esigenze contrapposte: quella di garantire, da una parte, i diritti fondamentali e, in particolare, il diritto alla privacy dei soggetti i cui dati personali vengono usati a fini di profilazione e quella opposta di rendere più veloci i processi decisionali delle pubbliche amministrazioni, di prevenire la commissione di reati o di facilitare la vendita di alcuni prodotti da parte delle imprese commerciali che operano online grazie alla pubblicità mirata. 2. A livello internazionale, non esiste un trattato multilaterale che detti una disciplina specifica in tema di profilazione. Si possono, tuttavia, ricavare i principi fondamentali che regolano la materia dalle norme che tutelano il diritto alla privacy degli individui. Il diritto che viene maggiormente leso in caso di profilazione è, infatti, il diritto alla privacy, oltre agli altri diritti fondamentali che possono essere lesi nei casi specifici che abbiamo precedentemente menzionato, come ad esempio nel caso in cui, sulla base della profilazione, si decida di vietare l’ingresso di un determinato soggetto sul territorio nazionale o si consideri un determinato individuo un potenziale terrorista solo sulla base di calcoli algoritmici e di decisioni prese in modo automatizzato14. In assenza di un atto giuridico vincolante che disciplini espressamente la materia della profilazione, tuttavia, gli altri diritti fondamentali, quali il diritto alla non discriminazione, il diritto ad un equo processo o alla presunzione di innocenza non ricevono tutela specifica in relazione alla profilazione, ma sono tutelati sulla base di altri atti internazionali universali o settoriali che regolano specificamente la tutela di tali diritti. 12   Si vedano, al riguardo, le Linee guida in materia di trattamento di dati personali per profilazione on line - 19 marzo 2015, G.U. n. 103 del 6 maggio 2015, Registro dei provvedimenti n. 161 del 19 marzo 2015. 13   Si veda in tal senso lo scandalo di Cambridge Analytica e per un approfondimento il contributo di A. El Khoury, Personal Data, Algorithms and Profiling in the EU: Overcoming the Binary Notion of Personal Data through Quantum Mechanics, in Erasmus Law Review, 2018, III. 14   Sull’uso della profilazione in questi ambiti e sull’esame dei diritti fondamentali che possono essere violati in questo caso, si veda il paragrafo precedente.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La profilazione nel contesto del diritto internazionale

79

Il quadro giuridico delle Nazioni Unite non riconosce la protezione dei dati personali («data protection» in inglese) come un diritto fondamentale degli individui15, nonostante il diritto delle persone al rispetto della vita privata contro le ingerenze altrui («right to privacy» in inglese), soprattutto da parte di un organo statale, sia un diritto fondamentale pacificamente riconosciuto a livello internazionale16. Quest’ultimo è stato, in particolare, sancito per la prima volta dall’art. 12 della Dichiarazione universale dei diritti umani («UDHR», secondo l’acronimo inglese)17, il quale enuncia il diritto al rispetto della propria vita privata e familiare18. Questa norma ha influenzato lo sviluppo e la creazione di altri strumenti normativi che sanciscono questo diritto a livello internazionale. L’art. 17 del Patto internazionale sui diritti civili e politici («ICCPR», secondo l’acronimo inglese)19 sancisce similmente che «nessuno può essere sottoposto ad interferenze arbitrarie o illegittime nella sua vita privata, nella sua famiglia, nella sua casa o nella sua corrispondenza, né a illegittime offese al suo onore e alla sua reputazione». Ogni individuo ha, quindi, «diritto ad essere tutelato dalla legge contro tali

15   Si opera questa distinzione in quanto nel contesto del diritto dell’Unione europea è stato espressamente riconosciuto il diritto alla protezione dei dati personali, oltre al diritto alla privacy. Si veda in tal senso l’art. 16 TFUE e l’articolo 8 della Carta dei diritti fondamentali dell’Unione europea. 16  In base alla definizione del right to privacy data dall’United Nations High Commissioner for Human Rights, privacy «can be considered as the presumption that individuals should have an area of autonomous development, interaction and liberty, a “private sphere” with or without interaction with others, free from State intervention and from excessive unsolicited intervention by other uninvited individuals. In the digital environment, informational privacy, covering information that exists or can be derived about a person and her or his life and the decisions based on that information, is of particular importance». In tal senso, Report of the United Nations High Commissioner for Human Rights, The right to privacy in the digital age, A/HRC/39/29, 3 agosto 2018, par. 5. 17   New York, 10 dicembre 1948. Sulla natura giuridica dei diritti enunciati nella Dichiarazione universale, v. L. Pineschi, La tutela internazionale dei diritti umani. Norme, garanzie, prassi, Milano 2015, p. 71 ss. 18   Nell’art. 12 della Dichiarazione Universale dei diritti umani, in particolare, si legge: «No one shall be subjected to arbitrary interference with his privacy, family, home or correspondence, nor to attacks upon his honour and reputation. Everyone has the right to the protection of the law against such interference or attacks». 19   New York, 16 dicembre 1966, entrato in vigore il 23 marzo 1976. L’ICCPR è un trattato internazionale, cui hanno aderito 169 parti contraenti, le quali si sono impegnate a rispettare e garantire l’esercizio dei diritti delle persone ivi elencati, tra cui quello al rispetto della vita privata.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

80

Costanza Di Francesco Maesa

interferenze od offese»20. Nel Patto è precisato che i diritti ivi riconosciuti si applicano a tutti gli individui che si trovano sul territorio degli Stati parte, senza alcuna distinzione di razza, colore, sesso, lingua, religione o opinione politica21. Questo implica che gli Stati parte del Patto debbano non solo astenersi dal violare i diritti riconosciuti nel Patto, ma abbiano anche l’obbligo di adottare un apparato normativo adeguato a salvaguardare gli individui contro ogni interferenza nel loro diritto alla privacy, sia che essa provenga da autorità statali sia che essa sia causata da persone fisiche o giuridiche22. Tale principio è riconosciuto anche nelle linee guida su imprese e diritti umani, in cui si sottolinea il dovere degli Stati di proteggere contro le violazioni dei diritti umani commesse dalle imprese23. Queste disposizioni, in seguito alla rapida evoluzione delle nuove tecnologie e alle conseguenti nuove forme di ingerenza nella vita privata degli individui, grazie ad un’interpretazione evolutiva contenuta nelle raccomandazioni adottate in seno alle Nazioni Unite, sono state considerate le norme di riferimento per tutelare il diritto alla privacy degli individui anche nel caso di profilazione. A livello settoriale, per quanto riguarda la protezione di specifiche categorie di soggetti, quali per esempio i minori, assume rilevanza l’art. 16 della Convenzione sui diritti del fanciullo24, così come interpretato da ultimo nel General Comment n. 25 del 202025, in cui si ribadisce che il diritto alla protezione dei dati personali, specificamente per 20   Per un approfondimento sull’interpretazione che è stata data a questa disposizione, si veda il General Comment n. 16 del 1988, UN Doc. HRI/GEN/1/Rev.9, vol. I dell’8 aprile 1988. 21   Art. 2, 1 del Patto sui diritti civili e politici. 22   Si veda in tal senso, A/HRC/39/29, par. 23. Si veda anche Human Rights Committee, general comments No. 16 (1988), parr. 1 e 9, e No. 31 (2004), par. 8; v. anche Committee on the Rights of the Child, general comment No. 25 (2021), parr. 36-39. 23   Si veda al riguardo Pillar II dei Guiding Principles on Business and Human Rights. 24   La Convenzione sui diritti del fanciullo è stata approvata dall’Assemblea Generale delle Nazioni Unite il 20 novembre 1989. 25   Una prima bozza del General Comment on Children’s Right in Relation to the Digital Environment n. 25 è stato redatta dal Comitato ONU sui Diritti del Fanciullo il 13 agosto 2020. Si vedano, al riguardo i parr. 69 e ss. Per quanto il diritto alla privacy dei minori, si veda anche il CCPR General Comment No. 16: Art. 17 (Right to Privacy) «The Right to Respect of Privacy, Family, Home and Correspondence, and Protection of Honour and Reputation», 8 aprile 1988, par. 10 e il CRC, General comment No. 20 (2016) on the implementation of the rights of the child during adolescence, 6 dicembre 2016, par. 46.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La profilazione nel contesto del diritto internazionale

81

quanto riguarda i minori, è tutelato in quanto corollario del diritto dei minori alla vita privata. In particolare, in base all’interpretazione data nel General Comment, qualsiasi interferenza con la privacy di un minore è permessa solo nella misura in cui superi il triplice test di legalità, legittimità e proporzionalità. Ogni interferenza deve, quindi, essere prevista dalla legge, deve essere volta a perseguire uno scopo legittimo, deve essere proporzionata e non deve entrare in conflitto con le disposizioni, obiettivi e finalità della Convenzione26. Il diritto alla protezione dei dati personali del minore è un diritto che deve essere rispettato da tutti, ivi compresi coloro che sono rappresentanti legali del minore o si occupano della sua educazione27. Per quanto riguarda il diritto alla privacy, come precedentemente accennato, in seno alle Nazioni Unite sono state, altresì, adottate delle risoluzioni che non sono vincolanti, ma che rappresentano degli atti di indirizzo molto importanti per i legislatori nazionali. In particolare, nel 2013 sono state adottate due risoluzioni concernenti la vita privata28, in seguito al rapido ed esponenziale sviluppo delle nuove tecnologie e ai conseguenti rischi di violazione del diritto alla privacy ad esso collegati29. Tali risoluzioni condannano fermamente ogni forma di sorveglianza generalizzata degli individui, ossia di sorveglianza di massa, e sottolineano gli effetti negativi che tale forma di sorveglianza ha sui diritti fondamentali degli individui, quali il diritto al rispetto della propria vita privata, alla libertà di espressione, nonché al corretto funzionamento di una società democratica che si fonda sullo Stato di diritto. Benché non siano dotate di carattere giuridico vin-

  General Comment n. 25, par. 71.   Lo stesso diritto è stato riconosciuto anche in altri strumenti di diritto internazionale. Si veda, in particolare, l’art. 14 della Convenzione internazionale sulla protezione dei diritti di tutti i migranti lavoratori e i membri delle loro famiglie, l’art. 22 della Convenzione sui diritti delle persone con disabilità, l’art. 10 della Carta Africana sui diritti e benessere del fanciullo e l’art. 111 della Convenzione Americana sui diritti umani. 28   Le risoluzioni sono intitolate «The right to privacy in the digital age» (“Il diritto alla privacy nell’era digitale»). Si veda, ad esempio, General Assembly Resolutions 68/167, 69/166 e 71/199 e Human Rights Council Resolutions 28/16 e 34/7 e Decision 25/117. 29  In proposito, si veda A. Seibert-Fohr, Digital surveillance, metadata and foreign intelligence cooperation: unpacking the international right to privacy, 2018; P. Bernal, Data gathering, surveillance and human rights: recasting the debate, in Journal of Cyber Policy, 2016, II. Si veda anche la decisione della Corte eur. dir. uomo, 4 dicembre 2015, n. 47143/06, Roman Zakharov v. Russia. 26 27

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

82

Costanza Di Francesco Maesa

colante, queste risoluzioni hanno giocato un ruolo fondamentale nel promuovere un dibattito su questi temi e hanno portato all’istituzione di un relatore speciale sul diritto alla privacy («Special Rapporteur on the right to privacy»), il quale ha il compito specifico di tutelare e promuovere il rispetto di tale diritto30. A tal fine, nel mandato del relatore rientrano numerose funzioni che spaziano dal compito di esaminare le informazioni sulle prassi e sulle esperienze nazionali in tema di privacy, ivi incluse quelle che concernono le difficoltà che derivano dall’uso delle nuove tecnologie, a quello di svolgere visite di controllo sia ufficiali che «non ufficiali» negli Stati, a quello di promuovere la protezione del diritto alla privacy organizzando e partecipando ad eventi pubblici volti ad incentivare un approccio coerente al diritto alla privacy, e, infine, a quello di diffondere la conoscenza di quali rimedi sono disponibili in caso di violazione del diritto alla privacy e di denunciare i casi in cui vi sono state presunte violazioni di questo diritto. Annualmente il relatore speciale presenta anche un Rapporto al Consiglio dei diritti umani31. Successivamente, nel 2016, 2017 e 2018, sono state adottate altre risoluzioni in cui è stata nuovamente affermata la necessità di tutelare il diritto alla privacy degli individui quale diritto fondamentale riconosciuto a livello internazionale e in cui sono stati sottolineati gli effetti negativi di ogni forma di sorveglianza di massa per i diritti fondamentali degli individui riconosciuti a livello internazionale. A differenza delle precedenti risoluzioni, in queste ultime, non solo è stata ribadita la necessità di prevedere adeguate forme di responsabilità degli Stati nel caso in cui siano le autorità nazionali di intelligence o altre autorità statali a compiere attività di sorveglianza di massa nei confronti della popolazione, ma è stata anche sottolineata l’esigenza di prevedere adeguate forme di responsabilità nei confronti delle imprese private che operano nel settore. Attualmente, attività di sorveglianza di massa o di profilazione sono, infatti, poste in essere in misura sempre maggiore da parte di società private che raccolgono, trattano e utilizzano una enorme quantità di dati personali. Questi soggetti rischiano, dunque, di mettere seriamente a repentaglio il diritto alla privacy nell’era digi-

30  Lo Special Rapporteur on the right to privacy è stato incaricato a luglio 2015 nominato dal Consiglio diritti umani con risoluzione n. 28 del 2016. 31   Si veda, per esempio, il Report of the Special Rapporteur on the right to privacy, Right to privacy, A/HRC/40/63, 27 febbraio 2019.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La profilazione nel contesto del diritto internazionale

83

tale. Al fine di evitare violazioni del diritto alla privacy, si raccomanda, quindi, di adottare misure specifiche per garantire la trasparenza nella gestione dell’ingente mole di dati raccolti e il corretto uso dei dati nel rispetto del diritto alla privacy32. Per quanto riguarda il diritto alla protezione dei dati personali dei minori, assume, inoltre, particolare rilevanza la Risoluzione adottata dall’Assemblea Generale il 17 dicembre 2018 intitolata «The right to privacy in the digital age»33, in cui si legge che la promozione e il rispetto del diritto alla privacy sono importanti per prevenire ogni tipo di violenza, tra cui vengono menzionati espressamente gli abusi e molestie sessuali, soprattutto nei confronti di donne e minori, che possono accadere anche online o tramite mezzi digitali e includono il cyberbullismo e il cyberstalking. Nella Risoluzione si sottolinea altresì che il rispetto dei diritti, tra cui il diritto alla privacy, di cui le persone godono offline deve essere garantito anche online34. Tale Risoluzione richiama le precedenti risoluzioni adottate dall’Assemblea Generale in tema di diritto alla privacy nell’era digitale ossia, in particolare, la Risoluzione approvata il 18 dicembre 201335 e la Risoluzione approvata il 18 dicembre 201436, oltre a richiamare le Risoluzioni del Consiglio per i diritti in materia di tutela della privacy nell’era digitale, di cui l’ultima, la numero 34/7 del 23 marzo 2017, espressamente ribadisce che gli Stati devono impegnarsi ad adottare misure adeguate per contrastare violazioni e abusi del diritto alla privacy nell’era digitale che producano effetti nei confronti di tutti, ma soprattutto nei confronti di donne, bambini e persone particolarmente vulnerabili37. Nel contesto del diritto internazionale, per quanto riguarda, in 32   Si veda, in proposito, a titolo di esempio, l’importanza che è dedicata alla materia nel Report of the United Nations High Commissioner for Human Rights, «The right to privacy in the digital age» (A/HRC/39/29, del 3 agosto 2018), in cui un’intera sezione, la V, è dedicata alla responsabilità delle imprese private nel settore. 33   A/RES/73/179 pubblicata il 21 gennaio 2019. 34   Vedi il punto 3 della Risoluzione del 17 dicembre 2018, sul diritto alla privacy nell’era digitale. 35   Risoluzione adottata dall’Assemblea Generale il 18 dicembre 2013, A/RES/68/167, intitolata «The right to privacy in the digital age». 36   Risoluzione adottata dall’Assemblea Generale il 18 dicembre 2014, A/RES/69/166, intitolata «The right to privacy in the digital age». Si veda, in proposito, anche la precedente Risoluzione 45/95 of 14 December 1990 on «guidelines for the regulation of computerized personal data files», adottata dall’Assemblea generale il 14 dicembre 1990. 37   Risoluzione del Consiglio per i diritti umani sul «right to privacy in the digital age», approvata il 23 marzo 2017, A/HRC/RES/34/7, par. 5, lett. g). Si veda in tal

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

84

Costanza Di Francesco Maesa

particolare, il tema della profilazione, merita, inoltre, particolare attenzione il rapporto dell’Alto Commissario delle Nazioni Unite per i diritti umani, a sua volta intitolato «The right to privacy in the digital age», in cui sono analizzate le conseguenze che i sistemi di intelligenza artificiale, ivi inclusa l’attività di profilazione, comportano per i diritti fondamentali dell’individuo38. Nel rapporto, il diritto alla privacy è stato reinterpretato in senso evolutivo al fine di tutelare i soggetti contro le ingerenze nella loro sfera privata effettuate per mezzo dei nuovi sistemi di calcolo algoritmico automatizzati, quali la profilazione. A tal fine, in primo luogo, è stato ribadita la funzione svolta dal diritto alla privacy, il quale costituisce un diritto essenziale in uno Stato di diritto, in quanto è volto ad assicurare il bilanciamento tra il potere dello Stato e i diritti dell’individuo39. Nel rapporto si precisano altresì le condizioni alle quali è possibile derogare a tale diritto, dal momento che non è un diritto assoluto e che, quindi, a certe condizioni è possibile effettuare un bilanciamento in favore di altri diritti. La prima delle condizioni che deve essere rispettata affinché un’interferenza con il diritto alla privacy sia legittima è rappresentata dal fatto che essa sia espressamente prevista dalla legge statale, la quale, a sua volta, deve rispettare quanto previsto nel Patto internazionale sui diritti civili e politici40. La seconda consiste nel fatto che ogni interferenza con il diritto alla privacy non deve essere arbitraria, ossia deve essere in accordo con le norme e gli obiettivi del Patto sui diritti civili e politici e deve essere ragionevole in rapporto al singolo caso di specie41. In terzo luogo, ogni interferenza con il rispetto della vita privata deve avere come obiettivo uno scopo legittimo di tutela, deve essere necessaria per raggiungere quello scopo legittimo di tutela e deve essere proporzionata42. senso anche la precedente Risoluzione del Consiglio per i diritti umani approvata il 26 marzo 2015 intitolata “right to privacy in the digital age”, A/HRC/RES/28/16. 38   Report of the United Nations High Commissioner for Human Rights, The right to privacy in the digital age, A/HRC/48/31, del 13 settembre 2021. 39   Si veda A/HRC/39/29, par. 11. 40   Human Rights Committee, general comment No. 16 (1988), parr. 3, 8. 41   Human Rights Committee, general comment No. 16 (1988), par. 4. 42   In questo senso si è espressa anche la giurisprudenza e il General Comment sui diritti del fanciullo. Si veda, Toonen v. Australia (CCPR/C/50/D/488/1992), par. 8.3, Van Hulst v. Netherlands (CCPR/C/82/D/903/1999), parr. 7.3 e 7.6, Madhewoo v. Mauritius (CCPR/C/131/D/3163/2018), par. 7.5, and CCPR/C/USA/CO/4, par. 22. V. anche Committee on the Rights of the Child, general comment No. 25 (2021), par. 69. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La profilazione nel contesto del diritto internazionale

85

All’interno del rapporto sono inoltre evidenziati i rischi che la tecnica della profilazione comporta per i diritti umani. Questo rappresenta un passo importante per una presa di coscienza a livello internazionale sul tema della profilazione, che ne consideri i potenziali rischi per i diritti fondamentali degli individui. L’uso di sistemi di intelligenza artificiale può, infatti, facilitare e comportare intrusioni significative nel diritto alla privacy, in quanto il suo funzionamento si basa sulla raccolta e l’uso di un’enorme quantità di dati personali. Come evidenziato nel rapporto, i dati personali sono raccolti, per esempio, dalle società commerciali che operano online attraverso internet e questi dati sono poi utilizzati sia dalle società private che dagli Stati. Le operazioni che vengono effettuate con i dati raccolti per la maggior parte non sono sottoposte a scrutinio pubblico e sono regolate solo in parte dal quadro giuridico attualmente esistente43. Il fatto che sia raccolta un’enorme quantità di dati consente ancora più numerose ed intrusive violazioni del diritto alla privacy44. In particolare, la possibilità di combinare, comparare e fondere dati provenienti da diverse fonti consente di «de-anonimizzare» i dati, permettendo così di scoprire l’identità del soggetto i cui dati sono stati raccolti e anonimizzati45. Inoltre, la raccolta e la conservazione a lungo termine di questa grande quantità di dati fa sì che questi dati possano essere sfruttati in futuro per fini non previsti al momento della raccolta degli stessi e che gli stessi, con il passare del tempo, non siano neanche più accurati, cosicché il profilo della persona creato sulla base dei dati raccolti in passato potrebbe in futuro non corrispondere al vero46. Nella seconda parte del rapporto, sono, invece, illustrate le possibili ripercussioni che i sistemi di intelligenza artificiale possono avere in certi ambiti specifici, quali in ambito di sicurezza nazionale, controllo alle frontiere, giustizia penale, ambito lavorativo e servizi pubblici47.   A. Rieke et al., Data brokers in an open society, London 2016.  Si veda, al riguardo, Council of Europe, «Guidelines on addressing the human rights impacts of algorithmic systems», (appendix to Recommendation CM/ Rec(2020)1 of the Committee of Ministers to member States on the human rights impacts of algorithmic systems), sez. A, par. 6. 45  Report of the United Nations High Commissioner for Human Rights, A/ HRC/48/31, par. 14. 46   Si veda in proposito, Committee on the Elimination of Racial Discrimination, General recommendation No. 36, 2020, par. 33. 47  Report of the United Nations High Commissioner for Human Rights, A/ HRC/48/31, par. 21 e seguenti. 43 44

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

86

Costanza Di Francesco Maesa

Particolari preoccupazioni dal punto di vista della violazione del diritto alla privacy degli individui sono causate dall’uso sempre più massiccio di tecniche di riconoscimento biometrico, anche a distanza e in tempo reale. Grazie a questa tecnica, infatti, gli individui possono essere oggetto di profilazione e potrebbero essere discriminati in ragione delle loro origini etniche, la razza, la nazionalità, il genere e altre caratteristiche personali48. In tema di profilazione razziale, assumono particolare rilievo anche le raccomandazioni che sono state recentemente pubblicate dal CERD49 per prevenire e combattere la profilazione razziale compiuta dalle forze dell’ordine50. Il CERD ha, infatti, rilevato che in seguito all’incremento dell’utilizzo di strumenti di intelligenza artificiale sono aumentate le pratiche discriminatorie e xenofobe, nonché altre forme di esclusione, soprattutto nei confronti dei migranti e dei richiedenti asilo51. Al fine di evitare violazioni dei diritti fondamentali e di eliminare ogni forma di profilazione razziale, è necessaria, secondo il Comitato, la raccolta e l’analisi dei dati da parte degli Stati al fine di monitorare la situazione e dare informazioni trasparenti alla collettività e la collaborazione delle società private. Nelle raccomandazioni si auspica, inoltre, l’istituzione di un organo competente a ricevere le segnalazioni di abusi, il quale svolga anche un’adeguata verifica sui casi. 3. Nel sistema giuridico istituito in seno al Consiglio d’Europa il diritto alla privacy è considerato un diritto fondamentale dell’individuo. In particolare, il diritto alla privacy è stato riconosciuto dalla Corte europea dei diritti dell’uomo (di seguito «Corte EDU») come un corollario del diritto al rispetto della vita privata e familiare, tutelato dall’art. 8 della Convenzione europea per la salvaguardia dei di48   I problemi che questi sistemi generano nei confronti dei diritti fondamentali dell’individuo sono evidenziati in A/HRC/44/24. 49   Il CERD, come noto, è un organo di monitoraggio istituito dalla Convenzione internazionale sull’eliminazione di ogni forma di discriminazione razziale, che è stata adottata il 21 dicembre 1965. 50   Le Raccomandazioni generali n. 36 (General recommendation No. 36, “Preventing and Combating Racial Profiling by Law Enforcement Officials), CERD/C/ Gc/36, CERD_C_GC_36_9291_E, sono state adottate dal Comitato ONU sull’eliminazione di ogni forma di discriminazione razziale il 24 novembre 2020. 51   In merito al tema dell’«algorithmic profiling», si veda FRA, Preventing unlawful profiling today and in the future: a guide, 2018, p. 98 e Report of the Special Rapporteur on Racism, Racial discrimination and emerging digital technologies: a human rights analysis, A/HRC/44/57, 2020, par. 38.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La profilazione nel contesto del diritto internazionale

87

ritti dell’uomo e delle libertà fondamentali (di seguito «CEDU»)52. La Corte EDU, nello specifico, ha adottato un’interpretazione estensiva dell’art. 8 CEDU, grazie alla quale ne ha adeguato il contenuto alle nuove trasformazioni tecniche e sociali. L’art. 8 CEDU è stato, in particolare, interpretato nel senso di garantire il diritto alla protezione dei dati personali in caso di intercettazioni telefoniche53, di varie forme di sorveglianza54, o nel caso della conservazione dei dati personali da parte di autorità pubbliche55. La Corte non ha, infatti, esitato a statuire che anche alcune prassi in materia di sicurezza nazionale che si risolvono in attività di sorveglianza interferiscono con il diritto alla rispetto per la vita privata, o diritto alla privacy56. Tuttavia, analogamente all’art. 17 del Patto sui diritti civili e politici, anche il diritto alla vita privata enunciato nell’art. 8 della CEDU è un diritto derogabile. Pertanto, esso può essere sospeso in caso di pubblica emergenza57 o compresso nelle ipotesi in cui si trovi in contrasto con altri interessi meritevoli di tutela. Nel bilanciare gli interessi dell’individuo con quelli della collettività, vengono in rilievo i criteri di legittimità, per cui le interferenze esercitate dalle pubbliche autorità devono essere previste dalla legge, e necessità nel quadro di una società democratica58. Oltre a quanto previsto dall’art. 8 CEDU, così come interpretato dalla Corte EDU, per quanto riguarda la disciplina volta a tutelare il diritto alla privacy, in seno al Consiglio d’Europa è stata adottata la Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale (c.d. Convenzione n. 108)59. 52   La Convenzione europea per la salvaguardia dei diritti dell’uomo e delle libertà fondamentali è stata adottata a Roma il 4 novembre 1950 ed è entrata in vigore il 3 settembre 1953. 53   Corte eur. dir. uomo, 2 agosto 1984, n. 8691/79, Malone c. Regno Unito; 3 aprile 2007, n. 62617/00, Copland c. Regno Unito; 4 dicembre 2015, n. 47143/06, Roman Zakharov c. Federazione Russa; 12 gennaio 2016, n. 37138/14, Szabó and Vissy c. Ungheria; 18 luglio 2017, n. 27473/06, Mustafa Sezqin Tanrikulu c. Turchia; 13 settembre 2018, n. 58170/13 62322/14 24960/15, Big Brother Watch and Others c. Regno Unito. 54   Corte eur. dir. uomo, 6 settembre 1978, c. n. 5029/71, Klass e altri c. Germania; 2 settembre 2010, n. 35623/05, Uzun c. Germania. 55   Corte eur. dir. uomo, 26 marzo 1987, n. 9248/81, Leander c. Svezia; 4 dicembre 2008, nn. 30562/04 e 30566/04, S e Marper c. Regno Unito. 56   Si veda, per esempio, Corte eur. dir. uomo, 6 settembre 1978, n. 5029/71, Klass e a. c. Germania; Rotaru c. Romania [GC], 4 maggio 2000, n. 28341/95; 12 gennaio 2016, n. 37138/14, Szabó e Vissy c. Ungheria. 57   Art. 15 CEDU. 58   Art. 8, par. 2 CEDU. 59  Consiglio d’Europa, Convenzione sulla protezione delle persone rispetto al

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

88

Costanza Di Francesco Maesa

Con tale Convenzione, gli Stati parte si sono impegnati ad assicurare ad ogni individuo il diritto al rispetto della propria vita privata, per quanto riguarda, in particolare, il trattamento automatizzato dei propri dati personali. La Convenzione si applica, infatti, alla raccolta automatizzata di dati a carattere personale e all’elaborazione automatica di tali dati sia nel settore pubblico che nel settore privato60. Per quanto riguarda alcune categorie specifiche di dati, come i dati che rivelano l’origine razziale, le opinioni politiche, le convinzioni religiose o altre convinzioni, così come i dati personali che riguardano la salute o la vita sessuale, la Convenzione, inoltre, stabilisce che essi non possono essere soggetti a elaborazione automatica a meno che la legge statale non preveda delle salvaguardie adeguate. Lo stesso principio si applica ai dati personali relativi a condanne penali61. La Convenzione, inoltre, stabilisce che devono essere previste delle misure di sicurezza idonee per evitare l’accesso, la modificazione o la diffusione non autorizzata dei dati a carattere personale62. Tra queste, meritano particolare attenzione il diritto dei soggetti interessati a conoscere l’esistenza di una raccolta automatizzata di dati a carattere personale, il luogo della sede principale del titolare del trattamento, nonché il diritto ad ottenere la rettifica dei dati e la loro cancellazione qualora essi siano stati elaborati in violazione dei principi enunciati nella Convenzione, nonché la possibilità di proporre un ricorso nel caso in cui non si proceda in seguito ad una domanda di conferma, di comunicazione, di rettifica o cancellazione dei dati63. La Convenzione, infine, prevede anche delle norme volte a disciplinare il flusso transfrontaliero dei dati personali64. La Convenzione n. 108, oltre che per quanto ivi stabilito, assume particolare rilevanza poiché la Corte EDU nel corso degli anni si è ispirata ai principi ivi enunciati per determinare se vi sia trattamento automatizzato di dati a carattere personale, Consiglio d’Europa, STCE n. 108, adottata il 28 gennaio 1981, ed entrata in vigore il 1° ottobre 1985. Precedentemente, erano state adottate le seguenti risoluzioni: Consiglio d’Europa, Comitato dei Ministri (1973), Risoluzione (73) 22 sulla tutela della riservatezza delle persone in rapporto alle banche di dati elettroniche nel settore privato, 26 settembre 1973; Consiglio d’Europa, Comitato dei Ministri (1974), Risoluzione (74) 29 sulla tutela della riservatezza delle persone in rapporto alle banche di dati elettroniche nel settore pubblico, 20 settembre 1974. 60   Art. 1 della Convenzione 108. 61   Art. 6 della Convenzione 108. 62   Art. 7 della Convenzione 108. 63   Art. 8 della Convenzione 108. 64   Si veda l’art. 12 e seguenti della Convenzione 108. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La profilazione nel contesto del diritto internazionale

89

stata o meno un’ingerenza nel diritto fondamentale al rispetto della vita privata di cui all’art. 8 CEDU65. La Convenzione è stata successivamente modificata da un Protocollo addizionale «concernente le autorità di controllo ed i flussi transfrontalieri» adottato nel 200166 e da un «Protocollo di emendamento alla Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale» («Protocollo n. 223»)67, i quali hanno introdotto significative novità al fine di rafforzare la protezione dei dati personali. Quest’ultimo, in particolare, è stato adottato al fine di aggiornare la Convenzione n. 108 alla luce delle nuove scoperte tecnologiche e di rafforzare il meccanismo della Convenzione, onde garantirne l’effettiva applicazione negli Stati contraenti. A tal proposito, tra le innovazioni importanti apportate dal Protocollo n. 223 per allinearsi con la disciplina europea prevista dal Regolamento (UE) 2016/679 (Regolamento generale sulla protezione dei dati) e dalla Direttiva UE 2016/680, hanno particolare rilevanza l’introduzione del consenso quale requisito necessario per il trattamento dei dati personali68 e l’ampliamento del catalogo dei dati sensibili che sono soggetti alla specifica disciplina di cui all’art. 6 della Convenzione, tra i quali sono menzionati anche i dati genetici e biometrici, nonché i dati che rivelano l’origine etnica o l’appartenenza sindacale del soggetto69. Inoltre, per quanto riguarda la sicurezza dei dati, è stato introdotto l’obbligo di notifica nel caso di violazione dei diritti e delle libertà fondamentali delle persone interessate70 e l’obbligo di trasparenza nel trattamento dei dati71.

65   Si veda, ad esempio, Corte eur. dir. uomo, 25 febbraio 1997, n. 22009/93, Z c. Finlandia. 66   Protocollo addizionale alla Convenzione sulla protezione delle persone rispetto al trattamento automatizzato dei dati a carattere personale, concernente le autorità di controllo ed i flussi transfrontalieri, STE n. 181, aperto alla firma l’8 novembre 2001 ed entrato in vigore il 1° luglio 2004. 67   Protocollo di emendamento alla Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale, STE n. 223, aperto alla firma il 10 ottobre 2018. 68   Art. 5 della Convenzione 108, così come modificata con il Protocollo CETS n. 223. 69   Art. 6 della Convenzione 108, così come modificata con il Protocollo CETS n. 223. 70   Art. 7 della Convenzione 108, così come modificata con il Protocollo CETS n. 223. 71   Art. 8 della Convenzione 108, così come modificata con il Protocollo CETS

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

90

Costanza Di Francesco Maesa

Per quanto riguarda i diritti dell’interessato, inoltre, è stato esteso il novero delle informazioni che devono essergli trasmesse quando questo esercita il diritto di accesso ed è stato previsto il diritto dell’interessato ad ottenere informazioni significative sulla logica utilizzata nel corso del processo decisionale automatizzato, allorché le decisioni prese sulla base di tale trattamento ricadano sul soggetto. È stato, inoltre, previsto il diritto a non essere sottoposto ad una decisione che incide in modo significativo nella sfera giuridica dell’interessato nel caso in cui sia stata presa unicamente sulla base di un trattamento automatizzato dei dati, senza che il punto di vista del soggetto sia stato preso in considerazione72. Questo diritto comporta una limitazione importante in tema di profilazione73 e comporta un notevole passo avanti nella protezione dei diritti degli interessati in caso di profilazione. La Convenzione, così come modificata, impone, inoltre, l’istituzione da parte degli Stati contraenti di autorità indipendenti di controllo, che monitorino e controllino se vi sono state violazioni del diritto alla protezione dei dati personali degli individui. I poteri di tali autorità sono stati ampliati fino a comprendere il compito di prendere decisioni e imporre sanzioni74. Per quanto riguarda la tutela dei minori, il Protocollo n. 223 prevede, inoltre, che le autorità di supervisione del trattamento dei dati personali debbano verificare che sia garantito il rispetto dei dati personali dei minori e di altri soggetti vulnerabili75. Inoltre, per quanto riguarda il consenso prestato dai minori al trattamento dei loro dati personali, il Comitato dei ministri del Consiglio d’Europa, nella Raccomandazione sui «Diritti dei minori nell’ambiente digitale», sostiene che dovrebbe vietarsi la profilazione dei minori e che questa possa essere ammessa solo in circostanze eccezionali, se sono previste adeguate garanzie e se il superiore interesse del minore è tenuto in debito conto e considerato preminente76. n. 223. 72   Art. 9, lett. a) e c) della Convenzione 108, così come modificata con il Protocollo CETS n. 223. 73   A tal proposito, si veda la Raccomandazione (2010) 13 «on the Protection of Individuals with regard to Automatic Processing of Personal Data in the context of profiling» e il suo Explanatory memorandum. 74   Art. 15 della Convenzione 108, così come modificata con il Protocollo CETS n. 223. 75   Art. 19 del Protocollo n. 223. 76   Comitato dei Ministri del Consiglio d’Europa, Guidelines to respect, protect and fulfil the rights of the child in the digital environment, CM/Rec(2018)7, del 4 ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La profilazione nel contesto del diritto internazionale

91

Recentemente, al fine di limitare le violazioni della privacy ed incitare gli Stati ad adottare una normativa che garantisca una maggiore tutela dei dati personali nei casi di profilazione, il Comitato dei Ministri del Consiglio d’Europa ha adottato una nuova raccomandazione sulla protezione degli individui con riguardo ai trattamenti automatizzati dei dati personali nell’ambito della profilazione77. Secondo quanto stabilito dal Comitato, tale Raccomandazione mira, in particolare, a sostituire ed aggiornare una precedente raccomandazione adottata nel 201078. La Raccomandazione è suddivisa in diversi paragrafi, il primo dei quali è dedicato alle definizioni applicabili nel corpo della Raccomandazione, il secondo ai principi generali sui quali essa si fonda e i successivi sono dedicati ai seguenti temi: le condizioni per il trattamento dei dati personali nel contesto della profilazione79; le informazioni che devono essere fornite al soggetto nei cui confronti è effettuata l’attività di profilazione80; i diritti dei soggetti interessati dall’attività di profilazione81; le eccezioni e le restrizioni in presenza delle quali è possibile derogare a quanto precedentemente stabilito, pur se nel rispetto dell’essenza dei diritti e libertà fondamentali e se esse sono espressamente previste dalla legge82; le misure che devono essere prese per garantire la sicurezza dei dati83; la definizione del ruolo e delle funzioni delle autorità di controllo e supervisione84; ulteriori misure concernenti i sistemi di certificazione dei sistemi di intelligenza artificiale e di conformità di questi ultimi con il diritto alla protezione dei dati personali, nonché i requisiti che devono essere rispettati dalle autorità pubbliche quando pongono in essere attività di profilazione e disposizioni relative alla promozione di attività di ricerca ed educazione in tale ambito85. In questa sede non si intende analizzare nel dettaglio il contenuto luglio 2018, par. 37, consultabili al seguente indirizzo: https://rm.coe.int/guidelinesto-respect-protect-and-fulfil-the-rights-of-the-child-in-th/16808d881a. 77   Recommendation CM/Rec(2021)8 of the Committee of Ministers to member States «on the protection of individuals with regard to automatic processing of personal data in the context of profiling», adottata dal Comitato dei Ministri il 3 novembre 2021. 78  CM/Rec(2010)13, cit. nota 45. 79   Recommendation CM/Rec(2021)8, parr. 3.1-3.14. 80   Recommendation CM/Rec(2021)8, parr. 4.1-4.5. 81   Recommendation CM/Rec(2021)8, parr. 5.1-5.9. 82   Recommendation CM/Rec(2021)8, parr. 6.1-6.2. 83   Recommendation CM/Rec(2021)8, parr. 7.1-7.9. 84   Recommendation CM/Rec(2021)8, parr. 8.1-8.7. 85   Recommendation CM/Rec(2021)8, parr. 9.1-9.13. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Costanza Di Francesco Maesa

92

della raccomandazione, ma si ritiene comunque opportuno evidenziare i punti salienti della stessa al fine di comprendere quale sia il grado di tutela del diritto alla privacy che deve essere garantito nei procedimenti che coinvolgono attività di profilazione. Nella raccomandazione viene innanzitutto definita la profilazione come «ogni forma di trattamento automatico di dati personali, […] che consiste nell’uso dei dati per valutare certi aspetti personali relativi ad un individuo, in particolare per analizzare o predire aspetti legati alle prestazioni professionali, alla situazione economica, alla salute, alle preferenze personali, agli interessi, all’affidabilità, al comportamento, alla localizzazione e agli spostamenti» di un determinato soggetto86. La definizione ivi contenuta è, quindi, particolarmente ampia e simile a quella adottata nel Regolamento generale sulla protezione dei dati. Una definizione così ampia ha come conseguenza l’esteso campo di applicazione della Raccomandazione, la quale pone al centro della tutela il rispetto del diritto alla privacy. Nel testo si legge, inoltre, che gli Stati sono tenuti ad adottare sistemi che garantiscano il rispetto della privacy sin dalla fase di progettazione («privacy by design»), così come in ogni altra tappa successiva, e devono agire affinché non siano sviluppate nuove tecnologie che sono dirette, in tutto o in parte, ad aggirare le misure tecniche incorporate nei nuovi strumenti tecnologici per proteggere la privacy degli individui87. A tal fine, preso atto del fatto che l’attività di profilazione, classificando le persone in categorie predefinite, spesso a loro insaputa, può determinare conseguenze molto negative sui diritti degli interessati, specialmente se sono soggetti vulnerabili, si ribadisce che l’attività di profilazione non deve risultare in atti discriminatori contro singoli individui, gruppi o comunità, né deve violare la dignità delle persone o la democrazia88. Deve, quindi, garantirsi l’autonomia dell’intervento umano nel processo decisionale compiuto sulla base degli algoritmi89. Tutti i sistemi automatici di elaborazione dei dati devono, pertanto, essere predisposti in modo tale da garantire l’intervento umano in ogni caso in cui sia necessario per assicurarne il legittimo funzionamento.

  Art. 1, lett. c) CM/Rec(2021)8.   Recommendation CM/Rec(2021)8, par. 2.5. 88   Recommendation CM/Rec(2021)8, par. 2.6. 89   Recommendation CM/Rec(2021)8, par. 2.6. 86 87

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La profilazione nel contesto del diritto internazionale

93

L’intervento umano è, infatti, in molti casi essenziale per garantire il rispetto del principio di imparzialità e non discriminazione90. Nella Raccomandazione si sottolinea altresì l’importanza del consenso delle persone interessate, precisando che i fornitori di servizi online («service providers») e le società intermediarie di servizi internet («online intermediary services») devono concedere ai soggetti la possibilità di scegliere se essere soggetti a profilazione e di scegliere tra i diversi gradi e obiettivi dell’attività di profilazione. Si sottolinea, altresì, che, per permettere agli individui di compiere una scelta informata, questi ultimi devono essere informati di tutte le conseguenze della loro scelta91. Per quanto riguarda le condizioni di trattamento dei dati personali nelle attività di profilazione, si ribadisce, inoltre, che il trattamento dei dati deve essere corretto, legittimo e proporzionato e che i dati devono essere utilizzati per le specifiche, esplicite e legittime finalità per cui sono stati raccolti92. I dati personali usati nell’ambito dell’attività di profilazione, inoltre, devono essere conservati in una forma che consenta l’identificazione del soggetto solo per il tempo strettamente necessario al perseguimento degli obiettivi per cui sono stati raccolti, e, se possibile, i dati devono essere resi anonimi93. Nella Raccomandazione si evidenzia, inoltre, che è necessario prendere le misure appropriate per evitare di incorrere in errori nell’attività di profilazione, al fine di garantire la qualità dei dati raccolti e degli algoritmi usati per processarli94. Al fine di tutelare la privacy dei soggetti interessati, gli Stati sono altresì tenuti ad assicurare all’interessato il diritto ad ottenere in tempi ragionevoli le informazioni che lo concernono, ossia notizie circa il fatto che i suoi dati verranno utilizzati nell’ambito di attività di profilazione; le finalità per cui la profilazione è effettuata, le categorie di dati utilizzate nell’ambito dell’attività di profilazione, l’identità del titolare del trattamento e l’esistenza della speciale disciplina applicabile

90  Sui problemi di discriminazione etnica, si veda Ethnic profiling: a persisting practice in Europe, disponibile online all’indirizzo www.coe.int/en/web/commissioner/-/ethnic-profiling-a-persisting-practice-in-europe. 91   Recommendation CM/Rec(2021)8, par. 2.8. 92   Recommendation CM/Rec(2021)8, par. 3.1. Questi sono gli stessi principi che devono essere garantiti ai sensi del GDPR. Si veda, in particolare, l’art. 5 GDPR. 93   Recommendation CM/Rec(2021)8, par. 3.3. 94   Recommendation CM/Rec(2021)8, parr. 3.10-3.12.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Costanza Di Francesco Maesa

94

a certe categorie di dati, nonché le condizioni alle quali è possibile esercitare il diritto di accesso, rettifica o cancellazione dei dati, oltre ad altre rilevanti informazioni che sono elencate nella raccomandazione95. Per quanto riguarda i diritti dell’interessato, la raccomandazione precisa, inoltre, che esso ha il diritto di ottenere dal titolare del trattamento una serie di informazioni a sua richiesta in un tempo ragionevole e in forma intellegibile. Tra questi, rileva il diritto di conoscere la logica sottesa al trattamento dei dati personali, soprattutto quando il processo decisionale è automatizzato. Infine, nella raccomandazione si sottolinea che, al fine di assicurare un’adeguata protezione del diritto alla privacy ed il corretto trattamento dei dati, devono essere adottate delle misure di sicurezza che assicurino che il sistema automatizzato di trattamento dei dati è sicuro ed affidabile, che il margine di errore è minimo durante tutto il ciclo di trattamento dei dati e che i risultati ottenuti sono coerenti con il modello utilizzato e riproducibili. In tal senso, le autorità di controllo competenti devono controllare la compatibilità con la normativa nazionale e controllare che i principi enunciati nella raccomandazione siano rispettati96. Per quanto riguarda le attività di profilazione svolte dagli enti pubblici, nella Raccomandazione si sottolinea inoltre che è necessario tenere in debito conto i diritti fondamentali, così come interpretati dalla Corte EDU. Considerate le importanti garanzie che sono state enunciate e precisate nella raccomandazione a tutela del diritto alla privacy dell’interessato, è auspicabile che il testo della raccomandazione sia tradotto in un atto giuridico vincolante per gli Stati parte del Consiglio d’Europa. Nel frattempo, le norme contenute nella Convenzione possono comunque essere utilizzate dalla Corte EDU per interpretare in maniera evolutiva il contenuto dell’art. 8 CEDU e garantire una tutela più pregnante al diritto alla privacy in caso di profilazione. 4. Dopo l’entrata in vigore del Trattato di Lisbona e il valore vincolante assunto dalla Carta dei diritti fondamentali dell’Unione europea (di seguito «la Carta»), è stato riconosciuto quale diritto fondamentale non solo il diritto al rispetto della vita privata e familiare97, ma anche   Recommendation CM/Rec(2021)8, parr. 4.1-4.5.   Recommendation CM/Rec(2021)8, par. 8.1. 97   Art. 7 della Carta. 95 96

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La profilazione nel contesto del diritto internazionale

95

il diritto alla protezione dei dati di carattere personale98. Dopo l’entrata in vigore del trattato di Lisbona, tale diritto deve, quindi, essere rispettato sia dalle istituzioni e dagli organi dell’Unione, che dagli Stati membri nell’attuazione del diritto dell’Unione99. Il diritto alla protezione dei dati personali è stato, inoltre, espressamente sancito anche nell’art. 16 TFUE, il quale rappresenta la base giuridica grazie alla quale le istituzioni europee possono adottare atti giuridici vincolanti in materia di protezione dei dati. È proprio sulla base di tale disposizione che sono stati, infatti, adottati sia il Regolamento generale sulla protezione dei dati («GDPR» con l’acronimo inglese che verrà utilizzato nel prosieguo)100 che la Direttiva 2016/680 sulla protezione dei dati destinata alla polizia e alle autorità giudiziarie penali101. Quest’ultima è stata adottata al fine di assicurare la protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorità competenti a fini di «prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, nonché alla libera circolazione di tali dati». Per quanto riguarda specificamente le attività di profilazione, la Direttiva 2016/680 ha previsto all’art. 11 una disciplina simile a quanto previsto nel GDPR, anche se la tutela accordata alle persone fisiche in questo caso è più ristretta. Al fine di contribuire alla realizzazione di uno spazio di libertà, sicurezza e giustizia, infatti, come si legge nei considerando della Direttiva, il diritto alla protezione dei dati personali deve essere bilanciato con la necessità di garantire la sicurezza delle persone, permettendo alle autorità competenti di svolgere in modo efficace le proprie funzioni

  Art. 8 della Carta.   Art. 51 della Carta. 100   Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016 relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (Regolamento generale sulla protezione dei dati), G.U. L 119/1 del 4 maggio 2016, che ha sostituito la direttiva 95/46/CE del Parlamento europeo e del Consiglio, del 24 ottobre 1995 relativa alla tutela delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati (Direttiva sulla tutela dei dati), G.U. L 281 del 1995. 101   Direttiva (UE) 2016/680 del Parlamento europeo e del Consiglio del 27 aprile 2016 relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorità competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, nonché alla libera circolazione di tali dati e che abroga la decisione quadro 2008/977/GAI del Consiglio, G.U. L 119/89 del 4 maggio 2016. 98 99

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Costanza Di Francesco Maesa

96

a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali102. Il GDPR, al contrario, predispone una forma di protezione più incisiva, la quale, tuttavia, presenta molte criticità. Considerato che l’art. 22 del GDPR è ritenuta la norma che garantisce il maggior grado di protezione ai diritti degli interessati che sono sottoposti ad attività di profilazione, in questa sede si ritiene opportuno soffermarsi brevemente sull’esame critico di questa disposizione al fine di poter effettuare un confronto con la disciplina che è prevista a livello internazionale. In generale il GDPR ha fortemente innovato la disciplina sulla protezione dei dati e, per quanto riguarda, in particolare, l’attività di profilazione, ha previsto all’art. 22 che l’interessato «ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona»103. Il secondo paragrafo della medesima disposizione prevede, invece, i casi in cui è possibile derogare alla disciplina di cui al primo paragrafo. Questi si sostanziano nei casi in cui la decisione è «necessaria per la conclusione o l’esecuzione di un contratto tra l’interessato e un titolare del trattamento»; è «autorizzata dal diritto dell’Unione o dello Stato membro cui è soggetto il titolare del trattamento, che precisa altresì misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato» o si basa «sul consenso esplicito dell’interessato»104. Nei paragrafi successivi è poi prevista la possibilità per l’interessato di ottenere almeno «l’intervento umano da parte del titolare del trattamento, di esprimere la propria opinione e di contestare la decisione» in alcuni casi espressamente previsti105. Nel quarto paragrafo, è prevista, inoltre, una disciplina specifica per categorie particolari di dati, quali i dati cosiddetti sensibili106. Ad una prima lettura, si evince che il significato letterale della di  Si veda la Direttiva 2016/680, Considerando n. 4.   Art. 22, par. 1 GDPR. 104   Art. 22, par. 2 GDPR. 105   L’art. 22, par. 3 GDPR fa riferimento ai casi di cui al par. 2, lettere a) e c) del medesimo articolo. 106   In particolare, si fa riferimento ai dati di cui all’art. 9, par. 1, il quale si riferisce ai «dati personali che rivelino l’origine razziale o etnica, le opinioni politiche, le convinzioni religiose o filosofiche, o l’appartenenza sindacale, nonché trattare dati genetici, dati biometrici intesi a identificare in modo univoco una persona fisica, dati relativi alla salute o alla vita sessuale o all’orientamento sessuale della persona». 102 103

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La profilazione nel contesto del diritto internazionale

97

sposizione non è chiaro e le implicazioni derivanti dalla sua applicazione incerte. È per questo motivo che sinora essa è stata di difficile applicazione. In questo contesto, il 10 settembre 2021, al fine di promuovere un’economia e una società basata sul trattamento dei dati, il Regno Unito ha annunciato di voler minimizzare il contenuto di cui all’art. 22 GDPR107. Tale annuncio ha suscitato un dibattito che ha portato alcuni autori ad interrogarsi circa la necessità della riscrittura della stessa108. Nonostante la proposta del Regno Unito, il quale, inoltre, non è più uno Stato membro dell’Unione europea, non si conformi alla volontà dell’UE di regolare le attività di profilazione in modo da tutelare in modo rigoroso il diritto alla protezione dei dati personali dell’interessato e quindi non sia neanche in discussione una modifica dell’art. 22 nel senso di ridurre le salvaguardie da esso poste, una riscrittura dello stesso sarebbe forse necessaria proprio per garantirne un’effettiva attuazione. Allo stato attuale delle cose, potrebbe, infatti risultare difficile per gli interessati ricevere una tutela effettiva del loro diritto alla protezione dei dati personali. Il primo nodo interpretativo da sciogliere è il seguente: il primo paragrafo dell’art. 22 GDPR impone un divieto generalizzato di sottoporre l’interessato ad una decisione basata unicamente sul trattamento automatizzato, ivi compresa la profilazione, o, al contrario, concede all’interessato il diritto ad opporvisi? Dal dato letterale, sembra che la disposizione conceda all’interessato il diritto di opporsi e che questo diritto debba essere esercitato dall’interessato per essere fatto valere, ma la maggior parte degli interpreti lo considera un divieto generalizzato109. In ogni caso dal testo della norma si desume che la decisione deve basarsi «unicamente» sul trattamento automatizzato e che, quindi, nel caso in cui ci sia un intervento umano, il divieto non sussista. A

107   Si veda sul punto P. De Hert e G. Lazcoz, Radical rewriting of Article 22 GDPR on machine decisions in the AI era, in Eulawblog.eu, 2021, disponibile all’indirizzo www.europeanlawblog.eu/2021/10/13/radical-rewriting-of-article-22-gdpron-machine-decisions-in-the-ai-era/. 108   In tal senso, P. De Hert e G. Lazcoz, Radical rewriting of Article 22 GDPR, cit. 109   Si veda in questo senso anche la posizione del Garante europeo per la protezione dei dati, Linee guida sul processo decisionale automatizzato relativo alle persone fisiche e sulla profilazione ai fini del regolamento 2016/679, adottate il 3 ottobre 2017, ed emendate in data 6 febbraio 2018, dal Gruppo di lavoro Articolo 29 per la protezione dei dati, 17/IT, WP 251 rev. 01, p. 7.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Costanza Di Francesco Maesa

98

tal proposito, non è, tuttavia, precisato che tipo di intervento umano faccia venir meno il divieto. Un ulteriore problema applicativo consiste nel definire caso per caso cosa debba intendersi per decisione che produca per l’interessato «effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona». Come abbiamo visto precedentemente, infatti, le decisioni che si basano sul trattamento automatizzato producono effetti significativi sugli interessati. L’espressione utilizzata dalla norma è, tuttavia, ambigua e non di chiara interpretazione, in quanto potrebbe portare ad escludere alcuni casi e ad ammetterne altri senza una valida giustificazione. Come è stato proposto, sarebbe, quindi, auspicabile chiarire ex ante quali tipi di decisioni basate sul trattamento automatizzato producano effetti giuridici che incidono significativamente sull’interessato e, quindi, in quali casi trovi applicazione l’art. 22110. Questa chiarificazione potrebbe provenire dal Garante europeo della protezione dei dati. Un altro problema è rappresentato dalle eccezioni previste nei paragrafi successivi, in forza delle quali è possibile che l’interessato sia sottoposto a decisioni basate sul trattamento automatizzato. Secondo quanto previsto, infatti, anche le categorie di dati «sensibili», tra cui i dati personali che rivelano l’origine razziale o etnica, le convinzioni religiose o filosofiche, l’appartenenza sindacale o i dati genetici o biometrici di una persona possono essere oggetto di decisioni basate sul trattamento automatizzato e profilazione se esiste il consenso esplicito dell’interessato o il «trattamento è necessario per motivo di interesse pubblico rilevante sulla base del diritto dell’Unione o degli Stati membri»111. Nel caso in cui il trattamento sia necessario per motivi di «interesse pubblico», la cui nozione non è meglio specificata né descritta nel testo del GDPR, a certe condizioni, l’interessato può, quindi, essere soggetto alle attività di profilazione. Questa costituisce una importante deroga al divieto generalizzato di cui abbiamo parlato sopra. Inoltre, anche le altre due deroghe non garantiscono una tutela adeguata all’interessato. Per quanto riguarda la deroga che si fonda sulla necessità della profilazione per la conclusione o l’esecuzione di un contratto,   Si veda P. De Hert e G. Lazcoz, Radical rewriting of Article 22 GDPR, cit.   All’art. 9, par. 2, lett. g) si legge anche che il trattamento «deve essere proporzionato alla finalità perseguita, rispettare l’essenza del diritto alla protezione dei dati e prevedere misure appropriate e specifiche per tutelare i diritti fondamentali e gli interessi dell’interessato». Art. 22, par. 4, e art. 9, par. 2 lettere a) o g). 110 111

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La profilazione nel contesto del diritto internazionale

99

non si comprende bene ancora una volta quanto sia esteso il suo ambito di applicazione. Per esempio, deve ritenersi necessario sottoporsi a profilazione per ottenere un mutuo da un istituto di credito112? Infine, anche lo strumento del consenso deve essere regolato diversamente al fine di tutelare effettivamente i diritti del soggetto interessato. In alcuni casi, infatti, il soggetto non è in grado di comprendere esattamente a cosa acconsente, mentre in altri l’interessato non ha altra scelta se non di acconsentire per poter usufruire di un servizio online113. A quanto detto sinora si aggiunge il fatto che nei casi in cui si applicano le eccezioni di cui alla lettera a) e c), ossia il trattamento automatizzato sia necessario per la conclusione di un contratto o vi sia il consenso esplicito, il titolare del trattamento per tutelare i diritti, le libertà e i legittimi interessi dell’interessato deve almeno garantire a quest’ultimo il diritto di ottenere l’intervento umano. Tuttavia, occorre osservare che in primo luogo, nel caso in cui trovi applicazione l’eccezione di cui alla lettera b), ossia il caso in cui il trattamento sia autorizzato dal diritto dell’Unione o dal diritto nazionale, non si prevede nella norma quali garanzie debbano essere predisposte dal titolare del trattamento. In secondo luogo, come abbiamo accennato precedentemente, le attività di profilazione sono molto invasive e non è sufficiente affidarsi al solo ricorso all’intervento umano affinché siano evitate violazioni del diritto alla privacy. Il diritto a ricevere certe informazioni e il diritto di accesso dovrebbero essere garantiti indipendentemente dal fatto che vi sia o meno un intervento umano, onde evitare che il divieto di cui al primo paragrafo venga aggirato dal titolare del trattamento114. Una possibile soluzione per evitare che le garanzie previste nella norma vengano eluse potrebbe essere quella proposta dal Garante europeo della privacy nelle linee-guida da esso adottate, in cui si sottolinea che l’intervento umano deve essere «significativo» per evitare di incorrere nel divieto di cui all’art. 22, par. 1, e che, come parte della valutazione d’impatto sulla valutazione dei dati115, il titolare del trattamento deve 112   Nello stesso senso, P. De Hert e G. Lazcoz, Radical rewriting of Article 22 GDPR on machine decisions in the AI era, cit. 113   Si veda A.J. Andreotta, N. Kirkham e M. Rizzi, AI, big data, and the future of consent, in AI & Soc., 2021. 114   Si veda nello stesso senso, P. De Hert e G. Lazcoz, Radical rewriting of Article 22 GDPR on machine decisions in the AI era, cit. 115   Si veda l’art. 35 e seguenti GDPR.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

100

Costanza Di Francesco Maesa

indicare chiaramente quale sia stato il grado di intervento umano intervenuto nel processo decisionale ed in quale stadio del procedimento esso sia intervenuto116. 5. Dalla breve disamina sin qui compiuta, si ritiene opportuno concludere nel senso che la disciplina volta a regolare le attività di profilazione non sia adeguata né nel contesto del diritto internazionale né in quello del diritto dell’Unione europea. A livello internazionale, infatti, non esiste un atto giuridico vincolante che preveda una disciplina specifica in tema di profilazione. Le indicazioni contenute in atti non vincolanti, come le raccomandazioni adottate in seno alle Nazioni Unite o al Consiglio d’Europa, costituiscono un notevole passo avanti nel senso di approntare una disciplina che tuteli in modo rigoroso il diritto alla privacy degli individui nei casi in cui essi siano oggetto di profilazione. Non sono, tuttavia, sufficienti ad evitare le gravi ripercussioni che le decisioni basate sul trattamento automatizzato dei dati possono provocare nei confronti degli interessati, soprattutto in alcuni settori particolarmente problematici, in cui gli interessi in gioco sono particolarmente rilevanti, come nell’ambito della repressione dei reati, del controllo delle frontiere esterne o nel settore sanitario. Dall’altro lato, la disciplina approntata dal Regolamento generale sulla protezione dei dati, presenta notevoli criticità che rendono le garanzie previste nella disposizione di difficile applicazione e, per questo, scarsamente efficaci. Una riscrittura della norma che elimini le criticità e i problemi interpretativi da essa irrisolti è, quindi, auspicabile sia per innalzare il livello di tutela del diritto alla protezione dei dati personali nell’Unione europea, che per far sì che questa disposizione possa fungere da modello per una potenziale futura regolamentazione del fenomeno a livello internazionale. In questo senso, le indicazioni contenute nelle ultime raccomandazioni e nei rapporti adottati a livello internazionale rappresentano un punto di riferimento importante per una riforma della disciplina dell’Unione europea in materia di protezione dei dati per quanto riguarda la profilazione.

116   Si vedano al riguardo le Linee guida sul processo decisionale automatizzato relativo alle persone fisiche e sulla profilazione ai fini del regolamento 2016/679, adottate il 3 ottobre 2017, ed emendate in data 6 febbraio 2018, dal Gruppo di lavoro Articolo 29 per la protezione dei dati, 17/IT, WP 251 rev.01, p. 7.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La profilazione nel contesto del diritto internazionale

101

In conclusione, dunque, un fruttuoso scambio di vedute tra legislatore europeo e organi internazionali è fortemente auspicabile al fine di predisporre una legislazione in materia di profilazione che assicuri una tutela adeguata al diritto alla protezione dei dati personali degli interessati. Tale scambio è tanto più necessario se si considerano le gravi ripercussioni negative che le attività di profilazione possono avere per altri diritti fondamentali degli individui, quali il diritto alla non discriminazione, il diritto ad un equo processo o il diritto alla presunzione di innocenza. Dal momento che questi diritti rappresentano il fondamento di una società democratica basata sullo Stato di diritto, un intervento legislativo, sia a livello internazionale che europeo, risulta tanto più essenziale.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Diego Mauri*

Tecniche di profilazione e uso della forza contro individui: la prospettiva dei diritti umani e del diritto internazionale umanitario

Sommario: 1. «I dati dicono tutto quel che serve di una persona»: tecniche di profiling e operazioni letali. – 2. Guardare e pietrificare: la prospettiva dei diritti umani, e in particolare del diritto alla vita. - 2.1. Gli obblighi negativi… - 2.2. … e quelli positivi. - 2.3. Una combinazione nefasta per i diritti umani? – 3. «Non sappiamo esattamente chi fosse»: la prospettiva del diritto internazionale umanitario, e in particolare le norme relative al targeting. - 3.1. I principi di distinzione, proporzionalità e precauzione e altre regole rilevanti. - 3.2. Le tecniche di profiling aiutano a capire chi passa dalla porta? – 4. «Trattati come oggetti»: verso una decisione algoritmica?

1. Alla domanda del suo intervistatore, che gli sottoponeva alcune dichiarazioni rese da autorità statunitensi durante un precedente seminario presso la John Hopkins University1, l’allora Direttore della Central Intelligence Agency (CIA), il Generale Micheal Hayden, replicava con questa lapidaria affermazione: «We kill people based on metadata»2. Dietro a tali parole si cela, a ben guardare, il vero volto delle operazioni anti-terrorismo condotte dagli USA oltreoceano: la raccolta e la rielaborazione di dati personali da parte dei servizi di intelligence è funzionale non soltanto al monitoraggio di individui particolarmente sospetti, ma anche – se del caso – al loro ingaggio come obiettivi. E se si considera che tali tecniche di profilazione si associano a uno strumento formidabile per assicurare un impiego «preciso» e «sicuro» della forza da parte delle autorità statali, quali gli aeromobili * Assegnista di ricerca in Diritto internazionale nell’Università di Firenze. 1   A. Rusbridger, The Snowden Leaks and the Public, in The New York Review, 21 novembre 2013, disponibile all’indirizzo www.nybooks.com/daily/2014/05/10/ we-kill-people-based-metadata/ (tutti i siti web menzionati nel presente contributo sono stati consultati, da ultimo, in data 1 marzo 2022). Nell’articolo si menziona, tra le altre, la seguente dichiarazione, resa da un membro della National Security Agency statunitense: «[m]etadata absolutely tells you everything about somebody’s life. If you have enough metadata, you don’t really need content». 2   D. Cole, “We Kill People Based on Metadata”, in The New York Review, 10 maggio 2014, disponibile all’indirizzo https://www.nybooks.com/daily/2014/05/10/ we-kill-people-based-metadatata/. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

104

Diego Mauri

a pilotaggio remoto (più comunemente noti come «droni»)3, il quadro complessivo assume tinte tanto nette quanto fosche. Letta a dieci anni di distanza dalla Global War on Terror statunitense, e alla luce dei conflitti recentemente deflagrati anche in Europa (come testimoniano i fatti occorsi in Ucraina nei primi mesi del 2022), la frase citata in apertura costituisce un pungolo per riflettere sull’impatto di tali tecnologie sulle norme internazionali che disciplinano l’impiego della forza contro gli individui, sia all’interno di conflitti armati sia nell’ambito di operazioni di polizia in senso ampio4. In effetti, la letteratura scientifica nel campo del trattamento dei dati personali da parte delle autorità pubbliche e delle implicazioni giuridiche delle tecniche di profilazione sul rispetto dei diritti umani (in primis, il diritto a non essere discriminati e il diritto al rispetto della vita privata) è cresciuta a dismisura negli ultimi anni. Non altrettanto esplorata, invece, è la prospettiva del diritto alla vita e del diritto all’integrità fisica (applicabili, in generale, nei rapporti tra Stati e individui posti sotto la giurisdizione di quelli), così come quelle regole sul targeting contenute nel diritto internazionale umanitario (applicabile sul piano specifico dei conflitti armati). 2. Attività quali la sorveglianza di massa e l’intercettazione massiva di comunicazioni sono oggetto di scrutinio continuo da parte dei principali organi di controllo di trattati in materia di diritti umani (e in particolare la Corte europea dei diritti dell’uomo, su cui ci concentreremo maggiormente)5. Il principale profilo di criticità riguarda, naturalmente, il diritto alla vita privata e famigliare, che ricomprende anche il diritto alla privacy: la giurisprudenza in materia è sconfinata. Nell’ambito che qui ci occupa, le tecniche di profilazione servono 3   Per una ricognizione delle «ragioni» sottese ai (nonché delle «ideologie» retrostanti ai) droni armati, si veda G. Chamayou, Théorie du drone, Parigi 2013. Sul rapporto tra sorveglianza e azioni letali, si veda K. Kindervater, The Emergence of Lethal Surveillance: Watching and Killing in the History of Drone Technology, in Security Dialogue, 2016, p. 224 ss. 4   Per una panoramica, ancorché sommaria, delle principali implicazioni, sia consentito rimandare a D. Mauri, “Aggiornamento disponibile”: nuove tecnologie, uso della forza e diritto internazionale, in T. Casadei e S. Pietropaoli (a cura di), Diritto e tecnologie informatiche. Questioni di informatica giuridica, prospettive istituzionali e sfide sociali, Milano 2021, p. 191 ss. 5   Si veda, in generale, M. Nino, Terrorismo internazionale, privacy e protezione dei dati personali, Napoli 2012; G. Della Morte, Big Data e protezione internazionale dei diritti umani. Regole e conflitti, Napoli 2018, p. 75 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Tecniche della profilazione e uso della forza contro individui

105

a uno scopo ulteriore rispetto al monitoraggio di massa, da parte delle autorità statali, in determinate zone (ad esempio, in vaste porzioni del Pakistan, dello Yemen, dell’Afghanistan, della Libia): ricostruire il c.d. pattern of life dei soggetti interessati dal monitoraggio (ad es., individui residenti in aree in cui la presenza di gruppi terroristici è notoriamente forte), così da valutarne l’eleggibilità a target per operazioni letali. Fa riflettere, per inciso, anche la scelta terminologica dei nomi con cui taluni sistemi sono battezzati. Ad esempio, la NATO impiega un sistema integrato di videocamere e sensori che, montato sui droni di ultima generazione, consente la raccolta dati da un’area di circa 4 kilometri di raggio: il suo nome è Gorgon Stare, che evoca il mitologico sguardo della Medusa pietrificatrice6. Metaforicamente, il drone può pietrificare poiché su di esso sono montati missili Hellfire (di nuovo, un’immagine plasticamente più evocativa di didascaliche spiegazioni) in grado di ingaggiare un obiettivo (dunque anche un individuo) «da lontano», senza impiegare personale a terra (i c.dd. boots on the ground). Ebbene, la prassi di queste operazioni – basate sul monitoraggio di individui, sulla raccolta e la rielaborazione di dati personali, infine sull’attuazione di misure anche letali nei loro confronti – si distingue in personality strikes (in cui le autorità statali conoscono l’identità personale del target selezionato) e in signature strikes (in cui, al contrario delle prime, le autorità statali non conoscono tale identità). Ponendo l’attenzione a questa seconda categoria, non si può non vedere, fin da subito, le criticità cui essa si espone: l’azione letale viene infatti intrapresa unicamente sulla base di dati filtrati dall’analisi del pattern of life dell’individuo (e sufficientemente verificati da operatori umani), sulla base di una costruzione «algoritmica» del target7. Eleggere un obiettivo con queste tecniche solleva diversi interrogativi dalla prospettiva del diritto alla vita. Ritenuto il diritto umano «supremo»8, in quanto quello dal rispetto del quale dipende il godi www.nature.com/articles/d41586-019-01792-5.   Su cui si veda più diffusamente D. Mauri, “Algorithmic Target Construction” and the Challenges by International Human Rights Law, in Eurojus, 2019, p. 8 ss. 8  UNHRC, General Comment No. 36 (2018) on article 6 of the International Covenant on Civil and Political Rights, on the right to life, 30 ottobre 2018, par. 2. Si veda, in generale, S. Bartole, P. De Sena e V. Zagrebelski, Commentario breve alla Convenzione Europea per la salvaguardia dei Diritti dell’Uomo e delle libertà fondamentali, Padova 2012, p. 36 ss. e, per un contributo più risalente, H. Kabaalioğlu, The Obligations to “Respect” and “Ensure” the Right to Life, in B.G. Ramcharan (a cura di), The Right to Life in International Law, The Hague 1985, p. 160. 6 7

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

106

Diego Mauri

mento di tutti gli altri, il diritto alla vita è presente nei principali strumenti internazionali di tutela dei diritti umani9. Tali disposizioni vietano privazioni «arbitrarie» del diritto alla vita, ovvero quelle che siano realizzate in contrasto col diritto interno o il diritto internazionale10; in particolare, si qualificano come arbitrarie quelle uccisioni che siano effettuate in contrasto con le regole e i principi che seguono, così come affermatisi a livello universale e regionale. 2.1. Effettuando una rapida incursione dapprima nel campo degli obblighi c.dd. negativi derivanti dal diritto alla vita – che danno contenuto alla clausola generale dell’arbitrarietà sopra menzionata – ci si imbatte in una triade ormai consolidata: qualunque uso della forza, per non qualificarsi come «arbitrario», deve essere previsto dalla legge, (assolutamente) necessario per conseguire uno scopo legittimo, proporzionato. Sotto il primo profilo, espressamente menzionato dalla maggior parte dei trattati in materia, affinché il diritto alla vita sia rispettato è necessario che la specifica operazione che contempla l’uso di forza anche solo potenzialmente letale sia giustificabile alla luce di un quadro normativo (e in primis legislativo) chiaro, preciso e – coerentemente con il valore del bene giuridico protetto, ovvero la vita – restrittivo11. Operativamente, tale quadro dovrà essere il più possibile dettagliato e descrivere quale tipologia di armamenti e munizioni siano consentite a seconda delle circostanze12. L’impiego di forza letale, laddove fornito di base legale, deve poi risultare «necessario» nelle circostanze concrete. Omettendo qui una disamina puntuale di tale principio, alla base della restrizione di altri diritti umani (ad es., quello al rispetto della vita privata), basti dire che, per riempirlo di contenuto, si è resa necessaria un’intensa opera erme9   Conv. eur. dir. uomo, art. 2; Patto internazionale sui diritti civili e politici, 1966, art. 6; Convenzione americana sui diritti dell’uomo, 1969, art. 4; Carta africana dei diritti dell’uomo e dei popoli, 1981, art. 4. 10  UNHRC, General Comment n. 36, cit., par. 12. 11  UNHRC, General Comment n. 36, cit., par. 19. 12   VIII Congresso delle Nazioni Unite sulla prevenzione dei reati e sul trattamento dei rei, Basic Principles on the Use of Force and Firearms by Law Enforcement Officials, 1990, principio n. 2. Per la giurisprudenza, si veda tra i molti Corte eur. dir. uomo, Tagayeva e altri c. Russia, ricorso n. 26562/07 e altri, sentenza del 13 aprile 2017, parr. 592 ss.; Giuliani e Gaggio c. Italia, ricorso n. 23458/02, sentenza del 24 marzo 2011, par. 209.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Tecniche della profilazione e uso della forza contro individui

107

neutica da parte degli organi di controllo. L’interpretazione ad oggi prevalente esige che tale requisito sia da intendersi in senso maggiormente restrittivo rispetto ad altri diritti: la forza letale può essere giustificata solo se «strettamente inevitabile per proteggere la vita altrui»13 o, secondo l’espressione maggiormente in voga nel continente europeo, «assolutamente necessaria»14. Ed ecco, allora, che azioni letali risultano assolutamente necessarie se non vi sono (o non sono ragionevolmente attivabili) mezzi meno violenti per raggiungere l’obiettivo consentito, e quindi l’uso della forza risulta la c.d. extrema ratio15. Le più recenti pronunce della Corte di Strasburgo, peraltro, hanno notevolmente innalzato la soglia della «assoluta necessità», con la conseguenza che, ad oggi, anche individui particolarmente violenti dovrebbero essere neutralizzati e catturati, invece che uccisi, se ciò non si rende necessario come extrema ratio nelle circostanze di specie16. Arrivati infine al terzo principio rilevante per l’impiego legittimo della forza, ovvero quello di proporzionalità17, occorre evidenziare che, se pure le autorità statali versino in un contesto in cui l’uso della forza ha base legale e si rivela necessario, ad esse non è consentito impiegare «any degree of force»18. Misura della proporzione è, com’è evidente, l’obiettivo consentito da raggiungere: le autorità statali possono usare quel grado di forza strumentale alla neutralizzazione, al ferimento, alla cattura, all’impedimento di fuga e, se del caso, all’abbattimento dell’individuo. Evidentemente, anche forza potenzialmente letale può essere impiegata, purché nel rispetto di tale rapporto di strumentalità e tenuto conto delle circostanze di specie. In particolare, seguendo la

13   VIII Congresso delle Nazioni Unite sulla prevenzione dei reati e sul trattamento dei rei, Basic Principles on the Use of Force and Firearms by Law Enforcement Officials, cit., principio n. 9. 14   Conv. eur. dir. uomo, art. 2. 15   Corte eur. dir. uomo, McCann e altri c. Regno Unito, ricorso n. 18984/91 e altri, sentenza del 27 settembre 1995, par. 150. 16   V. ad es. Tagayeva e altri, cit.; Finogenov e altri c. Russia, ricorso n. 18299/03 e altri, sentenza del 20 dicembre 2011, par. 231 ss.; Khamzayev e altri c. Russia, ricorso n. 1503/02, sentenza del 3 maggio 2011, par. 185. 17   Per un approfondimento al ruolo del principio di proporzionalità in materia di diritti umani, si veda, su tutti, P. De Sena, Proportionality and Human Rights in International Law: Some … “Utilitarian” Reflections, in Rivista di diritto internazionale, 2016, IV, p. 1009 ss. 18   VIII Congresso delle Nazioni Unite sulla prevenzione dei reati e sul trattamento dei rei, Basic Principles on the Use of Force and Firearms by Law Enforcement Officials, cit., principio n. 5.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

108

Diego Mauri

giurisprudenza della Corte di Strasburgo, occorre considerare le circostanze in cui si trovano a (dover) agire le autorità statali: assume pertanto rilievo la «genuina convinzione» (honest belief), dettata dalla situazione concreta (e quindi da fattori quali la presenza di soggetti estranei all’operazione, la condotta dell’individuo da neutralizzare, ecc.), di non poter ricorrere che alla forza per conseguire l’obiettivo19. 2.2. Per quanto concerne gli obblighi positivi derivanti dal diritto alla vita, va ricordato, in via preliminare, che la distinzione tra obblighi negativi e obblighi positivi, pur utile dal punto di vista teorico, non sempre risulta agevole alla prova della prassi: molto spesso, infatti, una determinata condotta statale è suscettibile di inquadrarsi tanto nella prima categoria quanto nella seconda20. Si pensi, a mero titolo di esempio, al requisito della «legalità» della privazione della vita appena affrontato: il dovere per le autorità statali di muoversi all’interno di un quadro normativo chiaro e restrittivo presuppone l’adozione, da parte delle autorità competenti (in primis legislative), di tale quadro normativo. Il primo insieme di regole rilevanti nella prospettiva degli obblighi positivi è condensato nell’obbligo di adottare ogni ragionevole precauzione nella pianificazione e nella conduzione di operazioni che contemplino l’impiego di forza anche letale nei confronti di individui21. Così, alle autorità statali è richiesto di formare e addestrare il proprio personale in modo da sensibilizzarlo al rispetto dei diritti fondamentali, nonché a «issues of police ethics» e alle «alternatives to the use of force and firearms»22. Fondamentali, poi, sono gli obblighi in materia di scelta delle armi da impiegare (legati a doppio filo, com’è evidente, al rispetto dei principi di assoluta necessità e proporzionalità rilevanti per il rispetto degli 19   Corte eur. dir. uomo, Armani Da Silva c. Regno Unito, ricorso n. 5878/08, sentenza del 30 marzo 2016, parr. 244 ss. 20   Corte eur. dir. uomo, Verein Gegen Tierfabriken Schweiz (Vgt) c. Svizzera (n. 2), ricorso n. 32772/02, sentenza del 30 giugno 2009, par. 79 («in addition to the primarily negative undertaking of a State to abstain from interference in Convention guarantees, “there may be positive obligations inherent” in such guarantees»). Si veda anche UNHRC, General Comment n. 36, cit., par. 21 ss. 21   Corte eur. dir. uomo, McCann e altri c. Regno Unito, cit., par. 212. 22   VIII Congresso delle Nazioni Unite sulla prevenzione dei reati e sul trattamento dei rei Basic Principles on the Use of Force and Firearms by Law Enforcement Officials, cit., principio n. 19 e n. 20.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Tecniche della profilazione e uso della forza contro individui

109

obblighi negativi). L’impiego di armi indiscriminate – quelle cioè che non consentono al proprio utilizzatore di dirigerle contro obiettivi specifici – è ritenuto generalmente in contrasto con l’obbligo di adottare tutte le precauzioni ragionevolmente possibili per neutralizzare o, comunque, minimizzare la perdita di vite umane come danno collaterale23. In un caso, la Corte EDU ha ritenuto che l’impiego di strumenti di artiglieria pesante come bombe esplosive, lanciate da velivoli militari sopra villaggi abitati da individui non coinvolti in alcun atto ostile, è in contrasto con l’obbligo di adottare la «requisite care for the lives of the civilian population»24. A simili conclusioni il giudice convenzionale è pervenuto con riferimento all’uso di lancia-granate, lanciafiamme e lanciarazzi in un caso riguardante operazioni speciali finalizzate a rompere l’assedio di scuole elementari da parte di un commando di terroristi e alla liberazione di decine di ostaggi25. In un’occasione, la Corte ha adottato un approccio «graduale» alla scelta delle armi, da calibrarsi a seconda del contesto: ad es., ha ritenuto che l’impiego di gas incapacitante, nel quadro di una situazione che vedeva la presa di alcuni ostaggi nel teatro Dubrovka di Mosca, benché di per sé «pericoloso» e indiscriminato, non fosse illegittimo, dal momento che l’intera operazione era stata congeniata per fornire agli obiettivi immediate cure mediche e che l’arma scelta «was not supposed to kill, in contrast, for example, to bombs or air missiles»26. Un corredo di obblighi positivi ai quali prestare particolare attenzione è rappresentato dagli obblighi c.dd. procedurali, ovvero quelli che impongono allo Stato di «indagare» e, se del caso, di «reprimere» condotte che abbiano comportato la perdita di vite umane27. La finalità primaria di tali obblighi è quella di garantire l’effettiva osservanza delle norme interne (ed internazionali) a tutela del diritto alla vita e, per

  Corte eur. dir. uomo, Tagayeva e altri, cit., par. 573.   Corte eur. dir. uomo, Isayeva c. Russia, ricorso n. 57950/00, sentenza del 24 febbraio 2004, parr. 179 ss.; si veda, più di recente, Corte eur. dir. uomo Benzer e altri c. Turchia, ricorso n. 23502/06, sentenza del 12 novembre 2013, par. 89. 25   Corte eur. dir. uomo, Tagayeva e altri, cit., par. 584 ss. 26   Corte eur. dir. uomo, Finogenov e altri c. Russia, cit., par. 232. 27   Sulla natura e la portata, in generale, di tali obblighi, si veda UNHRC, General Comment n. 36, cit., par. 31; P. Leach, R. Murray e C. Sandoval, The Duty to Investigate Right to Life Violations across Three Regional Systems: Harmonisation or Fragmentation of International Human Rights Law?, in C.M. Buckley, A. Donald e P. Leach (a cura di), Towards Convergence in International Human Rights Law Approaches of Regional and International Systems, Leiden 2016. 23 24

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

110

Diego Mauri

quei casi che vedano direttamente coinvolti agenti statali, assicurare la accountability per morti verificatesi sotto la responsabilità di quelli28. La giurisprudenza degli organi di controllo è divenuta, nel corso degli anni, copiosa. In sintesi, si può dire che, nei casi di morte sospetta, le competenti autorità statali devono aprire e condurre indagini complete, indipendenti, tempestive, accessibili ai familiari della vittima, capaci di portare all’individuazione delle persone responsabili e tali da assicurare un adeguato scrutinio da parte del grande pubblico29. 2.3. Alla luce di questa panoramica, è possibile ora svolgere alcuni rilievi sull’impatto che le tecniche di profilazione – specialmente se combinate con tecnologie tali da poter impiegare forza «da remoto», come nel caso dei droni armati – sono suscettibili di avere sul rispetto del diritto alla vita. L’analisi appena compiuta dimostra, innanzitutto, che l’impiego di tecniche di profilazione non si pone, in quanto tale, in contrasto con il diritto alla vita, tanto nel suo volet sostanziale quanto nel suo volet procedurale. Tali tecniche, infatti, sono strumentali alla raccolta di dati personali di individui di determinate aree geografiche, finalizzate alla ricostruzione del pattern of life di questi. La logica cui tale operazione risponde è, per così dire, «predittiva»: si individua un numero di soggetti che, per comportamenti, affiliazioni e frequentazioni, sono ritenuti come particolarmente «sospetti» e meritevoli, perciò, di attenzione da parte delle autorità statali. Da par loro, gli obblighi in materia di diritto alla vita impongono allo Stato di condurre operazioni che contemplino l’impiego di forza anche letale solo se «assolutamente necessarie» al perseguimento di uno scopo legittimo, in modo proporzionato all’entità della minaccia, avendo cura di pianificare ed eseguire l’operazione in modo da neutralizzare o comunque minimizzare perdite collaterali e approntando tutti i meccanismi di indagine e repressione necessari a garantire il rispetto effettivo del diritto. Sul piano astratto, pertanto, non pare vi sia un impatto necessariamente negativo della prime (le tecniche di profilazione) sul secondo (il rispetto del diritto alla vita): benché frutto di profilazione, la decisione letale può essere presa unicamente sulla base dell’esistenza di elementi

28   Corte eur. dir. uomo, Jasinskis c. Lettonia, ricorso n. 45744/08, 21 dicembre 2010, par. 72. 29   Corte eur. dir. uomo, Finogenov e altri c. Russia, cit., par. 269.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Tecniche della profilazione e uso della forza contro individui

111

che la giustifichino, alla luce degli obblighi negativi e positivi discendenti dal diritto alla vita. Sul piano pratico, però, va registrato come, da più parti, si levino voci discordanti rispetto a tale ricostruzione, che puntano verso una strutturale «imprecisione» del drone armato, a dispetto di quanto la vulgata che ne supporta l’impiego va affermando30. In altre parole, la prassi (in particolare delle signature strikes) suggerirebbe che, data la facilità con cui l’azione letale può essere condotta «da remoto» e sulla base di informazioni raccolte all’esito di un poderoso sforzo di intelligence, le autorità statali si scoprono maggiormente propense ad autorizzare la forza contro individui. Se così fosse, rifuggendo conclusioni meramente descrittive e prive di appiglio giuridico, occorrerebbe domandarsi se il connubio tra profilazione e tecnologie quale quella del drone armato non finisca per avallare pratiche suscettibili di «abbassare» lo standard di protezione dei diritti fondamentali, e in particolare del diritto alla vita. Se pure l’esistenza di un numero poderoso di dati raccolti possa agevolare sia la pianificazione dell’operazione, sia gli atti di indagine (e i processi) successivi, e dunque risultare funzionale al corretto adempimento di obblighi positivi, nei fatti la propensità all’azione letale senza le adeguate verifiche – come suggerito dagli «errori» che di frequente vengono commessi (e solo talora… ammessi)31 sul campo – incide sul requisito della assoluta necessità dell’azione letale. 30   Alcuni dati, non ufficiali, sul numero di vittime «civili» (tra cui bambini) cagionate dagli attacchi a mezzo drone condotti dagli USA in Afghanistan, Pakistan, Yemen e Somalia, dal 2010 al 2020, sono disponibili all’indirizzo: www.thebureauinvestigates.com/projects/drone-war. Si veda poi il rapporto prodotto dallo European Center for Constitutional and Human Rights (ECCHR): Litigating Drone Strikes. Challenging the Global Network of Remote Killing, Berlino 2017, www.ecchr.eu/ fileadmin/Publikationen/Litigating_Drone_Strikes_PDF.pdf. Anche Reprieve, una ONG con base a Londra, ha recentemente inviato delle osservazioni scritte al Comitato di Difesa del Parlamento inglese, relativamente all’inchiesta in corso circa il ritiro dall’Afghanistan e agli attacchi droni condotti in quel contesto: Evidence Submission by Reprieve to the Defence Committee’s Inquiry into the Withdrawal from Afghanistan, ottobre 2021, disponibile all’indirizzo: www.committees.parliament.uk/writtenevidence/39988/pdf. 31   Tra i casi di drone strike espressamente ammessi dagli USA, si può ricordare quello del gennaio 2015, in cui perse la vita, tra gli altri, un cooperante di nazionalità italiana, Giovanni Lo Porto (P. Lewis, S. Ackerman e J. Boone, Obama regrets drone strike that killed hostages but hails US for transparency, in The Guardian, 23 aprile 2015, disponibile all’indirizzo: www.theguardian.com/world/2015/apr/23/ us-drone-strike-killed-american-italian-al-qaida nonché quello, più recente, condot-

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

112

Diego Mauri

3. A commento del targeted killing a mezzo drone armato che, secondo le autorità statunitensi, avrebbe condotto all’uccisione di Osama bin Laden, ma che in realtà finì per colpire un obiettivo diverso, un portavoce del Pentagono dichiarò: «we’re convinced that it was an appropriate target…we do not know exactly who it was»32. Benché alla ricerca di uno tra i più noti terroristi, è ben possibile che le autorità statunitensi abbiano ingaggiato un obiettivo diverso ma comunque consentito. Occorre però comprendere quali norme internazionali giustifichino una tale condotta. Le tecniche di profilazione mantengono la loro utilità anche in scenari diversi dalle operazioni di polizia (tra cui quelle anti-terrorismo) analizzate sinora nella prospettiva dei diritti umani. Esse possono fornire un apporto significativo anche alla conduzione delle ostilità nell’ambito di un conflitto armato, rispetto al quale il diritto applicabile è il diritto internazionale umanitario. Pur non potendo trattare in questa sede il complesso rapporto tra diritti umani e diritto internazionale umanitario33, è però doveroso registrare come, ad oggi, la maggior parte della prassi relativa all’impiego di droni armati per operazioni di targeted killings (quale quella menzionata in apertura al presente paragrafo) si colloca al di fuori di conflitti armati. La cartina di tornasole è offerta dalle linee guida adottate dalla Presidenza Obama per operazioni letali contro obiettivi terroristici, che trovano applicazione – per espressa previsione e come chiaramente indicato nel titolo – «al di fuori degli Stati Uniti e delle aree di ostilità attiva»34. Le operazioni a mezzo drone armato in, ad es., Yemen, Somalia, Pakistan, Iraq sono tutte da iscriversi in questo modello, e permangono al di fuori del perimetro di applicazione del diritto internazionale umanitario.

to nell’ambito del ritiro dei contingenti statunitensi in Afghanistan in data 29 agosto 2021 (in cui persero la vita anche alcuni bambini: A. Khan, Hidden Pentagon Records Reveal Patterns of Failure in Deadly Airstrikes, in New York Times 18 dicembre 2021, disponibile all’indirizzo: www.nytimes.com/interactive/2021/12/18/us/ airstrikes-pentagon-records-civilian-deaths.html). 32   R. Sifton, A Brief History of Drones, in The Nation, 27 febbraio 2012, disponibile all’indirizzo www.thenation.com/article/166124/brief-history-drones. 33   Sia qui consentito un rinvio a D. Mauri, Autononous Weapons Systems and the Protection of the Human Person. An International Law Analysis, Cheltenham-Northampton 2022, p. 48 ss. 34   Procedures for Approving Direct Action against Terrorist Targets Located Outside the United States and Areas of Active Hostilities, 22 maggio 2013. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Tecniche della profilazione e uso della forza contro individui

113

Ciò detto, è però vero che gli sviluppi più recenti nelle relazioni internazionali impongono di tenere in considerazione questo ramo del diritto. Il conflitto libico tra il Governo di unità nazionale (basato a Tripoli e ufficialmente riconosciuto dall’ONU) e l’Esercito di liberazione nazionale (che opera a partire da Bengasi) è il primo ad aver sperimentato un ruolo massiccio di aeromobili a pilotaggio remoto35. Ancor più recente, il conflitto scoppiato in Ucraina, a fine febbraio del 2022, in seguito all’invio di truppe militari russe a supporto delle Repubbliche di Donetsk e Luhansk vede l’impiego, all’interno di ostilità, anche di droni armati (tra i quali l’ormai celebre turco Bayraktar)36. 3.1. Il diritto internazionale umanitario fissa numerose regole a proposito dell’impiego della forza durante i conflitti armati, che non è «illimitato»37. A differenza delle norme in materia di diritti umani, che, come si è visto, restringono notevolmente i requisiti per l’impiego di forza letale, il diritto internazionale umanitario consente, in linea di principio, l’uso della forza in presenza di requisiti meno stringenti. In primo luogo, ogni impiego di forza sul campo di battaglia deve rispettare il principio di distinzione, sotteso a un numero cospicuo di regole sulla conduzione delle ostilità38. Tale principio presuppone l’esistenza, da un lato, di oggetti e persone nei confronti dei quali è consentito l’impiego di forza e, dall’altro lato, di oggetti e persone che godono di una certa «protezione» da parte del diritto internazionale umanitario e che, per effetto di questa, non possono essere ingaggiati come obiettivi. Appartengono a questo secondo novero la popolazione civile e i civili39, così come combattenti feriti, malati, naufraghi, perso35  A. Gatopoulos, ‘Largest drone war in the world’: How airpower saved Tripoli, in Aljazeera, 28 maggio 2020, disponibile all’indirizzo: www.aljazeera.com/ news/2020/5/28/largest-drone-war-in-the-world-how-airpower-saved-tripoli. 36   Peraltro, nelle ore immediatamente successive all’inizio delle ostilità, l’unico velivolo che sorvolava l’Ucraina era un drone Global Hawk partito dalla base militare di Sigonella, in Sicilia. Si veda S. Palazzolo, Da Sigonella il decollo dei droni diretti in Ucraina. Due missioni per sorvegliare lo scenario della guerra, in La Repubblica-Palermo, 24 febbraio 2022, disponibile all’indirizzo: www.palermo.repubblica. it/cronaca/2022/02/24/news/da_sigonella_il_decollo_dei_droni_diretti_in_ucraina-339019351. 37   Primo protocollo addizionale alle Convenzioni di Ginevra, 1977, art. 35. 38   Si veda Corte int. giust., Legality of the Threat of Use of Nuclear Weapons, ICJ Reports 1996, p. 66, par. 78 (che considera il principio in esame come norma «cardinale» del diritto internazionale umanitario). 39   Ibidem, art. 51, par. 2, e Secondo protocollo addizionale alle Convenzioni di

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

114

Diego Mauri

nale medico e religioso, fanciulli, disabili e in generale combattenti che si trovino hors de combat40. Il discrimen tra la prima categoria (di obiettivi consentiti) e le altre (di obiettivi protetti, dunque non consentiti) può rivelarsi difficile da tracciare in concreto. Sempre più di frequente, infatti, i campi di battaglia si popolano di gruppi armati formalmente non affiliati con eserciti regolari delle parti impegnate nel conflitto (mercenari, private contractors, ecc.), per non parlare di combattenti irregolari. Per quanti esercitano una funzione di combattimento continua (secondo l’acronimo inglese, CCF), il principio di distinzione consentirebbe l’ingaggio, al pari di quanto previsto per i combattenti tradizionali (che possono essere colpiti, ad es., anche durante il sonno). Più problematica è la figura di coloro che, pur non essendo combattenti (e dovendo dunque essere protetti in quanto civili), partecipano direttamente alle ostilità per un lasso di tempo più o meno contenuto (secondo l’acronimo inglese, DPH)41: le norme rilevanti ne consentono il targeting, ma unicamente per il tempo della loro partecipazione42. In aggiunta al principio di distinzione, va menzionato il principio di proporzionalità43. Fermo restando il divieto di ingaggiare direttamente obiettivi non consentiti in applicazione del principio di distinzione, le parti a un conflitto sono giustificate nel provocare danni collaterali a oggetti e persone civili, purché non eccessivi rispetto al vantaggio militare atteso dall’operazione44. Si tratta di una valutazione che richiede un bilanciamento (assai delicato)45 tra valori e interessi diametralmente Ginevra, 1977, art. 13, par. 2. 40   Per una panoramica di carattere generale, si veda L. Hill-Cawthorne, Persons Covered by International Humanitarian Law: Main Categories, in B. Saul e D. Akande (a cura di), The Oxford Guide to International Humanitarian Law, Oxford 2020. 41  Sulla nozione di «civili coinvolti direttamente nelle ostilità», è doveroso un rinvio a N. Melzer, Interpretive Guidance on the Notion of Direct Participation in Hostilities under International Humanitarian Law, Ginevra 2009. 42   Primo protocollo addizionale alle Convenzioni di Ginevra, cit., art. 53, par. 3; Secondo protocollo addizionale alle Convenzioni di Ginevra, cit., art. 13, par. 1. 43   Si veda V. Cannizzaro, Proportionality in the Law of Armed Conflict, in A. Clapham e P. Gaeta (a cura di), The Oxford Handbook of International Law in Armed Conflict, Oxford 2014. 44   Primo protocollo addizionale alle Convenzioni di Ginevra, cit., art. 51, par. 5, lett. b). 45   Tribunale Penale Internazionale per la ex-Jugoslavia, Final Report to the Prosecutor by the Committee established to review the NATO bombing campaign against the Federal Republic of Yugoslavia’, 8 giugno 2000, in International Law Materials, ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Tecniche della profilazione e uso della forza contro individui

115

contrapposti e che si snoda in tre passaggi logici: (1) la stima del danno collaterale; (2) la valutazione del vantaggio militare atteso; (3) la comparazione dei due al fine di determinare l’eventuale sproporzione46. Il terzo pilastro delle regole sul targeting è costituito dal principio di precauzione, che si traduce, innanzitutto, nell’obbligo per le parti al conflitto di pianificare e condurre ogni operazione nel quadro di un conflitto armato in modo che sia garantito il rispetto del diritto internazionale umanitario, esercitando la prescritta «constant care»47. Si tratta di un principio che opera – chiaramente mutatis mutandis – parallelamente all’obbligo positivo affrontato nel settore dei diritti umani. Da ultimo, possono essere richiamate, seppur solo in via sommaria, le norme che impongono obblighi di indagine e di repressione di condotte contrarie al diritto internazionale umanitario. Si tratta di norme meno sviluppate rispetto a quelle in materia di diritti umani: non è contestato l’obbligo di investigare e reprimere violazioni che si qualifichino come crimini internazionali (in primis, crimini di guerra), mentre è maggiormente contestata l’affermazione secondo la quale qualunque violazione delle norme del diritto internazionale umanitario (ivi incluse quelle relative al targeting appena analizzate) farebbe insorgere tali obblighi48. 3.2. Alla luce dell’analisi appena condotta, si può vedere come le tecniche di profilazione si atteggino a strumenti particolarmente utili nel quadro dei conflitti armati: l’analisi di dati capaci di restituire precisi pattern of life individuali può infatti servire, in primissima battuta, ai fini della corretta «categorizzazione» di soggetti coinvolti nelle ostilità. Se si pensa che tale categorizzazione è prodromica all’attività di c.d. target analysis – secondo il gergo impiegato dalla dottrina della vol. 39, p. 1257 ss., par. 48 («[o]ne cannot easily assess the value of innocent human lives as opposed to capturing a particular military object»). 46   Si veda, più approfonditamente, D. Amoroso, Autonomous Weapons Systems and International Law. A Study on Human-Machine Interactions in Ethically and Legally Sensitive Domains, Napoli 2021, p. 78 ss. 47   Primo protocollo addizionale alle Convenzioni di Ginevra, cit., art. 57. 48   Il tema si interseca a quello dei rapporti tra diritto internazionale umanitario e diritti umani: si veda amplius G. Gaggioli, A Legal Approach to Investigations of Arbitrary Deprivations of Life in Armed Conflicts: The Need for a Dynamic Understanding of the Interplay between IHL and HRL, in Questions of International Law, 2017, p. 27 ss. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

116

Diego Mauri

NATO in materia di targeting49 –, si vede bene come il passaggio tra la raccolta e la rielaborazione dei dati e quello successivo dell’ingaggio dell’obiettivo sia, in realtà, «breve». In particolare, la raccolta e la rielaborazione di ingenti dati dal campo di battaglia potrebbero consentire di distinguere più adeguatamente – in ossequio al principio di distinzione e alle regole da esso scaturenti – tra combattenti, soggetti coinvolti in funzioni di combattimento continuo (CFF), civili partecipanti direttamente alle ostilità (DPH) e obiettivi non consentiti. Resta ferma, in ogni caso, la difficoltà di operare tale distinzione, soprattutto laddove soggetti DPH sono coinvolti. Si è utilizzata, in questo senso, l’immagine della revolving door, a indicare quanto repentinamente un individuo possa passare da soggetto ingaggiabile (cioè, mentre partecipa direttamente alle ostilità) a soggetto protetto (al momento in cui tale partecipazione cessa)50. Ci si può legittimamente domandare, dunque, ferma restando la neutralità a livello teorico del rapporto tra tecniche di profilazione e norme sull’uso della forza nel quadro di conflitti armati, se, «nei fatti», il ricorso massiccio al profiling non rischi di estendere il novero dei soggetti che possono essere destinatari di forza letale. Soggetti che risultino essere più propensi a… varcare ripetutamente la «porta» di cui alla metafora appena sopra, sulla base di un comportamento «osservabile» e quindi profilabile, potrebbero ritrovarsi selezionate come target anche in un momento non strettamente connesso alla loro diretta partecipazione alle ostilità. Le prospettive dalle quali dubitare della compatibilità con il diritto internazionale umanitario di attacchi a mezzo drone deliberati sulla base dell’impiego di tecniche di profilazione sono pertanto molteplici51. 4. Gli scenari di cui ci siamo occupati sinora contemplano un ruolo decisivo per l’operatore umano: riprendendo le fasi del targeting cycle della NATO, dopo aver «trovato» un potenziale obiettivo, sulla base 49  NATO, Allied Joint Doctrine for Joint Targeting. Edition B, version 1, novembre 2021, AJP-3.9, disponibile all’indirizzo: www.assets.publishing.service.gov.uk/ government/uploads/system/uploads/attachment_data/file/1033306/AJP-3.9_EDB_ V1_E.pdf. 50   Per ulteriori rimandi, si veda D. Mauri, Autonomous Weapons Systems and the Protection of the Human Person, cit., p. 147 ss. 51   K. Benson, “Kill ‘em and Sort it Out Later”: Signature Drone Strikes and International Humanitarian Law, in Pacific McGeorge Global Business & Development Law, 2014, p. 17.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Tecniche della profilazione e uso della forza contro individui

117

dell’analisi del pattern of life, questi viene «tracciato» e ingaggiato al ricorrere di determinate circostanze, in linea con il diritto applicabile. Le tecniche di profilazione, dunque, servono a restituire all’operatore umano un «dato» che dovrà essere ulteriormente valutato al fine di intraprendere un’operazione letale nei suoi confronti: di per sé, la «macchina» non decide nulla, ma rimette tale decisione critica all’individuo. I casi di errore menzionati sopra rivelano però l’esistenza di un fenomeno da anni studiato dalla psicologia, ovvero il ricorrere, più o meno frequente, di bias cognitivi da parte dell’operatore umano52, il più rilevante dei quali è il c.d. automation bias: la tendenza a ignorare informazioni in contrasto con una soluzione generata da un computer, nella convinzione della necessaria correttezza di quest’ultima. Nel nostro caso, lo score di predittività della pericolosità di un individuo – ciò che comporta la sua sorveglianza da parte delle autorità statali, al di fuori e all’interno di conflitti armati – può trascinare l’operatore umano a compiere una scelta di targeting viziata e, pertanto, illecita secondo le norme internazionali applicabili. Per ovviare a questo rischio, da anni è in corso una progressiva (ma apparentemente inarrestabile) «autonomizzazione» del processo decisionale di targeting, in cui l’esecuzione di determinate funzioni dei sistemi d’arma (ad es., navigazione e orientamento) è affidata direttamente alla macchina, senza necessità di intervento da parte dell’operatore umano. Nel campo tecnologico che qui ci occupa, tale processo segna il passaggio dal drone armato (pilotato da remoto) ai sistemi d’arma autonomi (secondo l’acronimo inglese, AWS), che affidano le decisioni critiche (selezione e ingaggio del target) agli algoritmi53 e non alla decisione umana54. La principale obiezione (giuridica, ma non solo) che si muove a tali sistemi d’arma è che la rimozione (o comunque la significativa 52   M.L. Cummings, Automation Bias in Intelligent Time Critical Decision Support Systems, in AIAA Papers, 2004, p. 1 ss. 53   Il tema dell’impiego di algoritmi in settori rilevanti per il diritto è stato affrontato da un coro di voci. Si veda A. Cardone, Decisione algoritmica vs decisione politica?, Napoli 2021; H. Micklitz, O. Pollicino, A. Reichman, A. Simoncini, G. Sartor e G. De Gregorio, Constitutional Challenges in the Algorithmic Society, Cambridge, 2021. 54   La letteratura sui sistemi d’arma autonomi si è fatta, ad oggi, sconfinata, dato il numero dei profili critici che queste sollevano per il diritto internazionale (e non solo). Si vedano le opere monografiche di D. Amoroso, op. cit., nonché di D. Mauri, Autonomous Weapons Systems and the Protection of the Human Person, cit.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

118

Diego Mauri

marginalizzazione) della componente umana nel processo decisionale del targeting rischia di «disumanizzare» l’atto di impiegare la forza da entrambi i lati: quello che attacca, che si cela dietro un complicato sistema di algoritmi; quello che è attaccato, che viene sempre di più trattato come «oggetto» di violenza da parte di autorità statali del tutto anonime, vittime di una sorta di «pesticida meccanizzato»55. Tali questioni rimontano sicuramente oltre le tecniche di profiling; certo però ne acuiscono e amplificano le criticità. Se così è, non è prematuro estendere il campo di indagine anche a contesti dove diritti fondamentali – e la stessa «dignità umana» – sono particolarmente a rischio.

55   Report of the United Nations Special Rapporteur on Extrajudicial, Summary or Arbitrary Executions, Christof Heyns, 2013, Doc. UN A/HRC/23/47, par. 95.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Olivia Lopes Pegna*

Tutela dei dati personali e accesso alla giustizia nel contenzioso transfrontaliero: la disciplina della competenza giurisdizionale nel Regolamento UE n. 2016/679 (GDPR)

Sommario: 1. Favorire l’accesso alla giustizia del titolare dei dati: dalla Direttiva 95/46/CE al GDPR. – 2. I criteri «speciali» di giurisdizione per il contenzioso transfrontaliero in materia di trattamento dei dati. – 3. Il coordinamento tra giurisdizioni. – 4. L’applicazione residuale del Regolamento UE n. 1215/2012 (Bruxelles I-bis).

1. Il Regolamento UE n. 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016 (anche noto come General Data Protection Regulation, di seguito GDPR) ha introdotto una disciplina uniforme tra gli Stati membri avente ad oggetto la protezione delle persone fisiche con riguardo al trattamento dei loro dati personali, e la libera circolazione di tali dati1. Come è noto, il diritto ad un ricorso giurisdizionale effettivo costituisce un diritto fondamentale garantito, oltre che dai principali strumenti internazionali volti alla tutela dei diritti fondamentali, dalla Convenzione europea dei diritti dell’uomo (art. 6 e art. 13) e dalla Carta dei diritti fondamentali dell’Unione (art. 47). Il diritto ad un ricorso effettivo rappresenta uno dei principi guida nella determinazione della disciplina della competenza giurisdizionale e del coordinamento tra giurisdizioni nello spazio giudiziario europeo, tenuto conto dell’esigenza di tutelare altresì le legittime aspettative del convenuto garantendo la certezza del diritto (e quindi un certo grado di prevedibilità del giudice competente) e la parità delle armi2. *Professoressa di Diritto internazionale nell’Università di Firenze.   Regolamento (UE) 2016/679 del Parlamento e del Consiglio del 27 aprile 2016 relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali nonché alla libera circolazione di tali dati e che abroga la Direttiva 95/46/CE (Regolamento generale sulla protezione dei dati), G.U.U.E. L 119 del 4 maggio 2016, p. 1 ss. 2   Tra i molti contributi sul tema si veda: F. Salerno, Competenza giurisdizionale, riconoscimento delle decisioni e diritto al giusto processo nella prospettiva europea, in Riv. dir. int. priv. proc., 2011, p. 895 ss.; F. Marongiu Buonaiuti, La tutela del diritto 1

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

120

Olivia Lopes Pegna

Tra le altre finalità, il GDPR mira a favorire l’accesso alla giustizia in relazione alle controversie relative alle violazioni della disciplina in materia di trattamento dei dati3. La Direttiva 95/46/CE4 conteneva un generico riferimento all’esigenza di predisporre rimedi giurisdizionali: l’art. 22 stabiliva infatti l’obbligo per gli Stati di predisporre un ricorso giurisdizionale in caso di violazione dei diritti garantiti dalle disposizioni nazionali applicabili al trattamento dei dati5. Fatti salvi gli altri rimedi amministrativi e giurisdizionali che ogni Stato possa prevedere, il GDPR favorisce il ricorso alla tutela giurisdizionale effettiva degli interessati, che si affianca a quella amministrativa. Nel considerando n. 141 si legge: «Ciascun interessato dovrebbe avere il diritto di proporre reclamo a un’unica autorità di controllo, in particolare nello Stato membro in cui risiede abitualmente, e il diritto a un ricorso giurisdizionale effettivo a norma dell’articolo 47 della Carta qualora ritenga che siano stati violati i diritti di cui gode ai sensi del presente regolamento (…)». Si prevede dunque la possibilità per l’interessato che ritenga che il

di accesso alla giustizia e della parità delle armi tra i litiganti nella proposta di revisione del regolamento n. 44/2001, in A. Di Stefano e R. Sapienza (a cura di), La tutela dei diritti umani e il diritto internazionale, Napoli 2012, p. 345 ss.; L. Fumagalli, Criteri di giurisdizione in materia civile e commerciale e rispetto dei diritti dell’uomo: il sistema europeo e la garanzia del due process, in Diritti umani e diritto internazionale, 2014, p. 567 ss.; C. Campiglio, Il diritto al giudice nello spazio giudiziario europeo in materia civile e commerciale, in A. Annoni, S. Forlati e P. Franzina (a cura di), Il diritto internazionale come sistema di valori. Scritti in onore di Francesco Salerno, Napoli 2021, p. 615 ss. 3   Comunicazione della Commissione «Salvaguardare la privacy in un mondo interconnesso. Un quadro europeo per della protezione dei dati per il XXI secolo», del 25 gennaio 2012 (COM (2012) 9 final); Relazione allegata alla Proposta di regolamento del Parlamento e del Consiglio concernente la tutela delle persone fisiche con riguardo al trattamento dei dati personali e la libera circolazione di tali dati (regolamento generale sulla protezione dei dati), del 25 gennaio 2012 (COM 2012) 11 final). W. Kotschy, Art. 79. Rigt to an effective judicial remedy against a controller or processor, in C. Kuner, L.A. Bygrave e C. Docksey (a cura di), The EU General Data Protection Regulation (GDPR), Oxford 2020, p. 1133 ss. 4  Direttiva 95/46/CE del Parlamento europeo e del Consiglio, del 24 ottobre 1995, relativa alla tutela delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati, in G.U.U.E. L 281 del 23 novembre 1995, p. 31. 5   Cfr. anche il considerando n. 55: «considerando che, in caso di violazione dei diritti delle persone interessate da parte del responsabile del trattamento, le legislazioni nazionali devono prevedere vie di ricorso giurisdizionale». ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Tutela dei dati personali e accesso alla giustizia

121

trattamento dei suoi dati violi il Regolamento, di proporre reclamo davanti all’autorità di controllo predisposta in ottemperanza al Regolamento stesso, nello Stato in cui risiede abitualmente o lavora, o del luogo dove è avvenuta la presunta violazione (art. 77 ss.). Ogni persona fisica o giuridica avrà poi diritto ad un ricorso giurisdizionale effettivo contro la decisione giuridicamente vincolante di un’autorità di controllo che la riguardi (art. 78). Ai sensi dell’art. 79, ogni interessato ha anche il diritto di proporre un ricorso giurisdizionale qualora ritenga che i diritti di cui gode ai sensi del Regolamento siano stati violati a seguito di un trattamento. Un ulteriore profilo degno di nota in relazione alla finalità di rafforzare l’accesso alla giustizia è dato dalla rilevanza che assume in questa materia la possibilità di agire con azioni collettive: ai sensi dell’art. 80 si riconosce il diritto all’interessato di dare mandato ad un ente di proporre reclamo per suo conto e di esercitare i diritti di cui agli artt. 77, 78 e 796. Data la natura dei diritti tutelati, può accadere spesso che il contenzioso relativo al trattamento dei dati abbia natura «transfrontaliera»: quando la controversia presenta questo carattere, come è noto, si pongono problemi specifici relativi all’individuazione del giudice competente e alla legge applicabile. Il presente contributo si prefigge l’obiettivo di esaminare il primo aspetto, dato che è quello più significativamente inciso dal GDPR. Il Regolamento, infatti, innovando rispetto al passato, si preoccupa di predisporre dei criteri di giurisdizione ad hoc, finalizzati ad individuare il giudice dello Stato membro competente7. 2. Prima dell’adozione del GDPR il contenzioso in questa materia trovava la sua disciplina, a livello europeo, nel Regolamento c.d. «ge6   L’art. 80 specifica che si deve trattare di un organismo, organizzazione o associazione senza scopo di lucro che siano debitamente costituiti secondo il diritto di uno Stato membro, i cui obiettivi statutari siano di pubblico interesse e che siano attivi nel settore della protezione dei diritti e delle libertà degli interessati con riguardo alla protezione dei dati personali. 7   Si osservi che i criteri stabiliti dal Regolamento possono essere impiegati solo per domande concernenti violazioni del Regolamento stesso, non anche di eventuali normative nazionali. Cfr. O. Feraci, Questioni internazionalprivatistiche in tema di azioni di risarcimento del danno proposte a seguito di violazioni del regolamento (UE) n. 2016/679 sulla protezione dei dati personali, in P. Bertoli et al. (a cura di), Data protection tra Unione Europea, Italia e Svizzera, Torino 2019, pp. 167-175.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

122

Olivia Lopes Pegna

nerale» in materia civile e commerciale, il Regolamento n. 1215/2012 del Parlamento e del Consiglio, del 12 dicembre 2012, concernente la competenza giurisdizionale, il riconoscimento e l’esecuzione delle decisioni in materia civile e commerciale (c.d. Bruxelles I-bis)8. Queste controversie non trovano nel Regolamento Bruxelles I-bis una disciplina ad hoc, pertanto i criteri di giurisdizione utilizzabili sono quelli che più in generale si applicano alla responsabilità da fatto illecito: oltre al criterio generale del domicilio del convenuto (art. 4), i criteri speciali di cui all’art. 7 per la materia contrattuale (art. 7, n. 1) ed extra-contrattuale (art. 7, n. 2), applicabili, tuttavia, solo nei limiti in cui il convenuto sia domiciliato in uno Stato membro.9 Quando il convenuto sia domiciliato in uno Stato terzo, operano i criteri di giurisdizione nazionali (art. 6 Regolamento Bruxelles I-bis): in Italia quelli stabiliti dalla legge n. 218/1995 (art. 3). Sotto il profilo qui in esame niente di più stabiliva la Direttiva 95/46/CE, che – come abbiamo visto – si limitava a prevedere l’obbligo di predisposizione di un ricorso giurisdizionale, lasciando alle normative nazionali e UE la determinazione dei criteri volti a delimitare l’ambito della giurisdizione dei giudici nazionali. Prima di esaminare la disciplina della giurisdizione stabilita nel GDPR pare degno di nota evidenziare la portata applicativa (soggettiva e territoriale) dello strumento normativo10. Ai sensi dell’art. 3, par. 1, il Regolamento si applica al trattamento dei dati personali effettuato nell’ambito delle «attività di uno stabilimento»11 da parte di un titolare del trattamento12 o di un responsabile del trattamento13 «nell’Unione», indipendentemente dal fatto che il trattamento sia effettuato o meno nell’Unione. Il par. 2, specifica poi che esso trova applicazione in relazione al trattamento dei dati personali di «interessati14 che si trovano nell’Unione», anche se effettuato   G.U.U.E. L 351 del 20 dicembre 2012, p. 1 ss.   La determinazione del domicilio è disciplinata dagli artt. 62 e 63 del Regolamento Bruxelles I-bis. 10   In argomento, più ampiamente, C. Kohler, Conflict of Law Issues in the 2016 Data Protection Regulation of the European Union, in Riv. dir. int. priv. proc., pp. 653-658 ss. 11   Ai sensi del considerando n. 22 lo stabilimento implica l’effettivo e reale svolgimento di attività nel quadro di un’organizzazione stabile. 12   Per la definizione di «titolare del trattamento» cfr. l’art. 4, n. 7) del GDPR. 13   Per la definizione di «responsabile del trattamento» cfr. l’art. 4, n. 8) del GDPR. 14   Ai sensi dell’art. 4, n. 1) GDPR si ricava che l’interessato è la «persona fisica 8

9

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Tutela dei dati personali e accesso alla giustizia

123

da un titolare o da un responsabile del trattamento che non è stabilito nell’Unione, alle seguenti condizioni: che le attività di trattamento riguardino l’offerta di beni o servizi ai suddetti interessati nell’Unione (lett. a); o il monitoraggio del comportamento abbia luogo all’interno dell’Unione (lett. b). La disposizione estende dunque l’ambito di applicazione del Regolamento in chiave extra-territoriale anche oltre a quanto compiuto con riferimento alla Direttiva dalla Corte di giustizia nel noto caso Google Spain15. Quanto alla determinazione della competenza giurisdizionale, l’art. 79, par. 2, stabilisce: «Le azioni nei confronti del titolare del trattamento o del responsabile del trattamento sono promosse dinanzi alle autorità giurisdizionali dello Stato membro in cui il titolare del trattamento o il responsabile del trattamento ha uno stabilimento. In alternativa, tali azioni possono essere promosse dinanzi alle autorità giurisdizionali dello Stato membro in cui l’interessato risiede abitualmente, salvo che il titolare del trattamento o il responsabile del trattamento sia un’autorità pubblica di uno Stato membro nell’esercizio dei pubblici poteri». Si osservi che la disposizione prende in considerazione solo le azioni promosse dall’interessato nei confronti del titolare e del responsabile del trattamento16: le altre azioni, ad esempio quelle di accertamento negativo promosse da questi ultimi soggetti nei confronti del titolare dei dati, oppure quelle reciproche tra questi due soggetti, sono escluse dall’ambito di applicazione della norma, restando quindi soggette alle ordinarie regole di giurisdizione stabilite dal Regolamento Bruxelles I-bis, o dalle norme nazionali. Rientrano invece nel campo della disposizione anche le domande volte ad ottenere il risarcimento del danno (materiale e immateriale) causato da una violazione del Regolamento (art. 82). La disciplina così introdotta si caratterizza per la valorizzazione di elementi esclusivamente «soggettivi»: facendo leva sulla localizzazione dei soggetti coinvolti, e trascurando invece di dare rilevanza a fattori oggettivi della fattispecie17. Ciò indubbiamente permette di superare i noti problemi di «locaidentificata o identificabile», i cui dati personali costituiscono oggetto di trattamento. 15   Cfr. Corte giust., 13 maggio 2014, causa C-131/12, Google Spain SL e Google Inc, ECLI:EU:C:2014:317. Cfr. C. Kohler, op. cit., p. 660. 16   Cfr. anche il considerando 145. 17   O. Feraci, Questioni internazionalprivatistiche, cit., pp. 169-170. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

124

Olivia Lopes Pegna

lizzazione» che già erano emersi in precedenza, nell’ambito di applicazione della disciplina generale, in relazione a violazioni dei diritti della personalità commessi a mezzo internet. Possiamo qui solo brevemente ricordare infatti che, con riferimento al criterio speciale di giurisdizione per la responsabilità da fatto illecito stabilito dall’art. 5, n. 3, del Regolamento n. 44/2001 (e ora dall’art. 7, n. 2, Regolamento n. 1215/2012) la Corte di giustizia ha valorizzato il luogo in cui la vittima ha il proprio «centro di interessi», al fine di determinare il giudice competente in relazione ad una fattispecie concernente la violazione dei diritti della personalità derivante da immissione di contenuti su sito internet18. Tale luogo – è la stessa Corte a precisarlo - coincide in via generale con la residenza abituale, ma non è da escludere che possa anche localizzarsi in altro Stato dove la vittima non risiede abitualmente19. Ciò ha consentito di ovviare alle difficoltà legate alla individuazione del luogo dove sia avvenuto l’evento dannoso in relazione a fattispecie (quelle relative all’utilizzo di internet) che si connotano per una tendenziale ubiquità. Il primo criterio stabilito dall’art. 79 del GDPR risponde pienamente alla logica del principio actor sequitur forum rei, posto anche alla base del criterio generale stabilito prima dalla Convenzione di Bruxelles del 196820 e dal Regolamento Bruxelles I, e ora dal Regolamento Bruxelles I-bis (art. 4). Il criterio presuppone per la sua applicabilità che il titolare o il responsabile del trattamento abbiano uno stabilimento in (almeno) uno Stato membro, affinché il Regolamento possa efficacemente stabilire la competenza dei giudici di uno Stato membro. Come abbiamo visto, il Regolamento può tuttavia trovare applicazione anche in assenza di uno stabilimento nell’Unione (v. supra, par. 2). In questi casi risulterà utile solo il successivo criterio, che si affianca agli altri due, in un rapporto di alternatività, e che risulta chiaramente volto 18   Corte giust., 25 ottobre 2011, cause riunite C-509/09 e C-161/10, e-Date Advertising GmbH c. X e Martinez c. MGN Limited, ECLI:EU:C:2011:685, par. 48. 19   Ivi, par. 49. O. Feraci, Diffamazione internazionale a mezzo Internet: quale foro competente? Alcune considerazioni sulla sentenza eDate, in Riv. dir. int., 2012, p. 461 ss.; S. Marino, Nuovi sviluppi in materia di illecito extracontrattuale “on line”, in Riv. dir. int. priv. e proc., 2012, p. 879 ss.; G. Zarra, Conflitti di giurisdizione e bilanciamento dei diritti nei casi di diffamazione internazionale a mezzo internet, in Riv. dir. int., 2015, p. 1235 ss. 20   Cfr. la Relazione Jenard alla Convenzione di Bruxelles del 27 settembre 1968 concernente la competenza giurisdizionale e l’esecuzione delle decisioni in materia civile e commerciale, G.U.C.E. C 59 del 5 marzo 1979, p. 1 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Tutela dei dati personali e accesso alla giustizia

125

a favorire la vittima della violazione (l’interessato, titolare dei dati): egli potrà infatti agire, a sua scelta, anche dove risiede abitualmente (art. 79, par. 2). La disposizione inverte chiaramente la logica alla base del criterio actor sequitur foum rei, consentendo di agire davanti ai giudici dove è residente abitualmente la parte attrice (forum actoris). Norme con una analoga finalità di favor per l’attore si trovano nella disciplina del Regolamento Bruxelles I-bis, per alcune tipologie di controversie nelle quali si è voluto riequilibrare i rapporti tra le parti 21 (giudicati dal legislatore a priori e in via astratta asimmetrici), e favorire le parti deboli del rapporto: ossia, i lavoratori, i consumatori e i contraenti il contratto di assicurazione. Il Regolamento Bruxelles I-bis consente infatti a questi soggetti di citare la controparte davanti ai giudici del proprio domicilio (c.dd. fori di protezione), ciò che si traduce nel foro dell’attore (artt. 11, 18, 21). Quando ad agire è la controparte, invece, essa potrà citare le parti deboli solo nel luogo dove esse sono domiciliate (artt. 14, 18, parr. 2, 22). È stato giustamente messo in evidenza come la disciplina posta dal GDPR rischi di non garantire sufficientemente la prevedibilità del foro per il titolare ed il responsabile del trattamento: che non necessariamente sono informati sul luogo dove risiede abitualmente l’interessato, titolare dei dati trattati.22 Ciò può tradursi in una violazione dei diritti della difesa del convenuto: l’esigenza di certezza e prevedibilità è alla base, come già richiamato, della disciplina della competenza giurisdizionale nello spazio giudiziario europeo 23, e dell’interpretazione datane dalla Corte di giustizia24. Ciò trova conferma nel fatto che quando la Corte, nel caso sopra richiamato, ha valorizzato il centro di interessi della vittima quale luogo per la determi21  Evidenzia questa finalità nel GDPR, P. Franzina, Jurisdiction Regarding Claims for the Infringement of Privacy Rights under the General Data Protection Regulation, in A. De Franceschi (a cura di), European Contract Law and the Digital Single Market. The Implications of the Digital Revolution, Cambridge-Antwerp-Portland 2016, p. 81 ss., p. 98. 22   P. Franzina, op. cit., p. 103; F. Marongiu Buonaiuti, La disciplina della giurisdizione nel regolamento n. 2016/679 concernente il trattamento dei dati personali e il suo coordinamento con la disciplina contenuta nel regolamento “Bruxelles I-bis”, in Cuadernos de Derecho Transnacional, 2017, p. 448 ss., p. 456. 23   Cfr. il considerando n. 11 del Regolamento n. 44/2001 (Bruxelles I); il considerando n. 16 del regolamento 1215/2012 (Bruxelles I-bis). 24  Cfr., ex multis, Corte giust., 12 maggio 2011, causa C-144/10, BVG, ECLI:EU:C:2011:300, par. 33; e 25 ottobre 2011, cause riunite C-509/09 e C-161/10, e-Date, cit., par. 50.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

126

Olivia Lopes Pegna

nazione del giudice competente per illeciti commessi a mezzo internet, ha precisato che esso «è conforme all’obiettivo della prevedibilità delle norme sulla competenza anche nei confronti del convenuto», poiché «chi immette l’informazione lesiva al momento della messa in rete della stessa, è in condizione di conoscere i centri di interesse delle persone che ne formano oggetto»25. Analoga prevedibilità non sembra garantita necessariamente dal criterio della residenza abituale della vittima nel contenzioso concernente il trattamento dei dati personali. Nel GDPR l’unico temperamento a questa «debolezza» del sistema può riscontrarsi nel fatto che, perché un titolare o un responsabile del trattamento non stabilito nell’Unione possa essere soggetto al Regolamento, e quindi anche alle disposizioni sopra richiamate sulla giurisdizione, occorre che abbia «diretto la propria attività» (c.d. targeting) in uno Stato membro (art. 3, par. 2, sopra richiamato)26. Circostanza che tuttavia non è sufficiente, come già evidenziato, a garantire la prevedibilità del foro competente. Infine, nonostante la disciplina risulti chiaramente improntata alla finalità di favorire un maggiore accesso alla giustizia dell’interessato che risulti leso da una violazione relativa al trattamento dei sui dati, non troviamo tuttavia estese a queste controversie anche altre cautele che invece completano la disciplina nel Regolamento Bruxelles I-bis per le parti deboli: in particolare, come vedremo, non è chiaro se ai criteri sopra descritti si possa derogare per effetto di una proroga (tacita o espressa) delle parti. La questione può essere ricondotta, come vedremo, alla più ampia problematica del rapporto tra la disciplina stabilita nel GDPR e il Regolamento Bruxelles I-bis27. 3. Il GDPR tiene conto anche della possibilità che più azioni riguardanti lo stesso oggetto, relativamente allo stesso titolare del trattamento o allo stesso responsabile del trattamento, risultino contemporaneamente pendenti davanti a giudici di Stati membri diversi. Viene introdotta una disciplina specifica, che quindi sottrae queste ipotesi a   Sentenza e-Date, cit., p. 50.   Sull’esigenza di valorizzare il targeting al fine di rafforzare la certezza nella disciplina della competenza giurisdizionale, in particolare in relazione a cause relative a diffamazione a mezzo internet, cfr. G. Zarra, op. cit. p. 1259 ss. Analoga cautela è adottata in relazione ai contratti conclusi da consumatori nel Regolamento Bruxelles I-bis (art. 17, par. 1, lett. c). 27   Infra, par. 4. 25

26

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Tutela dei dati personali e accesso alla giustizia

127

quella generale prevista dal Regolamento Bruxelles I-bis, peraltro non senza alcune incertezze nella formulazione, messe subito in evidenza dalla dottrina più attenta28. In questi casi, previa la necessità di prendere contatto tra le autorità giurisdizionali per avere la conferma della pendenza dell’azione (art. 81, par. 1), l’autorità giurisdizionale competente successivamente adita «può» sospendere l’azione (art. 81, par. 2). La disciplina si contraddistingue per una marcata differenza rispetto alla disciplina della litispendenza regolata dal Regolamento Bruxelles I-bis (art. 29): la sospensione, come anche l’eventuale successiva estinzione, del procedimento avviato per secondo non è qui prevista come obbligatoria, ma rimessa alla discrezionalità del giudice (che «può», non «deve», sospendere il giudizio). La facoltatività della sospensione è prevista invece nel Regolamento Bruxelles I-bis solo per i casi di cause «connesse» pendenti davanti a giudici di Stati membri diversi (art. 30). Una delle principali incertezze relative a questa disposizione concerne la sua portata applicativa. Infatti, il considerando n. 144 richiama (solo) l’ipotesi nella quale sia l’autorità adita per un’azione di reclamo contro una decisione di un’autorità di controllo (ex art. 78 GDPR) a riscontrare la contemporanea pendenza di un’azione riguardante lo stesso trattamento davanti ad altra autorità giurisdizionale competente. La formulazione dell’art. 81 è tuttavia più generica, e non consente (almeno letteralmente) di escludere che la stessa disciplina possa applicarsi anche quando le azioni siano pendenti davanti a giudici di Stati membri diversi aditi per le azioni ai sensi dell’art. 79, par. 229. È facile presumere che questo sarà uno degli aspetti problematici della fase applicativa del Regolamento, che meriterà un chiarimento da parte della Corte di giustizia in sede di rinvio pregiudiziale. Occorre tuttavia ricordare che i criteri posti dall’art. 79, par. 2, concernono solo le azioni promosse dall’interessato titolare dei dati trattati, ciò che diminuisce di fatto le ipotesi di concorrenza di più azioni aventi lo stesso oggetto. Ulteriore profilo di incertezza è dato dalla circostanza che nella 28   F. Marongiu Buonaiuti, La disciplina della giurisdizione, cit., p. 458 ss.; P. Franzina, op. cit., pp. 105-106 ss.; O. Feraci, Questioni internazionalprivatistiche, cit., p. 184. 29   L’interpretazione da dare alla disposizione in esame ha poi delle ricadute anche sulla portata residuale delle norme sulla litispendenza poste dal Regolamento Bruxelles I-bis. Nel senso che debba prevalere la lettura restrittiva più aderente al considerando, cfr. P. Franzina, op. cit., p. 106.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

128

Olivia Lopes Pegna

disciplina in esame si sono sostanzialmente riunite in un’unica disposizione tanto le ipotesi di vera e propria litispendenza, quanto quelle riconducibili più propriamente a connessione, prevedendo un unico regime che è per lo più assimilabile alla disciplina della connessione nel Regolamento Bruxelles I-bis. Circostanza che trova conferma nella previsione secondo la quale nel caso in cui le azioni siano entrambe pendenti in primo grado, l’autorità adita per seconda potrà dichiarare la propria incompetenza «a condizione che l’autorità giurisdizionale adita per prima sia competente a conoscere delle domande proposte e la sua legge consenta la riunione dei procedimenti» (art. 81, par. 3). Questa precisazione si impone nei casi di riunione di cause per connessione. Sempre nel considerando n. 144 si chiarisce che le azioni sono considerate connesse «quando hanno tra loro un legame così stretto da rendere opportuno trattarle e decidere in merito contestualmente, per evitare il rischio di sentenze incompatibili risultanti da azioni separate». La facoltatività del regime aumenta tuttavia le possibilità che i procedimenti possano svolgersi entrambi parallelamente e concludersi con pronunce incompatibili tra loro: ciò che costituisce un ostacolo alla circolazione delle decisioni tra gli Stati membri30. Possiamo qui solo ricordare che proprio per evitare questa conseguenza la Corte di giustizia ha interpretato in modo molto ampio la nozione di litispendenza ai sensi della Convenzione di Bruxelles e poi dei Regolamenti «Bruxelles»31. Il risultato è un regime «ibrido»32, che non si sottrae a critiche, in particolare in relazione alla debolezza del sistema in presenza di una vera litispendenza e che rischia di creare incertezze applicative33. 4. Stante il carattere non completo e non esaustivo della disciplina in commento, si pone il problema del coordinamento con il Regolamento Bruxelles I-bis, onde poter ricavare gli spazi nei quali continua ad operare la disciplina «generale».

  Art. 45, lett. c) e d), Regolamento Bruxelles I-bis.  Corte di giust., 8 dicembre 1987, causa C-144/86, Gubisch c. Palumbo, ECLI:EU:C:1987:528, par. 18. 32   F. Marongiu Buonaiuti, La disciplina della giurisdizione, cit., p. 460. 33   Ulteriori incertezze derivano dalla formulazione del considerando n. 144 che identifica le azioni aventi ad oggetto lo stesso trattamento in quelle in cui sussista «lo stesso oggetto relativamente al trattamento da parte dello stesso titolare o dello stesso responsabile, o lo stesso titolo» (corsivo aggiunto). 30 31

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Tutela dei dati personali e accesso alla giustizia

129

Ai sensi del considerando n. 147 del GDPR, qualora esso preveda disposizioni specifiche in materia di giurisdizione, in particolare con riguardo a procedimenti che prevedono il ricorso giurisdizionale contro un titolare o un responsabile del trattamento, «disposizioni generali in materia di giurisdizione quali quelle di cui al regolamento (UE) n. 1215/2012 […] non dovrebbero pregiudicare l’applicazione di dette disposizioni specifiche». Risulta quindi evidente la volontà di dare prevalenza alla normativa speciale posta dal GDPR, mentre il Regolamento «generale» potrà trovare applicazione solo nei limiti in cui non pregiudichi tale disciplina. Può notarsi che anche il Regolamento Bruxelles I-bis prevede la possibilità che discipline in materie particolari abbiano prevalenza: ai sensi dell’art. 67, infatti, esso non pregiudica l’applicazione di disposizioni che, in materie particolari, disciplinano la competenza giurisdizionale contenute in atti dell’Unione. Quanto ai criteri di giurisdizione, non assume particolare rilevanza l’applicabilità dell’art. 4 del regolamento Bruxelles I-bis (foro del domicilio del convenuto), che potrebbe peraltro spesso coincidere con il primo criterio stabilito dall’art. 79, par. 234. Più difficile determinare entro quali limiti residui spazio per l’applicabilità dei fori speciali, in particolare quello stabilito per la materia contrattuale (art. 7, n. 1, regolamento Bruxelles I-bis) e quello per la materia dell’illecito civile doloso o colposo (art. 7, n. 2, regolamento Bruxelles I-bis): questione che anche in dottrina non trova soluzioni uniformi. La tesi favorevole all’applicabilità di tali criteri, ove si rivelino funzionali ad aggiungere possibilità ulteriori all’attore titolare dei dati35, sembra scontrarsi con le esigenze di certezza e prevedibilità già più volte richiamate36. Il Regolamento Bruxelles I-bis continuerà invece ad operare, come già evidenziato, per tutte le azioni concernenti il trattamento dei dati non coperte dai criteri speciali stabiliti dal GDPR: ad esempio quando ad

34   La nozione di domicilio ai sensi del Regolamento Bruxelles I-bis non coincide perfettamente con il più generico riferimento allo stabilimento, di cui all’art. 79, par. 2 del GDPR, che, come già evidenziato, implica comunque «l’effettivo e reale svolgimento di attività nel quadro di un’organizzazione stabile» (considerando n. 22). 35   C. Kohler, op. cit., p. 669. 36   P. Franzina, op. cit., p. 105; O. Feraci, Questioni internazionalprivatistiche, cit., p. 182; F. Marongiu Buonaiuti, La disciplina della giurisdizione, cit., p. 453, che valorizza in tal senso anche l’art. 67 Regolamento n. 1215/2012.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

130

Olivia Lopes Pegna

agire sia il titolare o il responsabile del trattamento. Lo stesso varrà per le ipotesi di litispendenza non coperte dall’art. 81 (vedi supra, par. 3)37. Restano più incerti altri profili già sopra evidenziati, per i quali si auspica che si possa arrivare presto a dei chiarimenti da parte della Corte di Giustizia. In particolare, resta dubbia la possibilità di derogare per accordo ai criteri stabiliti dall’art. 79, par. 2: la finalità protettiva di tali criteri porta ragionevolmente a far propendere per l’esclusione della possibilità di deroga38, quantomeno in termini sfavorevoli al titolare dei dati39, essendo di difficile applicazione pratica una soluzione volta a fare ricorso, in chiave analogica, alle disposizioni poste nel Regolamento Bruxelles I-bis con riferimento ai fori di protezione40.

  F. Marongiu Buonaiuti, La disciplina della giurisdizione, cit., p. 451.   W. Kotschy, op. cit., p. 1139. 39   C. Kohler, op. cit., p. 669; O. Feraci, Questioni internazionalprivatistiche cit., p. 183; F. Marongiu Buonaiuti, La disciplina della giurisdizione, cit., p. 452. 40   Condivisibile sul punto la posizione di P. Franzina, op. cit., p. 107. 37 38

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Tutela dei dati personali e profilazione nel sistema democratico

Andrea Cardone*

Profilazione a fini politico-elettorali e tenuta della democrazia rappresentativa: una lezione per le riforme istituzionali e per la regolazione del pluralismo democratico in Rete

sommario: 1. Un problema di diritto costituzionale. – 2. Il ricorso agli algoritmi nella comunicazione politica e nella costruzione del consenso elettorale. – 3. La disarticolazione della rappresentanza sul versante dei governati. – 4. Dalla Rete una lezione per le riforme. – 5. Le sfide della regolazione del pluralismo.

1. Nel corso degli ultimi anni, tre grandi vicende hanno contribuito in maniera determinante ad aprire gli occhi al mondo intero sui rischi che la democrazia rappresentativa corre per effetto della pervasività degli algoritmi e della loro capacità di profilazione e data mining. La prima è quella del Russiagate, nell’ambito della quale ben 126 milioni di elettori americani sono stati oggetto di una martellante campagna di disinformazione online attraverso messaggi di Facebook provenienti da operatori basati in Russia. La seconda è quella della propaganda politica operata da Donald Trump attraverso i tweet dell’omonimo Social Network, che raggiungevano in piena campagna elettorale per la Presidenza degli Stati Uniti circa 12 milioni di americani e, un anno dopo, circa 42 milioni di cittadini statunitensi. La terza è quella della società Cambridge Analytica, che ha svolto attività analitica di big data, codes e profilazione ai fini della captazione del consenso degli elettori nella campagna elettorale del senatore Ted Cruz nelle primarie repubblicane, in quella dello stesso Donald Trump e, infine, in quella referendaria per la Brexit. A partire da queste esperienze, e riflettendo su di esse, si vorrebbe in queste pagine provare a portare l’attenzione sugli effetti che il ricorso alle nuove tecnologie, in particolare quelle di intelligenza artificiale, determina nella sfera dell’opinione pubblica e, segnatamente, nel campo della comunicazione politica, accentuando una tendenza alla sua * Professore di Istituzioni di diritto pubblico nell’Università di Firenze.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

134

Andrea Cardone

«verticalizzazione» già innescata da tempo dai nuovi mezzi di comunicazione di massa che si sviluppano nella Rete1. Il tema è divenuto oggetto di attenzione sempre crescente da parte della dottrina costituzionalistica italiana. E ciò sulla base del rilievo, che appare certamente condivisibile, che «esiste una zona grigia di internet che solo adesso sta venendo all’attenzione della grande opinione pubblica. In tale zona grigia si stanno consumando delle radicali trasformazioni della rappresentanza politica […]. La discussione si è concentrata su questi aspetti, trascurando sorprendentemente le modalità di aggregazione del consenso che per certo riguardano aspetti e analisi di carattere prevalentemente sociologico, ma non di meno sono di stretto interesse costituzionalistico. Basti pensare alla libertà di manifestazione del pensiero, al diritto ad essere informati, al diritto alla riservatezza»2. È, infatti, difficile negare che l’attualità pone con grande urgenza la necessità di riflettere su quei fenomeni che dimostrano come la formazione del consenso politico ed elettorale sia sempre più marcatamente influenzata dall’uso dei Social Networks e come, attraverso di essi, soggetti organizzati perseguano il fine di orientare le posizioni politiche dei singoli attraverso messaggi «targettizzati» e preordinati a «colpire» la parte più moderata e indecisa del corpo elettorale. E impone di farlo, giova sottolinearlo, tenendo ben presente che le due categorie di effetti dell’A.I. che vengono in considerazione, ovvero quella delle conseguenze degli algoritmi sulle libertà individuali che si esercitano in rete (ad esempio, manifestazione del pensiero e comunicazione, ma non solo: si pensi al diritto di informare e di essere informati) e quella degli effetti dei medesimi sul funzionamento della democrazia rappresentativa, sono assai più strettamente collegate tra loro di quanto generalmente non venga evidenziato. Si ponga mente, indugiando negli esempi proposti in apertura, ad una serie di fenomeni che ruotano intorno alla profilazione a fini politico-elettorali, come il microtargeting, la diffusione dei bot, le campagne d’odio in rete, ma anche la stessa disinformazione online; tutti fenomeni che certamente pongono problemi di tutela delle posizioni giuridiche soggettive (si pensi, per tutte, in aggiunta a quelle citate prima, alla privacy) coin-

1   Cfr., per tutti, S. Rodotà, Tecnopolitica. La democrazia e le nuove tecnologie della comunicazione, Roma-Bari 1997, p. 47. 2  P. Ciarlo, Democrazia, partecipazione popolare e populismo al tempo della rete, in Rivista AIC, 2018, II, pp. 6-7.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilazione a fini politico-elettorali e tenuta della democrazia

135

volte dalle operazioni di data mining e profilazione, ma che sollevano anche non meno delicate questioni di tenuta democratica e di inquinamento nei processi formativi dell’opinione pubblica. 2. Come si è detto, è sulla seconda categoria di effetti che si intende portare il ragionamento. Per guardare più da vicino alle conseguenze che la profilazione a fini politico-elettorali sta producendo nel cuore del funzionamento del meccanismo rappresentativo è, però, necessario spendere qualche previa considerazione su come il ricorso agli algoritmi consente di gestire la comunicazione politica e di condizionare la stessa costruzione del consenso elettorale. Innanzitutto, si impone una sintetica valutazione degli strumenti attraverso cui l’intelligenza artificiale influisce sulle preferenze individuali e sulla loro aggregazione. Tutti questi strumenti muovono dalla comune premessa che, come in economia, così in politica, il messaggio «individualizzato» rende più facili e soddisfacenti le scelte di consumo3. Il riferimento va, in particolare, allo sviluppo delle tecniche e delle prassi di microtargeting politico, le quali, operando «personalizzazioni profonde»4, influenzano perfino la sacralità del momento elettorale, alterano e deformano il tratto ascendente della rappresentanza politica (quello, cioè, che porta all’investitura dei rappresentanti) e, per questo motivo, hanno già indotto la dottrina a porsi interrogativi radicali circa la misura in cui, nel contesto della Rete, possiamo ritenere di continuare a maturare autonomamente i nostri convincimenti politici5. Attraverso il condizionamento di specifici gruppi di elettori tramite l’invio di messaggi mirati, basati sul nudging6 e sulle preferenze/caratteristiche personali ricostruite attraverso l’elaborazione delle tracce che ogni «navigatore» lascia in Rete7, infatti, diviene possibile per gli

  C.R. Sunstein, Republic.com 2.0, Princeton 2007, p. 38 ss.   Ovvero quelle che non si basano su alcuna scelta dell’individuo e che, per questo, devono essere avvertite come particolarmente illiberali, come osserva E. Longo, Dai ‘big data’ alle “bolle filtro”: nuovi rischi per i sistemi democratici, in Percorsi costituzionali, 2019, I, p. 29 ss. 5   Si vedano, in particolare, quelli di A. D’Aloia, Il diritto verso il “nuovo mondo”. Le sfide dell’intelligenza artificiale, in Id. (a cura di), Intelligenza artificiale e diritto, Milano 2020, par. 9. 6   La «spinta gentile» di cui parlano R.H. Thaler e C.R. Sunstein, Nudge: Improving Decisions About Health, Wealth, and Happiness, New Haven 2008. 7   Il c.d. data mining, sul cui utilizzo a fini di profilazione si veda C. Sarra, Il data mining tra datificazione, conoscenza e responsabilità, in S. Faro, T.E. Frosini 3 4

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

136

Andrea Cardone

algoritmi della comunicazione politica non solo indurre negli elettori orientamenti politici ma, addirittura, «plasmare l’immagine del candidato in funzione delle aspettative – day by day – dell’elettorato di riferimento»8. In questa direzione si coglie, ad esempio, il significato dell’esperimento neozelandese del politico «virtuale» SAM, disponibile online h24 «to close the gap between what voters want and what politicians promise, and what they actually achieve»9. Alle più aggressive campagne di comunicazione politica non è estranea nemmeno la diffusione volontaria di notizie false10, il cui scopo è quello di far aumentare il seguito «reputazionale» di certe posizioni politiche o di certi leader, all’interno di Cybercascades che amplificano in maniera vorticosa la circolazione delle informazioni11. Un altro elemento merita di essere tenuto presente. Ci si riferisce alla circostanza che all’evidenziata disintermediazione della comunicazione politica che gli algoritmi determinano in Rete, e alla conseguente crisi del ruolo tradizionalmente svolto da editori e giornalisti in questo campo, si accompagna l’emergere di nuove figure di intermediari imprene G. Peruginelli (a cura di), Dati e algoritmi. Diritto e diritti nella società digitale, Bologna 2020, pp. 174-175. 8   M. Betzu e G. Demuro, I big data e i rischi per la democrazia rappresentativa, in MediaLaws, 2020, p. 221. 9   Su cui cfr. W. Langelaar, SAM (Semantic Analysis Machine), in A. Rangel, L. Ribas, M. Verdicchio e M. Carvalhais (a cura di), Proceedings of the Sixth Conference on Computation, Communication, Aesthetics & X, Porto 2018, p. 217 ss. 10   È il tema delle c.dd. fake news, su cui la dottrina è ormai sterminata. Sul punto si vedano la recente riflessione monografica di S. Sassi, Disinformazione contro costituzionalismo, Napoli 2021 e, per una prima ricognizione delle posizioni espresse dalla dottrina italiana, C. Pinelli, “Postverità”, verità e libertà di manifestazione del pensiero, in MediaLaws, 2017, I; O. Pollicino, Fake news, Internet and Metaphors (to be handled carefully), ivi, 2017, I; M. Cuniberti, Il contrasto alla disinformazione in rete tra logiche del mercato e (vecchie e nuove) velleità di controllo, ivi, 2017, I; M. Monti, Fake news e social network: la verità ai tempi di Facebook, ivi, 2017, I; N. Zanon, Fake news e diffusione dei social media: abbiamo bisogno di un’“Autorità Pubblica della Verità”?, ivi, 2018; G. Pitruzzella, La libertà di informazione nell’era di Internet, ivi, 2018, I; V. Visco Comandini, Le fake news sui social network: un’analisi economica, ivi, 2018, II; F. Donati, Fake news e libertà di informazione, ivi, 2018, II; G. Matucci, Informazione online e dovere di solidarietà. Le fake news fra educazione e responsabilità, in Rivista AIC, 2018, I; E. Lehner, Fake news e democrazia, in MediaLaws, 2019, I; G. Marchetti, Le fake news e il ruolo degli algoritmi, ivi, 2020, I; M. Cavino, Il triceratopo di Spielberg. Fake news, diritto e politica, in Federalismi.it, 2020. 11   Cfr., per tutti, C.R. Sunstein, #republic. Divided Democracy in the Age of Social Media, trad. it. A. Asioli, #republic. La democrazia nell’epoca dei social media, Bologna 2017, p. 127 ss., dove si distinguono due tipi di «cascate», quelle «informative» e quelle «reputazionali». ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilazione a fini politico-elettorali e tenuta della democrazia

137

ditoriali, i quali, proprio attraverso gli algoritmi in questione, agiscono nel libero mercato con politiche commerciali che, come ovvio, non perseguono in alcun modo fini di rappresentatività e/o democraticità e/o benessere collettivo12. Il che, come nel caso degli Internet Provider, pone il problema di come accordare la loro responsabilità privatistica con la tutela pubblicistica del pluralismo dell’informazione13. Ancora, non può essere sottovalutato che nelle piattaforme e nei Social Network, in cui i frequentatori della Rete ricevono i messaggi di comunicazione politica gestiti dagli algoritmi, la definizione dei soggetti della propaganda politica è, di fatto, rimessa esclusivamente alle policies contrattuali degli OTT, con la conseguenza che sfugge a qualsiasi regolamentazione pubblica sia l’effettività di una pari garanzia di accesso a tutti gli attori politici14, sia la trasparenza delle decisioni di sostanziale censura15 che si realizzano attraverso la rimozione dei contenuti giudicati not politically correct, per cui nessuna garanzia democratica e di uguaglianza formale è dato avere circa il fatto che tale 12   Cfr., per tutti, S. Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, trad. it. P. Bassotti, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Roma 2019, p. 15, in cui ben si evidenzia che le società capitalistiche dell’era digitale non assumono mai come destinatari delle proprie azioni gli individui da cui «traggono» i dati che commerciano, e Z. Bauman e D. Lyon, Liquid Surveillance: A Conversation, trad. it. M. Cupellaro, Sesto potere. La sorveglianza nella modernità liquida, Roma-Bari 2014, passim, i quali sottolineano che la collaborazione «entusiastica» dei sorvegliati è la vera chiave del successo del nuovo capitalismo tecnologico. 13  Cfr. R. Petruso, La responsabilità degli intermediari della rete telematica. I modelli statunitense ed europeo a confronto, Torino 2019, p. 134. 14   Naturalmente, diverso è il tema dell’accesso alle piattaforme e ai social durante la campagna elettorale, disciplinato nel nostro ordinamento in occasione delle elezioni politiche del 2018 dalla deliberazione 423/17/CONS dell’AGCOM, su cui cfr. F. Sciacchitano e A. Panza, Fake news e disinformazione online: misure internazionali, in MediaLaws, 2020, I, p. 126. Il tema è stato affrontato anche da una «preoccupata» Dichiarazione del Comitato dei ministri del Consiglio d’Europa del 13 febbraio 2019, On the manipulative capabilities of algorithmic processes, che mostra di avere ben chiari i rischi di inquinamento della dialettica democratica connessi all’utilizzo di Platforms e Social Networks. Nella stessa direzione si veda ora la Proposal for a Regulation on a European approach for Artificial Intelligence, approvata dalla Commissione Europea il 21 aprile 2021 (e disponibile all’indirizzo: digital-strategy.ec.europa.eu/en/library/proposal-regulation-european-approach-artificial-intelligence), che al Considerando 40 mostra di aver ben chiaro che «Certain AI systems intended for […] democratic processes should be classified as high-risk, considering their potentially significant impact on democracy, rule of law, individual freedoms». 15   Come opportunamente le inquadra G.L. Conti, Manifestazione del pensiero attraverso la rete e trasformazione della libertà di espressione: c’è ancora da ballare per strada?, in Rivista AIC, 2018, IV, p. 202.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

138

Andrea Cardone

censura non operi in maniera diversa a seconda del «peso» politico dell’autore del messaggio veicolato16. Del resto, ad un risultato sostanzialmente censorio i gestori delle Internet Platforms pervengono anche attraverso l’indicizzazione dei siti17 e la prospettazione dei risultati restituiti dai motori di ricerca18. In termini più generali, si assiste ad una progressiva assimilazione, soprattutto dal punto di vista delle strategie di marketing utilizzate, tra propaganda politica e pubblicità commerciale19. In questa convergenza di mezzi, alla cui base riposa una sorta di «tecno-feudalesimo», in cui in cambio della protezione derivante dal godimento dei servizi dell’economia digitale gli individui concedono la propria attenzione ai contenuti proposti20, gli algoritmi e le tecniche di profilazione che su di essi si basano svolgono un ruolo cruciale. Proprio ad essi, infatti, i colossi della Rete affidano la ricerca della merce più rara, ovvero la considerazione del consumatore/elettore; merce che poi – agendo, come è stato efficacemente detto, da veri «mercanti dell’attenzione»21 – scambiano, ottenendo lauti profitti, con gli imprenditori dell’inserzione, i quali sono alla perenne ricerca di monitor e device da raggiungere per veicolari i messaggi politici, esattamente come quelli commerciali. Si spera che queste sintetiche considerazioni siano in grado di evidenziare adeguatamente il cuore del problema che l’esperienza ci mette dinnanzi, ovvero che gli algoritmi utilizzati per individuare i destinatari della comunicazione politica profilano gli utenti e, all’interno di piattaforme in cui accesso e censura sono regolate solo da politiche contrattuali unilateralmente disposte, li bersagliano con messaggi «targettizzati» e intermediati professionalmente a fini di lucro, sottoponendo i destinatari inconsapevoli anche a delle simulazioni per veri16   M. Monti, Le Internet platforms, il discorso pubblico e la democrazia, in Quaderni costituzionali, 2019, IV, p. 817. 17   E. Bozdag, Bursting the Filter Bubble: Democracy, Design, and Ethics, Zutphen, 2015, p. 21 ss. 18   G. Comandè, Regulating Algorithms Regulation? First Ethico-Legal Principles, Problems, and Opportunities of Algorithms, in T. Cerquitelli, D. Quercia e F. Pasquale (a cura di), Transparent Data Mining for Big and Small Data, Berlin 2016, p. 12. 19   Per tutti, cfr. già F. Lanchester, Propaganda elettorale (voce), in Enciclopedia del diritto, Milano 1990, p. 126 ss. 20   E.A. Posner e E.G. Weyl, Radical Markets. Uprooting Capitalism and Democracy for a Just Society, Princeton 2018, p. 231. 21   Y.N. Harari, 21 Lessons for the 21st Century (2018), trad. it. M. Piani, 21 lezioni per il XXI secolo, Milano 2018, p. 116.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilazione a fini politico-elettorali e tenuta della democrazia

139

ficare quali sono le reazioni che è dato attendersi dalla diffusione di determinati messaggi politici (il c.d. responsiveness score), in modo da poter decidere se propagarli in maniera massiva o, viceversa, interrompere la campagna22. 3. Così individuato il problema, diviene possibile mettere meglio a fuoco che gli algoritmi e le tecniche di profilazione incidono sulla tenuta democratica degli ordinamenti pluralisti contemporanei, perché agiscono in modo determinante sulla rappresentanza politica generale. Anche a sorvolare sui rischi di distorsione/manipolazione dell’informazione23 e di indebolimento del marketplace of ideas24, che amplificano i problemi di compatibilità con il pluralismo democratico tipici di tutte le forme di profilazione basate su big data25, infatti, non ci si può non interrogare sulle conseguenze che le tendenze in atto rischiano di produrre sul meccanismo democratico-rappresentativo in quanto tale, e quindi, in definitiva, sulla produzione del diritto politico-legislativo, che, secondo l’impianto costituzionale, trae proprio dalla rappresentanza politica generale il suo principale, se non esclusivo, fattore di legittimazione democratica26. Sul punto si deve constatare che le conseguenze del ricorso agli algoritmi nella comunicazione a contenuto politico operano innanzitutto sul piano dei rappresentati27, determinando una frammentazione delle 22   Sul punto, cfr. R. De Rosa, L’uso dei big data nella comunicazione politico-elettorale. La previsione di voto nelle presidenziali francesi 2017, in Comunicazione politica, 2018, II, p. 201, e G. Ziccardi, Tecnologie per il potere. Come usare i social network in politica, Milano 2019, p. 105 ss. 23   Su cui cfr., ex multis, J. Martín Reyes, Social network, polarizzazione e democrazia: dall’entusiasmo al disincanto, in E. Vitale e F. Cattaneo (a cura di), Web e società democratica. Un matrimonio difficile, Torino 2018, p. 18 ss.; R. Montaldo, Le dinamiche della rappresentanza tra nuove tecnologie, populismo, e riforme costituzionali, in Quaderni costituzionali, 2019, IV, p. 789 ss.; M. Fasan, Intelligenza artificiale e pluralismo: uso delle tecniche di profilazione nello spazio pubblico democratico, in BioLaw Journal – Rivista di BioDiritto, 2019, p. 101 ss. 24   Ben evidenziati da C. Casonato, Intelligenza artificiale e diritto costituzionale: prime considerazioni, in DPCE, speciale/2019, p. 11. 25   Problemi già evidenziati, in particolare, da F. Donati, Il pluralismo delle fonti informative al tempo di Internet, in Percorsi costituzionali, 2014, I, p. 21, e O. Pollicino, Tutela del pluralismo nell’era digitale: ruolo e responsabilità degli Internet service provider, ivi, 2014, I, p. 45. 26   Sulla necessità di impostare le questioni di cui si discute in termini di legittimazione democratica, cfr., per tutti, D. Grimm, Constitutionalism: Past, Present, and Future, Oxford 2016, p. 343. 27   Per una analisi degli effetti che le medesime tecnologie producono sulle strategie e le posizioni dei rappresentanti, volendo, si possono vedere le considerazioni che

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

140

Andrea Cardone

istanze degli individui che diventa ancor più estrema di quanto non sarebbe comunque in forza del carattere pluralistico degli ordinamenti giuridici contemporanei28. La profilazione a fini politico-elettorali, infatti, amplifica la tendenza della Rete a frantumare le identità collettive29, a parcellizzare l’individuo e a renderlo «sempre più» isolato, con l’effetto ultimo di rendere il pluralismo fattuale «sempre più» estremo e, quindi, la rappresentanza politica generale – e con essa la «democrazia dei partiti» – «sempre più» in crisi: fenomeni, questi, ormai non più nuovi, tanto che si deve ritenere che essi debbano essere considerati strutturali e non congiunturali, ovvero come la manifestazione di un «cambiamento più profondo nel ruolo e nell’immagine della politica partigiana nelle democrazie contemporanee»30. Da tale processo, che certamente porta a conseguenze estreme una tendenza già presente da decenni per effetto dell’avvento dei mezzi di comunicazione di massa31, la sfera dell’opinione pubblica esce sostanzialmente frantumata in una miriade di ristrette cerchie tendenzialmente autoreferenziali; il che rende gli individui, già «sradicati»32, sostanzialmente irrappresentabili da parte di qualsivoglia rappresentante, perché ciascuna delle numerosissime istanze che i medesimi avanzano nell’ambiente pluralistico viene discussa e sviluppata senza confronto con chi ha opinioni diverse e sviluppo in A. Cardone, “Decisione algoritmica” vs decisione politica? A.I., Legge, Democrazia, Napoli 2021, p. 59 ss. 28   Cfr., per tutti, M. Luciani, Il paradigma della rappresentanza di fronte alla crisi del rappresentato, in N. Zanon e F. Biondi (a cura di), Percorsi e vicende attuali della rappresentanza e della responsabilità politica, Milano 2001, p. 109 ss., e S. Niccolai, Il governo, Roma-Bari 2003, p. 39. Contra, per l’opposta tesi secondo cui la crisi della rappresentanza sarebbe «sempre crisi del rappresentante», cfr. I. Massa Pinto, Crisi della rappresentanza e nuove tecnologie tra domanda e offerta politiche, in MediaLaws, 2020, I, p. 187, secondo cui l’effetto delle nuove tecnologie potrebbe, ma solo nel lungo periodo, contribuire alla creazione di una «sfera pubblica cosmopolita». 29   Cui si accompagna anche la perdita delle stesse identità individuali: O. Pfersmann, La crisi della rappresentanza e il dilemma tra libertà degli antichi e quella dei moderni, in Philosophia, 2018, II, p. 143 ss. 30  Così R.J. Dalton e S. Weldon, L’immagine pubblica dei partiti politici: un male necessario?, in Rivista italiana di Scienza Politica, 2004, III, p. 400. 31   Ex multis, cfr. F. Marchianò, La democrazia dei postmoderni, in E. Cioni e A. Marinelli (a cura di), Le reti della comunicazione politica. Tra televisioni e social network, Firenze 2010, p. 102, con particolare riferimento all’abuso dei sondaggi e alla manipolazione delle informazioni. 32   Come bene hanno messo in evidenza J. Meyrowitz, No sense of place. The Impact of the Electronic Media on Social Behavior, Oxford 1987; J.P. Balligand e D. Maquart, La fin du territoire jacobin, Paris 1990; B. Badie, La fin des territoires, Paris 1995, p. 253. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilazione a fini politico-elettorali e tenuta della democrazia

141

solo all’interno di ciascuna «bolla monotematica», per cui ogni soggetto viene ad essere frammentato in una pluralità indefinita di dimensioni autoreferenziali, che non gli permettono di confrontarsi né con chi è portatore di un pensiero diverso, né con chi sviluppa istanze differenti33. L’effetto ultimo di questa tendenza non può che essere la disarticolazione della rappresentanza politica generale sul versante dei governati, che, isolati sempre più nelle loro plurime appartenenze, manifestano «individualità limitate, effimere e contingenti»34 ed esprimono esigenze e bisogni che non possono più – ma nemmeno reclamano di – essere ricomposti ad unità attraverso il meccanismo rappresentativo. Il popolo, conseguentemente, perde la capacità di agire rappresentativamente e, secondo una efficace metafora, assume la sembianza di uno sciame35, ossia un insieme subitaneo, instabile e volatile di soggetti che si aggregano attorno a un bersaglio polemico per attaccarlo in modo virulento e irriflesso, prima di disperdersi nuovamente. E ciò indipendentemente da ogni questione circa la «qualità» dei rappresentanti, cui non si può imputare l’incapacità di agire in maniera rappresentativa rispetto ad una realtà che non si lascia più cogliere né in funzione «mimetica», né in funzione «integrativa» e/o «costitutiva»36. 4. Quanto si è avuto modo di ricostruire consente di raggiungere una prima conclusione metodologica, che chi scrive considera non irrilevante, su come è possibile affrontare, anche de iure condendo, i problemi teorici e pratici che la democrazia rappresentativa ha dinnanzi a sé nel contesto di cui si è fin qui ragionato. Il tema meriterebbe certamente ben altro approfondimento, non possibile in questa sede, se non altro con riferimento al ruolo dei legislatori di ogni livello territoriale nelle politiche regolatorie37, 33   Di un vero e proprio condizionamento mentale a fini politici ragiona F. Foer, World Without Mind. The existential Threat of Big Tech, London 2017, p. 193 ss. 34   Come sottolinea, proprio a proposito del mondo della comunicazione, G. Vattimo, La società trasparente, Milano 1989, p. 17. 35   B.C. Han, In the Swarm. Digital Prospects, Boston 2017. 36   Sviluppo un tentativo di asservire questi noti concetti ad un ripensamento dei fondamenti teorici della democrazia rappresentativa nel contesto della Rete in A. Cardone, “Decisione algoritmica”, cit., p. 113 ss. 37   Sul punto, anche ai fini di una prima ricostruzione della bibliografia sul tema, cfr. G.L. Conti, La lex informatica, in Osservatoriosullefonti.it, 2021, I, p. 318 ss.; B. Caravita, Principi costituzionali e intelligenza artificiale, in U. Ruffolo (a cura di),

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

142

Andrea Cardone

al destino delle autorità garanti38 ed ai modelli di normazione cui è più opportuno ricorrere39. Solo per provare ad evidenziare come le problematiche teoriche della democrazia «in Rete» siano tutt’uno con le questioni che la sua pratica pone nella vita «reale», vale, però, comunque la pena accennare in sede conclusiva che le torsioni che il rapporto rappresentativo rischia di subire nel quadro delle ICT, nella misura in cui danno conferma della prima citata tesi che la «crisi della rappresentanza» è, innanzitutto, «crisi del rappresentato»40, offrono significativi spunti di riflessione anche per apprezzare come il tema andrebbe affrontato dal punto di vista delle riforme istituzionali. In particolare, le considerazioni sulla disarticolazione dei governati sembrano portare acqua alla tesi che, se si cerca di correggere le storture delle istituzioni repubblicane muovendo dal convincimento che esse siano conseguenza prevalente, se non addirittura esclusiva, della degenerazione dei partiti politici, si rischia di cadere in un grande equivoco, che carica di aspettative che non possono essere pienamente soddisfatte con alcuni possibili interventi di riforma. Intelligenza artificiale. Il diritto, i diritti, l’etica, Milano 2020, pp. 457-458; A. Celotto, Come regolare gli algoritmi. Il difficile bilanciamento fra scienza, etica e diritto, in Analisi giuridica dell’economia, 2019, I, p. 56 ss.; E. Stradella, La regolazione della Robotica e dell’Intelligenza artificiale: il dibattito, le proposte, le prospettive. Alcuni spunti di riflessione, in Media Laws, 2019, I, p. 8. 38   Su cui si veda il recente e vibrante contributo di S. Mannoni e G. Stazi, Sovranità.com, Napoli 2021, passim, part. p. 53 ss., i quali leggono le più recenti vicende che hanno interessato le autorità antitrust europea e americana in chiave di rivitalizzazione della categoria della sovranità statale, alla cui progressiva demolizione da parte del mainstream della dottrina, soprattutto italiana, attribuiscono di avere grosse responsabilità nell’aver favorito il dilagare di quella logica liberista che ha consentito alle grandi compagnie della Rete di creare e consolidare velocemente i loro monopoli. 39   È il tema di quale sia il più efficace «dosaggio» di autonormazione, soft law, hard law e co-regulation, su cui si vedano, per una prima ricognizione delle problematiche e della bibliografia, G. De Minico, Libertà in Rete. Libertà dalla Rete, Torino 2020, p. 263 ss.; G. Mobilio, L’intelligenza artificiale e i rischi di una “disruption” della regolamentazione giuridica, in BioLaw Journal – Rivista di BioDiritto, 2020, II, p. 401 ss.; P. Costanzo, Osservazioni sparse su nodi, legami e regole su Internet, in P. Passaglia e D. Poletti (a cura di), Nodi virtuali, legami informali: Internet alla ricerca di regole, Pisa 2017, p. 17 ss.; T.E. Frosini, Internet come ordinamento giuridico, in M. Nisticò e P. Passaglia (a cura di), Internet e Costituzione, Torino 2014, p. 59 ss.; M. Betzu, Regolare Internet. Le libertà di informazione e di comunicazione nell’era digitale, Torino 2012, p. 19 ss.; D. De Grazia, Il governo di Internet, Milano 2010, p. 272 ss. 40   In una prospettiva non dissimile, in questi stessi termini si esprime T.E. Frosini, Liberté Egalité Internet, Napoli 2019, p. 216 ss. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilazione a fini politico-elettorali e tenuta della democrazia

143

Così, ad esempio, se non si ha la consapevolezza dei fenomeni cui si è sinteticamente accennato, si può non mettere adeguatamente a fuoco che non esiste legge elettorale – più o meno majority assuring che sia – che possa garantire responsabilità politica e stabilità di governo, e quindi, tra le altre cose, contenere le deformazioni del sistema delle fonti (si pensi, a tacer d’altro, all’abuso del decreto-legge, alle deleghe «in bianco», al proliferare dei decreti «di natura non regolamentare»), quando il sistema politico-partitico non è in grado di generarle. Viceversa, proprio l’adeguata considerazione di come il rapporto rappresentativo si sviluppa nella Rete permette di comprendere come sempre più urgente è la necessità che la politica provi a rinnovare se stessa con norme in grado di garantire una vita interna ai partiti autenticamente democratica, come la disciplina del conflitto di interessi, della parità di genere, della trasparenza del finanziamento, della selezione delle candidature e della giustizia domestica41. Quella dell’attuazione del «metodo democratico interno» di cui all’art. 49 Cost. è, infatti, la vera sfida della democrazia digitale, che è pur sempre una democrazia rappresentativa, quindi basata sui partiti politici. E non ci si deve nascondere che la rilevanza della vita democratica interna viene ad essere ridimensionata dalla progressiva disarticolazione della rappresentanza e, in particolare, dalla disintermediazione del rapporto tra decisione politica e indirizzo dei partiti. Questo è il frutto della sempre maggiore dominanza degli strumenti informatizzati di interpretazione del consenso politico sui comportamenti dei rappresentanti, che ogni giorno di più sono portati a prendere posizioni pubbliche determinate non dall’indirizzo politico del partito di appartenenza, ma dalla massimizzazione nell’immediato del seguito politico-elettorale delle proprie strategie all’interno degli organi costituzionali e, in particolare, delle procedure parlamentari42. E ciò perché, in una logica che legittima la produzione politica del diritto essenzialmente in funzione del rapporto di investitura, se le scelte po-

41   Chi scrive ha provato a sviluppare questo ragionamento in maniera più compiuta, e alla luce della storia delle riforme nel nostro ordinamento, in A. Cardone, Brevi note sulla degenerazione del sistema delle fonti: gli effetti convergenti della crisi della sovranità statale e della forma di governo parlamentare alla luce dell’esperienza italiana, in A. Pérez Miras, G.M. Teruel Lozano, E. Raffiotta e M.P. Iadicicco (a cura di), Setenta años de Constitución italiana y cuarenta años de Constitución española, IV, Centro de estudios políticos y constitucionales, Madrid 2020, p. 24 ss. 42   A. Cardone, “Decisione algoritmica”, cit., p. 59 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

144

Andrea Cardone

litiche non sono più il frutto del compromesso tra gli indirizzi politici che gli elettori hanno affidato ai parlamentari eletti nelle liste dei partiti, l’incidenza della democrazia interna a questi ultimi sulla democraticità complessiva del sistema si riduce al lumicino: le decisioni vengono semplicemente prese altrove e con altri metodi. Si comprende, allora, che, proprio per «controbilanciare» gli effetti esiziali della frantumazione della sfera pubblica determinata dalla commercializzazione del messaggio politico, la tematica del carattere democratico della vita interna ai partiti politici torna in questa prospettiva centrale e, se impostata – in termini habermasiani, potrebbe dirsi – alla stregua della definizione di uno dei fattori costitutivi del discorso razionale e, quindi, della legittimazione politica43, supera la marginalizzazione in cui cade se osservata solo come elemento di costruzione del tratto ascendente del rapporto rappresentativo. E nella prospettiva qui eletta, ciò che merita di essere rimarcato è che da un simile cambio di paradigma risulta invertito l’effetto che il ricorso agli strumenti della Rete determina sulla produzione del diritto politico. Pur con tutti i pericoli, di non poco momento, che comportano in punto di trasparenza della gestione delle piattaforme e dei dati44, di tutela del pluralismo informativo, di circolazione di contenuti pericolosi e di possibili derive plebiscitarie45, le timide prassi ed esperienze46 che 43   Per un tentativo in questo senso, volendo, si può nuovamente vedere A. Cardone, “Decisione algoritmica”, cit., p. 122 ss. 44   Si veda, in proposito, il provvedimento n. 83 del 4 aprile 2019 del Garante per la protezione dei dati personali, con il quale è stata comminata all’Associazione Rousseau, quale responsabile del trattamento dei dati sulla omonima piattaforma, una sanzione di € 50.000 per l’inosservanza delle prescrizioni del GDPR (Reg. UE 2016/679) e, in particolare, per violazione dell’art. 32, recante, appunto, le disposizioni in materia di sicurezza del trattamento dei dati. 45  Cfr., ex multis, G. Di Cosimo, In origine venne Rousseau. Le regole dei partiti sull’uso delle tecnologie digitali, in Osservatorio sulle fonti, 2021, III, p. 972 ss.; Id., Personale e digitale: le metamorfosi del partito, in Forum di Quaderni costituzionali, 2019; A. D’Atena, Democrazia illiberale e democrazia diretta nell’era del digitale, in Rivista AIC, 2019, II p. 587 ss.; I. Rivera, Democrazia diretta e Internet. Una dimensione nuova di partecipazione popolare nell’era digitale, in P. Passaglia e D. Poletti (a cura di), op. ult. cit., p. 151 ss.; T. Casadei, Il mito del «popolo della rete» e le realtà del capo. Nuove tecnologie e organizzazioni politiche nel contesto italiano, in DPCE, 2015, III, p. 893 ss.; C. Biancalana, Il populismo nell’era di internet. Retorica e uso del web nel Movimento 5 stelle, in Il Mulino, 2014, I, p. 53 ss. 46   Sottolinea che le potenzialità della Rete non sono ancora adeguatamente sfruttate dai partiti F. Scuto, L’organizzazione e il funzionamento interno dei partiti: vecchi e (apparentemente) nuovi modelli di fronte all’art. 49 cost., in Diritto costituzionale. Rivista quadrimestrale, 2019, p. 140.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilazione a fini politico-elettorali e tenuta della democrazia

145

si cominciano a distinguere in punto di utilizzo partecipativo di Internet Platform e Social Network da parte dei partiti politici, infatti, nella misura in cui siano ascrivibili al modello della c.d. «democrazia deliberativa»47, rappresentano un fattore di legittimazione che può spingere verso, e non contro, la creazione discorsiva del diritto legislativo. Con particolare riguardo al «metodo democratico interno», dunque, le risorse della Rete possono giocare un ruolo fondamentale per l’ampliamento delle sedi, delle forme e dell’efficacia della partecipazione popolare, dando alla «libertà informatica» una nuova dimensione politica48. Da questo punto di vista, allora, il contesto delle ICT, se letto nel quadro delle concezioni deliberative della democrazia, può rappresentare un «puntello» in grado di sorreggere la democrazia rappresentativa sul versante degli input, ovvero di integrare i fattori di legittimazione «in ingresso» del processo di produzione del diritto politico. 5. Ci si può, in conclusione, augurare che dalle riflessioni svolte risulti confermato quanto si diceva in apertura proponendo il rilievo che, nella nuova realtà politico-costituzionale definita dalla Rete49, le questioni di tutela dei diritti fondamentali del cittadino/consumatore/ utente sono inscindibili da quella di tenuta della democraticità complessiva del sistema. Lo si ribadisce perché questa acquisizione consente di raggiungere un secondo risultato metodologico, centrale per affrontare le sfide della regolazione del web, ovvero che, secondo una logica ordinamentale, devono essere considerate più performanti quelle misure legislative che, nel tutelare l’effettività dei diritti che vengono esercitati online, producono anche l’effetto di regolare il pluralismo democratico nella Rete. Così, ad esempio, appaiono particolarmente opportune norme che

47   Il che può avvenire solo nel rispetto delle condizioni che si possono trovare ben indicate da R. Bifulco, Democrazia deliberativa (voce), in Enc. dir., Annali, VI, Milano 2011, p. 271 ss. 48   Come noto, l’espressione si deve a V. Frosini, La protezione della riservatezza nella società informatica, in N. Matteucci (a cura di), Privacy e banche dei dati, Bologna 1981, p. 37 ss., che l’ha teorizzata con riferimento al diritto alla riservatezza, ma la cui «rivisitazione» in chiave di partecipazione politica è stata recentemente proposta da T.E. Frosini, Liberté Egalité Internet, cit., pp. 147-150. 49  Che L. Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Milano 2017, p. 68 ss., definisce come l’«infosfera», in cui si sviluppa una nuova forma di esperienza umana «onlife», che coniuga senza soluzione di continuità carbonio e silicio, analogico e digitale, online e offline.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

146

Andrea Cardone

introducano una puntuale regolamentazione della comunicazione politica sulle Internet Platform e sui Social Network in campagna elettorale, ma non solo, come dimostra il ricordato utilizzo di queste realtà da parte dei partiti nei rapporti con gli iscritti. Ancora si sente l’esigenza, per quanto riguarda gli aspetti più puntuali, di una definizione di politiche attive idonee ad ampliare l’accesso alla Rete da parte degli utenti, dell’imposizione dell’obbligo di garantire il pluralismo informativo in certi luoghi virtuali o della creazione di appositi deliberative domain, così come del divieto di utilizzare tecniche come il microtargeting ed i bot, nonché della previsione di un alert obbligatorio che avvisi l’utente di essere raggiunto da messaggi di propaganda politica. In termini più generali, poi, si è forse atteso troppo per l’introduzione di misure atte a garantire la concorrenzialità del «mercato unico» definito dal diritto della convergenza, per la generalizzazione di un obbligo di offerta di servizi pubblicitari a parità di condizioni economiche per tutte le forze politiche, così come per l’istituzione di una apposita Autorità garante – o per la ridefinizione di una di quelle esistenti – che coniughi poteri (o anche solo istituti) anticoncentrazionistici, regolatori del pluralismo democratico e di tutela della privacy50. Molto c’è, dunque, da fare e molto, conseguentemente, ci sarà da studiare per seguire le evoluzioni di un tema, cruciale, alla cui corretta impostazione si spera di aver dato un minimo contributo.

50   È la strada indicata dalla nota decisione sul «caso Facebook» del Bundeskartellamt del 6 febbraio del 2019, che ha applicato in sede di giudizio anticoncentrazionistico alcuni istituti tipici della tutela della privacy per giungere ad imporre al colosso social importanti limitazioni nella raccolta dei dati personali: cfr., ex multis, F. Bostoen, When Competition Law Met Data Protection: the Bundeskartellamt’s Facebook Decision, in CoRe Blog, 18 febbraio 2019.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Silvia Sassi*

Il contrasto alla disinformazione in Unione europea: una tutela per la tenuta della democrazia

Sommario: 1. Premessa. – 2. La disinformazione: un fenomeno degenerativo dell’informazione. – 3. Misure adottate per contrastare la disinformazione. - 3.1. Le molteplici misure adottate dall’UE. - 3.1.1. Il soft law tra logiche di trasparenza e di cooperazione. - 3.1.2. La hard law tra valutazione del rischio e calcolo del danno. - a) La proposta di regolamento sui servizi digitali: la valutazione del rischio. - b) La proposta di regolamento sull’intelligenza artificiale: il calcolo del danno. - 3.2. La regolamentazione di alcuni Stati membri UE. - 3.2.1. Le misure legislative ad hoc contro la disinformazione. - a) Germania. – b) Francia. – 4. Conclusioni.

1. La disinformazione è una delle tecniche di più antica data1 utilizzata dal potere per conquistare il territorio nemico senza combattere. Ciò che però oggigiorno la rende maggiormente sfuggente e subdola rispetto al passato è l’impiego, nella sua attuazione, della tecnologia digitale. Lo spazio cibernetico è terreno quanto mai fertile per manipolare le informazioni con effetti distorsivi sugli assetti democratici nella loro complessità per una serie di ragioni. Questo ambiente non solo consente in maniera più rapida ed economica uno scambio intermittente e virale di informazioni di qualsiasi natura, ma è anche una pratica meno rischiosa per chi la pone in essere in ragione, ad esempio, dell’anonimato che pervade il sistema. Peraltro, questo spazio sfugge alla sovranità statale, è privo di un governo e vergine di norme giuridiche, in quanto ancora dominato da enti privati le cui logiche risiedono nel «capitalismo della sorveglianza»2. Se dunque, per le ragioni sopra rapidamente accennate, la pratica della disinformazione è divenuta oggigiorno più pericolosa, è giunto il *Professoressa di Diritto pubblico comparato nell’Università di Firenze.   Per un excursus storico sulle tecniche manipolatorie usate fin dall’antichità cfr. A. Koyré, Réfléxions sur le mesogne, Paris 2004 e P. Mieli, Le verità nascoste. Trenta casi di manipolazione della storia, Milano 2019; mentre per quelle impiegate in età contemporanea da diversi regimi e Stati v. T. Rid, Misure attive, trad. it., Roma 2022. 2  Così S. Zuboff, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, trad. it., Roma 2019. 1

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

148

Silvia Sassi

momento di riflettere sulla necessità di approdare a un quadro organico di regole che la contrasti nel rispetto dei valori democratici. Il tema sarà sviluppato guardando, in via esclusiva, a quanto elaborato fino ad ora dall’Unione europea e dai suoi Stati membri3. 2. La disinformazione è fenomeno degenerativo dell’informazione. È il suo opposto. L’informazione è fattore arricchente la democrazia, la disinformazione è depauperante. Il modello di democrazia liberale è un sistema aperto, plurale, nel quale la libertà di pensiero si espande al punto da tollerare anche le opinioni più odiose e/o fake. Un sistema peraltro che, basandosi sul meccanismo del Free Market of Ideas4, permette di far prevalere le idee migliori, espungendo, per conseguenza, quelle peggiori. Se però questo meccanismo sotteso al mercato delle idee, che dà luogo al modello di democrazia liberale, viene a essere falsato da fattori esterni – ad esempio, da informazioni false, inesatte o fuorvianti, veicolate intenzionalmente per provocare un danno pubblico, per creare divisioni tra Nazioni alleate, per minare l’unità di un gruppo etnico, o, ancora, per seminare tensioni all’interno di una fazione o di un partito –, è evidente che esso viene compromesso nella sua essenza, facendo perdere ai suoi partecipanti la fiducia nel meccanismo stesso. Il fenomeno della disinformazione non è dunque da sottovalutare, ed è più pernicioso di quanto si pensi. Anzitutto, perché esso non si identifica solo con le fake news. Perlomeno, non sempre. Non tutte le informazioni sono false, o non sono completamente tali. Alcune volte le stesse sono semplicemente esagerate, di parte o presentate in modo evocativo. A volte le notizie sono addirittura assenti. Altre volte, in3  Per una più ampia prospettiva cfr. S. Sassi, Disinformazione contro Costituzionalismo, Napoli 2021 e J. Bayer, B. Holznagel, K. Lubianiec, A. Pintea, J.B. Schmitt, J. Sazkács e E. Uszkiewicz, Disinformation and propaganda: impact on the functioning of the rule of law and democratic processes in the EU and its Member States, 2021 update, Bruxelles 2021. 4   Questa concezione, riassunta nella metafora del Market Place of Ideas, è stata introdotta nella nota dissenting opinion di Justice Holmes in Abrams v. United State, 250 U.S. 616, 630 (1919): «the best test truth is the power of the thought to get itself accepted in the competition of the market». Diverse ormai sono le critiche a questa teoria. Tra di esse, ricordiamo quella espressa, nel 1984, da S. Ingeber, The Marketplace of Ideas: A Legitimizing Myth, in Duke L.J., 1984, p. 1 ss.; T. Wu, Disinformation in the Marketplace of Ideas, in Seton Hall L. Rev., 2020, LI, p. 172 ss. e A. Nicita, Il mercato delle verità. Come la disinformazione minaccia la democrazia, Bologna 2021, in particolare p. 203 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il contrasto alla disinformazione in Unione Europea

149

formazioni vere possono essere manipolate sotto diverse forme, mescolate a fatti, fonti e a pratiche verosimili. Peraltro, assente è ancora una definizione chiara e univoca della «disinformazione» in quanto tale5. La tecnologia digitale, poi, ne ha potenziato l’efficacia. Si pensi alla possibilità che Internet consente di usare account semi-automatizzati e bot completamente automatizzati o di creare reti di falsi seguaci, video-fabbricati o manipolati, pubblicità mirata, trolling organizzato, memo visivi e molto altro ancora. La disinformazione può essere prodotta da tutta una serie di tecniche digitali che riguardano più la circolazione di disinformazione che la produzione di disinformazione, spaziando dalla pubblicazione, al commento, alla condivisione, al tweeting e al re-tweeting, all’impiego delle «bolle di filtraggio» (c.dd. filter bubbles) e alla creazione delle eco-chambers, ovvero camere costruite ad arte dagli algoritmi sulla base dei gusti, delle preferenze e dei pregiudizi dell’utente in modo che lo stesso rimanga chiuso nelle stesse6. Queste tecniche, tipiche dell’economia comportamentale dell’informazione, non implicano una dicotomia tra verità e falsità. La maggior parte delle volte colui che organizza simili sistemi non si posiziona rispetto alla verità, cerca piuttosto di procurarsi un vantaggio. Peraltro la diffusione di fake news può essere veicolata con colpa ma senza dolo, pur producendo nello stesso tempo effetti dannosi. È evidente che di fronte a un fenomeno così sfaccettato le misure da assumere non possono essere che molteplici e basate sinergicamente sui principi della cooperazione e della trasparenza. 5   Non solo tante sono le espressioni impiegate dalla letteratura sociologica e politologica per inquadrare il fenomeno della disinformazione (al riguardo cfr. C. Wardle, Information Disorder, Council of Europe, August 2018, 2nd ed., V, e da J.-B. Jeangène Vilmer, A. Escorcia, M. Guillame e J. Herrera, Les Manipulations de l’information. Un défi pour nos démocraties, Paris 2018, pp. 18-20), ma molteplici sono anche quelle giuridiche (v. quelle riportate dal rapporto ERGA, Notions of Disinformation and related concepts, Bruxelles 2021, in part. p. 30 ss. e 62 ss). 6   Una recente ricerca di M. Cinelli, G. De Francisci Morales, A. Galeazzi, W. Quattrociocchi e M. Starnini, The echo chamber effect on social media, in www.pnas.org, 2021, CXVIII, IX, ha confermato quanto realisticamente i social media favoriscono la formazione di gruppi di utenti che la pensano allo stesso modo, polarizzando il discorso. L’articolo è di interesse perché esplora le differenze chiave tra le principali piattaforme di social media e analizza come queste riescano a influenzare la diffusione delle informazioni e la formazione di camere d’eco. L’analisi comparativa verte su più di 100 milioni di contenuti riguardanti diversi argomenti controversi (ad es., controllo delle armi, vaccinazione, aborto, e così via) diffusi su Gab, Facebook, Reddit e Twitter. I risultati della ricerca sono interessanti: Facebook risulta essere la piattaforma con il maggior livello di segregazione.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

150

Silvia Sassi

3. Di fronte all’implosione della disinformazione dovuta al suo approdo anche su Internet, Stati e organizzazioni di varia natura hanno cominciato, a partire in particolare dal 2015 – in concomitanza con alcuni eventi politici di significativo rilievo quanto alle dinamiche geo-politiche7 – ad attivarsi adottando una serie di misure capaci di contrastarla. In questa sede, come in precedenza spiegato, ci concentreremo sulla lotta alla disinformazione condotta dall’Unione europea e dai suoi Stati membri. 3.1 Preme precisare fin da subito che l’Unione europea non intende «criminalizzare o vietare la disinformazione»8 online quanto piuttosto tutelare la libertà di espressione e altri diritti di libertà garantiti dalla Carta dei diritti fondamentali dell’Unione europea per un reale dibattitto democratico. Non è un caso infatti che la disinformazione – sia quella «con» sia quella «senza» intenzione fraudolenta a provocare un danno – è categorizzata dall’ordinamento europeo quale pratica dai contenuti «dannosi» ma «non illegali»9. Con questo spirito, dunque, l’Unione europea ha cercato – con un dialogo strutturato tra gli attori del settore interessati, la Commissione e altre autorità nazionali ed europee, ai sensi dell’art. 11 TUE – di sviluppare un quadro comune di regole entro il quale affrontare la disinformazione online e con cui dare avvio, seppure in via embrionale, a un processo di apertura, trasparenza e di responsabilità fra tutti i soggetti coinvolti.

7   Ci si riferisce in particolare al referendum sulla Brexit (2016), alle elezioni presidenziali americane (2016) e francesi (2017), alle elezioni federali in Germania (2017) nonché a quelle europee (2019). 8   Così afferma la Commissione europea nella sua comunicazione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle Regioni, Orientamenti della Commissione europea sul rafforzamento del codice di buone pratiche sulla disinformazione, Bruxelles, 26.5.2021, COM(2021) 262 final, 1. 9   Cfr. Comunicazione congiunta della Commissione europea e Alto rappresentante dell’Unione per gli affari esteri e la politica di sicurezza al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle Regioni, Tackling COVID-19 disinformation – Getting the facts right, Bruxelles, 10.6.2020, JOIN(2020) 8 final, 4, e comunicazione della Commissione europea al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle Regioni, sul piano d’azione per la democrazia europea, Bruxelles, 3.12.2020, COM(2020) 790 final, 20.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il contrasto alla disinformazione in Unione Europea

151

3.1.1 Con l’obiettivo di rendere l’ecosistema digitale più trasparente, sicuro e affidabile, da un lato, e di responsabilizzare gli attori privati che in esso vi gravitano, dall’altro, l’Unione europea ha adottato in prima battuta una serie di misure di natura soft. Tra di esse, è da citare anzitutto il «Codice di buone pratiche per la disinformazione», uno strumento volontario posto in essere dai rappresentanti dell’industria tecnologica e pubblicitaria in regime, almeno formalmente, di autoregolamentazione, adottato nel 2018 su sollecitazione del rapporto finale predisposto dal gruppo di esperti di alto livello sulle notizie false e sulla disinformazione online10 (c.d. «High Level Group on Fake News and Online Disinformation»). Questo Codice certamente è misura «unica» e «innovativa»11 con la quale, per la prima volta, si definisce una politica contro la disinformazione online da sviluppare per il tramite di una collaborazione strutturale con le piattaforme digitali per monitorarla, migliorarla e attuarla efficacemente. A fronte, però, delle criticità rilevate nella sua prima applicazione12, la Commissione europea, esortata anche dal Consiglio europeo13, ha adottato nel maggio del 2021 gli «orientamenti sul rafforzamento del

10  Commissione europea, comunicazione congiunta al Parlamento europeo, al Consiglio europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle Regioni, Relazione sull’attuazione del piano di azione contro la disinformazione, Bruxelles, 14.6.2019, JOIN(2019)12 final, 2. Per la genesi e un inquadramento generale del Codice v. M. Monti, La disinformazione on-line, la crisi del rapporto pubblico-esperti e il rischio della privatizzazione della censura nelle azioni dell’Unione europea (Code of practice on disinformation), in Federalismi.it, 2020, XI, pp. 291-4. Più specificamente sulla tipologia di atto v. A. Kuczerawy, Fighting on-line disinformation: did the EU Code of Practice forget about freedom of expression?, in E. Kuzelewska, G. Terzis, D. Trottier e D. Kloza (a cura di), Disinformation and Digital Media as a Challenge for Democracy, Cambridge 2019, pp. 8-9. 11   Come sottolineato dallo European Regulators Group for Audiovisual Media Services (ERGA), Erga Report on Disinformation: Assessment of the Implementation of the Code of Practice, 3, in: http://erga-online.eu/wp-content/uploads/2020/05/ ERGA-2019-report-published-2020-LQ.pdf. 12   Al riguardo v. Commission Staff Working Document, Assessment of the Code of Practice on Disinformation – Achievements and areas for further improvement, Bruxelles, 10.9.2020, SWD(2020)180 final. 13  Ci si riferisce alle conclusioni del Consiglio europeo del 10.12.2019, Sforzi complementari per rafforzare la resilienza e contrastare le minacce ibride, Bruxelles, 14972/19, 10 e del 15.12.2020, Sul rafforzamento della resilienza e il contrasto delle minacce ibride, compresa la disinformazione nel contesto della pandemia di COVID-19, Bruxelles, 14064/20.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

152

Silvia Sassi

codice di buone pratiche sulla disinformazione»14 volti essenzialmente a potenziare gli impegni già assunti dalle aziende digitali e pubblicitarie al fine di attenuare i rischi legati alla disinformazione cui i loro servizi possono influire sulla democrazia. Nel giugno 2022 viene pubblicato il (nuovo) «Codice rafforzato sulla disinformazione». Diverse sono le novità che The Strengthened Code of Practice on Disinformation 2022 introduce nei rispettivi sei capitoli in cui si articola. Specificamente, nel primo il Codice cerca di aumentare il livello di sicurezza contro tattiche, tecniche e procedure, anche non evidenti, di disinformazione. Nel secondo, l’obiettivo è rafforzare, con nuovi strumenti, la posizione dell’internauta. Il terzo capitolo prevede un «fair financial contribution» a favore dei fact-checkers per renderli quanto più imparziali dalle piattaforme digitali nell’esercizio del loro lavoro. Il quarto insiste sulla necessità che i ricercatori che studiano i fenomeni di disinformazione debbano avere un pieno ed equo accesso alle informazioni loro necessarie. Il quinto capitolo affronta la questione della trasparenza nei meccanismi di «content monetisation». Il sesto, infine, affronta la delicata tematica del «political advertising». Altre misure di natura soft elaborate dalla UE contro la disinformazione devono essere menzionate. Tra di esse, è certamente da ricordare il sistema di allarme rapido («Rapid Alert System» – RAS) creato sulla base di uno dei pilastri individuati nel «Piano di azione contro la disinformazione»15 per agevolare, tra le istituzioni europee, le istituzioni nazionali, le organizzazioni internazionali e la società civile, lo scambio di migliori pratiche legate ad aspetti specifici delle campagne di disinformazione – come il micro-targeting – per consentire una conoscenza situazionale comune e permettere, quindi, un coordinamento efficace delle attività volto a individuare i responsabili della disinformazione e a formulare risposte adeguate anche sotto il profilo delle tempistiche e delle risorse a disposizione.

14  Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale e al Comitato delle Regioni, Orientamenti della Commissione europea sul rafforzamento del codice di buone pratiche sulla disinformazione, Bruxelles, 26.5.2021, COM(2021) 262 final. 15  Commissione europea, comunicazione congiunta al Parlamento europeo, al Consiglio europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle Regioni, Piano d’azione contro la disinformazione, Bruxelles, 5.12.2018, JOIN(2018) 36 final, 7 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il contrasto alla disinformazione in Unione Europea

153

Infine, di interesse si presenta la recente proposta avanzata dal Parlamento europeo nel marzo 202216 con cui si intende istituire, a norma dell’art. 207 del proprio regolamento, una commissione speciale sulle ingerenze straniere in tutti i processi democratici dell’Unione europea, inclusa la disinformazione. Tra la serie di compiti attribuiti a questa commissione speciale si richiamano: 1) quello di analizzare, in cooperazione e in consultazione con altre commissioni permanenti, la legislazione e le politiche esistenti per individuare eventuali lacune e contraddizioni che potrebbero essere sfruttate a fini di ingerenze malevoli nei processi democratici ed eliminarle; nonché 2) quello di collaborare con altre istituzioni europee e nazionali, organizzazioni internazionali, società civile e partner nei Paesi terzi per rafforzare l’azione dell’UE contro le minacce ibride e la disinformazione. Ma soprattutto 3) quello di attribuire alla stessa commissione l’individuazione del fondamento giuridico sulla cui base adottare un atto necessario a elaborare soluzioni istituzionali permanenti intese a far fronte alle ingerenze straniere malevole e alla disinformazione. Sotto questo profilo, si prevede che questa commissione possa richiedere, sulla base di una relazione, di cui all’art. 54 del proprio regolamento, una proposta appropriata al riguardo alla Commissione europea. 3.1.2 La Commissione europea ha presentato nel 2020 due proposte di regolamento riguardanti l’una i servizi digitali e l’altra l’intelligenza artificiale. Più specificamente trattasi della «proposta di regolamento del Parlamento europeo e del Consiglio relativa a un mercato unico dei servizi digitali (legge sui servizi digitali) e che modifica la direttiva 2000/31/CE»17 (d’ora innanzi: proposta DSA) e della «proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione»18 (d’ora innanzi: proposta IA). Preme chiarire fin da subito che nessuna delle due proposte di regolamento affronta in modo specifico la disinformazione, ma rimanda 16   V. Parlamento europeo, proposta di decisione, sulla costituzione, le attribuzioni, la composizione numerica e la durata del mandato della commissione speciale sulle ingerenze straniere in tutti i processi democratici dell’Unione europea, inclusa la disinformazione (INGE 2) (2022/2585(RSO)), 3.3.2022, B9-0140/2022. 17   COM(2020) 825 final. 18   COM(2020) 206 final. Sulla proposta v. in questo volume A. Simoncini.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

154

Silvia Sassi

il concetto attraverso una tecnica interpretativa estensiva. Nondimeno, esse sono interessanti ai nostri fini sotto per almeno tre profili. Anzitutto, si rileva la fonte regolamentare con cui si intende disciplinare la questione in essere, indicativa dell’obiettivo da perseguire: accrescere e uniformare le responsabilità dei prestatori di servizi digitali, rafforzando anche il controllo sulle politiche di contenuto delle piattaforme online nell’UE, per assicurare certezza giuridica e sicurezza nell’uso delle tecnologie anche in termini di rispetto dei diritti fondamentali. In secondo luogo, queste due proposte – con le differenze del caso – insistono sulla elaborazione di una regolamentazione sulle tecnologie digitali a tutela dei diritti fondamentali della persona e basata sui principi di trasparenza e di responsabilità. Una regolamentazione di natura, per così dire, antropologica, che vuole anteporre l’uomo alla macchina (algoritmica). Infine, e a cascata, degno di nota è anche il fatto di aver individuato il modo attraverso cui valutare i «rischi» e calcolare i «danni» che, rispettivamente, l’impiego di servizi digitali e di sistemi d’intelligenza artificiale possono provocare sui diritti fondamentali. 3.1.2. a) Per individuare una qualche forma di disciplina della manipolazione delle informazioni è necessario soffermarsi sulle sezioni 4 e 5 del Capo III della proposta DSA in cui, nello specifico, si pone in capo alle piattaforme di dimensioni molto grandi l’obbligo di gestire, individuare, analizzare e valutare «rischi sistemici» derivanti dal funzionamento e dall’uso dei loro servizi o connessi a tale uso e funzionamento nell’Unione. Questi rischi sono, tra gli altri, quelli che comportano effetti negativi sull’esercizio dei diritti fondamentali, tra cui la libertà di espressione e di informazione, e quelli generati dalla manipolazione intenzionale del servizio, anche mediante un uso non autentico o uno sfruttamento automatizzato del servizio, con ripercussioni negative, effettive o prevedibili, sulla tutela della salute pubblica, del dibattito civico o con effetti reali o prevedibili sui processi elettorali e sulla sicurezza pubblica (art. 26 DSA). Nel caso in cui le grandi piattaforme dovessero individuare uno dei rischi sopra detti, esse hanno l’obbligo di adottare una serie di misure che in modo ragionevole, proporzionale ed efficace possano attenuarli (art. 27, proposta DSA). Tra gli strumenti proposti a tal fine vi sono quelli, ad esempio, di adeguare i sistemi di moderazione dei contenuti ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il contrasto alla disinformazione in Unione Europea

155

o di raccomandazione, ovvero i loro processi decisionali, le caratteristiche o il funzionamento dei loro servizi, o le loro condizioni generali, così come anche di rafforzare i processi interni o di vigilanza sulle loro attività nel rilevamento di questi rischi. La conformità ai succitati obblighi viene valutata annualmente da audit esterni e indipendenti (art. 28, proposta DSA) e gestita da uno o più responsabili nominati dalle stesse piattaforme (art. 32, proposta DSA). Inoltre, per un controllo più stringente e calendarizzato delle attività svolte dalle piattaforme di grande dimensione sono previsti numerosi altri obblighi quanto alla condivisione dei loro dati e a una loro comunicazione trasparente. Infine, per contribuire alla corretta applicazione delle norme previste, la proposta di regolamento promuove l’elaborazione di codici di condotta, quali espressione di protocolli di crisi, che affrontino situazioni straordinarie che incidono sulla sicurezza o sulla salute pubblica (art. 37, proposta DSA). Da segnalare che tutte queste soluzioni si sviluppano secondo una logica di cooperazione trasversale tra soggetti privati, soggetti pubblici ed enti del terzo settore inserita in una logica di governance di natura transnazionale. 3.1.2. b) Questa proposta è da segnalare ai nostri fini perché per la prima volta si ammette che l’impiego di alcuni sistemi di intelligenza artificiale – quali, ad esempio, quelli utilizzati per generare o manipolare immagini o contenuti audio o video (art. 1, lett. c), proposta IA) – possono essere forieri di danno comportando rischi significativi per la salute, la sicurezza o per i diritti fondamentali delle persone19. Non tutti questi rischi sono posti però sullo stesso piano. Gerarchicamente parlando la loro classificazione dipende dal livello di contrasto con i valori europei. Per conseguenza modulare è la loro disciplina a seconda che il rischio, calcolando il danno, sia configurato come «inaccettabile», «alto» o «basso o minimo». Se il rischio è «inaccettabile»

19   Sull’impatto dell’intelligenza artificiale su diritti fondamentali dell’uomo e per limiti opponibili agli strumenti di giustizia predittiva per la soluzione di controversie giudiziarie cfr. A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw J. – Riv. BioDiritto, 2019; C. Casonato, Costituzione e intelligenza artificiale; un’agenda per il prossimo futuro, in BioLaw J. – Riv. BioDiritto, 2019; F. Donati, Intelligenza artificiale e giustizia, in Rivista AIC, 2020, p. 415 ss. e A. D’Aloia (a cura di), Intelligenza artificiale e diritto. Come regolare un mondo nuovo, Milano 2021.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

156

Silvia Sassi

l’impiego del sistema di intelligenza artificiale è vietato nel mercato europeo. Ed è tale quel sistema che manipola intenzionalmente le persone attraverso tecniche subliminali, oppure sfrutta la vulnerabilità di soggetti c.dd. deboli al fine di distorcerne materialmente il comportamento in maniera da provocare loro o a un’altra persona un danno psicologico o fisico. Di contro, se l’impiego del sistema comporta un rischio «alto» sulla salute, sulla sicurezza o sui diritti fondamentali delle persone fisiche, questo sistema è ammissibile purché rispetti determinati requisiti e una valutazione di conformità ex ante. In questo caso è necessario tenere conto non solo della funzione svolta dal sistema stesso ma anche delle finalità e modalità specifiche del suo impiego. Tra le categorie di sistemi ad alto rischio, e il cui utilizzo è permesso, spiccano per il nostro interesse quelle individuate nel Capo 1 del Titolo III20, ovvero quelle che impattano sui diritti fondamentali di cui all’allegato III, della proposta IA. Si tratta in particolare di quei sistemi destinati a essere utilizzati dalle autorità di contrasto per individuare i «deep fake» e per valutare l’affidabilità degli elementi probatori nel corso delle indagini o del perseguimento di reati (all. III, 6, lett. c) e d)). Ovvero di quei sistemi di intelligenza artificiale utili all’amministrazione della giustizia e ai processi democratici, quindi quelli destinati ad assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti (all. III, 8, lett. a). La proposta IA non si limita a individuare le suddette tipologie di sistemi di intelligenza artificiale ad alto rischio permesse all’interno del mercato europeo. Il Capo 2 definisce i rispettivi requisiti giuridici in relazione ai dati e alla loro governance, alla documentazione e alla conservazione delle registrazioni, alla trasparenza e alla fornitura di informazioni agli utenti, alla sorveglianza umana, alla loro robustezza, accuratezza e sicurezza. Il Capo 3 individua, poi, una chiara serie di obblighi orizzontali per i fornitori di sistemi di intelligenza artificiale ad alto rischio. Altrettanti obblighi sono imposti in modo proporzionale agli utenti e ad altri partecipanti lungo la catena del valore dell’IA21. Il Capo 4 precisa quali organismi dovranno essere coinvolti come terze parti indipendenti nelle procedure di valutazione di conformità, mentre il Capo 5 spiega nel dettaglio le procedure di

20   Elenco che però nel tempo potrebbe essere ampliato dalla Commissione europea applicando una serie di criteri e una metodologia di valutazione dei rischi. 21   Quali ad es. sono gli importatori, i distributori, i rappresentanti autorizzati.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il contrasto alla disinformazione in Unione Europea

157

valutazione di conformità da seguire per ciascun sistema considerato di alto rischio. Il Titolo IV della proposta IA si concentra poi sugli obblighi di trasparenza da applicarsi in particolare per quei sistemi che interagiscono con gli esseri umani o che generano o manipolano contenuti, audio o video che assomigliano a contenuti autentici (deep fake). Al riguardo, si prevede in particolare l’obbligo di informare le persone quando le stesse interagiscono con questa tipologia di sistemi di intelligenza artificiale o quando le loro emozioni o caratteristiche vengono riconosciute attraverso mezzi automatizzati, fatte salve le eccezioni per finalità legittime (attività di contrasto, libertà di espressione). L’obiettivo è quello di permettere alle persone di compiere scelte informate22. Infine, per il principio per cui de minimis non curat lex, i rischi classificati «bassi» o «minimi» non sono disciplinati specificamente dalla proposta IA. Per la loro regolamentazione si rinvia a forme di auto-regolamentazione, nella forma dei codici di condotta, con l’auspicio però che i fornitori di sistemi di intelligenza artificiale applichino volontariamente i requisiti obbligatori previsti per i sistemi di intelligenza artificiale ad alto rischio (Titolo IX, proposta IA). 3.2 Frastagliata, quanto a forza e a livelli, è la regolamentazione adottata dagli Stati europei per contrastare la disinformazione. In linea generale la maggior parte dei Paesi UE impiega strumenti di soft law, pochi sono quelli che adottano misure di hard law23. E tra queste ultime molte sono di natura punitiva24, poche sono invece quelle adottate per combattere specificamente la disinformazione. 3.2.1 Tra gli Stati UE che attualmente si sono dotati di legislazioni ad hoc contro la disinformazione ricordiamo, in particolare, la Germania e la Francia. 3.2.1. a) Pionieristicamente la Germania ha adottato il 1° settembre

22   Commissione europea, Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione, cit., p. 16. 23  Cfr. Aa.Vv., Study for the “Assessment of the implementation of the Code of Practice on Disinformation” – Final Report, Luxembourg 2020, p. 75 ss. ed European Parliament, The Fight Against Disinformation and the Right to Freedom expression, Bruxelles 2021, p. 62 ss. 24   European Parliament, The Fight Against Disinformation and the Right to Freedom expression, cit., p. 68 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

158

Silvia Sassi

2017 la Netzwerdurchsetzungsgesetz (d’ora innanzi: NetzDG)25 con lo scopo di combattere anche le fake news online26, e non solo l’hate speech27. L’iter legislativo di questo atto non si è arrestato nonostante la Repubblica federale tedesca avesse già un corpus normativo capace di tutelare gli individui e/o il pubblico dalla manipolazione delle informazioni a seconda dei casi in essere28 e le accese critiche mosse al medesimo atto sotto il profilo della sua legittimità costituzionale e conformità ai parametri internazionali in materia di libertà di manifestazione del pensiero in particolare29. Il motivo principe che ha spinto la Repubblica federale tedesca a varare questa nuova tipologia di legislazione è da rinvenire nella ferma volontà di migliorare le norme già esistenti30,

25   La legge però non è entrata in vigore immediatamente. L’art. 6.2 della NetzDG ha concesso un termine di tre mesi alle piattaforme digitali per dare loro la possibilità di adeguarsi, anche dal punto di vista prettamente tecnico, al nuovo contesto dalla stessa predisposto. Questa legge è stata di recente emendata dalla «Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes». 26   Ciò viene chiaramente affermato nelle motivazioni della NetzDG «Nach den Erfahrungen im US-Wahlkampf hat überdies auch in der Bun- desrepublik Deutschland die Bekämpfung von strafbaren Falschnachrichten („Fake News“) in sozialen Netzwerken hohe Priorität gewonnen». 27   Al punto che questa legge sembra essere presa a modello nelle proposte di diversi Paesi «to introduce unduly restrictive intermediary laws or social media regulations that would enable the removal of “fake news” without a judicial or even a quasi-judicial order»: così I. Khan, Report of the Special Rapporteur on the Promotion and Protection of the Right to Freedom of Opinion and Expression – Disinformation and Freedom of Opinion and Expression, A/HRC/47/25, 13.4.2021, p. 12. 28  Questo corpus normativo ricade tanto in ambito civile quanto penale. Sotto quest’ultimo, e senza alcuna pretesa esaustiva, ricordiamo ad es. le sections 186 (Malicious Gossip-üble Nachrede), 187 (Defamation), 188 (Malicious Gossip and Defamation in relation to persons in political life), 192 (Insult despite proof of truth) del c.p. tedesco (Strafgesezbuch – StGB). Sotto il profilo civilistico citiamo: Telemediengesetz (TMG) del 2007, Staattsvertrag für Rundukfunk und Telemedien (RStV) del 1991 e Publizistische Grundsätze del 2017. 29   Se così è, appare comprensibile l’atteggiamento della Corte costituzionale tedesca che ha descritto come «non ancora risolte» alcune questioni sollevate contro la NetzDG. Sul punto BVerfG, Beschl. (order) v. 22.5.2019, 1 BvQ 42/19, punti 15-17. Per un riassunto delle critiche dottrinali rivolte alla NetzDG, cfr. G. Nolte, Hate-Speech, Fake-News, das «Netzwerkdurchsetzungsgestez» und Vielfaltsicherung durch Suchmaschinen, 61 ZUM, 2017, p. 552 ss., p. 554; Article 19, Germany: The Act to improve Enforcement of the Law in Social Networks, August 2017, in Article.19. org; H. Tworek e P. Leerssen, An Analysis of Germany’s NetzDG Law, a WP of Transatlantic Working Group, in Ivir.nl/twg, 15 aprile 2019. 30   Nelle motivazioni del progetto di legge n. 18/12356 sul miglioramento dell’applicazione della legge nelle reti sociali, p. 1, si afferma che «Es bedarf […] einer Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken, um objektiv strafbare

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il contrasto alla disinformazione in Unione Europea

159

considerate insufficienti ad arginare adeguatamente il fenomeno della disinformazione. Questa legge si caratterizza per alcuni elementi chiave. Anzitutto, essa cerca di rendere responsabili e trasparenti le grandi piattaforme digitali31. La NetzDG non crea nuove categorie di contenuti illeciti. Il suo scopo è quello di applicare le fattispecie di reato già previste nel codice penale tedesco32 nello spazio online e di responsabilizzare le piattaforme di social network della loro attuazione. Dal punto di vista soggettivo, dunque, la NetzDG si applica solo ai fornitori di servizi telematici (Telemediendiensteanbieter) che, con intento di profittabilità, gestiscono piattaforme Internet con significativi flussi di informazione e di contenuti condivisi tra gli utenti o resi disponibili al pubblico (sect. 1(1)). Ne rimangono escluse le piattaforme che pubblicano contenuti giornalistici originali e/o che erogano servizi di posta elettronica o di messaggistica (sect. 1(1)e (2)). Dal punto di vista oggettivo, la NetzDG obbliga questi Big Tech a rimuovere o a bloccare, entro ventiquattro ore dal ricevimento di un reclamo da parte di un utente, un contenuto «manifestamente illecito»33. Se l’illiceità del dato fluttuato nella rete è di dubbia interpretazione, si concedono alla piattaforma digitale almeno sette giorni per verificare e analizzare l’informazione prima di rimuoverla (sect. 3(2)3). La NetzDG impone a queste grandi piattaforme digitali di agire secondo trasparenza. Più specificamente, si richiede ai social network di fornire ai loro utenti un meccanismo di reclamo semplice, trasparente e costantemente disponibile (sect. 3(1)). Ogni decisione assunta in merito al reclamo deve essere comunicata al denunciante e all’utente interessato senza ritardi ingiustificati (sect. 3(2)5). Inoltre, se la piattaforma digitale riceve più di un centinaio di reclami all’anno per aver ospitato contenuti illeciti, è tenuta a pubblicare rapporti semestrali piuttosto Inhalte wie etwa Volksverhetzung, Beleidigung, Verleumdung oder Stö- rung des öffentlichen Friedens». 31   La cui dimensione viene quantificata nella soglia di utenti registrati dagli stessi nel territorio tedesco, che non deve essere inferiore a due milioni (art. 1(2) NetzDG). 32   Puntualizzate nella sect. 1(3) della NetzDG e che riguardano, ad esempio, la diffusione di materiale propagandistico o l’uso di simboli di organizzazioni anticostituzionali, l’istigazione di un reato grave e violento che metta in pericolo lo Stato, la commissione di falsificazioni traditrici, l’incitamento pubblico al crimine, all’odio e alla diffamazione. 33   Sect. 3 (2)2, NetzDG. Il tempo può essere prorogato nel caso in cui il social network abbia raggiunto al riguardo un accordo con l’autorità competente. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

160

Silvia Sassi

dettagliati in cui si rende chiaro il trattamento dei reclami pervenuti e le sue pratiche di moderazione (sect. 2, NetzDG). Il fornitore di servizi telematici che viola, con dolo o con colpa, alcuni di questi doveri34 può essere sanzionato dall’autorità amministrativa a ciò preposta con una ammenda proporzionale all’infrazione commessa, fino alla cifra massima di cinque milioni di euro35. Se la decisione assunta da questa autorità amministrativa è dubbia, si prevede il ricorso al giudice competente, il cui giudizio è inoppugnabile e vincolante per l’autorità amministrativa (sect. 4(5), NetzDG). La NetzDG, come già detto, è stata oggetto di vivaci dibattiti e forti critiche imputabili principalmente a due questioni: che avrebbe incoraggiato una «rimozione eccessiva» dei contenuti, da un lato, e che avrebbe legittimato una «censura privata», dall’altro36. Sotto il primo profilo, si segnala la possibilità che la legge, per come è congegnata, potrebbe incoraggiare la rimozione di contenuti anche leciti sulla base di due considerazioni. Le piattaforme digitali non hanno né la capacità né la competenza per procedere a simili valutazioni che presuppongono una significativa conoscenza della lingua e della giurisprudenza tedesca, così come una complessa analisi e indagine caso per caso. Peraltro, considerate le scadenze strette nella rimozione e le pesanti multe nel caso di inadempienza, le piattaforme avrebbero

  Nel dettaglio v. sez. 4, NetzDG.   Per l’individuazione di questa autorità amministrativa preposta all’avvio del procedimento sanzionatorio e per la valutazione dell’ammenda v. le Linee guida (Leitlinien zur Festsetzung von Geldbußen im Bereich des Netzwerkdurchsetzungsgesetzes) del 22.3. 2018. Al riguardo è da segnalare un caso: nel luglio 2019, l’Ufficio federale di giustizia tedesco (Bundesamt für Justiz – BfJ) ha sanzionato con una multa di due milioni di euro Facebook Ireland Limited per aver violato le disposizioni della NetzDG relative agli standard di segnalazione. Nello specifico, il BfJ ha ammonito l’azienda per aver fornito nel rapporto sul numero di reclami ricevuti sui contenuti illeciti informazioni non complete. Ciò, secondo l’Ufficio, comporta gravi conseguenze in termini di creazione di un’immagine sfalsata sia della quantità di contenuti illeciti sia della risposta del social network ad essi. Inoltre, rende impraticabile la valutazione del meccanismo di reclamo previsto dalla stessa NetzDG. Per il momento Facebook sembra non aver ancora presentato ricorso contro la decisione. Sul punto cfr. Bundesverfassungsgericht, Federal Office of Justice Issues Fine against Facebook, Press release of 3 July 2019 e Library of Congress, Global Legal Monitor, Germany: Facebook Found Violation of ‘Anti-Fake News’ Law, 2019. 36   Al riguardo cfr. le analisi dettagliate di Article 19, Germany: The Act to improve Enforcement of the Law in Social Networks, cit., p. 12 ss. e di H. Tworek e P. Leerssen, op. cit., pp. 2-4. 34 35

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il contrasto alla disinformazione in Unione Europea

161

un forte incentivo a conformarsi alla maggior parte dei reclami, indipendentemente dalla loro effettiva fondatezza. Sotto il secondo profilo, quello della configurazione di un esempio di «censura privata», si contesta l’affidamento a soggetti privati, piuttosto che a Tribunali o altre istituzioni democraticamente legittimate, di valutare la liceità dei contenuti con conseguente possibilità della loro rimozione senza una previa ordinanza di un tribunale, né un chiaro ricorso per le vittime per cercare una riparazione indipendente. Critiche tutte pienamente condivisibili. Nondimeno un pregio deve essere tratto da questa legge: quello relativo al principio di trasparenza e di responsabilità sotteso alla stessa, sulla base del quale si fonda l’obbligo per le grandi piattaforme di rilasciare relazioni semestrali di trasparenza del loro operato. Rapporti dai quali sono emerse nel tempo informazioni utili al legislatore per apportare eventuali migliorie alla NetzDG stessa. Segnatamente, si rileva che la maggior parte delle rimozioni effettuate dalle piattaforme digitali su istanza di reclamo sembrano essere avvenute più sulla base degli standard che l’azienda digitale fissa per sé che sul parametro delle leggi tedesche che la NetzDG intende far rispettare37. A cascata, pertanto, è riscontrabile che all’interno del territorio tedesco la rimozione dei contenuti illeciti si misura prevalentemente sulle linee guida della comunità aziendale. Inoltre, sempre da questi rapporti, emerge che molto simili sono le procedure utilizzate dalle piattaforme per la notifica agli uploader: chi presenta un reclamo riceve una prima conferma dell’avvenuta ricezione e una seconda conferma solo se è stata presa una decisione di rimozione del contenuto. Se i reclami vengono respinti non viene inoltrata alcuna notifica. In sintesi: la NetzDG si configura come una prima soluzione al problema in essere ma da interpretare. Le relazioni di trasparenza elaborate da ciascuna piattaforma digitale mostrano quanto la NetzDG sia più una legge che legittima l’applicazione delle linee guida adottate dal social network che quelle previste dall’ordinamento giuridico tedesco. Assenti in questi rapporti sono i dettagli relativi tanto alle modalità con cui le aziende formano il personale di moderazione quanto 37   Più specificatamente dalle relazioni presentate da Google, Facebook e Twitter risulta – anche se in modo non uniforme – che questi Big Tech rimuovono il contenuto dando priorità alle proprie linee guida. Solo in seconda battuta, si tiene conto di una delle ventidue fattispecie giuridiche previste dal codice penale tedesco di cui alla NetzDG.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

162

Silvia Sassi

ai meccanismi di ricorso e del controllo di qualità. Comunque sia, da quando la NetzDG è entrata in vigore si registrano alcuni miglioramenti quanto ai tassi di conformità dettati dall’ordinamento tedesco, che invece non erano stati affatto riscontrati in previgenza, ovvero quando, nel 2015, la Germania aveva lasciato alle piattaforme digitali di governare il sistema in regime di self-regulation. L’esperienza pratica applicativa della NetzDG mostra quindi che alcune migliorie devono essere apportate, per ridefinire al meglio la relazione tra piattaforme, governi e società civile38. Modifiche che per l’appunto sono state apportate con la nuova «Gesetz zur Änderung des Netzwerkdurchsetzungsgesetzes» adottata il 3 giugno 2021. 3.2.1. b) L’approccio francese al tema è diverso rispetto a quello tedesco. Nonostante ciò, anche in questo ordinamento diverse sono state le critiche mosse dalla società civile quanto alla battaglia promossa nell’ordinamento francese contro la disinformazione. Il legislatore d’oltralpe, considerando che Internet in quanto spazio di libertà possa essere anche uno spazio contro le libertà39, ha di fatto, nel tempo, allineato l’esercizio della libertà di espressione sul Web alla libertà di stampa, al fine di evitare abusi che violino altri diritti e libertà, oltre che gli interessi della società40. 38   Al riguardo, è interessante il rapporto contenuto nel progetto di legge di modifica la NetzDG del 24.4.2020 (BT-Drs. 19/18792 – Gesetzentwurf der Bundesregierung Entwurf eines Gesetzes zur Änderung des Netzwerkdurchsetzungsgesetzes) nella parte in cui si afferma che gli obiettivi perseguiti dalla NetzDG sono stati raggiunti in misura considerevole, pertanto sono lievi le migliorie che si dovranno apportare. Nel frattempo, il governo tedesco ha adottato una serie di regolamenti supplementari destinati a migliorare ulteriormente la lotta contro i contenuti criminali diffusi sulle piattaforme digitali e a rendere più trasparente la disciplina. 39  Il Conseil Constitutionnel, in alcune sue decisioni (DC du 10 juin 2009, n. 2009580 e DC du 20 décembre 2018, n. 2018-773), ha riconosciuto l’accesso a Internet come diritto fondamentale legato alla libertà di espressione e alla vita democratica. Sulla stessa linea interpretativa si colloca la Corte eur. dir. uomo, affermando che «Internet è diventato oggi uno dei principali mezzi di cui dispone l’individuo per esercitare il suo diritto alla libertà di espressione e di informazione», fornendo gli strumenti essenziali per la partecipazione ad attività e dibattiti su questioni politiche o di interesse pubblico: cfr. Corte EDU, 18 dicembre 2012, Yıldırım v. Turkey, n. 3111/10 (parr. 48-50) e Times Newspapers Ltd v. The United Kingdom, 10.3.2009, n. 3002/03 e 23676/03 (par. 27). Per un commento a riguardo: N. Le Bonniec, La Cour européenne des droits de l’homme face aux nouvelles technologies de l’information et de communication numérique, in RDFL, 2018, V. 40  Così M.C. Ponthoreau, Liberté d’expression, une perspective de droit comparé - France, Bruxelles, ECPRS, 2019, VIII.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il contrasto alla disinformazione in Unione Europea

163

L’art. 27 della legge del 29 luglio 1881 sulla libertà di stampa ne è un esempio41. Specificamente, si tratta del reato di «falsa notizia», ovvero del reato di diffondere, in malafede, informazioni false o in parte fabbricate che disturbano la pace pubblica, o che potrebbero turbarla, o di natura tale da minare la disciplina degli eserciti o ostacolare lo sforzo bellico della Nazione. Un reato la cui configurazione è stata sempre difficoltosa per due ragioni concomitanti: l’una per il suo immediato impatto sulla libertà di espressione, l’altra per mancanza di prevedibilità42. Ma il costante lavorio dei giudici ha circoscritto la sua portata al punto da configurare la nozione di «notizie false» solo di fronte a dichiarazioni false comprovate da fatti dettagliati e precisi43 o da documenti falsificati44. La «falsa notizia» esclude commenti, opinioni45 o congetture quando questi si basano su elementi autentici e credibili46. Appare evidente quanto queste categorizzazioni, possibili e logiche nel mondo reale, non si riproducano invece così agevolmente nello spazio virtuale, in ragione delle sue tecnicalità di cui già abbiamo parlato. Sicché, l’inadeguatezza di un simile apparato normativo volto a fronteggiare le nuove sfide che l’ecosistema digitale pone, e il timore che si potessero riprodurre nelle elezioni politiche francesi fenomeni simili a quelli avvenuti nel 2016 durante la campagna elettorale statunitense e quella referendaria della Brexit47 per via della diffusione di false notizie, hanno fermamente convinto il legislatore francese ad attivarsi48. 41   Invero questa legge prevede altri reati, relativi alla discriminazione o alla violenza (art. 24) o alla diffamazione e ingiuria (art. 29), altrettanto considerati applicabili nel Web: cfr. TGI Paris, 17éme Ch., 9.3.2016, LP, n. 337, avril 2016, 205-206; TGI Paris, 17éme Ch., 13.10.2017. 42   H. Leclerc, La loi de 1881 et la Convention europeénne des droits de l’Homme, in Légicom, 2002, XXVIII, pp. 25-7. 43   CA Paris, 18 maggio 1988, 11éme Ch., Sect. A, in JurisData, n. 1988-025000. 44   TGI Nanterre, 12 dicembre 2000, 14éme Ch., CCE, février 2001, 33-34. 45   C. Cass., 14 aprile 1999, Ch. Crim., n. 98-83.798, RSC, 2000, 203. 46   T. Corr. Toulouse, 27 giugno 2002, D., 2002, 2972 ss. 47   Al riguardo v. Les enjeux de la loi contre la manipulation de l’information, in Culture.gov.fr, 21 novembre 2018. 48   Da segnalare che la Francia, oltre a dotarsi della legge specifica sulle fake news, di cui in prosieguo, ha di recente modificato la legge sull’Istruzione per obbligare le scuole pubbliche a inserire nel loro percorso formativo corsi ad hoc per sviluppare analisi di capacità critiche nella navigazione delle informazioni online e nella valutazione della affidabilità delle informazioni: v. N. Boring, Initiatives to Counter Fake News: France, Library of Congress, 2019, pp. 77-81.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

164

Silvia Sassi

Il 22 dicembre 2018 la Francia ha così adottato la loi n. 120249 che, per quanto abbia come obiettivo principale la lotta alla manipolazione delle informazioni sui social media durante il periodo elettorale, contiene alcune disposizioni di applicazione generale volte a contrastare le false informazioni che corrono online suscettibili di turbare l’ordine pubblico. A differenza della NetzDG, questa legge del 2018 si applica specificamente durante il periodo di campagna elettorale nazionale, per scongiurare influenze esterne sui risultati elettorali. Nonostante questi limiti oggettivi e temporali50, in essa si rilevano alcune norme valide anche in un contesto generale, al pari di quanto previsto dall’ordinamento tedesco. Degni di nota sono in particolare gli artt. 1, 11 e 12. L’art. 1 qualifica «falsa» la notizia sulla base di una serie di criteri già individuati dalla legge del 1881 sulla libertà di stampa. Più specificamente, la notizia per poter essere considerata falsa: deve essere manifesta; deve essere diffusa massicciamente, in maniera artificiosa o automatizzata; deve mettere a rischio l’ordine pubblico o altri diritti individuali. L’art. 11 impone agli operatori di piattaforme online obblighi di trasparenza quanto alle misure che gli stessi devono adottare per contrastare la manipolazione di informazioni concernenti questioni di interesse generale. In particolare, questi soggetti sono tenuti a istituire un sistema di segnalazione, a presentare rapporti annuali a un’autorità competente sulle loro attività nella lotta alle fake news e a rispettare altri impegni quali: la trasparenza degli algoritmi, la promozione dei contenuti da parte delle agenzie di stampa e delle imprese o dei servizi di media audiovisivi, la lotta contro gli account che diffondono massicciamente informazioni false, l’identificazione delle fonti di informazione e l’alfabetizzazione digitale. L’art. 12 conferisce poi al Conseil supérieur de l’audiovisuel la pos-

49   Loi n. 2018-1202 du 22 décembre 2018 relative à la lutte contre le manipulation de l’information. Il medesimo giorno, il Parlamento francese ha varato anche la legge organica – Loi n. 2018-1201 du 22 décembre 2018 relative à la lutte contre le manipulation de l’information – che estende le sue norme alle elezioni presidenziali. 50   Segnatamente questa legge si applica nei tre mesi precedenti le elezioni, per evitare di alterare la sincerità del voto.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il contrasto alla disinformazione in Unione Europea

165

sibilità di formulare raccomandazioni agli operatori delle piattaforme digitali sulla lotta contro la diffusione di false informazioni. Questo elemento non è da sottovalutare data l’esperienza del Conseil supérieur de l’audiovisuel in tema di false informazioni per il tramite di servizi radiotelevisivi, la cui diffusione è stata più volte sanzionata51. L’ente peraltro si è già attivato. Nel 2019 ha adottato una raccomandazione52 nella quale si ritrovano alcune misure simili a quelle previste dal Codice di buone pratiche europeo e si definiscono le condizioni per elaborare un meccanismo di segnalazione. Infine è da segnalare che la loi n. 2018-1202, a differenza della NetzDG, attribuisce direttamente all’autorità giudiziaria il potere di ordinare, entro quarantotto ore, la rimozione di contenuti online ampiamente diffusi e ritenuti falsi, comminando, se del caso, sanzioni di natura amministrativa53 e penale54. Alla serie di critiche sollevate contro questa legge, il Conseil constitutionnel55, conformemente alla sua giurisprudenza tradizionale, ha riconosciuto in capo al legislatore la facoltà di introdurre disposizioni che, per un circoscritto arco temporale, possano porre termine ad abusi dell’esercizio di libertà di espressione e di comunicazione che ledono l’ordine pubblico e i diritti di terzi 56. 51   Riconosciuta è l’efficacia operativa del Conseil supérieur de l’audiovisuel nel combattere la diffusione di informazioni false per il tramite di servizi di media audiovisivi. Al riguardo v. P. Mouron, De la rumeur aux fausses informations. Remarques sur la proposition de la loi relative à la lutte contre la manipolation de l’information, in Légicom, n. 60, 2019, I, in part. p. 14 ss.

52   Reccomandation n. 2019-03 du 15 mai 2019 du Conseil supérieur de l’audiovisuel aux opérateurs de plateforme en ligne dans le cadre du devoir de cooperation en matière de lutte contre la diffusion de fausses informations. 53   Nella misura massima di settantacinquemila euro. 54   Con la reclusione fino a un anno di carcere. 55   Décision n. 2018-774 DC du 22 décembre 2018. Con questa decisione il Conseil ha voluto precisare che l’esercizio della libertà di espressione e di comunicazione è conditio sine qua non della democrazia e del rispetto di altri diritti e libertà non solo off-line ma anche online, ove, ancora di più, in ragione delle sue tecnicalità, la partecipazione della vita democratica e l’espressione di idee e opinioni si espandono ulteriormente. 56   Nel caso di specie – precisa il Conseil Constitutionnel con la DC n. 2008-774 –, la legge del 2018 rispetta tutti questi requisiti: prevede che l’autorità giudiziaria, qualora ritenga che il contenuto soddisfi la definizione di falsa notizia secondo i criteri sopra summenzionati, possa prendere qualsiasi misura purché proporzionata e necessaria per arrestare la sua diffusione nei tre mesi precedenti le elezioni; stabilisce un «dovere di cooperazione» per le piattaforme online che si attua con la disponibilità per gli utenti di strumenti di segnalazione di disinformazione; conferisce al Consiglio

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

166

Silvia Sassi

4. Certamente la lotta contro la disinformazione è combattuta ma non vinta. Siamo agli albori di una battaglia che è alquanto perigliosa perché la posta in gioco è la tutela della libertà della manifestazione del pensiero, architrave di ogni ordinamento democratico. La rassegna, esposta in questo scritto, sulle misure adottate contro la disinformazione online ha chiaramente mostrato quanto esse siano limitate e controverse. Limitate perché troppo soft, secondo una certa dottrina57. Certo, nel tempo alcune misure adottate nella prima fase di elaborazione si stanno rafforzando. Si pensi al Codice di buone pratiche contro la disinformazione che, alla luce degli «orientamenti» adottati dalla Commissione europea, è stato migliorato. Ovvero ai codici di condotta che le piattaforme di grandi dimensioni dovranno elaborare in ragione di quanto stabilito dalle proposte DSA e IA. Ma certamente questi strumenti rimangono ancora privi di norme sanzionatorie. Controverse perché la natura stessa del fenomeno che si vuole regolamentare è «problematica». Risulta, infatti, estremamente difficile vietarlo senza generare un impatto potenzialmente ampio sul discorso legittimo. Permettere a un governo di punire o censurare una falsità potrebbe dissuadere le persone dal dire ciò che è vero, inducendo all’auto-silenziamento58. Questa difficoltà potrebbe essere risolta se l’ordinamento giuridico elaborasse un sistema perfetto che rilevi le dichiarazioni false. Ma come giustamente è stato affermato «the point is not that there is no such thing as truth or falsity in [several] areas or that the truth is always impossible to ascertain, but rather that is perilous to permit the state to be the arbiter of truth»59. Peraltro è indiscutibile che: «false factual statements can serve useful human obSuperiore dell’Audiovisivo di sovraintendere a questo «dovere di cooperazione» nonché di revocare i diritti di trasmissione radiotelevisiva di quegli enti che diffondono disinformazione e sono sotto l’influenza di – o controllati da – uno Stato straniero. 57  «The co-regulatory features ensure transparency and dialogue; in its current form, however, it may still lack ‘teeth’»: così J. Bayer, B. Holznagel, K. Lubianiec, A. Pintea, J.B. Schmitt, J. Sazkács e E. Uszkiewicz, cit., p. 40. 58  United States v. Alvarez, 567 U.S. 733 (2012) (Breyer, J., concurring): «the threat of criminal prosecution for making a false statement can inhibit the speaker from making true statements, thereby “chilling” a kind of speech that lies at the First Amendment’s heart». 59   United States v. Alvarez, 567 U.S. 751-752 (2012) (Alito, J., dissenting). Al riguardo v. le condivisibili riflessioni di N. Zanon, Fake news e diffusione dei social media: abbiamo bisogno di un’“Autorità Pubblica della Verità”?, in Rivista di Diritto dei Media-MediaLaws, 2018, p. 13 ss. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il contrasto alla disinformazione in Unione Europea

167

jectives, for example: in social contexts, where they may prevent embarrassment, protect privacy, shield a person from prejudice, provide the sick with comfort, or preserve a child’s innocence; in public contexts, where they may stop a panic or otherwise preserve calm in the face of danger; and even in technical, philosophical, and scientific contexts, where (as Socrates’ method suggest) examination of a false statement (even if made deliberately to mislead) can promote a form of thought that ultimately helps realize the truth»60. Se poi argomentiamo specificamente sullo spazio digitale, e con un approccio in prospettiva globale, ancora più persuasive si rivelano le ragioni che inducono a ritenere la regolamentazione della disinformazione online irta di ostacoli e ancora non risolta. Alla luce di tutto ciò, quindi, una delle soluzioni da prospettare potrebbe essere quella di rafforzare in modo organico – non dunque frammentato ed episodico – la cooperazione degli Stati con i nuovi soggetti emergenti – ovvero le piattaforme digitali, da un lato, e la società civile, dall’altro. Cooperazione però che deve presupporre a monte un assetto trasparente dei rapporti. Invero questa è la prospettiva che l’Unione europea sta seguendo, anche se in misura non ancora del tutto convincente soprattutto nella parte in cui non si offrono nuovi modelli per la moderazione di contenuti e per la supervisione pubblica. Con riguardo ai nuovi modelli per la moderazione, l’autorità pubblica potrebbe persuadere le piattaforme digitali ad adottare il diritto internazionale dei diritti umani («International Human Rights Law» - IHRL), in particolare il Patto internazionale per i diritti civili e politici del 1976 («International Convenant on Civil and Political Rights» - ICCPR), come parametro per la moderazione dei propri contenuti, inserendole nelle loro norme61. Vero è, come alcuni sostengono, che questo corpus normativo è stato scritto e ratificato per gli Stati, e non certamente per le aziende private, e quindi varrebbe solo per i primi ma non per le seconde. Ma la stessa tendenza che attualmente vi è a imporre alle grandi aziende il rispetto dei diritti di cui godono gli individui62 potrebbe essere estesa anche alle piattaforme digitali di gran  United States v. Alvarez, 567 U.S. 733 (2012) (Breyer, J., concurring), cit.   Come suggerisce M. Lwin, Applying International Human Rights Law for Use by Facebook, in Yale J. Regulation Bulletin, 2020, p. 53 ss., ma anche I. Khan nel Report of the Special Rapporteur on promotion and protection of the right to freedom of opinion and expression, cit., p. 18 ss. 62   Al riguardo v. Guiding Principles on Business and Human Rights. Implement60 61

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

168

Silvia Sassi

di dimensioni che governano il discorso pubblico a livello mondiale. Percorrendo questa strada, probabilmente le eventuali restrizioni poste dai social media alla libera espressione nello spazio digitale sarebbero perlomeno adottate sulla base di regole certe, prevedibili e giustificate, ovvero sulla base dello Stato di diritto. Un altro aspetto che deve essere adeguato al contesto in essere, riguarda la supervisione pubblica, in specie nel suo sillogismo tra democrazia e trasparenza. Più specificamente, l’autorità pubblica dovrebbe esigere di monitorare il comportamento delle piattaforme digitali per conoscere i loro processi decisionali, sia nella fase ascendente sia in quella discendente, per una duplice finalità63. In primo luogo perché in questo modo si sarebbe in grado di valutare con precisione, tempestività e completezza l’impatto delle azioni delle piattaforme. In seconda battuta perché tutte queste informazioni potrebbero poi essere divulgate agli utenti-internauti in modo da poter garantire loro meccanismi di reclamo semplici, chiari e immediati. Nello stesso tempo però anche la stessa autorità pubblica dovrebbe agire con chiarezza. Nel senso che per far comprendere agli utenti-internauti da quali inganni essi devono essere protetti, i governi dovrebbero produrre resoconti periodici su tutte le attività di supervisione dagli stessi attuati, da un lato, e centralizzare negli organi giurisdizionali (magari con sezioni specializzate), non dunque in vari organismi di natura amministrativa, il potere di richiesta di rimozione di contenuti alle aziende digitali, dall’altro. In sintesi: i problemi di oggi sono quelli di ieri, con l’unica differenza che è cambiato lo scenario nel quale si proiettano, nella Rete cioè. L’ambizione – come dichiarato dalla Commissione europea – di volere «plasmare il futuro digitale dell’Europa» ai valori fondanti dell’UE, senza rallentarne nel contempo lo sviluppo tecnologico deve quindi essere adeguata al contesto digitale nel quale si inserisce. Uno sviluppo tecnologico che è talmente veloce e mutevole, che ciò che si è normato oggi difficilmente potrà avere uguale efficacia domani. Ecco

ing the United Nations “Protect, Respect and Remedy” - Framework, United Nations Human Rights, New York-Geneva 2011, in Ohchr.org. 63   Al riguardo si ricordi che al momento solo un gruppo di ricerca tedesco è riuscito a rivelare, dopo un accordo con Facebook, la procedura che la piattaforma digitale segue per adottare le proprie regole e termini di condizione. Per approfondimenti v. M. C. Ketterman e W. Schulz, Setting Rules for 2.7 Billion. A (First) Look into Facebook’s Norm-Making System: Results of a Pilot Study, Hamburg, WP of the Hans-Bredow-Institut, Works in Progress n. 1, gennaio 2020, Leibniz-hbi.de. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il contrasto alla disinformazione in Unione Europea

169

perché convincente è la tesi per cui «all’attivismo normativo, che vuole porre in maniera puntuale e specifica la regolamentazione dei fenomeni, forse si può contro-proporre un “diritto minimale”»64. La necessità di normare più per «principi» che «per norme ipertrofiche», è funzionale a «bilanciare interessi e concezioni diversificate, ponendosi quale primario obiettivo quello di non inibire la ricerca e lo sviluppo» della scienza tecnologica. Ebbene, la normativa europea, in questo campo specifico, sembra seguire questo percorso. L’adozione di misure più soft che hard è probabilmente dettata dalla volontà di poterle adattare ai diversi cambiamenti che il tema oggetto di questo scritto impone. Una regolamentazione flessibile, che si adatta ai cambiamenti, a fronte di una legislazione rigida, permette infatti di sottrarre alla fattispecie giuridiche che si affacciano una regolamentazione liberticida. Di contro, necessaria si rileva una disciplina che configuri e definisca chiaramente i concetti chiave in tale materia – quali, ad es., quelli della disinformazione e/o dei comportamenti manipolatori – quanto meno per elaborare attorno a siffatti concetti un quadro organico di norme non tanto e solo per reprimere reati e crimini quanto piuttosto per imporre la gestione della disinformazione in capo all’autorità pubblica e ai suoi organi di controllo, a tutela della democrazia65.

64   T.E. Frosini, L’orizzonte giuridico dell’Intelligenza Artificiale, in Bio Law Journal – Rivista di BioDiritto, 2022, I. 65   C. Casonato e B. Marchetti, Prime osservazioni sulla proposta di regolamento dell’Unione Europea in materia di Intelligenza Artificiale, in Bio Law Journal – Rivista di BioDiritto, 2021, III.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Paolo Corona*

Democracy in… bits. Breve riflessione sui nuovi percorsi dell’opinione pubblica nell’era digitale

Sommario: 1. Democrazia e comunicazione in una lettura di fine Novecento. – 2. Immagini di frammentazione da dentro la “svolta”: rottura o continuità? – 3. Nuovi percorsi “pubblici” per l’opinione individuale.

1. «Una rappresentazione di maniera, mai abbastanza criticata, propone un’idea di sviluppo lineare della democrazia, che troverebbe il suo compimento proprio grazie alle possibilità offerte dalle nuove tecnologie di sottoporre ogni decisione al voto dei cittadini. La parola chiave, quindi, diventa “televoto”, indicato come il punto d’arrivo d’una evoluzione partita da un sistema di rappresentanza limitata, che avrebbe poi attraversato le tappe di un sistema di rappresentanza estesa, di un sistema rappresentativo con elementi di partecipazione e di un sistema partecipativo con elementi di rappresentanza, per approdare infine ad un sistema di piena partecipazione»1. Con queste parole, ormai venticinque anni fa, Stefano Rodotà apriva una sintetica riflessione sui cambiamenti cui l’utilizzo di nuove tecnologie e tecniche di comunicazione esponeva i meccanismi della democrazia messi a punto nel corso del Novecento. Osservando i nuovi stilemi della comunicazione politica “verticale”, per lo più esercitati tramite il medium televisivo, egli registrava come essa tendesse a sfuggire alle dinamiche che le erano divenute proprie nei decennî precedenti, per accedere a una dimensione in cui le opinioni dei destinatari si formavano «fuori dei luoghi di tipo comunitario e senza le possibilità di un immediato * Assegnista di ricerca in Storia del diritto medievale e moderno nell’Università di Firenze. 1  S. Rodotà, Tecnopolitica. La democrazia e le nuove tecnologie della comunicazione, Bari 1997, p. 45. Si tratta dell’apertura del capitolo «Vicende della sovranità» (ivi, pp. 45-78), pressoché invariato nella «Nuova edizione accresciuta» del libro (Bari 2004, pp. 45-78) e successivamente riedito (in un momento in cui la sua attualità veniva rinnovata dal ritorno in auge di una nuova retorica della democrazia diretta) in forma autonoma e destinata alla sola distribuzione digitale gratuita, con il titolo S. Rodotà, Iperdemocrazia. Come cambia la sovranità democratica con il web, Roma-Bari 2013. Le citazioni riportate nel testo e le posizioni indicate in nota si riferiscono indifferentemente alla prima e alla seconda edizione a stampa. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

172

Paolo Corona

confronto. L’insieme dei cittadini – il “sovrano”» si trovava così ad essere «segmentato, tendenzialmente ridotto ad una molteplicità di individui non comunicanti»2. Nell’avvicinare l’immagine del personaggio politico (prima di allora «lontano e inafferrabile»3) al cittadino, nel farlo addirittura entrare nel suo salotto per rivolgersi direttamente e familiarmente ai singoli spettatori, la comunicazione politica iniziava così ad esorbitare dalle “corali” «forme di organizzazione del sovrano tipiche della fase storica più recente, in primo luogo dei partiti e dei sindacati», causandone anzi la progressiva obsolescenza e addirittura la «dissoluzione»4. Per quanto verticale e diretta al singolo, quel tipo di comunicazione già allora non funzionava secondo una dinamica rigidamente unidirezionale. Lo stesso maestro cosentino rilevava infatti come alcune possibilità offerte dalle nuove tecnologie producessero una configurazione «sondocratica»5 del rapporto fra governanti e governati, fra istituzioni politiche e società, in cui la continua attenzione demoscopica dei primi risultava funzionale a confezionare soluzioni politiche volte a compiacere l’opinione pubblica, secondo forme non estranee alle logiche del marketing. Tutto ciò sorpassava le dilatate tempistiche democratiche fino ad allora sperimentate (che consentivano ai rappresentati, fra un’elezione e l’altra, di valutare l’operato dei rappresentanti sul lungo termine), sostanzialmente contribuendo ad esautorare l’occasione elettorale come momento riassuntivo della sovranità popolare. Era infatti la stessa «casa – terminale elettronico» a poter «essere trasformata in una cabina elettorale permanente»6, seguendo un percorso che stava già potenzialmente conducendo alla «negazione della democrazia come processo comune e diffuso di comunicazione, apprendimento, confronto»7. L’analisi di Rodotà, nel suo complesso, non suonava tuttavia pessimistica, mossa com’era, più che dalla volontà di descrivere la condizione sua contemporanea e di indovinarne possibili sviluppi, dalla necessità intellettuale di coglierne il divenire e di comprendere le sottostanti tendenze storiche; di scorgere «i segni di qualcosa che sta accadendo su un piano non occasionale, non episodico, su un piano più profondo»

 S. Rodotà, Tecnopolitica, cit., p. 48.   Ibidem. 4   Ibidem. 5   Cfr. S. Rodotà, Tecnopolitica, cit., pp. 55-62. 6   Ivi, p. 57. 7   Ivi, p. 56. 2 3

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Democracy in… bits

173

per raccoglierli in un discorso complessivo «sempre temperato, entro cui il timore è sempre moderato dalla fiducia, e viceversa»8. Costruita in un momento sùbito precedente al passaggio (grosso modo collocabile nei primissimi anni di questo secolo) che avrebbe condotto ad una sorta di irrefrenabile consacrazione dei linguaggi comunicativi dell’era digitale, e anche per questo inevitabilmente povera di un lessico concettuale che nell’ultimo decennio è divenuto a noi consueto, la riflessione di Rodotà si posizionava insomma in una sorta di territorio di confine, sul quale era possibile riconoscere le strutture che avevano sorretto le soluzioni del passato, non ancóra divenute loro vestigia, ma anche l’opera di nuovi agenti esterni che, corrodendole, ne avrebbero potenzialmente decretato la trasformazione irreversibile. Al netto (non tanto di previsioni non avverate, quanto) di comprensibili enfatizzazioni di elementi rivelatisi non determinanti per gli sviluppi storici successivi, la lettura di Rodotà si mostra oggi efficace soprattutto nell’aver individuato una tendenza di lungo termine. Il discorso sulla «frammentazione del sovrano»9 può infatti essere letto retrospettivamente come l’intuizione di un complessivo e più profondo cambio di passo nelle dinamiche della società democratica. 2. I mutamenti cui, nel corso degli ultimi vent’anni, l’accelerazione tecnologica ha esposto lo scenario che osservatori sensibili potevano registrare alla fine degli anni Novanta sono tutt’altro che trascurabili, prima ancóra che sotto il profilo del dialogo fra istituzioni politiche e società, sul piano delle modalità di “metabolizzazione” delle comunicazioni (anche) politiche. Senza tentare in questa sede di mettere ordine in un panorama estremamente complesso, si può provare, con intento quasi sperimentale, a isolarne alcuni aspetti particolarmente significativi. Anzitutto, la qualità della comunicazione. La fase della svolta telematica cui si è assistito dall’inizio di questo secolo, e che probabilmente è tutt’ora in corso, ha interessato infatti non soltanto (come spesso ci si accontenta di considerare) la dimensione quantitativa delle informazioni disponibili, ma anche e più rilevantemente quella qualitativa. La centralità, sperimentata già nel corso del Novecento, di un tipo 8   Sono parole spese recensendo un’altra celebre opera di Rodotà (ma che troviamo ben applicabili anche alla lettura qui commentata) da M. Fioravanti, Stefano Rodotà, Il diritto di avere diritti, Roma-Bari, Laterza, 2012, in Quad. fiorentini, 2013, XLII, p. 494. 9  S. Rodotà, Tecnopolitica, cit., p. 45 e passim.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

174

Paolo Corona

di comunicazione basato sulla pregnanza dell’immagine (da un lato sempre più espansa, realistica e dettagliata, dall’altro sempre più contratta, essenziale, iconica), sulla capacità di suscitare sensazione, sulla prevalenza del contenente sul contenuto e del veicolo sul messaggio10 si è accentuata nei tempi recenti in modo esponenziale, anche tramite l’enorme produzione e diffusione di dispositivi elettronici dotati di terminali video – per utilizzare una formula imprecisa ma comprensiva. Al rapido successo di tale tipo di comunicazione si sono accompagnati quasi necessariamente la moltiplicazione, lo “spezzettamento” e la superficializzazione tanto dei messaggi veicolati quanto dei loro veicoli: al libro, alla conferenza, al dibattito strutturato, persino al breve articolo o al confronto scandito da tempi televisivi si sono sostituiti video sempre più concentrati, immagini sempre più sintetiche, concisi posts e tweets. Si potrebbe parlare, a riguardo, di una costante (ma quasi mai coerente) trasmissione, oltre che di bytes, di “bites”: piccoli morsi e assaggi di informazione, spesso predigeriti a tutto vantaggio della semplicità di consumazione da 10   Numerosi spunti in proposito offre il volume A. Veneti, D. Jackson e D.G. Lilleker (a cura di), Visual Political Communication, London 2019. Letture fondamentali per un orientamento sul tema rimangono M. McLuhan, Gli strumenti del comunicare, Milano 2015 (ed. orig.: Understanding Media. The Extensions of Man, Mc Graw-Hill, New York 1964) e M. McLuhan e Q. Fiore, Il medium è il massaggio. Un inventario di effetti, Corraini, Mantova 2011 (ed. orig.: The Medium Is the Massage. An Inventory of Effects, Bantam Books, New York 1967). Riguardo alla portata del passaggio da una cultura basata sulla lettura a una basata sulla fruizione di immagini è interessante la sintesi offerta da L. Di Gregorio, Demopatìa. Sintomi, diagnosi e terapie del malessere democratico, Soveria Mannelli 2019, che a p. 183 ss. schematizza, in forma di tabella, un «Confronto dicotomico tra le caratteristiche-chiave dell’epistemologia della stampa e l’epistemologia della televisione», dal quale traiamo e riportiamo qui alcune coppie antitetiche che ci paiono particolarmente significative per il discorso che stiamo conducendo:

Epistemologia della stampa

Epistemologia della televisione

Testo scritto Tempo lineare e senso storico Contesto / coerenza logica Complessità / approfondimento Concentrazione

Immagini Istantaneità e tempo puntillistico Frammenti / incoerenza logica Semplicità / banalizzazione Distrazione

Non segue esplicitamente, nel libro di Di Gregorio, un analogo confronto con la «epistemologia» dei più recenti media telematici, ma è evidente come sia possibile immaginare una linea (o, se si vuole, una sorta di climax) che, muovendo dal mondo “analogico” verso il “digitale”, porta oggi a più marcati effetti le caratteristiche individuate dall’autore a proposito della comunicazione televisiva. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Democracy in… bits

175

parte del destinatario. Tale facilitazione, com’è esperienza comune, non risparmia tuttavia indigestioni all’utente, che è posto di fronte ad un continuo “buffet” di informazioni di natura disparata. Un secondo elemento notevole è quello che definiremmo “multidirezionalità” della comunicazione. Uno degli aspetti maggiormente densi di conseguenze della svolta digitale che stiamo attraversando è rappresentato dal fatto che gli utenti, tramite i terminali telematici, non sono più solo in grado di ricevere i contenenti e i loro vieppiù esili contenuti (né solo di rispondere a sondaggi o «instant referenda»11 predisposti ad hoc), bensì anche di generarli e inviarli, condividerli con altri utenti, modificarli in maniera collaborativa. Nel corso di pochi anni, di pari passo all’implementazione delle tecnologie che hanno reso possibile il web 2.0, si è verificata una situazione in cui chiunque disponga di dispositivi telematici (ormai accessibilissimi, sia dal punto di vista economico che da quello delle competenze tecniche necessarie ad utilizzarli, almeno secondo le modalità previste dai produttori), ha la possibilità di creare informazioni e di condividerle con reti variamente intersecantisi di contatti personali o di altri operatori (si tratti di utenti umani o apparati artificiali). Questo fattore sta determinando un vero e proprio cambio di paradigma nei canali di acquisizione, manipolazione in proprio e reimmissione in circolo della conoscenza. Se dunque, chiosando il discorso di Rodotà, abbiamo potuto osservare come già nella situazione da lui descritta la comunicazione politica verticale non si muovesse in una sola direzione, dall’alto in basso, ma fosse quanto meno bidirezionale (per via della necessità «sondocratica» della classe politica di raccogliere feedback demoscopico), riguardo alla nostra contemporaneità occorre rilevare una ben più varia direzionalità della comunicazione spendibile (anche) sul piano politico, capace ora di muoversi altrettanto bene, e certo più frequentemente, su un asse “orizzontale”12. Una delle caratteristiche più dirompenti della comunicazione odierna

11   È una delle formule adoperate da S. Rodotà, Tecnopolitica, cit., p. 59 per indicare forme di consultazione diretta di cittadini «abbonati alla rete interattiva». 12   È notevole come, seguendo questa tendenza all’orizzontalità, gli stessi «personaggi» politici tendano a sfruttare i più popolari canali di comunicazione in veste di utenti comuni, di fatto avvicinando ancor più la propria immagine a quella degli elettori. Suggerisce riflessioni sul tema L. Di Gregorio, Demopatìa, cit. pp. 39-45. Di «orizzontalizzazione» della comunicazione politica parlano anche (seguendo M. Castells, Comunicación y Poder, Madrid 2009) J.M. Robles-Morales e A.M. Córdoba-Hernández, Digital Political Participation, Social Networks and Big Data. Disintermediation in the Era of Web 2.0, London 2019, p. 4 e passim.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

176

Paolo Corona

è poi rappresentata dal “fattore tempo”13. I dispositivi telematici sono oggi capaci di rispondere con inedita immediatezza temporale, offrendo all’utente una diffusa sensazione di istantaneità delle operazioni che tramite essi compie. Tale sensazione si applica sia all’esecuzione di comandi impartiti alla macchina (velocità di calcolo e output, dovuta alle caratteristiche del dispositivo), sia all’invio e alla condivisione dei contenuti processati (velocità di trasmissione, dovuta anche all’accesso a reti efficienti). L’uomo contemporaneo, anche al fine di gestire e “smaltire” (rimettendo in circolo) il più agilmente possibile il buffet informativo cui è sottoposto, ricerca la velocità, anzi la tendenziale istantaneità delle comunicazioni. Questo intero nuovo modo di concepire il consumo di informazioni eterogenee e questa “desiderabilità dell’istantaneo” incentivano un’ampia valorizzazione, probabilmente mai sperimentata in simile misura, della dimensione “effimera” delle comunicazioni (testimoniata e a sua volta nutrita dal successo di social networks basati sulla condivisione di contenuti temporanei, destinati a non essere più accessibili dopo un certo lasso di tempo): la persona odierna, utente abituale di mezzi telematici, passa una enorme quantità del proprio tempo “reale” immersa in un tempo “virtuale”, istantaneo e frammentato, a fruire più o meno passivamente di una massa di informazioni di cui non ricorderà quasi più nulla di lì a pochi secondi (reali). Com’è sempre accaduto, l’essere umano si conforma alla tecnologia che produce. Sono così le possibilità offerte dalle macchine a dettare ora lo standard di una tempistica operativa rapidissima, a cui i sensi dell’utilizzatore si devono adattare: si tratta di una velocità “da calcolatore elettronico”, che risulta funzio-

13   Esigenze di completezza del discorso non perseguibili in questa sede imporrebbero di accompagnare alla considerazione del “fattore tempo” quella del “fattore spazio”, al primo intimamente correlato. È infatti rilevante come il “cyberspazio” (espressione fortunatissima, mutuata dalla letteratura dei primi anni Ottanta, che per prima individuò la possibilità di interpretare in termini spaziali la rete di telecomunicazioni digitali; molto recentemente però soppiantata – e ciò stesso ci appare significativo – da definizioni che troncano i pur flebili riferimenti semantici alla realtà o “corporeità”, oltre che meno generiche e quindi più “brandizzabili”, quali «metaverso», anch’essa inaugurata dalla letteratura cyberpunk) costituisca una dimensione fatta di eventi decontestualizzati, non duraturi e scollegati dalla realtà “fisica” e da quella delle relazioni interpersonali, in cui la mente umana fa esperienza solipsistica di uno “spazio” e di un “tempo” che non seguono un andamento lineare. Sulla portata delle concezioni generali di spazio e tempo che caratterizzano la mentalità odierna offre spunti acuti Z. Bauman, Modernità liquida, Bari-Roma 2011, pp. 99-147; per una sintetica lettura delle loro ricadute sui meccanismi democratici, v. Robles-Morales e Córdoba-Hernández, Digital Political Participation, cit., pp. 50-57.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Democracy in… bits

177

nale a numerose operazioni, ma che di per sé non corrisponde ai tempi dell’interazione umana (specialmente in àmbito politico)14. Un ultimo elemento da evidenziare è quello che forse più direttamente attiene al tema delle nuove modalità di formazione dell’opinione pubblica, e può essere definito come “personalizzazione” della comunicazione. Se fino alla fine del secolo scorso i computers erano oggetti piuttosto voluminosi e necessitavano quasi sempre di connessione cablata per accedere alla rete telematica, gli odierni dispositivi sono miniaturizzati, talmente numerosi e diffusi da far sì che ogni persona ne possieda più d’uno, per poter affrontare ogni occasione quotidiana senza rimanere scollegato dalla Rete. Quasi appendici ormai irrinunciabili della persona umana (caratteristica di cui la stessa espressione «personal computer», ora mutata in «personal device» quando non addirittura in «wearable device», è sintomo significativo sin dagli anni Ottanta del Novecento), essi rendono continua e totalizzante l’esperienza «comunicativa» di ricezione, elaborazione e invio di contenuti. Di più, tali dispositivi operano ormai quasi totalmente “senza fili”. Se negli anni Ottanta, momento di esplosione del consumistico culto di una tecnologia alla portata di tutti, invaleva una certa “estetica del cablaggio” (figlia di un transito ancóra incipiente e incerto dall’analogico al digitale) lentamente dissoltasi nel decennio successivo, oggi i cavi vengono avvertiti, anche visivamente, come qualcosa di disturbante, quasi fossero vincoli e lacci che limitano la libertà di movimento e di espressione dell’individuo. C’è chi, ampliando la portata ideale di tale discorso, parla di «individuo wireless»15, ad indicare un singolo sempre connesso ma ormai sempre più isolato e, a dispetto di una community ormai globale, sempre meno legato ad una dimensione collettiva e realmente comunitaria. Questo conduce ad un secondo aspetto notevole dell’elemento “personalizzazione”. Un simile isolamento dei singoli, pur all’interno di un’unica rete che li connette, viene favorito dalla presentazione di contenuti sempre più finemente personalizzati, resa possibile dalle tecniche di machine learning applicate alla profilazione degli utenti. Si assiste così ad un pano14  Cfr. Robles-Morales e Córdoba-Hernández, Digital Political Participation, cit., p. 54: «The speed of accidental time is not the speed of reflection and political debate. It is a speed that only corresponds to the machine. The political messages that we post on Twitter and that we briefly share with the digital community, do not reflect our political concerns and demands, but the moments of our lives and fleeting inspiration». 15  Così L. Di Gregorio, Demopatìa, cit., p. 73, descrivendo un individuo contemporaneo che «Fa surf sul mare aperto delle opportunità, ma rifugge le immersioni. Ha perso il senso della profondità e vive una solitudine vorticosa, priva di riferimenti e di legami comunitari, se non quelli istantanei e volatili».

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

178

Paolo Corona

rama estremamente parcellizzato, in cui l’offerta di contenenti e contenuti spendibili politicamente, in costante e rapidissimo rinnovamento, viene di fatto “cucita addosso” al singolo utente/consumatore/cittadino basandosi, in maniera parzialmente o totalmente automatizzata, sulla elaborazione e profilazione delle sue preferenze e delle sue attività online16. Tutto ciò all’interno di un gioco a spirale, anch’esso orientato a una sorta di marketing di prodotti o di idee, in cui non è quasi mai facilmente distinguibile se all’utente venga suggerito di vedere, ascoltare o lèggere ciò che vuole, o vice versa di volere ciò che vede, lègge o ascolta. 3. Frammentazione di contenuti e contenenti, dunque; frammentazione di tempi e direzioni della comunicazione; frammentazione del soggetto comunicante. Una simile tendenza alla disintegrazione della dimensione collettiva e politica tradizionale, fattasi più che mai evidente nel corso degli ultimi decennî, ha certamente precise ricadute sulle dinamiche democratiche stabilizzatesi nel corso del Novecento a tutela dei diritti civili, politici e sociali17. Considerata sul lungo periodo, essa parrebbe assecondare (con risvolti di grossa portata, che qui non è possibile affrontare) quel generale moto verso l’individualizzazione e l’astrazione della persona umana iniziato nel tardo medioevo e consacrato lungo la modernità, più che correggerlo con sensibilità post-moderna. Ad ogni modo, sebbene ciò non comporti la perdita di un’opinione collettiva qualificabile come “pubblica”, occorre notare come quest’ultima si stia muovendo lungo nuovi percorsi, anch’essi meno lineari e 16   Cfr. E. Longo, Dai big data alle «bolle filtro»: nuovi rischi per i sistemi democratici, in Percorsi costituzionali, 2019, pp. 29-44. 17   Contributi che sottolineano, accanto alle potenzialità, la portata modificatrice e le possibili insidie delle tecnologie telematiche per i meccanismi della democrazia si sono fatti molto numerosi negli ultimi anni. Si segnalano in particolare M. Bassini, Partiti, tecnologie e crisi della rappresentanza democratica. Brevi osservazioni introduttive, in Dir. pubbl. comp. eur., 2015, pp. 861-78; G. Fioriglio, Democrazia elettronica. Presupposti e strumenti, Padova 2017; G. Fioriglio, Automation, Legislative Production and Modernization of the Legislative Machine: The New Frontiers of Artificial Intelligence Applied to Law and e-Democracy, in G. Peruginelli e S. Faro (a cura di), Knowledge of the Law in the Big Data Age, Amsterdam-Berlin-Washington DC 2019; P. Costanzo, La «democrazia digitale» (precauzioni per l’uso), in Dir. pubbl., 2019, pp. 71-88; A. Simoncini e S. Suweis, Il cambio di paradigma nell’intelligenza artificiale e il suo impatto sul diritto costituzionale, in Riv. fil. dir., 2019, pp. 87-106; H.-W. Micklitz, O. Pollicino, A. Reichman, A. Simoncini, G. Sartor e G. De Gregorio (a cura di), Constitutional Challenges in the Algorithmic Society, Cambridge 2021 (ed in particolare il saggio A. Simoncini e E. Longo, Fundamental Rights and the Rule of Law in the Algorithmic Society, ivi, pp. 27-41).

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Democracy in… bits

179

più frammentati che in passato. Sotto il profilo che qui maggiormente interessa, i singoli cittadini hanno infatti ancóra la possibilità di aderire ai tradizionali strumenti associativi e partitici, resi più rapidi e (auspicatamente; forse ottimisticamente) inclusivi grazie a informatica e telematica, e di far sentire la propria voce tramite essi18, ma hanno anche (in maniera sempre più pervasiva, quantunque in ampia parte illusoria) la possibilità di sentirsi in prima persona rappresentanti validi dei propri interessi. La dinamica, sopra accennata, che porta l’utente/consumatore/cittadino a fruire di piccoli morsi e assaggi di informazione passando con disinvoltura ed immediatezza da un contenente/contenuto ad un altro, del resto, fa sì che lo stesso processo di “educazione” politica venga destrutturato e ricomposto variamente19. A meno che non abbia potuto, tramite altri canali, sviluppare un senso di appartenenza aderendo a progetti politici articolati, il cittadino pare infatti chiamato ad assemblare in proprio una prospettiva politica ampia quanto la sua personale sensibilità gli suggerisca, non modellata secondo i tradizionali impianti teorici o ideali, bensì in qualche modo simile ad un asimmetrico reticolo di hyperlinks. Ciò non impedisce affatto che le opinioni individuali possano convergere su determinate tendenze: poiché la società digitale vive di flussi di informazioni, esse tendono anzi a confluire su contenuti ed intenzioni condivisi. Questa confluenza, tuttavia, è sempre più avvertita come possibile anche in assenza di rappresentanze politiche (in senso classico) di riferimento, che vengono anzi spesso rifiutate quali ingombranti mediazioni, e che per di più presentano 18   Lo stesso S. Rodotà, Tecnopolitica, cit., p. 63 ss., proseguendo nel ragionamento iniziale riportato in apertura al presente scritto, poteva nel ’97 osservare: «Si parte […] dalla convinzione che sia possibile innestare forme di democrazia diretta sul vecchio tronco della democrazia rappresentativa, abbandonando così una vecchia convinzione che vuole queste due forme della democrazia tra loro incompatibili, irriducibilmente separate dai diversi principi di legittimazione che le fondano», ed affermare di «considerare con grande scetticismo impostazioni che guardano alle tecnologie della comunicazione unicamente nella prospettiva di un rafforzamento del quadro tradizionale della sovranità e delle procedure di democrazia rappresentativa da questo discendenti. Si pone così anche un problema di legittimazione delle nuove tecnologie, che rischia d’essere debole ed equivoca se la loro utilizzazione viene riferita unicamente alle condizioni precedenti alla loro disponibilità: debole, perché verrebbero messe in ombra le potenzialità innovative di quelle tecnologie; equivoca, perché si chiuderebbero gli occhi di fronte al fatto che l’innovazione tecnologica è comunque destinata a mutare profondamente gli assetti istituzionali conosciuti». 19   Secondo tendenze su cui poteva ragionare già molti decenni fa J. Habermas, Storia e critica dell’opinione pubblica, Bari-Roma 2005, pp. 244-271 (ed. orig.: Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft, Suhrkamp, Frankfurt am Main 1962). Sul tema, riferito all’oggi, cfr. Robles-Morales e Córdoba-Hernández, Digital Political Participation, cit., pp. 45-50.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

180

Paolo Corona

l’inconveniente di privare il singolo individuo dell’impressione narcisistica20 (che invece anima con enorme successo gli odierni social networks) di poter pubblicizzare e far valere da sé le proprie “personalissime” idee. Senza poter tirare alcuna somma ad esito di un’analisi così ristretta, pare possibile affermare che è proprio su questa sorta di generalizzata sensazione di “auto-rappresentanza” dei cittadini come singoli (connessi ma isolati e profilati individualmente), che hanno buon gioco ad installarsi nuove forme di indirizzamento dell’opinione pubblica21, per le quali la raccolta, l’aggregazione e la elaborazione dei dati personali (ad esempio tramite le interazioni degli utenti sui social networks) svolgono un ruolo determinante, facendo confluire “spontaneamente” le opinioni individuali intorno a contenuti-chiave (algoritmicamente riconoscibili) comuni. Ciò che finora abbiamo interpretato, seguendo lo spun offerto da Rodotà, in termini di «frammentazione», può forse essere definito sotto questo aspetto come «disintermediazione», come propongono alcuni22. Sulla portata del termine ci sarebbe da discutere, dal momento che, più che essere eliso, l’elemento di mediazione (in precedenza rappresentato primariamente od esclusivamente da organizzazioni collettive) si trasferisce su nuovi agenti o nuovi meccanismi, orientati secondo ottiche commerciali23. L’impressione di poter, al semplice “prezzo” dei proprî dati, esporre la propria opinione su reti sociali ampie (e quindi dotate di ampia cassa di risonanza) in maniera del tutto autonoma, è del resto il risultato di un calcolo costi-benefici che l’utente è portato a ritenere tutto sommato vantaggioso: uno scambio al quale consente vuoi per scelta consapevole, vuoi per incompleta informazione, vuoi per il fatto che un simile “pedaggio” è indispensabile per ottenere l’accesso a determinati servizi, vuoi per la consolazione che deriva dal sapere che si tratta di un passaggio obbligato anche per tutti gli altri, singoli, utenti.

 Cfr. L. Di Gregorio, Demopatìa, cit., pp. 59-184.   Cfr. G. De Gregorio, The market place of ideas nell’era della post-verità: quali responsabilità per gli attori pubblici e privati online?, in MediaLaws. Rivista di diritto dei media, 2017. 22   Così diffusamente si esprimono Robles-Morales e Córdoba-Hernández, Digital Political Participation, cit. 23   Già nello scritto da cui abbiamo preso le mosse, si intravvedeva come l’opinione pubblica iniziasse secondo le nuove logiche a risultare disarticolata, e gestibile a livello di dato aggregato: «potendo “efficacemente condensare i sentimenti politici in simboli numerici, la pubblica opinione è divenuta una merce”» (S. Rodotà, Tecnopolitica, cit., p. 56, che cita testualmente S. Herbst, Numbered Voices. How Opinion Polling Has Shaped American Politics, Chicago-London 1993, p. 153). 20 21

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Tutela della riservatezza e utilizzo dei dati personali

Giuseppe Mobilio*

Profilare tramite riconoscimento facciale: il caso della sicurezza urbana

Sommario: 1. Considerazioni introduttive. – 2. Sorvegliare e profilare tramite tecnologie di riconoscimento facciale. – 3. Sicurezza urbana e sistemi di videosorveglianza «smart». – 4. La presa di coscienza dei regolatori. – 5. Le prospettive future.

1. Le tecnologie che sfruttano l’intelligenza artificiale (IA) sono talmente diffuse in ogni ambito sociale e giuridico che le persone e le autorità pubbliche sono destinate a farvi affidamento in misura sempre maggiore1. Questo fenomeno si accompagna necessariamente al processo chiamato di c.d. «datificazione», ovvero alla quantificazione e conversione di ogni aspetto della realtà in flussi di dati digitali che, una volta elaborati da algoritmi, possono essere impiegati ai più svariati scopi2. IA e dati stanno cambiando radicalmente la quasi totalità delle attività umane, legando inestricabilmente il mondo reale e il mondo virtuale3. Tra le attività che risentono maggiormente di queste trasformazioni vi è la «sorveglianza»4. A questo proposito oggi si può parlare di c.d. dataveillance (forma contratta di data-surveillance), intesa come «impiego sistematico dei dati personali per indagare o monitorare le azioni o le comunicazioni di una o più persone»5. I soggetti, pubblici o privati, che possono sfruttare le tecnologie di IA hanno a disposi-

Ricercatore t.d. b) in Diritto costituzionale nell’Università di Firenze.   Cfr. A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw Journal, 2019, p. 81 ss. Per una panoramica dei differenti settori interessati da questa diffusione, v. fra i tanti A. Longo e G. Scorza, Intelligenza artificiale. L’impatto sulle nostre vite, diritti e libertà, Milano 2020, p. 141 ss. 2   Cfr. V. Mayer-Schönberger e K. Cukier, Big Data: A Revolution that will Transform How We Live, Work and Think, London 2013, p. 154 ss.; C. Sarra, Il mondo-dato. Saggi su datificazione e diritto, Padova 2019, spec. p. 29 ss. 3   Cfr. L. Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Milano 2014, p. 55 ss. 4   Cfr. D. Lyon, La società sorvegliata. Tecnologie di controllo della vita quotidiana, Milano 2002, p. 3 ss. 5   Cfr. R. Clarke, Information Technology and Dataveillance, in Communications of ACM, 31 maggio 1988, p. 499 (trad. nostra). * 1

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

184

Giuseppe Mobilio

zione un potere di sorveglianza inimmaginabile fino a pochi anni fa, da esercitare in molteplici settori di interesse e per i più svariati scopi6. L’obiettivo di questo contributo è offrire alcuni spunti di riflessione circa un caso particolare di esercizio di questo potere, che risulta paradigmatico per alcune delle problematiche che ruotano attorno alla dataveillance e alla profilazione. L’attenzione verrà concentrata sull’impiego di tecnologie di sorveglianza particolarmente insidiose, che si basano sul riconoscimento facciale, in grado cioè di riconoscere le persone a partire dalle sole immagini del volto. Le analisi verranno circoscritte sull’uso di queste tecnologie da parte delle autorità pubbliche nell’esercizio delle competenze legate alla sicurezza, ovvero un interesse pubblico in grado di giustificare problematicamente la compressione di numerosi diritti fondamentali7. Inoltre, si prenderà in considerazione il ricorso a queste tecnologie avanzate da parte delle amministrazioni comunali, a riprova della diffusione e della disponibilità di queste tecnologie anche per i livelli di governo territorialmente e organizzativamente più piccoli. Con questo obiettivo, e secondo la prospettiva indicata, verrà ripercorsa l’evoluzione seguita nel nostro ordinamento dal concetto di «sicurezza urbana», entro la quale gli enti locali vantano funzioni rilevanti, per verificare come progressivamente si sia verificata una apertura verso l’utilizzo di tecnologie algoritmiche come quelle di riconoscimento facciale. Di contro, verrà messa in luce come vi sia stata una progressiva presa di coscienza, da parte dei regolatori, circa il potere e le pericolosità derivanti da questi strumenti di sorveglianza, con una parabola che ha condotto all’attuale quadro normativo vigente. In conclusione si accennerà ai possibili sviluppi futuri, a partire dalle ipotesi di disciplina attualmente in discussione a livello di Unione europea riguardanti, più in generale, i sistemi di riconoscimento biometrici. 2. Tra le tecniche più raffinate e pervasive al servizio della dataveillance vi è la «profilazione». Quest’ultima consiste «nella raccolta di informazioni su una persona (o un gruppo di persone) e nella valuta6   Questo potere, in mano agli attori privati, alle piattaforme virtuali e ai grandi player che operano su internet, ha dato origine al noto fenomeno del c.d. capitalismo della sorveglianza, su cui v. S. Zuboff, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Roma 2019. 7   Cfr., da ultimo, G. Pistorio, La sicurezza giuridica. Profili attuali di un problema antico, Napoli 2021, p. 34 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilare tramite riconoscimento facciale

185

zione delle loro caratteristiche o dei loro modelli di comportamento al fine di includerli in una determinata categoria o gruppo, in particolare per analizzare e/o fare previsioni», quindi prendere decisioni, su di esse8. Le tecniche di profilazione vengono impiegate per «prevedere» i comportamenti delle persone, a seconda della probabilità che in presenza di una certa caratteristica ne ricorrano altre che accomunano le persone rientranti nel medesimo profilo; ma anche per «influenzare» le stesse, ove l’appartenenza ad un profilo consenta di inferire la propensione di un individuo, ad esempio, a rispondere in certi modi a determinati stimoli9. La dataveillance e la profilazione, come anticipato, trovano un formidabile strumento nelle «tecnologie di riconoscimento facciale»10. Queste tecnologie, che sfruttano l’IA, consentono di riconoscere una persona o inferire determinate informazioni che la riguardano a partire da alcune sue caratteristiche biometriche uniche, quali i tratti del volto. A differenza di quanto accade per altre caratteristiche biometriche, come il DNA o la forma dell’iride, queste tecnologie funzionano a distanza e senza alcuna cooperazione dell’interessato, ma semplicemente grazie all’elaborazione digitale di una immagine acquisita tramite le più varie fonti, ovvero una fotocamera, una videocamera a circuito chiuso, o scaricata dal web11. Tale elaborazione, inoltre, avviene a grande velocità grazie a complessi algoritmi di apprendimento automatico, che potenzialmente rendono superfluo l’intervento di alcun essere umano12. Tra le principali finalità di impiego di queste tecnologie ne emergono particolarmente due13. Il riconoscimento può sostanziarsi innanzitutto nella «identificazione» in senso stretto del soggetto. In questo caso le immagini facciali vengono comparate con altre immagini 8   Gruppo di lavoro Articolo 29 per la Protezione dei Dati, Linee guida sul processo decisionale automatizzato relativo alle persone fisiche e sulla profilazione ai fini del regolamento 2016/679, 6 febbraio 2018, p. 8. Si veda anche la definizione normativa all’art. 4, par. 1, n. 4, del GDPR. 9  F. Lagioia e G. Sartor, Profilazione e decisione algoritmica: dal mercato alla sfera pubblica, in Federalismi.it, 2020, p. 89 ss. 10   Sul punto, volendo, si veda più approfonditamente G. Mobilio, Tecnologie di riconoscimento facciale. Rischi per i diritti fondamentali e sfide regolative, Napoli 2021. 11   Cfr. E. Learned-Miller, V. Ordóñez, J. Morgenstern e J. Buolamwini, Facial Recognition Technologies in the Wild: A Primer, 29 maggio 2020, p. 8. 12  Cfr. Garvie et al., The Perpetual Line-Up. Unregulated Police Face Recognition in America, Georgetown Center on Privacy & Technology, 18 ottobre 2016, p. 16 ss. 13   Gruppo di lavoro Articolo 29 per la Protezione dei Dati, Parere 16/2011 relativo al riconoscimento facciale nell’ambito dei servizi online e mobile, cit., p. 3 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

186

Giuseppe Mobilio

presenti in un database e già associate alla persona che ritraggono (come nel caso delle immagini sui documenti di riconoscimento o del casellario giudiziale). Questa comparazione avviene in forma automatizzata e su base probabilistica. La scoperta di una corrispondenza, associata ad un certo grado di probabilità e di esattezza, permette di risalire alle generalità di un individuo che, ad esempio, è stato ripreso da una videocamera. Diversamente, le tecnologie di riconoscimento facciale consentono anche di operare la «categorizzazione» di una persona. Con questa tecnica non si procede propriamente alla identificazione, ma, tramite l’analisi dell’immagine facciale ad opera degli algoritmi sopra citati, è possibile estrarre alcune caratteristiche di interesse (ad esempio, età, sesso, espressioni rivelatrici di un certo stato d’animo, indizi circa lo stato di salute, ecc.). Nel caso della categorizzazione la capacità di profilazione di queste tecnologie è evidente, nella misura in cui le caratteristiche di interesse ricercate (secondo gli esempi citati) fungono da attributi che consentono di classificare la persona in una o più categorie ai quali vengono associati uno o più profili (ad esempio, uomo anziano, in condizioni di salute non ottimali e tendente a stati di ansietà). Nel caso della identificazione, invece, la profilazione si realizza grazie alla capacità delle tecnologie di riconoscimento facciale di realizzare un collegamento tra mondo offline e online. Questi strumenti, infatti, hanno raggiunto un livello di sofisticatezza ed efficienza tale da riuscire a ricollegare i dati acquisibili nel mondo reale, come una semplice immagine facciale catturata con discrezione in uno spazio pubblico, con la miriade di dati presenti sul web, così da permettere di stilare quasi all’istante profili personali approfonditi14. In questo modo è possibile identificare una persona, tracciarne gli spostamenti, ricostruirne le abitudini e preferenze. Una volta accennato all’impressionante capacità di sorveglianza di queste tecnologie, occorre verificare se, e in che termini, le amministrazioni comunali possano avvalersi di simili strumenti. Gli enti locali, infatti, sono intenti – come noto – a dotarsi sempre più e ad integrare il proprio ambiente con le tecnologie di informazione e comunicazio-

14  Come dimostrano i risultati degli esperimenti riportati in A. Acquisti, R. Gross e F. Stutzman, Face recognition and privacy in the age of augmented reality, in Journal of Privacy and Confidentiality, 2014, p. 1 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilare tramite riconoscimento facciale

187

ne, secondo il paradigma diffuso delle smart cities15. L’interrogativo da porsi è quali siano i confini che i Comuni devono rispettare in questa corsa all’innovazione tecnologica, la quale può anche essere motivata da finalità particolarmente sensibili, come quelle della sicurezza. 3. La «sicurezza» è un concetto che, come chiarito anche dalla giurisprudenza costituzionale, ha oramai acquisito una declinazione pluralistica. Nell’ordinamento italiano è infatti possibile distinguere, da una parte, una sicurezza in senso stretto, o «primaria», che corrisponde all’accezione tradizionale di sicurezza pubblica, affidata alla competenza legislativa dello Stato (ex art. 117, c. 2, lett. h), Cost.) e rientrante nelle attività di polizia giudiziaria e di pubblica sicurezza. Ad essa devono essere ricondotte quelle attività preventive e repressive dirette al mantenimento dell’ordine pubblico su cui si regge l’ordinata convivenza civile16. Dall’altra, vi è una sicurezza in senso lato, o «secondaria», da intendersi come «fascio di funzioni intrecciate, corrispondenti a plurime e diversificate competenze», nella quale – seppure in maniera non del tutto pacifica17 – le autonomie territoriali sono chiamate ad esercitare le proprie competenze e contribuire ad assicurare «le precondizioni per un più efficace esercizio delle classiche funzioni di ordine pubblico, per migliorare il contesto sociale e territoriale di riferimento, postulando l’intervento dello Stato in relazione a situazioni non altrimenti correggibili se non tramite l’esercizio dei tradizionali 15   Di recente, v. la ricostruzione in G. F. Ferrari (a cura di), Smart city. L’evoluzione di un’idea, Mimesis, Milano 2020. Sulla definizione problematica di questo concetto, A. Ramaprasad, A. Sánchez-Ortiz e T. Syn, A Unified Definition of a Smart City, 16th International Conference on Electronic Government (EGOV), 2017, p. 13 ss. 16   Cfr. art. 159, c. 2, d.lg. 31 marzo 1998, n. 112, che definisce sicurezza pubblica come le «misure preventive e repressive dirette al mantenimento dell’ordine pubblico, inteso come il complesso dei beni giuridici fondamentali e degli interessi pubblici primari sui quali si regge l’ordinata e civile convivenza nella comunità nazionale, nonché alla sicurezza delle istituzioni, dei cittadini e dei loro beni». Nella giurisprudenza costituzionale, v. tra le prime sent. n. 290/2001. Sul punto, all’indomani della riforma del Titolo V, v. P. Bonetti, Ordine pubblico, sicurezza, polizia locale e immigrazione nel nuovo art. 117 della Costituzione, in Le Regioni, 2002, p. 506 ss. 17   Tale distinzione, tuttavia, non risulta pacifica, nella misura in cui la «sicurezza» può essere qualificata come una materia trasversale di competenza statale in grado di interessare ambiti non riconducibili in senso stretto alla prevenzione e repressione dei reati: così fin dalle sentt. nn. 222 e 237/2006 o n. 51/2008; sul punto v. T.F. Giupponi, Le dimensioni costituzionali della sicurezza e il sistema delle autonomie regionali e locali, in T.F. Giupponi (a cura di), Politiche della sicurezza e autonomie locali, Bologna 2010, p. 33 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

188

Giuseppe Mobilio

poteri coercitivi»18. Una sicurezza secondaria, quindi, diversa da quella primaria e che attiene più in generale al «miglioramento del contesto sociale e territoriale» ove gli enti locali esercitano un fascio di attribuzioni molto diversificato. Bisogna anche osservare che in parallelo, entro questa seconda accezione, è possibile ravvisare un sempre maggior coinvolgimento degli enti locali nell’esercizio di funzioni che rilevano per la tutela del bene sicurezza. In questo senso si è verificata una progressiva specificazione di quella che oggi viene definita «sicurezza urbana». Limitando lo sguardo alle forme di collaborazione su base pattizia tra livelli territoriali di governo19, occorre registrare come nel tempo si siano susseguite varie «stagioni» di ricorso a protocolli, accordi o patti tra amministrazioni statali, in particolar modo le forze di polizia, e amministrazioni locali, per la garanzia congiunta a livello locale delle «sicurezze» nelle due accezioni sopra citate. La prima fase, a partire dalla fine degli anni ’90, è scandita dall’attivazione massiccia di strumenti pattizi in assenza di una base legislativa20. Successivamente, con l’entrata in vigore di un’apposita previsione legislativa nel 200621, si 18  Così ex multis Corte. cost., sentt. n. 176/2021, n. 177/2020, n. 285/2019, n. 208/2018, n. 300/2011. 19   Sull’origine delle diverse forme di collaborazione «operativa», ossia tra corpi di polizia locale e forze di polizia statali, a partire dalla legge n. 121/1981, e di collaborazione «strutturali», con l’integrazione dei comitati provinciali per l’ordine e la sicurezza pubblica con i vertici politici degli ee.ll., con il d.lg. 27 luglio 1999 n. 279, v. V. Antonelli, L’esperienza dei “patti per la sicurezza” nel triennio 2007-2009, in A. Pajno (a cura di), La sicurezza urbana, Sant’Arcangelo di Romagna 2010, p. 134 ss. 20   Si consideri come i primi protocolli di intesa, secondo la delibera CIPE del 21 marzo 1997, erano stipulati tra gli organi istituzionalmente preposti alla tutela dell’ordine e della sicurezza pubblica, accompagnandosi ai patti territoriali e ai contratti d’area, al fine di conseguire obiettivi di rafforzamento delle condizioni di sicurezza. Il d.P.C. 12 settembre 2000, recante «individuazione delle risorse finanziarie, umane, strumentali e organizzative da trasferire alle regioni ed agli enti locali per l’esercizio delle funzioni e dei compiti amministrativi in materia di polizia amministrativa», che all’art. 7, c. 3, stabilisce che «il Ministro dell’Interno, nell’ambito delle sue attribuzioni, promuove le iniziative occorrenti per incrementare la reciproca collaborazione fra gli organi dello Stato, le regioni e le Amministrazioni locali in materia, anche attraverso la stipula di protocolli d’intesa o accordi per conseguire specifici obiettivi di rafforzamento delle condizioni di sicurezza delle città e del territorio extraurbano». V. V. Antonelli, L’esperienza dei “patti per la sicurezza” nel triennio 2007-2009, cit., p. 135 ss., che rileva come tra il 1997 e il 2006 siano stati siglati circa 400 strumenti pattizi di varia natura. 21   L’art. 1, c. 439, della l. 27 dicembre 2006, n. 296, ha stabilito che «per la realizzazione di programmi straordinari di incremento dei servizi di polizia, di soccorso tecnico urgente e per la sicurezza dei cittadini, il Ministro dell’Interno e, per sua delega, i Prefet-

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilare tramite riconoscimento facciale

189

registra un rilancio nei c.dd. patti per la sicurezza, i quali, entro una cornice comune22, hanno coinvolto Ministero dell’interno e singole città23. Con questi ultimi, come già avveniva in passato, si assiste al ricorrente riferimento alla necessità che i Comuni rafforzino i propri sistemi di videosorveglianza, come misura chiave per la prevenzione e la dissuasione situazionale e per l’acquisizione di informazioni a favore delle autorità pubbliche per l’esercizio delle rispettive funzioni24. È in questo tornante che, con l’ampliamento dei confini del potere di ordinanza sindacale ex art. 54 TUEL da parte delle misure rientranti nel primo «pacchetto sicurezza», si ha una prima formalizzazione, seppur a livello regolamentare, del concetto di sicurezza urbana»25. Tale definizione è stata poi ripresa ed elevata a rango legislativo a distanza di quasi un decennio, in occasione dell’adozione del d.l. 20 febbraio 2017, n. 1426.

ti possono stipulare convenzioni con le Regioni e gli Enti locali che prevedano la contribuzione logistica, strumentale o finanziaria delle stesse Regioni e degli Enti locali». 22   A seguito della l. n. 296 del 2006, il 20 marzo 2007 è stato sottoscritto il «Patto sulla sicurezza» tra il Ministero dell’Interno e ANCI, seguito il 13 settembre 2008 dall’accordo tra il Ministero dell’Interno e la Consulta ANCI dei piccoli Comuni in materia di patti per la sicurezza. 23   V. le analisi in F. Minni e C. Domenicali, I patti per la sicurezza, in N. Gallo e T.F. Giupponi (a cura di), L’ordinamento della sicurezza: soggetti e funzioni, Milano 2014, p. 117 ss. 24   Cfr. G. G. Nobili, N. Gallo e S.D. Leonardis, Videosorveglianza e sicurezza urbana, in Rivista di Polizia, 2012, p. 39 ss. 25   Ampliamento ad opera del d.l. 23 maggio 2008, n. 92, che ha modificato l’art. 54 del Testo unico degli enti locali di cui al d.lg. 28 agosto 2000, n. 267, (TUEL); sul punto si rinvia a A. Lorenzetti e S. Rossi (a cura di), Le ordinanze sindacali in materia di incolumità pubblica e sicurezza urbana. Origini, contenuti, limiti, Napoli 2009. In particolare, è stato introdotto il c. 4-bis, che rinvia ad un decreto ministeriale l’ambito di applicazione del potere di ordinanza in materia di «sicurezza urbana». Conseguentemente, il d.m. 5 agosto 2008 ha definito la sicurezza urbana come «un bene pubblico da tutelare attraverso attività poste a difesa, nell’ambito delle comunità locali, del rispetto delle norme che regolano la vita civile, per migliorare le condizioni di vivibilità nei centri urbani, la convivenza civile e la coesione sociale» (art. 1) e ne ha tipizzato le fattispecie in: situazioni urbane di degrado o di isolamento che favoriscono l’insorgere di fenomeni criminosi; danneggiamento al patrimonio pubblico e privato o che ne impediscono la fruibilità e determinano lo scadimento della qualità urbana; incuria, degrado e occupazione abusiva di immobili; intralcio alla pubblica viabilità e alterazione del decoro urbano; offesa della pubblica decenza (art. 2). 26   Su cui v. T.F. Giupponi, Sicurezza integrata e sicurezza urbana nel decreto-legge n. 14/2017, in Ist. fed., 2017, p. 5 ss.; G. Tropea, I nuovi poteri di sindaco, questore e prefetto in materia di sicurezza urbana (dopo la legge Minniti), in Federalismi.it, 2018, I, p. 2 ss. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

190

Giuseppe Mobilio

Quest’ultimo intervento ha innanzitutto offerto una cornice comune al concorso di tutti i livelli territoriali di governo nella promozione e attuazione «di un sistema unitario e integrato di sicurezza per il benessere delle comunità territoriali», compendiato nel concetto di «sicurezza integrata»27. In questo contesto va collocata la «sicurezza urbana», intesa come «bene pubblico che afferisce alla vivibilità e al decoro della città», da perseguire attraverso un’azione coordinata tra Stato e autonomie territoriali, nell’esercizio delle rispettive competenze28. Qui la portata è molto più ampia della mera prevenzione e repressione dei reati, perché ricomprende al suo interno misure di contrasto sia alla compromissione dell’assetto urbano, come quelle legate alla «riqualificazione, anche urbanistica, sociale e culturale, e recupero delle aree o dei siti degradati», sia alle alterazioni della realtà sociale, ove ci si riferisce a «l’eliminazione dei fattori di marginalità e di esclusione sociale, la prevenzione della criminalità, in particolare di tipo predatorio, la promozione della cultura del rispetto della legalità e l’affermazione di più elevati livelli di coesione sociale e convivenza civile»29. L’efficacia delle politiche di sicurezza finisce così per dipendere dalla capacità di definire strategie di tipo integrato, in cui si condensano soluzioni di tipo preventivo e riferite al contesto urbano, di spettanza delle amministrazioni locali, con altre di natura difensiva e reattiva alla criminalità, spettanti allo stato e alle forze di polizia30. L’art. 5 del d.l. n. 14 del 2017 prevede che, in relazione alle specificità dei territori, Sindaci e Prefetti possano individuare interventi per la sicurezza urbana attraverso la stipula di ulteriori «patti». Questa nuova previsione legislativa dei «patti per l’attuazione della sicurezza urbana» ha quindi aperto ad una ulteriore fase di rilancio per gli strumenti consensuali attraverso cui costruire politiche di sicurezza in sinergia tra diversi livelli di governo31. All’interno degli obiettivi prioritari che i patti sono chiamati a   Cfr. art. 1, c. 2, d.l. n. 14 del 2017.   Cfr. art. 4, d.l. n. 14 del 2017. 29   Secondo la divisione delle misure al citato art. 4 proposta da G. Pighi, Spazi e destinatari delle politiche di sicurezza urbana: la città divisa, in Dir. Pen. e Processo, 2019, p. 1519. 30  M. Brocca, Nuove frontiere del diritto urbanistico: le intersezioni con la sicurezza urbana, in Federalismi.it, 2020, p. 9 31  V. M. Iannella, Le “sicurezze” nell’ordinamento italiano: l’allontanamento dal modello stato-centrico e l’affermazione di una rete plurale, in Forum di Quaderni Costituzionali, 2020, p. 155 ss. 27 28

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilare tramite riconoscimento facciale

191

perseguire, secondo quanto previsto dal d.l. n. 14 del 2017, occorre segnalare ai fini del presente discorso la menzione della prevenzione e il contrasto ai fenomeni di criminalità diffusa e predatoria, anche «attraverso l’installazione di sistemi di videosorveglianza»32. Benché l’impiego di tali strumenti in ambito urbano in passato fosse già stato all’attenzione del legislatore, attraverso la disciplina di aspetti specifici33 o di situazioni particolari34, è con tali patti che ulteriormente viene incentivata e finanziata sistematicamente la messa in opera di una rete di videosorveglianza maggiormente capillare35. È a questo periodo che, presso i Comuni, può farsi risalire l’inizio di una diffusa progettazione e impiego di sistemi di sicurezza che integrano tecnologie di riconoscimento facciale36. Sempre più le pubbliche amministrazioni sono indotte a fare ricorso a questi strumenti di IA, considerato che lo sviluppo registratosi negli ultimi anni ha reso tali tecnologie ancora più performanti, unitamente alla riduzione dei relativi costi e alla più varia disponibilità di mercato37. Tuttavia, questa accelerazione nella corsa ai sistemi di videosorveglianza avanzati, per quanto qui interessa maggiormente, sconta due elementi problematici di fondo. Da una parte, le amministrazioni comunali si sono mosse sostanzialmente in un «vuoto normativo», ovvero in assenza di una normativa che disciplini propriamente queste tecnologie e che li autorizzi al relativo impiego. A livello legislativo vi sono solamente dei riferimenti   Art. 5, c. 2, lett. a), d.l. n. 14 del 2017.   Come il d.l. 23 febbraio 2009, n. 11, recante «Misure urgenti in materia di sicurezza pubblica e di contrasto alla violenza sessuale, nonché in tema di atti persecutori», convertito con l. 23 aprile 2009, n. 38, che all’art. 6, cc. 7 e 8, prevede l’utilizzabilità, da parte dei Comuni, di sistemi di videosorveglianza in luoghi pubblici o aperti al pubblico per la tutela della sicurezza urbana, con possibilità di conservare i dati fino a sette giorni. 34   V. art. 1-quater, c. 3, del d.l. 24 febbraio 2003, n. 28, e il d. m. 6 giugno 2005, relativo alle «Modalità per l’installazione di sistemi di videosorveglianza negli impianti sportivi di capienza superiore alle diecimila unità, in occasione di competizioni sportive riguardanti il gioco del calcio». 35   In tema, v. M. Bonazzi, La videosorveglianza ai fini della tutela dell’ordine e della sicurezza pubblica, con particolare riferimento alle novità introdotte dalla legge 18 aprile 2017, n. 48 “Disposizioni urgenti in materia di sicurezza delle città”, in Rivista di polizia, 2018, p. 545 ss. 36   Sul punto, per un quadro informativo riguardante città come Torino, Como e Udine, v. I. Invernizzi, I sistemi di riconoscimento facciale stanno arrivando nelle città italiane, in il Post, 16 settembre 2021, disponibile su bit.ly/3u77buk. 37   Cfr. G. Mobilio, Tecnologie di riconoscimento facciale, cit., p. 12 ss. 32 33

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

192

Giuseppe Mobilio

indiretti, come accade nello stesso d.l. n. 14 del 2017, il quale specifica che i patti possono anche riguardare progetti, proposti da soggetti privati, per la messa in opera di «sistemi di sorveglianza tecnologicamente avanzati, dotati di software di analisi video per il monitoraggio attivo con invio di allarmi automatici a centrali delle forze di polizia o di istituti di vigilanza privata convenzionati»38. Vi sono, inoltre, segnali che lasciano intendere l’esistenza di una volontà di sfruttare simili opportunità tecnologiche, come emerge dalle «linee guida» adottate in Conferenza Stato-città in forza dell’art. 5, c. 1, del citato decreto-legge, le quali, nel coordinare la stipula dei patti, spronano a interventi che «puntano non solo a nuove telecamere, ma anche al finanziamento di piattaforme di “videosorveglianza 2.0”»39. Dall’altra, vi sono elementi che inducono a ritenere che vi sia stata una sorta di «eterogenesi dei fini», ovvero che i Comuni siano indotti a dotarsi di queste tecnologie non tanto per l’esercizio di competenze di sicurezza urbana riconducibili al sopracitato concetto di sicurezza secondaria, quanto piuttosto per attività assimilabili, nella sostanza, alle attività di prevenzione e repressione dei reati, ovvero a quelle funzioni di sicurezza primaria che sarebbero loro generalmente precluse perché di competenza statale. Una serie di indizi milita in questo senso. Si pensi al fatto che il ricorso a tali strumenti rientra, come detto, nell’obiettivo di «prevenzione e contrasto dei fenomeni di criminalità diffusa e predatoria», già di per sé intimamente legato alla sicurezza in senso stretto. In aggiunta, i decreti ministeriali che definiscono i criteri e le logiche di ripartizione delle risorse destinate ai Comuni per l’implementazione di questa infrastruttura della sicurezza si riferiscono, tra gli indicatori per stabilire le priorità di finanziamento, all’indice di delittuosità provinciale e comunale, o all’incidenza dei fenomeni di criminalità diffusa registrati nell’area urbana da sottoporre a videosorveglianza40. Altro elemento che depone in questo senso sono le circolari ministeriali che in generale forniscono indirizzi alle amministrazioni statali competenti circa l’uso dei sistemi di videosorveglianza. Tra le principali si segnalano le circolari del 8 febbraio 2005 e del 2 marzo 2012, costantemente richiamate dagli atti ministeriali successivi, le quali con-

  Art. 7, c. 1-bis), d.l. n. 14 del 2017.   Conferenza Stato Città, Accordo in merito alle linee guida per l’attuazione della sicurezza urbana, ai sensi dell’art. 5, c. 1, del d.l. n. 14 del 2017, 26 luglio 2018, pt. 2.1. 40   Cfr., da ultimo, i decreti interm. 9 ottobre 2021 e 27 maggio 2020. 38 39

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilare tramite riconoscimento facciale

193

fermano l’esigenza di «una stretta interrelazione fra l’impiego di tali apparati e le effettive necessità di prevenzione e repressione dei reati e degli altri illeciti rilevanti per l’ordine e la sicurezza pubblica»41. 4. A livello statale – come anticipato, e salvo quanto si dirà a breve – non vi è disciplina giuridica formulata da Parlamento o Governo che miri a regolare compiutamente le tecnologie di riconoscimento facciale42. Ciò non toglie però che altri livelli di governo – segnatamente a livello europeo – ed altre autorità – le autorità amministrative indipendenti – abbiano maturato negli ultimi anni una presa di coscienza circa le conseguenze derivanti dall’impiego di questi sistemi di controllo. Così è possibile trovare richiami alle tecnologie di riconoscimento facciale, o più in generale ai sistemi di identificazione biometrica, in comunicazioni, risoluzioni e piani di azione delle istituzioni dell’UE43. La quota più consistente di riferimenti, tuttavia, è contenuta nelle pronunce delle autorità che si occupano, a livello sovranazionale44 e nazionale45, di protezione dei dati personali, oppure nelle apposite linee guida approvate dal Consultative committee della c.d. Convenzione 108+, dedicata sempre alla «protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale»46. Questa circostanza non può destare sorpresa, se si considera che proprio la normativa sulla protezione dei dati personali – nella forma del Regolamento generale (UE) 2016/679 (c.d. GDPR) o della Direttiva (UE) 2016/680 (c.d. 41  Cfr. circolare del Ministero dell’Interno 558/A/421.2/70/456 del 8 febbraio 2005 su «sistemi di videosorveglianza. Definizione di linee guida in materia»; circolare del Ministero dell’Interno 558/SICPART/421.2/70/224632 del 2 marzo 2012, recante «Sistemi di videosorveglianza in ambito comunale. Direttiva». 42   Cfr. G. Mobilio, Tecnologie di riconoscimento facciale, cit., p. 119 ss. 43   Cfr. Parlamento Europeo, Una politica industriale europea globale in materia di robotica e intelligenza artificiale, (2018/2088(INI)), 12 febbraio 2019, p. 13; European Commission, White Paper “On Artificial Intelligence - A European approach to excellence and trust”, COM(2020) 65 final, 19 febbraio 2020, 44   Cfr. Gruppo di lavoro Articolo 29 per la Protezione dei Dati, Parere 16/2011 relativo al riconoscimento facciale nell’ambito dei servizi online e mobile, WP 192, 22 marzo 2012; Gruppo di lavoro Articolo 29 per la Protezione dei Dati, Parere 3/2012 sugli sviluppi nelle tecnologie biometriche, WP193, 27 aprile 2012; Comitato europeo per la protezione dei dati, Linee guida 3/2019 sul trattamento dei dati personali attraverso dispositivi video, 2.0, 29 gennaio 2020. 45   Cfr. Garante per la protezione dei dati personali, Provvedimento generale prescrittivo in tema di biometria, 12 novembre 2014, oltre alle pronunce citate di seguito. 46   Consultative Committee Of The Convention 108, Guidelines on Facial Recognition, T-PD(2020)03rev4, 28 gennaio 2021.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

194

Giuseppe Mobilio

LED, o direttiva di polizia), da applicarsi alle autorità di prevenzione e perseguimento di reati, assieme alla normativa attuativa al d.lg. 18 maggio 2018, n. 51, – è quella che più da vicino interessa queste tecnologie all’avanguardia, le quali, nel contesto della dataveillance cui si è accennato introduttivamente, processano immagini facciali qualificabili come dati personali o dati biometrici, e dunque sottoposte alla relativa disciplina. Proprio il Garante della privacy italiano ha avuto occasione di pronunciarsi sull’uso delle tecnologie di riconoscimento facciale da parte dei Comuni italiani, traendo le conseguenze del primo degli aspetti problematici indicati nel paragrafo precedente, ovvero «l’assenza di una disciplina specifica». Con una pronuncia del febbraio 2020, il Garante ha inibito al Comune di Como l’utilizzo dei sistemi di videosorveglianza integrati con riconoscimento facciale a fini di «sicurezza urbana» e per l’esercizio delle «funzioni di polizia giudiziaria della polizia locale»47. In questa occasione vengono fornite indicazioni di portata generale utili anche per gli altri Comuni, nella misura in cui viene chiarito che il d.l. n. 14 del 2017, nel consentire il ricorso alla videosorveglianza, non soddisfa la condizione imposta dall’art. 7 del citato d.lg. n. 51 del 2018, ovvero che il trattamento dei dati biometrici48 sia «autorizzato solo se strettamente necessario e assistito da garanzie adeguate per i diritti e le libertà dell’interessato e specificamente previsto dal diritto dell’Unione europea o da legge o, nei casi previsti dalla legge, da regolamento»49. Le norme sulla sicurezza urbana in vigore, invece, non dicono alcunché riguardo a queste forme pervasive di sorveglianza, risultando quindi insufficienti allo scopo di offrire una idonea base legale a giustificare ingerenze nei confronti del diritto alla privacy e alla protezione dei 47   Cfr. Garante per la protezione dei dati personali, Provvedimento del 26 febbraio 2020, 26 febbraio 2020, n. 54, ove ci si riferisce precisamente a «consentire al nucleo di PG della Polizia Locale di individuare persone oggetto di indagine e/o scomparse al passaggio nell’area sottoposta a controllo; consentire di individuare automaticamente situazioni sospette (loitering), potenzialmente pericolose (abbandono di oggetti) o rilevare automaticamente furti di oggetti o ingressi/uscite da aree di interesse per indagini». 48   Ovvero, ai sensi dell’art. 3, par. 1, n. 13 della LED, i «dati personali ottenuti da un trattamento tecnico specifico relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica che ne consentono o confermano l’identificazione univoca, quali l’immagine facciale». 49   Enfasi aggiunta. Il Garante chiarisce che anche il d.l. n. 11 del 2009, sopra richiamato, è insufficiente allo scopo.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilare tramite riconoscimento facciale

195

dati personali, come invece richiesto esplicitamente dall’art. 8 della CEDU50 e dal combinato disposto degli artt. 7 e 52 della CDFUE51, per come interpretati dalla giurisprudenza. Quand’anche venisse introdotto un fondamento legislativo che autorizzi i Comuni all’impiego dei sistemi di riconoscimento facciale – si viene così al secondo aspetto problematico citato al paragrafo precedente – occorrerebbe distinguere con ancor maggiore attenzione se l’uso di questi strumenti avvenga per finalità di sicurezza primaria piuttosto che secondaria. Questo ai fini di superare il secondo scoglio che impedisce il ricorso a queste tecnologie biometriche di identificazione, ovvero il rispetto del «principio di proporzionalità». Utili indicazioni al riguardo provengono sempre dal Garante della privacy, che di recente è stato chiamato a pronunciarsi sul possibile impiego da parte delle forze di polizia del sistema di riconoscimento facciale dal vivo Sari Real Time, che offrirebbe supporto a operazioni di controllo sul territorio in occasione di eventi e manifestazioni, ovvero attività riconducibili alla prevenzione e repressione di reati. Il Garante ha impedito al Ministero dell’interno di dispiegare simili tecnologie di controllo non solo perché mancano «norme specifiche per il trattamento di dati biometrici mediante tecnologie di riconoscimento facciale a fini di contrasto», ma anche perché occorre «garantire che il loro impiego sia strettamente necessario e proporzionato alle finalità e siano prescritte le necessarie garanzie»52. Come anche chiarito dalle Autorità garanti 50   Basti ricordare che l’art. 8, par. 2 della CEDU stabilisce che «non può esservi ingerenza di una autorità pubblica nell’esercizio di tale diritto [al rispetto della vita privata] a meno che tale ingerenza sia prevista dalla legge»; un riferimento da intendersi alla «qualità delle norme», ovvero ad una legislazione nazionale che sia «chiara, prevedibile e adeguatamente accessibile», in modo da consentire alle persone di agire in conformità alla legge e da delimitare chiaramente la portata della discrezionalità delle autorità pubbliche; v. ex multis Corte eur. dir. uomo, Silver e altri c. Regno Unito, 25 marzo 1983, p. 87 ss.; Malone c. Regno Unito, 2 agosto 1984, p. 67; Halford c. Regno Unito, 25 giugno 1997, p. 49; Shimovolos c. Russia, 21 giugno 2011, p. 68. 51   Anche l’art. 52, par. 1, della CDFUE, prevede che qualsiasi limitazione nell’esercizio dei diritti fondamentali, come il rispetto alla vita privata all’art. 7 o la protezione dei dati personali all’art. 8, deve «essere prevista dalla legge», implicando così che la base giuridica che consente l’ingerenza in tali diritti debba definire essa stessa la portata della limitazione dell’esercizio del diritto considerato; v. ex multis Corte giust., 8 aprile 2014, cause riunite C-293-12 e C-594/12, Digital Rights Ireland, ECLI:EU:C:2014:238, p. 54; Corte giust., 6 ottobre 2015, causa C-362/14, Maximillian Schrems, 6 ottobre 2015, par. 91; Corte giust., 21 dicembre 2016, cause riunite C-203/15 e C-698/15, Tele2 Sverige AB, ECLI:EU:C:2016:970, p. 109. 52   Cfr. Garante per la protezione dei dati personali, Parere sul sistema Sari Real

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

196

Giuseppe Mobilio

nazionali di altri Paesi, occorre quindi interrogarsi se, per raggiungere i medesimi scopi, sussistano mezzi meno invasivi in termini di privacy e diritti fondamentali rispetto all’uso di queste tecnologie53. Questi interrogativi danno seguito alle previsioni contenute sempre all’art. 52 della CDFUE, secondo cui le ingerenze nella vita privata e nel diritto alla tutela dei dati personali, oltre che essere previste dalla legge, devono fra l’altro essere improntate proprio al rispetto del canone della proporzionalità, limitate allo stretto necessario e alle finalità di interesse generale, alla stregua di indirizzi giurisprudenziali consolidati54. Tale valutazione implica un giudizio sulla idoneità degli strumenti a raggiungere lo scopo, che tali strumenti «non superino i limiti» di ciò che è idoneo al conseguimento degli obiettivi stessi e non «eccedano» più di quanto necessario a raggiungerli55. Una valutazione di questo tipo deve essere condotta in termini Time, 25 marzo 2021. 53   Così la Commission nationale de l’informatique et des libertés francese (CNIL) a proposito dell’uso di sistemi di riconoscimento facciale presso le scuole superiori francesi allo scopo di assistere i responsabili dei controlli e prevenire intrusioni o furti di identità. La Commission ha stabilito che tali forme di controllo fossero contrarie al principio di proporzionalità, dal momento che per raggiungere il medesimo scopo esistono mezzi molto meno invasivi, come ad esempio l’uso di badge; cfr. CNIL, Expérimentation de la reconnaissance faciale dans deux lycées: la CNIL précise sa position, 29 ottobre 2019. Analoghe conclusioni sono tratte dall’Autorità di protezione dei dati svedese in un caso analogo, ove l’impiego di queste tecnologie è stato giudicato «troppo intrusivo» nei confronti dell’integrità personale degli studenti ed «eccessivo» rispetto a quanto necessario per monitorare la frequenza degli stessi; cfr. Swedish Data Protection Authority (Integritetsskydds myndigheten), Supervision pursuant to the General Data Protection Regulation (EU) 2016/679 – facial recognition used to monitor the attendance of students, DI-2019-2221, 20 agosto 2019. 54   Corte giust., C-293/12 e C-594/12, Digital Rights Ireland, cit., p. 38; Corte giust., causa C-291/12, 17 ottobre 2013, Schwarz c. Bochum, ECLI:EU:C:2013:670; Corte giust., 17 dicembre 2015, causa C-419/14, WebMindLicenses Kft. c. Nemzeti Adó-es Vámhivatal Kiemelt Adó- és Vám Foigazg- atóság; Corte giust., C-203/15 e C-698/15, Tele2 Sverige AB, cit., p. 94; Corte giust., C-311/18, Data Protection Commissioner, cit., p. 174; Corte giust., 26 luglio 2017, Parere 1/15, (Accordo PNR UE-Canada), ECLI:EU:C:2017:592, p. 138. 55  Corte giust., C-291/12, Schwarz, cit., pp. 45-46. Corte giust., C-293//12 e C-594/12, Digital Rights Ireland, cit., pp. 46-47. In Comitato europeo per la protezione dei dati, Linee guida 3/2019 sul trattamento dei dati personali attraverso dispositivi video, cit., p. 11, si legge che «prima di installare un sistema di videosorveglianza, il titolare del trattamento deve sempre valutare criticamente se questa misura sia in primo luogo idonea a raggiungere l’obiettivo desiderato e, in secondo luogo, adeguata e necessaria per i suoi scopi. Si dovrebbe optare per misure di videosorveglianza unicamente se la finalità del trattamento non può ragionevolmente essere raggiunta con altri mezzi meno intrusivi per i diritti e le libertà fondamentali dell’interessato». ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilare tramite riconoscimento facciale

197

molto rigorosi. Ad oggi, le pronunce delle autorità garanti richiamate e la giurisprudenza – ma anche, a ben vedere, le circolari dello stesso Ministero dell’interno, con il loro richiamo ai criteri della necessità, della pertinenza e della non eccedenza dei dati e dei relativi trattamenti56 – lasciano intendere che solamente adoperando forti cautele il riconoscimento biometrico potrebbe dirsi proporzionato alle finalità di prevenzione e repressione di reati; finalità riconducibili ad un interesse primario dello Stato che di per sé giustifica una forte compressione dei diritti alla privacy e alla protezione dei dati, come si evince dal confronto tra le diverse discipline del d.lg. n. 51 del 2018 e del GDPR57. Difficilmente, quindi, il ricorso a simili tecnologie di videosorveglianza e alle tecniche di profilazione connesse potrebbe dirsi proporzionato nel caso della sicurezza urbana. Quest’ultima – lo si ribadisce – accoglie un concetto di sicurezza molto più ampio, che guarda complessivamente agli interessi legati alla vivibilità e al decoro della città, da perseguire mediante un ventaglio di politiche chiamate ad operare sinergicamente. Le amministrazioni comunali potrebbero certamente essere tentate di monitorare le persone tramite identificatori biometrici o di profilare i diversi «tipi» a seconda della loro pericolosità presunta o della probabilità che commettano effrazioni. Tuttavia, si tratterebbe di un impiego di tecnologie algoritmiche che, da una parte, difficilmente supererebbe il vaglio di proporzionalità e, dall’altra, pare riconducibile ad una accezione distorta della sicurezza urbana. Invece di adoperare misure tese a rimuovere «le cause e quindi l’insieme delle condizioni legate alla complessiva condizione d’insicurezza», i Comuni impiegherebbero questi strumenti ripiegando sul riduttivo perseguimento di «effetti concreti», nella logica della «ripulitura» selettiva e immediata di singoli luoghi compromessi dell’assetto urbano o sulla punizione

56  Cfr., ad esempio, la già richiamata circolare del Ministero dell’Interno 558/A/421.2/70/456 del 8 febbraio 2005. 57   Solo in base al d.lg. n. 51 del 2018, in relazione alle esigenze di segretezza nelle indagini, si giustifica una disciplina differente rispetto a quella del GPDR, specie, fra l’altro, in punto di obblighi di trasparenza e di fornire informazioni sulla sottoposizione a videosorveglianza. Per cui il d.lg. n. 51 del 2018 (art. 3) non richiama il principio di trasparenza tra i suoi principi generali, a differenza di quanto accade all’art. 5 del GDPR; inoltre, mentre il GDPR sancisce il diritto dell’interessato a ricevere informazioni prima del trattamento consistente nella videoripresa (art. 12 ss.), il d.lg. n. 51 del 2018 (art. 14) consente di limitare i diritti dell’interessato al trattamento per ragioni di indagine, fra cui quello di ricevere informazioni circa l’esistenza e riguardanti la videoripresa.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

198

Giuseppe Mobilio

di singoli comportamenti di disturbo, ritenuti incivili o sintomatici di devianza (mendicità, dipendenze, prostituzione, commercio abusivo, esercizi rumorosi, aggregazioni problematiche, bullismo, ecc.)»58. Una concezione della videosorveglianza che mal si concilia con le competenze attribuite ai Comuni e con la ratio di tali attribuzioni, e che ancor più problematicamente si presta ad essere perseguita con sistemi tecnologici avanzati. 5. I timori legati al potere di sorveglianza che queste tecnologie conferiscono e alle possibili ripercussioni sui diritti fondamentali e sul sistema democratico si sono tradotti, da ultimo, in una previsione normativa nazionale fortemente restrittiva. Tra le misure che sono state adottate per fronteggiare l’emergenza pandemica, un po’ sorprendentemente si trova traccia dell’unico riferimento che le fonti di rango primario fanno alle tecnologie di riconoscimento facciale. Nel convertire il d.l. 8 ottobre 2021, n. 139, recante «Disposizioni urgenti per l’accesso alle attività culturali, sportive e ricreative, nonché per l’organizzazione di pubbliche amministrazioni e in materia di protezione dei dati personali», il Parlamento ha modificato l’art. 9 introducendo una previsione che sospende «l’installazione e l’utilizzazione di impianti di videosorveglianza con sistemi di riconoscimento facciale […] in luoghi pubblici o aperti al pubblico, da parte delle autorità pubbliche o di soggetti privati» fino «all’entrata in vigore di una disciplina legislativa della materia e comunque non oltre il 31 dicembre 2023». L’unico impiego di queste tecnologie che rimane legittimato è quello svolto «in presenza» da parte delle «autorità competenti a fini di prevenzione e repressione dei reati o di esecuzione di sanzioni penali» di cui al d.lg. n. 51 del 2018, ossia «dall’autorità giudiziaria nell’esercizio delle funzioni giurisdizionali nonché di quelle giudiziarie del pubblico ministero», previo «parere favorevole» del Garante della privacy59. 58  G. Pighi, Spazi e destinatari delle politiche di sicurezza urbana: la città divisa, cit., p. 1519. Si aggiunge che, in questo modo, «le telecamere per contrastare reati contro il patrimonio e in materia di stupefacenti collocate in una zona-focolaio, non solo sospingono fenomeni e paure verso altre zone, ma rinunciano ai benefici dell’uso strategico della videosorveglianza che, con sistemi strategici di controllo dei fenomeni, riesce a incidere concretamente su di essi perché controlla l’intero sistema urbano» (ivi, p. 7). 59   Cfr. art. 9, c. 9, del d.l. 8 ottobre 2021, n. 139, convertito con modificazioni dalla l. 3 dicembre 2021, n. 205.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilare tramite riconoscimento facciale

199

Le autorità politiche statali hanno così stabilito di impedire temporaneamente a chiunque di ricorrere a queste tecnologie per finalità diverse da quelle di sicurezza pubblica, circondando questa eccezione di alcune garanzie. I Comuni, dunque, non possono più impiegare simili strumenti algoritmici di sorveglianza per alcuno scopo, compresa la sicurezza urbana, in attesa di una regolazione organica o quantomeno di una più approfondita riflessione (che dovrebbe concludersi entro il 2023). Quella compiuta nell’ordinamento italiano non è una decisione isolata, ma trova eco soprattutto negli Stati Uniti, dove il ricorso a queste tecnologie è più diffuso e risalente nel tempo, ma soprattutto dove manca una disciplina analoga a quella europea sulla protezione dei dati che possa offrire garanzie di fronte a questi strumenti di sorveglianza60. Anche di là dall’oceano, infatti, si assiste nel più recente periodo all’adozione da parte dei singoli Stati, o addirittura di singole città, di diverse normative rivolte variamente a questi sistemi, con le quali si stabiliscono moratorie o se ne vieta per un certo periodo di tempo l’uso da parte di specifici soggetti, siano essi privati o più spesso pubblici, come le forze di polizia, o per determinati impieghi, come all’interno delle scuole61. Come detto, però, si tratta per lo più di soluzioni transitorie in attesa di decisioni maggiormente meditate, che possono variare drasticamente dalla messa al bando di questi strumenti di identificazione biometrica e di profilazione, all’introduzione di una disciplina più ar60   Cfr., da ultimo, Facial Recognition Technology and Law Enforcement: Select Constitutional Considerations, Congressional Research Service (R46541), settembre 2020; J. Spivack e C. Garvie, A Taxonomy of Legislative Approaches to Face Recognition in the United States, in A. Kak (a cura di), Regulating Biometrics: Global Approaches and Urgent Questions, AI Now Institute, settembre 2020, p. 89 ss. 61   Lo Stato di Washington è stato il primo ad adottare una legislazione organica «Concerning the use of facial recognition services» da parte delle autorità pubbliche, comprese le forze di polizia, firmata dal Governatore il 31 marzo 2020, che produce effetti a partire del luglio 2021 [bit.ly/2Q5qc01], mentre il 17 giugno il Maine ha approvato «An Act To Increase Privacy and Security by Regulating the Use of Facial Surveillance Systems by Departments, Public Employees and Public Officials», che è entrato in vigore il 1 ottobre 2021 (link: bit.ly/3Bih0Zn). Lo Stato di New York ha invece disposto una sospensione con riguardo all’impiego negli istituti scolastici (“Governor Cuomo Signs Legislation Suspending Use and Directing Study of Facial Recognition Technology in Schools”, 22 dicembre 2020 (link: on.ny.gov/3wsCekL), mentre la California l’8 ottobre 2019 aveva già deciso una sospensione nei confronti delle forze dell’ordine (link: bit.ly/3wL8Oyb). La prima città che, dal maggio 2019, ha approvato il divieto per le forze dell’ordine di ricorrere a tali tecnologie è stata San Francisco (link: bit.ly/39ZKkaT).

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

200

Giuseppe Mobilio

ticolata che ponga dei paletti e che ne legittimi il ricorso a specifiche condizioni. È quest’ultima la vera sfida regolatoria per le autorità politiche, che da ultimo è stata raccolta dalle istituzioni dell’Unione europea attraverso la proposta di regolamento, diffusa dalla Presidente della Commissione nell’aprile 2021, volta a fornire una disciplina generale ai sistemi di IA (c.d. AI Act)62. All’art. 5 di questa proposta si introduce una disciplina che riguarda direttamente i sistemi di identificazione biometrica a distanza, fra cui quelli di riconoscimento facciale, circoscritta però all’utilizzo: a scopi di polizia, ovvero di prevenzione e repressione dei reati; in circostanze dal vivo, ovvero con una identificazione istantanea delle persone coinvolte; entro spazi pubblici, ovvero con il possibile coinvolgimento di una quantità indefinibile di persone. Al ricorrere di questi elementi, queste tecnologie vengono qualificate tra quelle espressamente «proibite», salvo che vengano rispettati determinati requisiti, finalità di impiego e obblighi di relativa autorizzazione che dovrebbero valere a circoscriverne i possibili abusi63. 62   Cfr. Proposal for a «Regulation of the European Parliament and of the Council laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts» (COM/2021/206 final), 21 aprile 2021. Su questa proposta, v. L. Floridi, The European Legislation on AI: a Brief Analysis of its Philosophical Approach, in Philosophy & Technology, 2021; M. Veale e F.Z. Borgesius, Demystifying the Draft EU Artificial Intelligence Act – Analysing the good, the bad, and the unclear elements of the proposed approach, in Computer Law Review International, IV, 2021; M. Ebers, Standardizing AI – The Case of the European Commission’s Proposal for an Artificial Intelligence Act, in L.A. Dimatteo, M. Cannarsa e C. PoncibÒ̀ (a cura di), The Cambridge Handbook of Artificial Intelligence: Global Perspectives on Law and Ethics, Cambridge 2022. 63   Si parla al riguardo di uno «strettamente necessario» per finalità tassative quali: la ricerca di specifiche vittime potenziali di crimini, compresi i minori scomparsi; la prevenzione di specifiche, significative e imminenti minacce alla vita o alla sicurezza fisica di persone o determinate da attacchi terroristici; le indagini nei confronti di autori o sospettati di crimini riconducibili alla disciplina sul mandato di arresto europeo, per i reati nei confronti dei quali la disciplina statale prevede una pena massima almeno di tre anni. In questi casi, l’uso di sistemi di identificazione biometrica deve tener conto della natura della situazione, in particolare della serietà, probabilità e il livello di danno provocato dal mancato utilizzo di questi sistemi, oltre che delle conseguenze del loro impiego in termini di impatto sui diritti e sulle libertà, sempre rispetto alla serietà, probabilità e livello di danno provocato. Parimenti occorre rispettare le misure di salvaguardia ritenute necessarie e proporzionate e le condizioni stabilite per l’uso, con particolare riguardo alle limitazioni temporali, geografiche e personali. Per il relativo impiego sarà anche necessaria l’autorizzazione dell’autorità giudiziaria o di un’autorità amministrativa indipendente statale, salvo che una situazione d’urgenza possa giustificare la convalida successiva. Tale autorizzazione può avvenire solamente

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilare tramite riconoscimento facciale

201

Stando così le cose, se la proposta di AI Act dovesse entrare in vigore in questa formulazione, vi sarebbe una stretta nella possibilità di fare ricorso al riconoscimento facciale. Tuttavia questa ipotesi normativa è stata sottoposta a critiche perché considerata a maglie troppo larghe, nella misura in cui sembrerebbe consentire l’impiego di queste tecnologie in presenza e dal vivo per fini diversi da quelli di polizia, come – nel caso che qui interessa maggiormente – a scopo di sicurezza urbana, per il quale continuerebbe a trovare applicazione solamente il GDPR e la legislazione che ciascuno Stato – come detto sopra – dovrebbe adottare per offrire una idonea base legale64. È questa una critica condivisibile, se si condivide, da una parte, che vi siano forti rischi per i diritti dei cittadini e per i sistemi democratici non soltanto quando l’uso di questi sistemi di identificazione possa produrre conseguenze sul piano penale, come nel caso della sicurezza pubblica, bensì in ogni caso in cui si dispieghino tecnologie di sorveglianza così potenti da parte delle autorità pubbliche; e, dall’altra, che si rimetta la relativa disciplina ai singoli Stati, senza porre alcun paletto a livello sovranazionale, ovvero il livello chiamato necessariamente a fornire una cornice normativa unitaria a tecnologie che, per la loro rapida diffusione, tendono a sfuggire alla disciplina delle giurisdizioni nazionali65. Senza trascurare che, nel caso specifico italiano, una normativa europea che limiti fortemente l’impiego del riconoscimento facciale a fini di sicurezza pubblica, lasciando libero lo Stato di disciplinare quello a fini di sicurezza urbana, incentiverebbe quella confusione evidenziata sopra tra i due concetti di sicurezza e sul rispettivo ruolo dei Comuni. Riprendendo le parole del Garante della privacy italiano pronunciate sul sistema Sari Real Time, si può ribadire mutatis mutandis che «il trattamento di immagini volte ad identificare le persone nel contesto

sulla base di prove oggettive o l’indicazione chiara che l’impiego di tali tecnologie sia necessario e proporzionato per il perseguimento delle finalità sopra indicate. Gli Stati potranno stabilire restrizioni all’uso di queste tecnologie, salvo comunque definire regole dettagliate concernenti la sopra citata autorizzazione e le finalità sopra indicate rispetto alle quali le autorità competenti saranno autorizzate ad impiegare tali strumenti. 64   Come anche si evince dal considerato 23. Cfr. T. Christakis e M. Becuywe, AI-Regulation Team, Facial Recognition in the Draft European AI Regulation, Final Report on the High-Level Workshop Held on April 26, 2021, AI-Regulation.com, 27 maggio 2021, pt II(1); M. Veale e F.Z. Borgesius, Demystifying the Draft EU Artificial Intelligence Act, cit., p. 8 s. 65   Cfr. S. Rodotà, Il diritto di avere diritti, Roma-Bari 2012, p. 426 ss. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

202

Giuseppe Mobilio

pubblico è […] di estrema delicatezza ed è perciò necessaria una valutazione d’insieme, per evitare che singole iniziative, sommate tra loro, definendo un nuovo modello di sorveglianza introducano, di fatto, un cambiamento non reversibile nel rapporto tra individuo ed autorità»66. Come già accennato, tutti gli enti locali tendono oramai ad immedesimarsi nel modello delle smart cities. Anche la sicurezza è destinata sempre più ad evolversi verso un concetto di smart security, grazie al supporto che le tecnologie offrono alle tradizionali funzioni e agli strumenti disponibili per le amministrazioni, ma anche aprendo a nuove forme e poteri di prevenzione e controllo, come nel caso del riconoscimento facciale67. Tuttavia occorre sempre ricordare, da una parte, che «più tecnologia» non implica sempre «migliori servizi». Vi sono indagini che dimostrano come la videosorveglianza possa produrre benefici nella «sicurezza percepita», ma non necessariamente, a seconda del contesto, comporti una riduzione significativa nei tassi di criminalità68. Dall’altra, e soprattutto, bisogna tener presente che non tutto ciò che la tecnologia rende possibile» debba essere giudicato eticamente e giuridicamente «lecito». È alle autorità pubbliche e democraticamente responsabili che spetta decidere se e come impiegare simili tecnologie algoritmiche a scopi di sorveglianza e profilazione, bilanciando rischi effettivi e benefici potenziali, ma sempre nel rispetto dell’immagine di società nella quale i cittadini desiderano davvero vivere.

66   Cfr. Garante per la protezione dei dati personali, Parere sul sistema Sari Real Time, cit. 67   Cfr. J. Laufs, H. Borrion e B. Bradford, Security and the smart city. A systematic review, in Sustainable cities and society, 55, aprile 2020. 68   A. P. Paliotta, Le politiche innovative di sicurezza nelle città tra tecnologie di riconoscimento e smart cities, in Sinappsi, 2020, II, p. 111 s.; Cfr. G.G. Nobili, N. Gallo e S.D. Leonardis, Videosorveglianza e sicurezza urbana, in Rivista di Polizia, 2012; B.C. Welsh e D.P. Farrington, Crime Preventìon Effects of Closed Circuit Television: A Systematic Review, Home Office Research Study, n. 252, HMSO, London 2002.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Federico Gravino*

La tutela del diritto alla buona fama e alla riservatezza. Passi compiuti e passi da compiere tra GDPR e Decreto della Conferenza episcopale italiana del 24 maggio 2018

Sommario: 1. Introduzione. – 2. I dati sensibili tra ordinamento civile ed esigenze confessionali. – 3. Lo statuto giuridico dei dati sensibili religiosi nel Regolamento europeo 2016/679: la configurazione di un nuovo diritto alla privacy religiosa? – 4. Il ‘corpus completo di norme’ (art. 91, par. 1, GDPR) nell’ordinamento canonico dal can. 220 CIC al Decreto Generale CEI 2018. – 5. Chiesa cattolica, digital society e accountability: prassi applicative da una mappatura dei siti web delle Diocesi italiane. – 6. Conclusione.

1. La tutela dei dati sensibili coinvolge direttamente anche le confessioni religiose1. La mera appartenenza a gruppi religiosi o la partecipazione dei fedeli all’esercizio delle attività culturali assoggettano i relativi dati personali alle forme e alle modalità di trattamento predisposte dall’ordinamento civile2. Il riferimento è alle attività di raccolta, registrazione, conservazione e archiviazione dei dati personali degli aderenti. Queste richiedono standard di tutela sempre più specifici, tenuto conto sia del diritto dei fedeli di non subire disparità di trattamento in ragione di un orientamento religioso3, sia della maggiore circolazione che vede protagonisti gli stessi dati nella digital society4. L’entrata in vigore del Regolamento (UE) 2016/679, noto come General Data Protection Regulation (GDPR), entrato in vigore il 25 mag* Borsista di ricerca in Diritto ecclesiastico e canonico nell’Università di Firenze. 1   Tale relazione è stata già indagata da tempo. Sul punto, cfr. N. Colaianni, Libertà religiosa e società dell’informazione, in Quaderni di diritto e politica ecclesiastica, 1999, p. 195 ss. 2   Cfr. R. Senigaglia, Principio di effettività, protezione dei dati personali e relazioni intersoggettive di carattere confessionale, in Il Diritto Ecclesiastico, 2018, p. 249 ss. 3   Cfr. M. Parisi, Trattamento dei dati sensibili, tutela dei diritti individuali e salvaguardia dell’autonomia confessionale. A proposito del Regolamento Europeo n. 2016/679 e della sua applicazione nell’ordinamento italiano, in Diritto e Società, 2020, p. 748 ss. 4  Cfr. H. Campbell, Digital Religion: Understanding Religious Practice in New Media Worlds, Routledge, Londra 2012, p. 10 ss.; B. Borrillo, La tutela della privacy e le nuove tecnologie: il principio di accountability e le sanzioni inflitte dalle Autorità di controllo dell’Unione europea dopo l’entrata in vigore del GDPR, © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

204

Federico Gravino

gio 20185, conferma quanto la tutela della privacy sia un importante crocevia tra diritto civile e diritti confessionali6. Tale prospettiva emerge con chiarezza anche dalla ricostruzione della legislazione italiana in materia di dati sensibili di tipo religioso, i quali rappresentano oggetto di interesse sia da parte statale, che intende sottoporre a precise regole il trattamento e la circolazione dei dati personali delle persone fisiche, che da parte religiosa, la cui attività è caratterizzata da specifiche finalità istituzionali che incidono sui dati sensibili dei propri fedeli. 2. Con la l. 31 dicembre 1996, n. 675 – «Tutela delle persone e di altri soggetti rispetto al trattamento dei dati personali»7, che recepiva in Dirittifondamentali.it, 2020, p. 326 ss., ricorda che il Considerando n. 6 del Regolamento europeo rileva infatti che «la rapidità dell’evoluzione tecnologica e la globalizzazione comportano nuove sfide per la protezione dei dati personali. La portata della condivisione e della raccolta di dati personali è aumentata in modo significativo. La tecnologia attuale consente tanto alle imprese private quanto alle autorità pubbliche di utilizzare dati personali nello svolgimento delle loro attività». 5   Il Regolamento europeo, obbligatorio in tutti i suoi elementi e direttamente applicabile in ciascuno degli Stati membri, è entrato in vigore dopo circa due anni dalla sua adozione, al fine di garantire un maggiore grado di uniformità della disciplina a livello europeo. Tra i primi commenti, ex plurimis cfr. diffusamente F. Pizzetti, Privacy e il diritto europeo alla protezione dei dati personali. Dalla Direttiva 95/46 al nuovo Regolamento europeo, Torino 2016; C. Bistolfi, L. Bolognini e E. Pelino (a cura di), Il Regolamento privacy europeo. Commentario alla nuova disciplina sulla protezione dei dati personali, Milano 2016; M. Fumagalli Meraviglia, Le nuove normative europee sulla protezione dei dati personali, in Diritto comunitario e degli scambi internazionali, 2016, p. 1 ss.; S. Sica, V. D’antonio e G.M. Riccio (a cura di), La nuova disciplina europea della privacy, Padova 2016; M. Bassini, La svolta della privacy europea: il nuovo pacchetto sulla tutela dei dati personali, in Quaderni costituzionali, 2016, p. 587 ss.; M.G. Stanzione, Il Regolamento europeo sulla privacy: origini e ambito di applicazione, in Europa e diritto privato, 2016, p. 1249 ss.; N. Bernardi e A. Ciccia Messina, Privacy e Regolamento Europeo, Milano 2017; G. Finocchiaro (a cura di), Il nuovo regolamento europeo sulla privacy e sulla protezione dei dati personali, Bologna 2017; G. Finocchiaro, Introduzione al Regolamento europeo sulla protezione dei dati, in Le nuove leggi civili commentate, 2017, p. 1 ss.; E. Lucchini Guastalla, Il nuovo regolamento europeo sul trattamento dei dati personali, in Giustiziacivile.com, 9 marzo 2017, p. 1 ss.; G. Finocchiaro, Introduzione al regolamento europeo sulla protezione dei dati, in Le nuove leggi civili commentate, 2017, p. 1 ss.; F. Piraino, Il regolamento generale sulla protezione dei dati personali e diritti dell’interessato, in Le nuove leggi civili commentate, 2017, p. 369 ss. 6   Cfr. A. Fuccillo, Diritto, Religioni, Culture. Il fattore religioso nell’esperienza giuridica, Torino 2022, p. 320 ss. 7   Per un commento alla legge, cfr. G. Finocchiaro, Una prima lettura della legge 31 dicembre 1996, n. 675, in Contratto e impresa, 1997, p. 299 ss.; R. Clarizia, Legge 675/96 e responsabilità civile, in Il diritto dell’informazione e dell’informatica, 1998, p. 239 ss.; V. Zeno Zencovich, Una lettura comparatistica della l. n. 675/96 sul ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La tutela del diritto alla buona fama e alla riservatezza

205

la Direttiva 95/46/CE del Parlamento europeo e del Consiglio, del 24 ottobre 1995, relativa alla «tutela delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati»8, l’attenzione del legislatore italiano aveva ad oggetto anche i dati di natura religiosa9. In particolare, l’art. 22 derogava la normativa in materia di tutela dei c.dd. «dati comuni», annoverando «i dati personali idonei a rivelare … le convinzioni religiose» tra i «dati particolari» e subordinando il relativo trattamento, da parte di soggetti privati10, alla duplice condizione del consenso scritto dell’interessato e dell’autorizzazione previa del Garante11. Tuttavia, la deroga non si traduceva nella trattamento dei dati personali, in Rivista trimestrale di diritto e procedura civile, 1998, p. 733 ss.; M. Dogliotti, Trattamento dei dati e tutela della persona, in Diritto di famiglia e delle persone, 1999, p. 1289 ss.; A. Mantelero, Il diritto alla riservatezza nella l. n. 675 del 1996: il nuovo che viene dal passato, in Rivista trimestrale di diritto e procedura civile, 2000, III, p. 973 ss. Per un’analisi della prospettiva ecclesiasticistica, cfr. A.G. Chizzoniti, Prime considerazioni sulla legge 675 del 1996 “Tutela delle persone e di altri soggetti rispetto al trattamento dei dati personali”, in Quaderni di Diritto e Politica Ecclesiastica, 1997, p. 379 ss.; R. Astorri (a cura di), Legge 31 dicembre 1996, n. 675 “Tutela delle persone e di altri soggetti rispetto al trattamento dei dati personali” 28 luglio 1977 (estratto), in Quaderni di Diritto e Politica Ecclesiastica, 1998, p. 509 ss.; F.D. Busnelli e E. Navarretta, Battesimo e nuova identità atea: la legge n. 675/1996 si confronta con la libertà religiosa, in Quaderni di Diritto e Politica Ecclesiastica, 2000, p. 858 ss. 8   Per un commento sulla Direttiva in esame, cfr. R. Imperiali, La direttiva comunitaria sulla privacy informatica, in Diritto comunitario e degli scambi internazionali, 1995, p. 569 ss.; M. Bin, Privacy e trattamento dei dati personali: entriamo in Europa, in Contratto e impresa. Europa, 1997, p. 459 ss.; S. Rodotá, Persona, riservatezza, identità. Prime note sistematiche sulla protezione dei dati personali, in Rivista critica del diritto privato, 1997, p. 583 ss.; C. Castronovo, Situazioni soggettive e tutela nella legge sul trattamento dei dati personali, in Europa e diritto privato, 1998, p. 653 ss., il quale ritiene che la l. n. 675 del 1996 può essere considerata strumento di attuazione, se non in senso formale, in senso almeno sostanziale della direttiva 95/46/CE. 9   Cfr. diffusamente G. Buttarelli, Banche dati e tutela della riservatezza. La privacy nella società dell’informazione. Commento analitico alle Leggi 31 dicembre 1996 n. 675 e 676, Milano 1997, il quale passa in rassegna la legislazione esistente fino al 1996 in materia di tutela dei dati sensibili: l’art. 8 della l. 20 maggio 1970, n. 300, l’art. 7 della l. 1° aprile 1981, n. 121, e l’art. 78, commi 9-15, della l. 30 dicembre 1991, n. 413. 10   L’art. 22, commi 3 e 3 bis, della legge n. 675/1995 prevedeva che il trattamento di dati particolari da parte di soggetti pubblici era consentito invece solo se autorizzato da espressa disposizione di legge nella quale fossero specificati i dati che potevano essere trattati, le operazioni eseguibili e le rilevanti finalità di interesse pubblico perseguite. 11   Cfr. V. Zeno Zencovich, Commento all’art. 22, in G. Giannantonio, M.G. Losano e V. Zeno Zencovich (a cura di), La tutela dei dati personali. Commento alla l. 675/1996, Padova 1997, p. 201 ss. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

206

Federico Gravino

previsione di una disciplina specifica, in quanto i dati sensibili religiosi erano soggetti al generale divieto di trattamento previsto dall’art. 8 della Direttiva comunitaria12. La tutela rafforzata della l. n. 675 del 1996 ha beneficiato di un graduale rilassamento. Dapprima, con l’art. 5 del d.lg. 11 maggio 1999, n. 135, veniva introdotto il comma 1-bis all’art. 22, che prevedeva «il trattamento di dati sensibili di fedeli di confessioni religiose con intesa o accordi» senza il consenso dell’interessato e la previa autorizzazione del Garante, a condizione di prestare «idonee garanzie relativamente ai trattamenti effettuati»13. L’interazione tra diritto statale e autonomia confessionale, pur minata da dubbi di legittimità costituzionale circa la sola previsione di concessioni alle confessioni religiose dotate di intese o accordi14, sembrava riconoscere uno spazio maggiore ai gruppi religiosi capaci di dare attuazione a quanto disciplinato dal legislatore civile15. Successivamente, il d.lg. 28 dicembre 2001, n. 46716, introducendo il comma 4a, superava la distinzione tra confessioni con e senza intesa17 e consentiva il trattamento dei dati anche in assenza del consenso scritto dell’interessato ma con la previa autorizzazione del Garante18. 12   Cfr. V. Marano, Diritto alla riservatezza, trattamento dei dati personali e confessioni religiose. Note sull’applicabilità della legge n. 675/1996 alla Chiesa cattolica, in Quaderni di Diritto e Politica Ecclesiastica, 1998, p. 309 ss. 13   Cfr. R. Botta, Trattamento di dati personali e confessioni religiose (dalla legge 31 dicembre 1995, n. 675 al D.Lgs. 11 maggio 1999, n. 135), in Il diritto ecclesiastico, 1999, p. 883 ss. 14   Cfr. S. Melchionna, Il trattamento dei dati a carattere religioso: intervento della Corte costituzionale e novità legislative, in Giurisprudenza italiana, 2002, p. 1820 ss.; A. Oddi, Non c’è privacy senza intesa?, in Giurisprudenza costituzionale, 2002, p. 345 ss. 15   Cfr. A. G. Chizzoniti, Le certificazioni confessionali nell’ordinamento giuridico italiano, Milano 2000, p. 113 ss., il quale evidenzia che l’esistenza di un accordo o di un’intesa presuppone inevitabilmente un rapporto di fiducia e offre allo Stato irrinunciabili esigenze di garanzia. Sulla configurazione di una violazione dell’art. 8, comma 1, Cost., cfr. N. Colaianni, Tutela della personalità e diritti della coscienza, Bari 2000, p. 216 ss.; contra S. Berlingò, Si può essere più garantisti del Garante? A proposito delle pretese di «tutela» dai registri di battesimo, in Quaderni di diritto e politica ecclesiastica, 2000, p. 308 ss. 16   Per un commento, cfr. C. Redaelli, Il punto su privacy e mondo ecclesiale, in ex Lege, 2002, I, p. 64 ss. 17   Cfr. G. Boni, Tutela rispetto al trattamento dei dati personali tra sovranità dello Stato e sovranità della Chiesa cattolica, in Diritto di famiglia e delle persone, 2001, IV, p. 1687 ss., la quale rileva che il termine più generico «comunità religiose» era stato già utilizzato all’interno delle Autorizzazioni generali del Garante sui dati sensibili. 18   Cfr. D. Milani, Dati sensibili e tutela della riservatezza: le novità introdotte dal D. Lgs. n. 467 del 2001, in Quaderni di diritto e politica ecclesiastica, 2002, p. 453 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La tutela del diritto alla buona fama e alla riservatezza

207

La frammentarietà legislativa in vigore fino a quel momento pregiudicava l’effettiva tutela dei dati sensibili di tipo religioso, rendendo ancor più incerti i confini di competenza tra ordinamento statale e diritti confessionali. Una soluzione in tal senso veniva offerta dal d.lg. 30 giugno 2003, n. 196, con cui è entrato in vigore il Codice in materia di protezione dei dati personali (c.d. «Codice della Privacy»), disciplinando la materia con organicità. L’art. 4, lett. d), del Codice annoverava tra i dati sensibili «i dati personali idonei a rivelare […] le convinzioni religiose […] l’adesione a organizzazioni a carattere religioso […]». Un bilanciamento tra esigenze statali e autonomia confessionale19 era effettuato dall’impianto derogatorio dell’art. 26, comma 3, lett. a), che esonerava dalla duplice condizione richiesta (consenso scritto dell’interessato e previa autorizzazione del Garante) il trattamento dei «dati relativi agli aderenti alle confessioni religiose e ai soggetti che con riferimento a finalità di natura esclusivamente religiosa hanno contatti regolari con le medesime confessioni, effettuato dai relativi organi, ovvero da enti civilmente riconosciuti, sempre che i dati non siano diffusi o comunicati fuori delle medesime confessioni. Queste ultime determinano idonee garanzie relativamente ai trattamenti effettuati, nel rispetto dei principi indicati al riguardo con autorizzazione del Garante». Si richiedeva invece la sola autorizzazione del Garante «quando il trattamento è effettuato da associazioni, enti od organismi senza scopo di lucro, anche non riconosciuti, a carattere […] religioso […] per il perseguimento di scopi determinati e legittimi […] relativamente ai dati personali degli aderenti o dei soggetti che in relazione a tali finalità hanno contatti regolari con l’associazione, ente od organismo, sempre che i dati non siano comunicati all’esterno […]» (art. 26, comma 4, lett. a)20. Un pieno riconoscimento dell’autonomia confessionale21 trovava formale spazio nell’art. 181, comma 6, il quale consentiva alle confessioni religiose, che prima dell’adozione del codice 19   Cfr. A. Gianfreda, Autonomia confessionale e sistema delle fonti del diritto ecclesiastico. Riforma del Terzo Settore e tutela della privacy: un banco di prova per la produzione normativa confessionale, in P. Consorti (a cura di), Costituzione, religione e cambiamenti nel diritto e nella società, Pisa 2019, p. 356 ss. 20   Cfr. R. Acciai, Privacy e fenomeno religioso: le novità del Codice in materia di protezione dei dati personali, in Quaderni di diritto e politica ecclesiastica, 2004, II, p. 341 ss. Circa il possibile potere limitativo della libertà e dell’autonomia confessionale dell’art. 26, cfr. V. Marano, La protezione dei dati personali tra diritto statuale e “garanzie” confessionali, in Ius Ecclesiae, 2006, p. 71 ss. 21   Cfr. A. Ceserani, Il dato religioso nel sistema europeo di tutela della privacy, in

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

208

Federico Gravino

già applicavano «le garanzie di cui all’art. 26, comma 3, lett. a)», di proseguire l’attività di trattamento nel rispetto delle medesime. 3. L’approdo dell’iter legislativo descritto è rappresentato dal d.lg. 10 agosto 2018, n. 10122, volto ad adeguare la normativa nazionale alla disciplina comunitaria introdotta dal GDPR23. Le disposizioni normative vigenti inducono ad interrogarsi se sia stato configurato un nuovo diritto alla privacy religiosa o sia stata elaborata, invece, alla luce delle innovazioni tecnologiche, una disciplina già definita dall’abrogato Codice della privacy. Da un lato, il Regolamento unitario rileva l’esigenza di novellare la materia in considerazione delle «nuove sfide» prospettate dall’evoluzione tecnologica24; dall’altro, l’analisi della normativa in vigore non mostra sostanziali aggiornamenti rispetto alla Direttiva comunitaria 95/46/CE e al d.lg. n. 196 del 200325. M. Maglio, M. Polini e N. Tilli (a cura di), Manuale di diritto alla protezione dei dati personali, Rimini 2019, p. 457 ss. 22   Cfr. diffusamente G. Finocchiaro, La protezione dei dati personali in Italia. Regolamento UE n. 2016/679 e D. Lgs. 10 agosto 2018, n. 101, Bologna 2019; per un confronto tra Regolamento europeo e d.lg. italiano di attuazione, cfr. S. Gorla, Privacy UE: il vecchio e il nuovo. Confronto tra d.lgs. 196/2003 Codice privacy e Regolamento europeo 2016/679 GDPR, Milano 2018. 23   Per un commento al GDPR, dopo la sua entrata in vigore, ex plurimis cfr. L. Chieffi, La tutela della riservatezza dei dati sensibili: le nuove frontiere europee, in Federalismi.it, 2018, p. 1 ss.; C. Colapietro, I principi ispiratori del Regolamento UE 2016/679 sulla protezione dei dati personali e la loro incidenza sul contesto normativo nazionale, in Federalismi.it, 2018, XXII, p. 1 ss.; V. Cuffaro, Il diritto europeo sul trattamento dei dati personali, in Contratto e impresa, 2018, III, p. 1098 ss.; E. Zabeo, I dati sensibili tra Codice Privacy e GDPR, in Cyberlaws.it, 28 maggio 2018, p. 1 ss.; F. Pizzetti, La protezione dei dati personali dalla direttiva al nuovo regolamento: una sfida per le Autorità di controllo e una difesa per la libertà dei moderni, in MediaLaws. Rivista di diritto dei media, 2018, p. 103 ss.; G. Finocchiaro, Riflessioni sul poliedrico Regolamento europeo sulla privacy, in Quaderni costituzionali, 2018, p. 857; G. De Gregorio e R. Torino, Privacy, tutela dei dati personali e Big Data, in E. Tosi (a cura di), Privacy digitale, Milano 2019, p. 447 ss.; A. Soro, La protezione dei dati personali nell’era digitale, in Nuova giurisprudenza civile commentata, 2019, II, p. 343 ss.; G. Visitini, Dal diritto alla riservatezza alla protezione dei dati personali, in Il diritto dell’Informazione e dell’Informatica, 2019, p. 1 ss.; C. Tommasi, La nuova disciplina europea sulla protezione dei dati personali, in Studium iuris, 2019, p. 6 ss.; M.G. Stanzione, Il Regolamento europeo sulla privacy: origini e ambito di applicazione, in Europa e diritto privato, 2020, III, p. 991 ss.; E. Pellecchia, Dati personali, anonimizzati, pseudonimizzati, deidentificati: combinazioni possibili di livelli molteplici di identificabilità nel GDPR, in Le nuove leggi civili commentate, 2020, p. 360 ss. 24   Cfr. F. Lorè, Una intelligenza artificiale più umana, tra etica e privacy, in Ciberspazio e diritto, 2021, p. 165 ss. 25   Cfr. G. Mazzoni, Le Autorizzazioni Generali al trattamento dei dati sensibili ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La tutela del diritto alla buona fama e alla riservatezza

209

Certamente, si registra un coinvolgimento diretto delle confessioni religiose nell’attività di protezione dei dati sensibili dei propri fedeli26. La configurazione giuridica di tale attività tra i diritti fondamentali (considerando n. 1) consente di inquadrare i dati sensibili religiosi tra le «categorie particolari di dati personali» in quanto, per loro natura, «sono particolarmente sensibili sotto il profilo dei diritti e delle libertà fondamentali» (Considerando n. 51). Da tale impianto scaturisce lo statuto giuridico dei dati in esame: il divieto generale, sancito dall’art. 9 GDPR e recepito dall’art. 22, comma 2, d.lg. n. 101 del 2018 (già oggetto sia dell’art. 8 della Direttiva comunitaria 95/46/CE che dell’art. 25 del Codice della privacy), di trattare dati personali che rivelino le convinzioni religiose della persona, tranne nel caso in cui l’interessato abbia manifestato un consenso esplicito, in merito a una o più finalità legittime, oppure il trattamento sia effettuato con adeguate garanzie o si tratti di dati manifestamente resi pubblici e non comunicati all’esterno senza il consenso dell’interessato27; nonché il bilanciamento tra garanzie statali e autonomia confessionale, ex art. 91 GDPR che, al par. 1, prevede la possibilità da parte delle confessioni religiose di trattare i dati dei propri aderenti secondo «corpus completi di norme», se già applicati al momento dell’entrata in vigore del Regolamento dell’Unione, e, al par. 2, consente l’individuazione di «un’autorità di controllo indipendente, che può essere specifica». Occorre rilevare che il formale riconoscimento del principio di autonomia confessionale, in ottemperanza all’obbligo sancito ai sensi dell’art. 17 TFUE28, non rappresenta un elemento di novità all’interno

da parte delle confessioni religiose. Osservazioni alla luce delle recenti riforme in materia di privacy, in Stato, Chiese e pluralismo confessionale, rivista telematica, 2020, p. 66 ss., la quale sostiene che le nuove norme comunitarie non hanno escluso che le Autorizzazioni generali del Garante producano ancora i loro effetti; A.G. Chizzoniti, Il trattamento dei dati personali di natura religiosa, in E. Vitali e A.G. Chizzoniti (a cura di), Manuale breve. Diritto ecclesiastico, Milano 2020, p. 309 ss., rileva che l’Autorizzazione n. 3, come rivista alla luce del Regolamento europeo, continua ad essere applicata. 26   Cfr. M. López Alarcón, Sub can. 1254, in J.I. Arrieta (a cura di), Codice di diritto canonico e leggi complementari commentato, Coletti a San Pietro, Roma 2015, pp. 827-828. 27   Cfr. A. Busacca, Le “categorie particolari di dati” ex art. 9 GDPR. Divieti, eccezioni e limiti alle attività di trattamento, in Ordine internazionale e diritti umani, 2018, I, p. 36 ss. 28   Per una lettura dell’art. 17 TFUE come clausola di salvaguardia degli status giuridici di chiese, associazioni e comunità religiose nei singoli sistemi nazionali, cfr. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

210

Federico Gravino

della vigente normativa; piuttosto costituisce il punto di contatto tra l’art. 91, par. 1, GDPR e l’art. 181, comma 6, del d.lg. n. 196 del 2003. In senso opposto, la previsione di «corpus completi di norme a tutela delle persone fisiche», purché conformi alla disciplina sovranazionale, costituisce l’argomento centrale di chi sostiene i profili di novità del Regolamento dell’Unione29. La lettura dell’art. 91 GDPR ha sollevato, tuttavia, dubbi interpretativi, in quanto la disposizione nulla specifica in merito alle caratteristiche che devono contraddistinguere gli impianti normativi confessionali per soddisfare i requisiti della completezza e della conformità: l’affermazione per cui un riferimento così generico sottenderebbe l’identità tra corpi normativi (civile e confessionali) e priverebbe le Chiese della propria libertà e autonomia30 è meno prevalente rispetto a chi invece ritiene sufficiente che le disposizioni siano corrispondenti e

S. Berlingò, La condizione delle Chiese in Europa, in Il Diritto Ecclesiastico, 2002, p. 13 ss., il quale afferma che la disposizione rappresenta il principio cardine in materia di rapporti istituzionali tra l’Unione Europea, gli Stati e i gruppi religioso-confessionali; I.C. Iban, Europa, diritto, religione, Bologna 2010, p. 133 ss., ritiene che la norma costituisca il primo passo verso la costruzione di un diritto ecclesiastico comunitario; A. Licastro, Il diritto statale delle religioni nei Paesi dell’Unione Europea, Milano 2012, p. 200 ss., il quale rileva la natura protezionistica della norma, il cui disposto impedisce che i diversi sistemi di relazione Stato-confessioni siano messi in discussione e siano intaccati dalle previsione normative dell’ordinamento comunitario; M. Parisi, L’articolo 17 del Trattato di Lisbona alla prova. Verso una road map per il dialogo con i gruppi religiosi ed ideali?, in Il Diritto Ecclesiastico, 2013, p. 631 ss.; M. Toscano, La decisione del Mediatore europeo del 25 gennaio 2013: un passo avanti verso un’applicazione efficace dell’art. 17 del Trattato sul funzionamento dell’Unione Europea?, in Stato, Chiese e pluralismo confessionale, rivista telematica, 2014, p. 16 ss., ritiene invece che il diritto dell’Unione condizioni in modo sempre più invasivo i diritti ecclesiastici nazionali attraverso le materie di competenza dell’Unione e la tutela dei diritti fondamentali. 29   Cfr. L. Villani, Commento dell’art. 91, in A. Barba e S. Pagliantini (a cura di), Commentario del Codice Civile – Modulo delle Persone, Milano 2019, p. 1388 ss.; L. Tosoni, Article 91. Existing data protection rules of churches and religious association, in C. Kuner (a cura di), Commentary on the EU General Data Protection Regulation, Oxford 2020, p. 1257 ss.; contra, M. Ganarin, Salvaguardia dei dati sensibili di natura religiosa e autonomia confessionale. Spunti per un’interpretazione secundum Constitutionem del regolamento europeo n. 2016/679, in Stato, Chiese e pluralismo confessionale, rivista telematica, 2018, p. 13 ss. 30   Cfr. V. Marano, Impatto del Regolamento Europeo di protezione dei dati personali per la Chiesa. Prime soluzioni nei Decreti generali delle Conferenze episcopali: l’esperienza italiana, in J. Pujol (a cura di), Chiesa e protezione dei dati personali. Sfide giuridiche e comunicative alla luce del Regolamento Europeo per la protezione dei dati, Roma 2019, p. 28 ss. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La tutela del diritto alla buona fama e alla riservatezza

211

proporzionali all’oggetto del trattamento31. Una diversa interpretazione osterebbe al riconoscimento dell’autonomia confessionale da parte del legislatore dell’Unione32. Tuttavia, la continuità tra legislazione vigente e quella abrogata non priva il Regolamento europeo e il d.lg. n. 101 del 2018 di aspetti innovativi. Anzitutto, l’ampliamento dell’ambito soggettivo di applicazione della disciplina, che include anche gli «ex membri» tra i soggetti dei quali è possibile il trattamento dei dati alle condizioni richieste dalla norma comunitaria33. L’introduzione di tale categoria, già indirettamente prevista e disciplinata dalla diffusione del fenomeno del c.d. sbattezzo34, è fortemente sostenuta dalle modalità tecnologiche di esercizio della libertà religiosa35: in tal senso il fenomeno delle conversioni virtuali consente al fedele di «recedere» dal gruppo di appartenenza per aderire ad altri movimenti religiosi36 o semplicemente decidere di 31   Cfr. M. Ganarin, Salvaguardia dei dati sensibili di natura religiosa e autonomia confessionale. Spunti per un’interpretazione secundum Constitutionem del regolamento europeo n. 2016/679, cit., p. 15 ss. 32   Cfr. M. Parisi, Trattamento dei dati sensibili, tutela dei diritti individuali e salvaguardia dell’autonomia confessionale. A proposito del Regolamento Europeo n. 2016/679 e della sua applicazione nell’ordinamento italiano, cit., p. 770 ss. 33   Cfr. V. Marano, Impatto del Regolamento Europeo di protezione dei dati personali per la Chiesa. Prime soluzioni nei Decreti generali delle Conferenze episcopali: l’esperienza italiana, cit., p. 30. 34   Cfr. F. D. Busnelli e E. Navarretta, Battesimo e nuova identità atea: la legge n. 675/1996 si confronta con la libertà religiosa, in Quaderni di diritto e politica ecclesiastica, 2000, III, p. 855 ss.; G. Dalla Torre, Registro dei battesimi e tutela dei dati personali, in Giustizia civile, 2001, I, p. 238 ss.; M. Gas Aixendri, Apostasía y tratamiento jurídico de los datos de carácter personal. La experiencia jurídica europea, in Ius Ecclesiae, 2013, II, p. 363 ss.; M. C. Ruscazio, Lo ‘sbattezzo’ tra libertà religiose e norme implicite. Spunti di diritto comparato, in Stato, Chiese e pluralismo confessionale, rivista telematica, 2018, p. 1 ss.; 35   Cfr. C. Helland, Online Religion as Lived Religion. Methodological Issues in the Study of Religious Participation on the Internet, in Online Heidelberg Journal of Religions on the Internet, 2005, XVII, p. 1 ss.; G. R. Bunt, L’Islam digitale (Internet), in G. Filoramo e R. Tottoli (a cura di), Le religioni e il mondo moderno, III, Islam, Einaudi, Torino 2009, p. 665 ss.; E. Pace e G. Giordan, La religione come comunicazione nell’era digitale, in Humanitas, 2011, V-VI, p. 763 ss.; F. Vecoli, La religione ai tempi del web, Roma-Bari 2013, p. 9 ss.; A. Vitullo, Religioni e internet: evangelizzazione o reincantamento del mondo?, in A. Melloni (a cura di), Rapporto sull’analfabetismo religioso in Italia, Bologna 2014, p. 362 ss.; I. Valenzi, Libertà religiosa e intelligenza artificiale: prime considerazioni, in Quaderni di diritto e politica ecclesiastica, 2020, p. 354 ss.; V. Pacillo, Alexa, Dio esiste? Robotica, intelligenza artificiale e fenomeno religioso: profili giuridici, in Quaderni di diritto e politica ecclesiastica, 2021, I, p. 69 ss. 36   Sul proselitismo religioso effettuato attraverso Internet, cfr. A. Rota, Religion,

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

212

Federico Gravino

non appartenere37, potendo legittimamente esercitare il diritto alla cancellazione dei propri dati (art. 17 GDPR)38. Questa ipotesi potrebbe generare un conflitto normativo riguardo all’esercizio del diritto, di cui è titolare la confessione religiosa, di conservazione dei dati per l’adempimento delle proprie finalità istituzionali (art. 21, par. 1 GDPR). Un chiaro esempio è offerto dall’attività di redazione e conservazione di registri e archivi: ritenendo prevalente questo interesse39, la norma in oggetto inibisce l’esercizio del diritto alla cancellazione del dato in presenza di «motivi legittimi cogenti per procedere al trattamento, che prevalgano sugli interessi, sui diritti e sulle libertà dell’interessato»40. Ulteriore profilo di novità è rappresentato dalla previsione di «un’autorità di controllo indipendente»41, ex art. 91, par. 2, GDPR, preposta alla verifica del rispetto delle norme in materia di trattamento dei dati, «al fine di tutelare i diritti e le libertà fondamentali delle persone

Media, and Joint Commitment - Jehovah’s Witnesses as a ‘Plural Subject’, in Heidelberg Journal of Religions on the Internet, 2019, XIV, p. 79 ss. 37   Sul punto, si evidenzia il caso del proselitismo religioso effettuato dai Testimoni di Geova, la cui attività è stata oggetto di pronuncia da parte della Corte di Giustizia dell’Unione Europea: cfr. F. Danini, La tutela del dato personale alla prova dell’attività di predicazione religiosa: libertà di proselitismo o diritto alla privacy?, in DPCE on line, 2018, IV, p. 1185 ss.; V. D’Antonio, Predicazione porta a porta, “archivi” di dati personali e tutela della riservatezza, in Nuova giurisprudenza civile commentata, 2019, II, p. 319 ss. 38   Cfr. D. Durisotto, Diritti degli individui e diritti delle organizzazioni religiose nel Regolamento (UE) 2016/679. I “corpus completi di norme” e le “autorità di controllo indipendenti”, in Federalismi.it. Rivista di diritto pubblico italiano, comparato, europeo, in Federalismi.it, 2020, XXVII, p. 51 ss., il quale evidenzia che tale conflitto potrebbe sorgere soprattutto nei casi in cui un fedele divulghi convincimenti religiosi diversi da quelli del gruppo di appartenenza e intenda pertanto recedere e ottenere la cancellazione dei propri dati o impedirne il trattamento. Sul diritto all’oblio, cfr. R. Senigaglia, Reg. Ue 2016/679 e diritto all’oblio nella comunicazione telematica. Identità, informazione e trasparenza nell’ordine della dignità personale, in Le nuove leggi civili commentate, 2017, V, p. 1023 ss. 39   Cfr. C. Cardia, Principi di diritto ecclesiastico. Tradizione europea, legislazione italiana, Torino 2019, p. 166 ss., il quale afferma che richieste di questo tipo provocherebbero conseguenze paradossali, poiché determinerebbero un vuoto normativo in grado di minacciare la memoria storica che ogni realtà sociale e ordinamentale è costituita dal patrimonio della chiesa tradizionalmente presente nel territorio. 40   Cfr. A. Ceserani, Il dato religioso nel sistema europeo di tutela della privacy, cit., p. 472 ss., il quale evidenzia che l’art. 21 GDPR è il risultato di un lavoro giurisprudenziale relativo al bilanciamento di diritti contrapposti, sostenuto dagli interventi del Garante per la protezione dei dati personali. 41   Nell’ordinamento giuridico italiano tale autorità è individuata nel Garante per la protezione dei dati personali (art. 101, d.lg. n. 101 del 2018). ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La tutela del diritto alla buona fama e alla riservatezza

213

fisiche con riguardo al trattamento e di agevolare la libera circolazione dei dati personali all’interno dell’Unione» (art. 51, par. 1, GDPR). La lettura della disposizione ha favorito un contrasto interpretativo in ordine alla possibilità di individuare un soggetto specifico cui affidare tale compito42. Si è infatti ritenuto che l’autorità risponda al requisito della specificità, se costituita nell’ambito del gruppo religioso già dotato di un corpus completo di norme; il carattere dell’indipendenza esigerebbe tuttavia l’assenza di contatti con la confessione religiosa a garanzia dei controlli da effettuare43. Pertanto, una possibile soluzione è stata individuata nella «creazione, per volontà dei pubblici poteri nazionali, di entità miste tra Stato e gruppi confessionali, contraddistinte da una regolamentazione interna rispettosa delle indicazioni fissate dal Regolamento n. 2016/679 e caratterizzate da precise statuizioni concernenti la loro operatività»44. La discussione in merito all’applicazione di questa norma, e della disciplina in generale, trova la propria ragion d’essere nella necessaria opera di bilanciamento tra interessi costituzionalmente garantiti45, espressione di ordinamenti giuridici distinti. Altresì innovativi sono i cardini entro cui la disciplina comunitaria viene sviluppata, nonché la conseguente individuazione delle nuove modalità di trattamento dei dati derivanti dall’utilizzo delle tecnologie digitali. Accountability, privacy by design e privacy by default sono i principi fondanti il Regolamento 2016/679. Anzitutto il titolare del trattamento è soggetto al principio di responsabilizzazione46, quale 42   Cfr. V. Marano, Protezione dei dati personali, libertà religiosa e autonomia delle Chiese, in V. Cuffaro, R. D’Orazio e V. Ricciuto (a cura di), I dati personali nel diritto europeo, Torino 2019, p. 587 ss. 43   Sulla centralità della questione nelle relazioni Stato-confessioni religiose, cfr. V. Resta, Il trattamento dei dati sensibili di natura confessionale: questioni ancora aperte dopo l’emanazione del codice in materia di protezione dei dati personali, in Il Diritto Ecclesiastico, 2005, p. 576 ss., il quale già prospettava la possibilità di un controllo successivo da parte statale in via incidentale e in sede giurisprudenziale al solo fine di accertare la compatibilità del trattamento dei dati con il rispetto dei diritti fondamentali della persona. 44  M. Parisi, Trattamento dei dati sensibili, tutela dei diritti individuali e salvaguardia dell’autonomia confessionale. A proposito del Regolamento Europeo n. 2016/679 e della sua applicazione nell’ordinamento italiano, cit., p. 772. 45   Cfr. M. Ganarin, Specificità canonistiche e implicazioni ecclesiasticistiche del nuovo Decreto generale della Conferenza Episcopale Italiana sulla tutela del diritto alla buona fama, in Quaderni di diritto e politica ecclesiastica, 2018, p. 583 ss. 46   Cfr. L. D’avenia, Il principio di accountability e la sicurezza del trattamento dei dati: un focus sull’anonimizzazione e sulle potenzialità della pseudonimizzazione dei dati, in Data Protection Law. Diritto delle nuove tecnologie, privacy e protezione dei

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

214

Federico Gravino

strumento di verifica della compatibilità delle modalità di trattamento individuate con i principi sanciti dalla normativa: l’adempimento di tale obbligo è declinato attraverso l’adozione di misure tecniche ed organizzative volte a garantire il rispetto della disciplina comunitaria e nazionale (privacy by design) e la limitazione del trattamento ai soli dati necessari per la tipologia di attività da svolgere e per il tempo strettamente necessario (privacy by default)47. Il quadro dei principi raccoglie poi la disciplina dell’automatizzazione dei dati personali48. In particolare, la profilazione e la conseguente pseudonimizzazione dell’utente che naviga in rete consentono di raccogliere ed elaborare dati al fine di valutare, analizzare e prevedere aspetti personali (art. 5 GDPR). A riguardo il legislatore dell’Unione ha elaborato un divieto generale ex art. 22, par. 1, GDPR, salvo le eccezioni previste dalla norma49. Non è esente da tale dinamica il fattore religioso, che può incentivare i religion surfers50 ad utilizzare

dati personali, 2018, p. 28 ss.; G. Finocchiaro, Il principio di accountability, in Giurisprudenza italiana, 2019, p. 2778 ss.; F. Mazzoni, Regolamento Europeo 2016/679: alcune normazioni di riferimento per declinare sul campo il principio dell’accountability, in Ciberspazio e diritto, 2019, p. 197 ss.; V. Basilavecchia, Accountability: le principali misure organizzative secondo best practice, in Cyberlaws, rivista telematica, 8 maggio 2019, p. 1 ss. 47  Cfr. S. Calzolaio, “Privacy by design”. Principi, dinamiche, ambizioni del nuovo Reg. UE 2016/6709, in Federalismi.it, 2017, p. 1 ss.; F. Errechiello, Privacy by design e privacy by default: origini, prospettive e criticità, in Data Protection Law. Diritto delle nuove tecnologie, privacy e protezione dei dati personali, 2018, p. 3 ss.; G. Bincoletto, La privacy by design. Un’analisi comparata nell’era digitale, Roma 2019; F. Maldera, Privacy by design e by default, la sfida della protezione dei dati personali, in Agenda digitale, rivista telematica, aprile 2019, p. 1 ss.; M. Bianchi, Privacy by Design e Privacy by Default, in Cyberlaws, rivista telematica, 4 aprile 2019, p. 1 ss.; L. Aulino, Consenso al trattamento dei dati e carenza di consapevolezza: il legal design come un rimedio ex ante, in Il diritto dell’Informazione e dell’Informatica, 2020, p. 303 ss. 48   Cfr. M. Ciullo, Profilazione e decisioni automatizzate: lo stato dell’arte, in Ius in itinere, rivista telematica, 21 maggio 2020, p. 1 ss. 49   Art. 22, par. 2, GDPR: «Il paragrafo 1 non si applica nel caso in cui la decisione: a) sia necessaria per la conclusione o l’esecuzione di un contratto tra l’interessato e un titolare del trattamento; b) sia autorizzata dal diritto dell’Unione o dello Stato membro cui è soggetto il titolare del trattamento, che precisa altresì misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato; c) si basi sul consenso esplicito dell’interessato». 50  L’espressione è stata introdotta da E. Larsen, Cyberfaith: How Americans Pursue Religion Online, in L.L. Dawson e D.E. Cowan (a cura di), Religion Online. Finding Faith on the Internet, New York-London 2004, p. 17 ss. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La tutela del diritto alla buona fama e alla riservatezza

215

le tecnologie digitali per l’esercizio dell’attività di culto51, esponendoli alla raccolta di dati da parte dei gestori delle piattaforme, che possono così tracciarne l’orientamento religioso52, e alla continua ricezione di «cookies religiosi» con finalità di propaganda fideistica o di sensibilizzazione commerciale per finalità religiose53. Le confessioni religiose, ormai protagoniste della c.d. digitalizzazione del culto54, sono pertanto chiamate ad intervenire55, al fine di contemperare la tutela predisposta dal legislatore civile con l’adempimento ed il rispetto dei principi religiosi56, che orientano il fedele anche nell’esperienza religiosa online. 4. Le previsioni legislative europee, recepite dal d.lg. n. 101 del 2018, hanno sollecitato l’intervento anche della Chiesa cattolica in Italia57. 51   Cfr. A. Fuccillo, La vita eterna digitale (digital afterlife) tra diritto civile e ordinamenti religiosi, in Calumet – Intercultural Law and Humanities Review, rivista telematica, 3 maggio 2021, p. 100 ss. 52   Cfr. D. Morelli, Perché non possiamo non dirci tracciati: analisi ecclesiasticistica della pubblicità comportamentale on-line, in Stato, Chiese e pluralismo confessionale, rivista telematica, 2012, XXXVII, p. 1 ss.; P. Perri, La tutela dei dati personali nei social networks e nelle app religiose, in Jus-online, 2020, III, p. 82 ss. 53   Cfr. A. Ceserani, Il dato religioso nel sistema europeo di tutela della privacy, cit., p. 473 ss. 54   Cfr. diffusamente J.H. Fewkes (a cura di), Anthropological Perspectives on the Religious Uses of Mobile Apps, London 2020. 55   Un esempio è offerto da The Ethics & Religious Liberty Commission of the Southern Baptist Convention, Artificial Intelligence. An Evangelical Statement of Principles, Art. 8: Data & Privacy, 11 aprile 2019, consultabile sul sito www.erlc.com. 56   Nel senso di una «coabitazione» tra precetti religiosi e disposizioni civilistiche, cfr. M. Parisi, Trattamento dei dati sensibili, tutela dei diritti individuali e salvaguardia dell’autonomia confessionale. A proposito del Regolamento Europeo n. 2016/679 e della sua applicazione nell’ordinamento italiano, cit., p. 769 ss. 57   L’entrata in vigore del Regolamento europeo ha sollecitato l’intervento anche di altre Conferenze Episcopali. Per un commento al Decreto generale della Conferenze Episcopale Spagnola del 22 maggio 2018, cfr. J. Otaduy, El Decreto general de la Conferencia Episcopal Española en materia de protección de datos personales. Primeras consideraciones, in Ius Ecclesiae, 2019, II, p. 471 ss.; per gli interventi della Chiesa cattolica tedesca sulle normative di diritto particolare, cfr. S. Konrad, La protezione dei dati personali nella Chiesa tedesca, in Ius Ecclesiae, 2019, II, p. 449 ss.; sul Decreto generale della Conferenza Episcopale Polacca del 13 marzo 2018, cfr. T. Rozkrut, Decreto generale della Conferenza episcopale polacca relativo alla questione della protezione delle persone fisiche con riguardo al trattamento dei dati personali nella Chiesa cattolica, in Ius Ecclesiae, 2019, II, p. 499 ss. Per una rassegna delle modalità di intervento della Chiesa cattolica in Europa in materia di tutela della privacy, cfr. D. Durisotto, Diritti degli individui e diritti

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

216

Federico Gravino

Il Decreto generale della Conferenza Episcopale Italiana58, recante «Disposizioni per la tutela del diritto alla buona fama e alla riservatezza» entrato in vigore il 25 maggio 201859, costituisce lo strumento normativo60 per «dare più articolata regolamentazione al diritto della persona alla buona fama e alla riservatezza riconosciuto dal can. 220 del Codice di Diritto Canonico», come indicato nel Ritenuto del Decreto. Collocato nel titolo I «Obblighi e diritti di tutti i fedeli», del Libro II «Il popolo di Dio»61, il can. 22062 annovera la tutela alla riservatezza, intesa come delimitazione del proprio spazio privato rispetto ad indebite interferenze altrui63, tra i diritti dello statuto giuridico del battezzato cattolico64. La ricezione del sacramento del battesimo costituisce infatti porta di accesso al bagaglio giuridico della Chiesa (can. 96 CIC), rendendo il fedele soggetto di diritto nella comunità ecclesiale65: in tal senso è stato affermato che «il diritto alla buona fama e alla riservatezza, pur qualificato come diritto naturale, acquista maggiore

delle organizzazioni religiose nel Regolamento (UE) 2016/679. I “corpus completi di norme” e le “autorità di controllo indipendenti”, cit., p. 58. 58   Per una rassegna degli interventi delle Conferenze Episcopali a seguito dell’entrata in vigore del GDPR, cfr. F. Balsamo, La protezione dei dati personali di natura religiosa, Cosenza 2021, p. 195 ss. 59   Il Decreto generale C.E.I. vigente ha abrogato quello del 20 ottobre 1999. 60   Cfr. P. V. Pinto, Diritto amministrativo canonico. La Chiesa: mistero e istituzione, Bologna 2006, p. 225 ss.; V. De Paolis e A. D’Auria, Le Norme Generali. Commento al Codice di Diritto Canonico. Libro Primo, Città del Vaticano 2014, p. 208 ss. 61   La collocazione del diritto alla riservatezza e alla buona fama, quale diritto naturale, tra i diritti e i doveri dei fedeli, è spiegata alla luce della complementarietà tra diritti dell’uomo e diritti fondamentali del fedele. Sul punto, cfr. D. Cito, La tutela dei diritti fondamentali del fedele nell’ordinamento canonico, in Aa. Vv., I diritti fondamentali del fedele. A venti anni dalla promulgazione del Codice, Città del Vaticano 2004, p. 175 ss.; J. Hervada, Elementos de derecho constitucional canónico, Navarra 2014, p. 147 ss. 62   Sulla storia della formulazione del can. 220, cfr. P. Skonieczny, La buona fama: problematiche inerenti alla sua protezione in base al can. 220 del Codice di Diritto Canonico latino, Roma 2010, p. 31 ss. 63  Cfr. G. Feliciani, Il popolo di Dio, Bologna 2003, p. 45 ss.; M. Carbajo Núñez, Informazione e diritto all’intimità. Basi teoriche dell’attuale impostazione conflittuale, in Frontiere. Rivista di filosofia e Teologia, 2010, I, p. 117 ss. 64   Cfr. G. Incitti, Il popolo di Dio. La struttura giuridica fondamentale tra uguaglianza e diversità, Città del Vaticano 2009, p. 77 ss. 65   Cfr. A. Vitalone, Buona fama e riservatezza in diritto canonico (il civis-fidelis e la disciplina della privacy), in Ius Eccclesiae, 2002, p. 264 ss. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La tutela del diritto alla buona fama e alla riservatezza

217

vigore in virtù del battesimo, con il quale la persona umana diventa persona nella Chiesa»66. Il canone rappresenta una novità nel diritto canonico universale67. Nella codificazione pio-benedettina la tutela del diritto alla buona fama e alla riservatezza, di cui al can. 2355 CIC, era disciplinata solo indirettamente da alcune disposizioni penali68 e in stretta connessione con l’inviolabilità del sigillo confessionale69. Il magistero pontificio70 e le riflessioni conciliari71 ne hanno affermato la duplice prospettiva di diritto naturale, riconosciuto all’uomo in quanto tale e per questo meritevole di rispetto, e di diritto positivo, consistendo la relativa protezione nel «diritto di ogni fedele a vivere la propria relazione con Cristo senza indebite interferenze da parte degli altri credenti e dell’autorità ecclesiastica»72. La specialità del diritto alla riservatezza, a partire dalla stessa formulazione negativa del canone 220 CIC 8373, si evince dalla duplice tutela predisposta dal Legislatore universale, declinata nella tutela alla buona fama (can. 220, prima parte) e in quella alla riservatezza (can. 66  D. Salachas, Can. 23, in Commento al Codice dei Canoni delle Chiese Orientali, II, Città del Vaticano 2001, p. 32 ss. 67   Nel Codice del 1917 veniva disciplinato solo il reato di oltraggio e diffamazione, che si divideva nella denigrazione e nella calunnia. Sul punto cfr. G. De Mattia, La diffamazione in persona disonorata nel diritto canonico, in Ephemerides Iuris Canonici, 1961, I-II, p. 68 ss. 68   Cfr. D. Tarantino, The protection of the faithful’s privacy in the Codex Iuris Canonici: an evolving right?, in Il Diritto Ecclesiastico, 2017, III-IV, p. 609 ss., la quale fa riferimento ai cann. 2147 par. 2, n. 3, 2157 e 2355 CIC 17; A. Perego, La buona fama nella vita ecclesiale e la sua protezione dell’ordinamento canonico, Bari 2003, p. 51 ss. 69   Cfr. K. Nykiel, Il Sigillo Confessionale in prospettiva canonica, in K. Nykiel, P. Carlotti e A. Saraco (a cura di), Il sigillo confessionale e la privacy pastorale, Città del Vaticano 2015, p. 39 ss.; D. Milani, Segreto, libertà religiosa e autonomia confessionale. La protezione delle comunicazioni tra ministro di culto e fedele, Lugano 2008, p. 140 ss. 70   Pio XII, Allocuzione (02 giugno 1940), in AAS 32 (1940), p. 273 ss. e Allocuzione (06 dicembre 1953), in AAS 45 (1953), p. 975; Giovanni XXIII, Lettera enciclica Pacem in terris (11 aprile 1963), in AAS 55 (1963), p. 260. 71  Concilio Vaticano II, Costituzione pastorale Gaudium et spes (07 dicembre 1965), n. 27, in AAS 58 (1966), p. 1038: «tutto ciò che viola l’integrità della persona, come gli sforzi per perpetrare violenza contro lo spirito e il cuore, deve essere considerato “vergognoso”». 72  D. Cenalmor, Can. 220, in Exegetical Commentary on the Code of Canon Law, II/1, Montreal 2004, p. 130 ss. 73   Cfr. F. Compagnoni, I diritti dell’uomo: genesi, storia e impegno cristiano, Milano 1995, p. 212 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

218

Federico Gravino

220, seconda parte)74. In tale prospettiva si è sostenuto che il diritto di cui alla prima parte sarebbe riconosciuto all’uomo in quanto tale, prima che al fedele75, il quale beneficerebbe soltanto della tutela alla riservatezza. Un diverso orientamento ha invece sostenuto la coincidenza tra diritti dell’uomo e diritti del fedele come medesima categoria di diritti della persona umana: la dignità dell’uomo, che attraverso il battesimo entra nella comunione della Chiesa, è elevata sul piano soprannaturale, fondendo la realtà umana e quella spirituale76. La definizione giuridica di privacy nell’ordinamento ecclesiale tiene conto dunque della coniugazione di queste due dimensioni, sulla base di una coesistenza tra diritto alla protezione dei dati personali, come diritto fondamentale della persona umana77, e finalità istituzionali della Chiesa78. Una coesistenza formalizzata a livello normativo79 sia dal Decreto generale CEI 199980, che ha coordinato la disciplina canonica alla 74   Cfr. A. Solferino, I diritti fondamentali del fedele: il diritto alla buona fama e all’intimità, in R. Bertolino, S. Gherro e G. Lo Castro (a cura di), Diritto «per valori» e ordinamento costituzionale della Chiesa, Torino 1996, p. 372 ss.; J.P. Schouppe, Les droits à la bonne réputation, à l’intimité et au respect des données à caractère personnel en droit canonique: avant et après l’entrée en vigueur du règlement UE 2016/679, in Ius Ecclesiae, 2019, II, p. 406 ss. 75   Cfr. W. Aymans, Statuto dei diritti dell’uomo nell’ordinamento giuridico ecclesiale, in R. Bertolino, S. Gherro e G. Lo Castro (a cura di), Diritto “per valori” e ordinamento costituzionale della Chiesa, Giornate canonistiche di studio, Torino 1996, p. 72 ss. 76   Cfr. G. Ghirlanda, Il diritto nella Chiesa mistero di comunione. Compendio di diritto ecclesiale, Cinisello Balsamo (MI) 1990, p. 61 ss. 77   Cfr. G. Buttarelli, Nuovo paradigma sulla privacy in Internet: le sfide che si pongono per istituzioni come la Chiesa, in J. Pujol (a cura di), Chiesa e protezione dei dati personali. Sfide giuridiche e comunicative alla luce del Regolamento Europeo per la protezione dei dati, Roma 2019, p. 9 ss. 78   Cfr. A. Perlasca, Elementi peculiari ed aspetti irrinunciabili della normativa canonica nella tutela della buona fama e della riservatezza, in Quaderni di diritto ecclesiale, 2020, p. 167 ss. 79   Sulla potestà normativa della Conferenza Episcopale Italiana, cfr. diffusamente L. De Gregorio, Conferenza Episcopale Italiana. Potere normativo e ruolo pastorale, Roma 2015; M. Madonna, La valorizzazione delle Conferenze Episcopali come fonte di diritto particolare nei più recenti concordati, in Ephemerides Iuris Canonici, 2017, I, p. 53 ss.; E. B. Ndubueze, Le Conferenze Episcopali come fonte di Magistero, in Ephemerides Iuris Canonici, 2020, II, p. 411 ss.; L. La Croce, Il diritto particolare della Conferenza Episcopale Italiana nel secondo decennio del secolo ventunesimo, in Ephemerides Iuris Canonici, 2020, II, p. 463 ss. 80   Per un commento, cfr. V. Pignedoli, Privacy e libertà religiosa, Torino 2001, p. 196 ss.; R. Terranova, Buona fama e riservatezza: il trattamento dei dati personali tra diritto canonico e diritto dello Stato, in Il Diritto Ecclesiastico, 2001, I, p. 294 ss.; C. Redaelli, Il decreto generale della CEI sulla privacy, in Quaderni di diritto eccle-

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La tutela del diritto alla buona fama e alla riservatezza

219

l. n. 675 del 1996 e al d.lg. n. 135 del 199981, che dal Decreto generale CEI 2018 in attuazione della vigente disciplina comunitaria e italiana, nella parte in cui la Chiesa cattolica ribadisce il «diritto nativo e proprio di acquisire, conservare e utilizzare per i suoi fini istituzionali i dati relativi alle persone dei fedeli, agli enti ecclesiastici e alle aggregazioni laicali … nel rispetto della dignità della persona e dei suoi diritti fondamentali», alla luce della disciplina predisposta dal Regolamento europeo 2016/679. Le premesse del Decreto CEI 2018 tracciano indubbiamente una linea di continuità tra l’intervento normativo episcopale e la legislazione canonica universale e particolare (Decreto CEI 1999), ribadendo la primarietà e l’indipendenza dell’ordinamento ecclesiale da qualsiasi altro ordinamento82 e riconoscendo, d’altra parte, la necessità di una interazione con le tutele predisposte da parte statale83. Si riafferma, inoltre, la necessità di regolamentare in modo più opportuno ed articolato il trattamento dei dati personali dei fedeli, degli enti ecclesiastici, delle aggregazioni laicali e delle persone che entrano in contatto con tali soggetti (art. 1)84. In questo senso, la «sensibilità sempre più crescente» dell’episcopato italiano in materia di privacy consente di comprendere l’ampliamento dei contenuti normativi che compongono il vigente Decreto generale, rispetto a quelli abrogati, al fine di «predisporre una disciplina esauriente nei contenuti e compatibile con il diritto di derivazione «secolare»85. Profili di continuità emergono altresì dall’analogia tra le disposizioni europee e quelle canoniche86: l’ambito siale, 2001, I, p. 175 ss.; D. Milani, Il trattamento dei dati sensibili di natura religiosa tra novità legislative ed interventi giurisprudenziali, in Il Diritto Ecclesiastico, 2001, p. 278 ss. 81   Cfr. D. Mogavero, Diritto alla buona fama e alla riservatezza e tutela dei dati personali, in Ius Ecclesiae, 2000, p. 589 ss. 82   Cfr. diffusamente D. Albornoz Pavisic, I diritti nativi della Chiesa nel Codice di Diritto Canonico e nel diritto concordatario vigente, Roma 2008. 83   Cfr. M. Tigano, Il nuovo Regolamento UE sulla protezione dei dati personali, Chiesa cattolica e dignità dell’uomo, in Diritto e Religioni, 2020, p. 64 ss. 84   Cfr. F. Balsamo, La protezione dei dati personali di natura religiosa, cit., p. 177, il quale evidenzia la discontinuità tra la previsione di cui all’art. 1 Decreto CEI 2018 e l’art. 4, par. 1. lett. a) GDPR: nel primo caso la tutela si estende non solo alle persone fisiche ma anche agli enti ecclesiastici e alle aggregazioni ecclesiali; nel secondo caso la nozione di interessato riguarda soltanto quella di persona fisica identificata o identificabile. 85   Cfr. M. Ganarin, La tutela dei dati personali nei recenti sviluppi del diritto particolare per la Chiesa cattolica in Italia, in Ius Ecclesiae, 2019, p. 431. 86   Cfr. M. Ganarin, Specificità canonistiche e implicazioni ecclesiasticistiche del © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

220

Federico Gravino

soggettivo e oggettivo di applicazione del Decreto (artt. 1-2), i principi applicabili al trattamento dei dati personali (art. 3), le condizioni di liceità del trattamento e del consenso allo stesso (artt. 4-5), i diritti dell’interessato (artt. 6-7: accesso ai propri dati, rettifica di dati errati o non aggiornati, limitazione per operazioni in contrasto con i principi di liceità e correttezza del trattamento), gli strumenti di raccolta dei dati personali (artt. 8-11: registri, archivi, elenchi e schedari, annuari e bollettini), l’elaborazione e la conservazione dei dati (artt. 12-13), la sicurezza del trattamento (art. 14). Il corpus normativo predisposto dai Vescovi italiani presenta tuttavia elementi di novità. Anzitutto il riferimento all’art. 17, n. 1, TFUE, nei «Considerato» del Decreto, ha il fine di favorire una corretta interpretazione del Decreto del 201887 alla luce delle disposizioni comunitarie, oltre che di ribadire il riconoscimento da parte civile dell’autonomia di cui godono le confessioni religiose. Senza precedenti appaiono altresì le disposizioni contenute nel capo VI del Decreto (artt. 15, 16-18)88, che individuano le figure responsabili del trattamento e della protezione dei dati89: il titolare del trattamento (art. 15), i contitolari del trattamento (art. 17) e il Data Protection Officer (Responsabile per la protezione dei dati, ex art. 18)90. Ciò ha favorito una concreta attuazione della disciplina comunitaria attraverso la prassi di alcune diocesi e parrocchie, come evidenziato in seguito, che hanno provveduto ad istituire tali figure per garantire un pieno regime di trasparenza nel trattamento dei dati sensibili dei propri fedeli. Ulteriore innovazione è rappresentata dall’art. 22 del Decreto CEI 2018, che recepisce l’art. 91, par. 2, GDPR91. L’applicazione di un «corpus completo di norme» assoggetta le confessioni religiose che ne sono nuovo Decreto generale della Conferenza Episcopale Italiana sulla tutela del diritto alla buona fama, cit., p. 589. 87   Cfr. V. Marano, Protezione dei dati personali, libertà religiosa e autonomia delle Chiese, cit., p. 589. 88   Cfr. M. Mosconi, La normativa della Chiesa in Italia sulla tutela della buona fama e della riservatezza: dal decreto generale del 20 ottobre 1999 al decreto generale del 24 maggio 2018, in Quaderni di Diritto Ecclesiale, 2020, p. 153. 89   Il Decreto CEI 1999 individuava la figura principale nel responsabile dei registri, ossia la persona fisica cui era affidato il governo dell’ente cui appartenevano i registri. 90   Cfr. diffusamente R. Acciai e S. Angeletti (a cura di), Il DPO protagonista dell’innovazione. Il responsabile della protezione dei dati tra competenze e certificazioni, Canterano 2019. 91   Cfr. M. Ganarin, Salvaguardia dei dati sensibili di natura religiosa e autonoISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La tutela del diritto alla buona fama e alla riservatezza

221

dotate «al controllo di un’autorità di controllo indipendente che può essere specifica». L’enunciazione formale della norma sembra tuttavia non ricevere applicazione, dal momento che la mancata individuazione di un’autorità specifica92 estende i poteri del Garante per la protezione dei dati personali anche alla Chiesa cattolica. Più significativa è invece l’esperienza di altre Conferenze Episcopali, come quella polacca che, con il Decreto generale del 30 aprile 201893, ha istituito la figura dell’Ispettore Ecclesiastico per la Protezione dei Dati94, delineandone la natura di organo indipendente, i compiti e i poteri (artt. 35-40), nonché la funzione di decidere sui reclami proposti dagli interessati95. L’autorità individuata dalla Conferenza Episcopale Austriaca è invece la Commissione ecclesiastica per la protezione dei dati (Kirchliche Datenschutzkommission, ex art. 3 Decreto generale sulla protezione dei dati, entrato in vigore il 25 maggio 2018), alla quale compete stabilire le proprie regole di procedura. La Conferenza Episcopale Tedesca non si è limitata a costituire un’autorità di controllo specifica, la quale presiede a quelle eventualmente istituite da chiese e associazioni laicali per le proprie aree di giurisdizione, ma ha anche adottato un Regolamento aggiuntivo sui tribunali ecclesiastici speciali96, cui è demandata la risoluzione, in via arbitrale97, di controversie in materia di protezione dei dati: in tal modo è stato strutturato un vero mia confessionale. Spunti per un’interpretazione secundum Constitutionem del regolamento europeo n. 2016/679, cit., p. 27 ss. 92   Tale parte dell’art. 91, par. 2, Reg. 2016/679, è stata oggetto di interpretazioni contrastanti in dottrina. A favore dell’estraneità e dell’indipendenza dell’autorità di controllo dalla confessione religiosa di riferimento, cfr. V. Marano, Impatto del Regolamento Europeo di protezione dei dati personali per la Chiesa. Prime soluzioni nei Decreti generali delle Conferenze episcopali: l’esperienza italiana, cit., p. 30 ss.; contra, M. Ganarin, Salvaguardia dei dati sensibili di natura religiosa e autonomia confessionale. Spunti per un’interpretazione secundum Constitutionem del regolamento europeo n. 2016/679, cit., p. 28. 93   Il testo del Decreto è consultabile al sito www.episkopat.pl. 94   Cfr. F. Balsamo, La protezione dei dati personali di natura religiosa, cit., p. 185, il quale rileva che la normativa ecclesiale polacca non fa alcuna menzione della legge civile polacca in materia di protezione dei dati personali, né del GDPR, ma si limita solo ad indicare un riferimento al diritto canonico universale e particolare. 95   Cfr. T. Rozkrut, Decreto generale della Conferenza episcopale polacca relativo alla questione della protezione delle persone fisiche con riguardo al trattamento dei dati personali nella Chiesa cattolica, cit., pp. 511-512. 96   Cfr. D. Durisotto, Diritti degli individui e diritti delle organizzazioni religiose nel Regolamento (UE) 2016/679. I “corpus completi di norme” e le “autorità di controllo indipendenti”, cit., p. 61 ss. 97   Cfr. T. Hoeren, Kirchlicher Datenschutz nach der Datenschutzgrundverord© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

222

Federico Gravino

e proprio sistema giurisdizionale (Tribunale Interdiocesano di prima istanza-Tribunale di seconda istanza)98, che vigila sul trattamento dei dati sensibili dei fedeli cattolici tedeschi99. Alla luce di una lettura generale dell’impianto normativo canonico in materia di privacy occorre dunque rilevare quanto la Chiesa cattolica sia attenta nel predisporre idonee garanzie per i propri fedeli in un settore, le cui potenzialità e i cui pericoli sono notevolmente mutati100. Il cammino legislativo ecclesiale procede, in tal senso, quasi in parallelo a quello civile, realizzando un’osmosi interordinamentale che tutela la duplice dimensione dell’uomo, in quanto cittadino e in quanto fedele. La certezza del dato teorico necessita tuttavia di un riscontro sul piano concreto attraverso l’indagine delle modalità applicative della norma, astratta e generale, ai casi concreti. 5. L’utilizzo delle «meravigliose invenzioni tecniche»101, protagoniste della digital society, ha coinvolto anche la Chiesa cattolica nell’esercizio dei suoi tria munera (munus docendi, munus sanctificandi, munus regendi). La realtà online rappresenta, infatti, un’importante opportunità per l’attività di evangelizzazione e di predicazione della parola di Dio102. In tale prospettiva, le previsioni codicistiche in materia di funzione di insegnare (munus docendi) si prestano ad una lettura evolutiva: il can. 747 CIC sancisce che «la Chiesa … ha il dovere e il diritto nativo, anche con l’uso di propri strumenti di comunicazione sociale … di predicare il Vangelo a tutte le genti» e il can. 761 CIC afferma che «per annunciare la dottrina cristiana si adoperino i diversi mezzi, in primo luogo la predicazione e l’istruzione catechistica … ma anche la presentazione della dottrina … con gli altri strumenti di comunicazione sociale». Non a caso sempre più forte è la presenza sui nung. Eine Vergleichsstudie zum Datenschutzrecht der evangelischen und der katholischen Kirche, in Neue Zeitscrift für Verwaltungsrecht, 2018, VI, p. 373 ss. 98   Cfr. G.P. Montini, I tribunali ecclesiastici competenti in materia di privacy in Germania, in Quaderni di Diritto Ecclesiale, 2020, II, p. 205 ss. 99   Cfr. S. Konrad, La protezione dei dati personali nella Chiesa tedesca, cit., p. 465 ss. 100   Cfr. E. Schmidt e J. Cohen, The New Digital Age. Reshaping The Future of People, Nations and Business, Paris 2014, p. 27 ss. 101   Concilio Vaticano II, Decreto Inter Mirifica sugli strumenti di comunicazione sociale, 4 dicembre 1963, in AAS, 56 (1964), p. 145 ss. 102   Cfr. diffusamente V. Grienti, Chiesa e internet: messaggio evangelico e cultura digitale, Milano 2010; K. Jay, La Chiesa analogica: perché abbiamo bisogno di persone, luoghi e cose nell’era digitale, Roma 2021. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La tutela del diritto alla buona fama e alla riservatezza

223

social network di sacerdoti e suore che, attraverso dirette, box-domande, condivisione di post, foto e video, svolgono attività di catechesi e di annuncio per i loro follower103. La dimensione digitale della funzione di santificare (munus sanctificandi) della Chiesa è emersa, invece, a causa delle restrizioni imposte dalla pandemia da Covid 19104. Recependo le disposizioni governative, la Chiesa cattolica ha adeguato la propria attività pastorale all’emergenza sanitaria105, esercitando online il proprio munus sanctificandi, in particolare attraverso celebrazioni eucaristiche «a porte chiuse» e in modalità streaming106. Con frequenza maggiore la Chiesa cattolica ricorre agli strumenti digitali anche nell’esercizio della propria attività governativa e istituzionale (munus regendi)107. A riguardo, un esempio è offerto dalla digitalizzazione dei principali documenti ecclesiali, la cui fruizione raggiunge un numero più ampio di utenti: in tal modo i fedeli possono consultare i lavori del Pontificio Consiglio per i Testi Legislativi e in generale il diritto nella Chiesa (www.delegumtextibus.va), la normativa del 1917 (cdirittocanonico1917.it/online.htm), quella vigente e i documenti del Magistero (www.vatican.va), unitamente a quelli prodotti dagli altri Dicasteri della Curia Romana, nonché il diritto canonico particolare (www.repertoriogiuridico.chiesacattolica.it)108. Il diffuso utilizzo del web ha aperto altresì alla possibilità di ricorrere alla realtà digitale come strumento di pubblicazione delle leggi canoniche109, coinvolgendo in modo significativo l’attività di produzione normativa in ambito sia universale che particolare 103   Cfr. G. Tridente e B. Mastroianni (a cura di), La missione digitale: comunicazione della Chiesa e social media, Roma 2016, p. 12 ss. 104   Sull’incidenza della pandemia da Covid-19 sulle restrizioni alla libertà religiosa, cfr. A. Fuccillo, M. Abu Salem e L. Decimo, Fede interdetta? L’esercizio della libertà religiosa collettiva durante l’emergenza COVID-19: attualità e prospettive, in Calumet-Intercultural Law and Humanities Review, 2020, p. 87 ss. 105   Conferenza Episcopale Italiana, Suggerimenti per la celebrazione dei sacramenti in tempo di emergenza Covid-19, 17 marzo 2020, il cui testo integrale è pubblicato sul sito www.chiesacattolica.it. 106   Cfr. R. Santoro e G. Fusco, Diritto canonico e rapporti Stato-Chiesa in tempo di pandemia, Napoli 2020, p. 97 ss. 107   Cfr. P. Soukup, L’autorità, i nuovi media e la Chiesa, in La Civiltà Cattolica, 2017, II, p. 441 ss. 108   Cfr. A. Giraudo, Comunicazione e opinione pubblica nella Chiesa nell’epoca digitale, in Quaderni di Diritto Ecclesiale, 2018, p. 51 ss. 109   La Conferenza Episcopale Italiana ha utilizzato la pubblicazione online per la promulgazione del Decreto generale Disposizioni per la tutela del diritto alla buona fama e alla riservatezza. Solo successivamente il testo normativo è stato pubblicato

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

224

Federico Gravino

e proprio. Si ritiene, infatti, che la promulgazione digitale comporti un vantaggio temporale, favorendo la conoscenza del testo legislativo più velocemente di quello stampato, e un vantaggio spaziale, permettendo alla norma pubblicata di raggiungere ogni territorio, divenendo in tal modo vincolante. Inoltre, essa può consentire il superamento delle problematiche insite alle modalità tradizionali di pubblicazione: ritardi del testo stampato, discrasie tra data di promulgazione e data di pubblicazione nel fascicolo degli Acta Apostolicae Sedis, incertezze circa il testo della legge pubblicata, possibilità di pubblicare simultaneamente anche i testi nelle traduzioni autorizzate110. La larga diffusione della tecnologia virtuale ha altresì inciso su alcuni profili del processo canonico: già da tempo è prassi dei tribunali ecclesiastici trasmettere atti e certificati attraverso la rete111, avvalersi dell’ausilio di periti informatici forensi o rendere protagonista dell’attività istruttoria la valutazione delle prove c.dd. digitali112, così come si avanzano proposte di configurare un modello di processo matrimoniale canonico online113. La larga diffusione delle nuove tecnologie sta dunque caratterizzando in modo sempre più intenso anche l’attività istituzionale della Chiesa cattolica, la quale si avvale, come evidenziato, degli strumenti digitali nell’esercizio dei suoi tria munera. D’altronde, la realtà online è già protagonista di molte attività pastorali cattoliche: l’utilizzo dei social network per finalità formative religiose114, la predisposizione di stanze virtuali per l’esercizio del culto115, la creazione di account per

secondo le modalità tradizioni (in Notiziario della Conferenza Episcopale Italiana, LII, 2018, p. 94 ss.) 110   Per un’analisi dei vantaggi e delle perplessità circa tale modalità di promulgazione, sia consentito il riferimento a F. Gravino, Leggi ecclesiastiche e pubblicazione digitale. Le nuove frontiere della promulgazione nel diritto canonico, in Stato, Chiese e pluralismo confessionale, rivista telematica, 2021, XV, p. 47 ss. 111   Cfr. M. d’Arienzo, Zuckerberg e i nuovi rapporti tra diritto e religioni. A proposito di libertà di coscienza nell’era digitale, in Diritto e Religioni, 2019, p. 386 ss. 112   Cfr. R. Santoro e F. Gravino, Web e matrimonio canonico: prospettive di analisi della perizia nelle dinamiche processuali, in Diritto e Religioni, 2019, p. 28 ss. 113  Cfr. Redazione di Quaderni di Diritto Ecclesiale (a cura di), Un dossier sul collegamento da remoto nei processi canonici, in Quaderni di Diritto Ecclesiale, 2021, p. 323 ss. 114   Cfr. diffusamente P. Padrini, Social network e formazione religiosa. Una guida pratica, Milano 2014. 115   Cfr. A. Fuccillo, Diritto, Religioni, Culture. Il fattore religioso nell’esperienza giuridica, cit., p. 218 ss. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La tutela del diritto alla buona fama e alla riservatezza

225

iscriversi o accedere a siti web d’ispirazione religiosa; l’utilizzo di nickname per interagire in blog dedicati ai dibattiti sulla fede; l’adesione a comunità virtuali116, il download di app religiose117 o l’upload di foto o video in rete. Tali interazioni espongono tuttavia i dati sensibili degli utenti/fedeli a possibili rischi118 connessi a nuove modalità di trattamento119: la promozione di un’attività parrocchiale o diocesana può avvalersi, infatti, di dati che, entrando nel mondo della rete, sfuggono alle forme ordinarie di gestione, ledendo quel diritto all’autodeterminazione informativa120, ritenuto preminente dal GDPR e dalla conseguente normativa italiana di attuazione. In una prospettiva di prevenzione si pone, pertanto, il principio di accountability, che è tra i cardini della vigente disciplina in materia di tutela dei dati sensibili121. Occorre tuttavia interrogarsi sull’effettiva applicazione dello stesso da parte della Chiesa cattolica. In forza dell’art. 32 GDPR, il titolare del trattamento è infatti onerato a mettere in atto «misure tecniche e organizzative appropriate per garantire un livello di sicurezza adeguato»: scopo del legislatore è chiaramente quello di 116   Cfr. S. Valentan, I tre Papi e la necessità degli strumenti di comunicazione sociale nella Chiesa, in Theological Quarterly, 2019, IV, p. 1075 ss., il quale evidenzia che la Chiesa cattolica utilizza i nuovi strumenti di comunicazione sociale non solo per la sua attività di evangelizzazione ma anche per l’esercizio della potestà di governo, come nel caso dell’attività diplomatica della Santa Sede. 117  R. Santoro e F. Gravino, Internet, culture e religioni. Spunti di riflessione per un web interculturale, in Stato, Chiese e pluralismo confessionale, rivista telematica, 2020, p. 113 ss.; P. Perri, La tutela dei dati personali nei social networks e nelle app religiose, in Jus-Online, 2020, p. 84 ss. 118   Cfr. G. Cucci, Internet e cultura. Nuove opportunità e nuove insidie, Milano 2016, p. 56 ss. 119   Sui dati digitali, cfr. A. Giraudo, La tutela della riservatezza e della buona fama nel trattamento dei dati di natura digitale, in Quaderni di Diritto Ecclesiale, 2020, p. 190 ss. 120   Cfr. M. Ganarin, Specificità canonistiche e implicazioni ecclesiasticistiche del nuovo Decreto generale della Conferenza Episcopale Italiana sulla tutela del diritto alla buona fama, cit., p. 601. 121   Ex plurimis, cfr. R. Celella, Il principio di responsabilizzazione: la novità del G.D.P.R., in Ciberspazio e Diritto, 2018, I-II, p. 211 ss.; P. La Farciola, Data protection impact assessment e sicurezza dei dati. Novità e criticità alla luce del principio di accountability nel Regolamento UE per la protezione dati personali 679/2016, in Data Protection Law. Diritto delle nuove tecnologie, privacy e protezione dei dati personali, 2020, I, p. 3 ss.; B. Borrillo, La tutela della privacy e le nuove tecnologie: il principio di accountability e le sanzioni inflitte dalle Autorità di controllo dell’Unione europea dopo l’entrata in vigore del GDPR, in dirittifondamentali.it, 2020, II, p. 326 ss.; G. Amore, Fairness, Transparency e Accountability nella protezione dei dati personali, in Studium iuris, 2020, p. 414 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

226

Federico Gravino

responsabilizzare il titolare del trattamento dei dati al fine di garantire che il loro utilizzo sia conforme ai principi fondanti la disciplina europea e nazionale122. L’art. 13 Decreto CEI 2018, recependo tale principio, responsabilizza diocesi e parrocchie nell’osservanza delle «norme canoniche riguardanti la diligente custodia, l’uso legittimo e la corretta gestione dei dati personali» dei propri fedeli. Il relativo adempimento richiede indubbiamente un’attenzione maggiore, allorquando il trattamento dei dati sia effettuato con modalità diverse da quelle tradizionali e in relazione ad attività che si svolgono o si avvalgono esclusivamente delle tecnologie della società digitale. Al fine di verificare l’effettiva attuazione degli obiettivi legislativi sovranazionali, nazionali e confessionali, la presente attività di ricerca ha avuto ad oggetto una mappatura dei siti diocesani e parrocchiali italiani. Tale monitoraggio ha rilevato tre prassi applicative in materia di tutela dei dati sensibili dei fedeli cattolici nelle comunità di appartenenza: a) assenza di qualsiasi riferimento alla disciplina in esame; b) link che rinviano a generiche pagine informative sulla legge civile; c) pubblicazione online di una compiuta disciplina attuativa del GDPR, del d.lg. n. 101 del 2018 e del Decreto CEI 2018, mediante l’upoload di specifiche autorizzazioni al trattamento dati a seconda del tipo di attività cui il fedele partecipa. Nella prassi applicativa sub a) rientrano siti di diocesi e parrocchie, dai quali non rileva alcuna indicazione né delle norme applicabili in materia di tutela dei dati sensibili dei propri fedeli, né delle figure espressamente delineate dal legislatore: in tali casi troverà certamente applicazione la vigente disciplina civile e confessionale, pur dovendosi riconoscere che l’espressa enunciazione del GDPR e del Decreto CEI 2018 consentirebbe al fedele di conoscere chiaramente la legge applicabile, le modalità di circolazione dei propri dati e i diritti di cui è titolare. Dubbi potrebbero sorgere circa l’individuazione del Titolare del Trattamento, del Responsabile del Trattamento e del Responsabile della Protezione dei Dati. Al fine di garantire una tutela effettiva dei dati trattati nell’esercizio di tali funzioni, si ritiene che non debba esserci coincidenza tra queste figure e il rappresentante legale della persona giuridica pubblica (il Vescovo per la diocesi, il parroco per la parrocchia)123: in assenza di nomine formali,

122   Cfr. S. Attollino, Le religioni nel mondo delle informazioni: tra privacy e accountability, in Diritto e Religioni, 2021, p. 76 ss. 123   Cfr. M. Ganarin, La tutela dei dati personali nei recenti sviluppi del diritto particolare per la Chiesa cattolica in Italia, cit., p. 434.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La tutela del diritto alla buona fama e alla riservatezza

227

tali attività potrebbero essere svolte da chi materialmente si occupa della tenuta dei registri124. L’assenza, nei siti Internet in analisi, di riferimenti alle figure istituzionali introdotte dal Regolamento europeo certamente non costituisce una espressa violazione del principio di accountability, in quanto la normativa canonica universale e particolare non ha previsto alcun obbligo di costituzione di uffici diocesani per la protezione dei dati sensibili o di responsabili del trattamento. Ciò è stato sancito, invece, per altre materie, prevedendo la creazione di uffici diocesani ad hoc: è il caso degli Sportelli per le segnalazioni di abusi sessuali su minori o su adulti vulnerabili relative a chierici o a membri di Istituti di Vita Consacrata o Società di Vita Apostolica125, istituiti da Francesco con la Lettera apostolica in forma di motu proprio Vos estis lux mundi del 7 maggio 2019126. L’art. 2, par. 1, della Lettera apostolica prevede infatti che «… le Diocesi o le Eparchie, singolarmente o insieme, devono stabilire, entro un anno dall’entrata in vigore delle presenti norme, uno o più sistemi stabili e facilmente accessibili al pubblico per presentare segnalazioni, anche attraverso l’istituzione di un apposito ufficio ecclesiastico …». A differenza di quanto registrato per la tutela dei dati sensibili, l’attività di monitoraggio dei siti diocesani ha evidenziato nella maggior parte dei domini Internet visitati la presenza tra gli organi di Curia di tali uffici e, in alcuni casi, la pubblicazione di statuti o regolamenti volti a disciplinare l’attività interna degli stessi127. La categoria sub b) raggruppa, invece, siti diocesani e parrocchiali che predispongono link da cui sono scaricabili generiche pagine informative di privacy policy e cookie policy. In alcuni casi tali rinvii appaiono desueti, poiché aggiornati alla disciplina legislativa abrogata (d.lg. 124   Cfr. M. Mosconi, La normativa della Chiesa in Italia sulla tutela della buona fama e della riservatezza: dal decreto generale del 20 ottobre 1999 al decreto generale del 24 maggio 2018, cit., p. 151 ss. 125   Circa il rapporto tra le modifiche introdotte da Francesco e la tutela della dignità e della riservatezza degli accusati di abusi sessuali su minori, cfr. diffusamente M. Wijlens, N. Owen, D. Portillo e M.I. Franck (a cura di), Promoción y protección de la dignitad de las personas en la acusaciones de abuso sexual de menores y de adultos vulnerables: un balance entre confidencialidad, trasparencia y “accountability”, Madrid 2021. 126   Francesco, Lettera apostolica in forma di motu proprio Vos estis lux mundi, 07 maggio 2019, in Communicationes LI (2019), p. 23 ss. 127   Per una rassegna dei principali statuti e regolamenti degli Sportelli per le segnalazioni di abusi sessuali su minori o su adulti vulnerabili relative a chierici o a membri di Istituti di Vita Consacrata o Società di Vita Apostolica, cfr. L. Sabbarese (a cura di), Codice di Procedura penale canonica e vaticana, Molfetta 2022, p. 127 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

228

Federico Gravino

n. 196 del 2003), tra l’altro senza alcun riferimento alla normativa cattolica. In altri, si limitano a indicare i soli riferimenti della disciplina in vigore, sia civile che confessionale. Certamente gli utenti che vi navigano possono conoscere il regime giuridico cui sono sottoposti i propri dati ma, d’altra parte, l’assenza di moduli predisposti per autorizzare o vietare espressamente il relativo trattamento potrebbe sollevare problemi interni alla stessa organizzazione ecclesiale. A ciò potrebbe ovviarsi con la creazione di un’autorità di controllo, ai sensi dell’art. 22 del Decreto, interna alla Chiesa cattolica, preposta alla verifica del corretto trattamento dei dati sensibili. Ad oggi, come già evidenziato, la Conferenza Episcopale Italiana nulla ha previsto in merito128, rimettendosi alle disposizioni civili che individuano nel Garante per la protezione dei dati personali l’Autorità competente. A parziale soluzione, si rileva che l’Ufficio Nazionale per i problemi giuridici ha pubblicato il documento «Privacy: indicazioni operative e modulistica», predisponendo moduli per una serie di attività promosse ordinariamente da Diocesi e parrocchie: indicazioni in materia di riservatezza, annuari, titolari e responsabili del trattamento, catechesi, iscrizione ad attività estive, sacramenti; istruzioni per i Tribunali Ecclesiastici, per l’utilizzo del modello di Registro dell’attività di trattamento per le Parrocchie, per la raccolta dati degli insegnanti IRC, per la raccolta dei dati per l’ammissione al seminario129. Una chiara applicazione del principio di accountability è invece presente nei siti diocesani rientranti nel profilo sub c). Elemento comune è l’individuazione della figura del Titolare del Trattamento, coincidente sempre con l’ente Diocesi. D’altronde, poiché ai sensi dell’art. 2, n. 7, del Decreto CEI 2018, il Titolare ha il compito di determinare «le finalità e i mezzi del trattamento di dati personali», l’espressa indicazione di tale figura da parte del sito diocesano declina concretamente quel principio di responsabilizzazione, su cui si fonda il Regolamento europeo. Altresì frequente è l’indicazione del Responsabile del Tratta-

128   Sulla stessa linea si pone la Conferenza Episcopale Spagnola che, seppur formalmente individua l’Autorità di controllo nell’Agencia Española de Protección de Datos (art. 4, par. 24 Decreto general 2018), si riserva il diritto di erigere per il futuro un organismo speciale di controllo. Sul punto cfr. cfr. J. Otaduy, El Decreto general de la Conferencia Episcopal Española en materia de protección de datos personales. Primeras consideraciones, cit., p. 488. 129   Il testo del documento, aggiornato al 14 giugno 2020, è consultabile sul sito: www.giuridico.chiesacattolica.it.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La tutela del diritto alla buona fama e alla riservatezza

229

mento e del Responsabile della Protezione dei Dati: pur ammettendosi la possibilità di individuare un dipendente diocesano, generalmente tali compiti sono delegati a professionisti esterni alle Diocesi in forza delle competenze tecniche richieste dal legislatore130, specie per il Responsabile della Protezione dei Dati deputato alla parte organizzativa del trattamento131 e la cui presenza è obbligatoria se si effettua un trattamento dati su larga scala132, ai sensi dell’art. 18, par. 1, del Decreto CEI, come di fatto è verificabile dai siti di Diocesi con un numero importante di fedeli. Ulteriore declinazione del principio in esame è l’affermazione, presente in diversi siti web, della necessità di dare applicazione alle novità legislative civili. L’enunciazione assume toni di concretezza, allorquando l’utente può accedere ad un’apposita sezione «Privacy» del sito web diocesano, conoscere la disciplina giuridica in vigore ed effettuare il download di documenti133, modulistica e informazioni necessarie per una sua completa formazione. Tale opzione diventa un’opportunità di applicazione uniforme della normativa, soprattutto nei casi in cui a fruire dei documenti scaricabili siano parroci, religiosi o dipendenti degli uffici diocesani nell’adempimento dei loro compiti. In tal senso rileva la creazione, in alcuni casi, di un «Portale Iscrizioni» per disciplinare i rapporti tra la Diocesi e i soggetti (fedeli laici e chierici, uffici diocesani e singole parrocchie) che vi entrano in contatto e garantire standard di tutela nel trattamento dei relativi dati sensibili. In relazione poi alla tenuta di registri, elenchi, schedari, annuari e bollettini, l’upload di informative specifiche e di modelli di riferimento consente di uniformare la redazione, la tenuta e la conservazione di questi im130   Cfr. L. Greco, I ruoli: il titolare e il responsabile, in G. Finocchiaro (a cura di), Il nuovo Regolamento europeo sulla privacy e sulla protezione dei dati personali, Bologna 2017, p. 251 ss. 131   Cfr. A. Avitabile, Il data protection officer, in G. Finocchiaro (a cura di), Il nuovo Regolamento europeo sulla privacy e sulla protezione dei dati personali, Bologna 2017, p. 331 ss. 132   Cfr. S. Angeletti, Il DPO “manager” della protezione dei dati, in R. Acciai e S. Angeletti (a cura di), Il DPO protagonista dell’innovazione. Il responsabile della protezione dei dati tra competenze e certificazioni, Canterano 2019, p. 223 ss. 133   In alcuni casi (virtuosi) il sito diocesano consente il download di un gran numero di documenti: nomina incaricato al trattamento; registro trattamento parrocchia; foto e video minorenni; iscrizione vacanze estive di maggiorenni e minorenni; iscrizione attività estive attività maggiorenni ed educatori minorenni; iscrizione attività estive minorenni; iscrizione catechismo e foto video; corsi e convegni; modulo informativa generico.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

230

Federico Gravino

portanti strumenti che preservano la memoria storica della Chiesa e le consentono di adempiere alle sue finalità istituzionali134. 6. Le previsioni normative comunitarie e nazionali hanno indubbiamente stimolato la produzione legislativa della Chiesa cattolica in materia di protezione dei dati sensibili religiosi. Il can. 220 CIC, pur costituendone il riferimento giuridico centrale, sembra essere stato completato dall’entrata in vigore del Decreto generale CEI 2018, con l’obiettivo di adeguare la disciplina confessionale a quella civile. La tutela della privacy rappresenta pertanto un’occasione di confronto tra ordinamenti, che ben si evince dalla mappatura delle prassi applicative diocesane e parrocchiali. La consultazione dei siti web contestualizza le novità legislative in materia, i cui principi sono affermati alla luce delle innovazioni introdotte dalla digital society. In tale prospettiva è declinato lo sforzo della Chiesa cattolica di attuare la disciplina vigente: nelle ipotesi sub c), che potrebbero definirsi virtuose, la legge generale ed astratta è pienamente applicabile nei casi concreti mediante la predisposizione di materiale informativo e moduli che consentono al fedele di conoscere ed essere consapevole del trattamento dei propri dati sensibili nell’esercizio della propria libertà religiosa; nei casi sub a) e sub b), invece, il Regolamento europeo e lo stesso Decreto generale CEI 2018, sebbene talvolta solo oggetto di citazioni nominali, stentano a ricevere una concreta applicazione, mortificando in un certo senso l’impegno dei Vescovi italiani di disciplinare dati appartenenti ai propri fedeli e richiedendo il superamento di limiti oggettivi. La concorrenza tra le due autorità in questo settore non traduce tuttavia la prevalenza dell’una o dell’altra ma si fonda un’azione comune, nel riconoscimento delle reciproche competenze ed autonomie, rispetto a quei «dati confessionali propri»135, la cui tutela è strettamente connessa alla dignità del fedele e della persona.

134   Il profilo applicativo sub c) coinvolge direttamente anche la l’Arcidiocesi di Firenze. Un’apposita pagina «Informative e Privacy» (www.diocesifirenze.it/privacy) offre a chi naviga tutti gli elementi necessari per la gestione dei dati personali. In particolare, la sezione predispone un’informativa per i chierici sul trattamento dei loro dati personali pubblicati sull’Annuario diocesano, nonché una per chi decida di aderire ad un’attività pastorale o intenda avvalersi dell’aiuto del Centro di Ascolto. 135   L’espressione è di A. G. Chizzoniti, Prime considerazioni sulla legge 675 del 1996 “Tutela delle persone e di altri soggetti rispetto al trattamento dei dati personali”, cit., p. 382.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Laura De Gregorio

Canada (Attorney General) v. Fontaine: un complicato bilanciamento tra riservatezza e interesse pubblico al vaglio della Corte suprema canadese

Sommario: 1. Premessa. – 2. Indian Residential Schools: curare le ferite della storia per non dimenticare. – 3. Commemoration e Memorialisation v. Privacy. - 3.1. Principle of Confidentiality. - 3.2. Principle of Voluntariness. – 4. Qualche considerazione.

1. Il 6 ottobre 2017 la Corte suprema del Canada pronunciava una sentenza (Canada – Attorney General v. Fontaine1) con cui, all’unanimità, rigettava il ricorso proposto dal Procuratore generale avverso la decisione della Corte di appello dell’Ontario che, confermando quella adottata dalla Corte superiore provinciale, accoglieva la richiesta di destruction di tutta la documentazione utilizzata nell’ambito del c.d. Independent Assessment Process (IAP) istituito appositamente ai sensi dell’Indian Residential Schools Settlement Agreement (IRSSA)2 firmato nel 2006 con il duplice obiettivo di «achieve a fair, comprehensive and lasting resolution of the legacy of Indian Residential Schools» e di «promote healing, education, truth and reconciliation and commemoration». Nella sua linearità e relativa brevità tale sentenza costituisce, come già evidenziato in dottrina3, un caso interessante da più punti di vista. In primo luogo quello della storia coloniale canadese e delle vicende delle aboriginal peoples ancora recentemente assurte all’attenzione della cronaca con la scoperta, nel giugno scorso, di centinaia di cadaveri di bambini internati nelle residential schools di Marieval, nella provincia del Saskatchewan, che seguiva al ritrovamento, alcuni anni prima, di altrettanti corpi presso Kamloops, nella provincia della British Columbia. In questo contesto e, in secondo luogo, la sentenza del 2017 è significativa perché si occupa di un tema, quello della tutela dei dati personali, che è cagione del conflitto fra il Governo federale e i giudici * Professoressa di Diritto ecclesiastico e canonico nell’Università di Firenze. 1   Canada (Attorney General) v. Fontaine 2017 SCC 47, [2017] 2 S.C.R., pp. 205-249. 2   Il testo è disponibile su www.residentialschoolsettlement.ca/settlement.html. 3   Si veda E. Ceccherini, La giurisprudenza della Corte Suprema del Canada nel biennio 2016-2017, in Giur. cost., 2018, 5, p. 2271 ss. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

232

Laura De Gregorio

che, diversamente interpretando la natura dei documenti utilizzati nei procedimenti attivati per gestire le richieste di indennizzo delle vittime di abusi perpetrati all’interno delle residential schools, giungono a conseguenze differenti quanto alla meritevolezza di tutela degli interessi in conflitto e alle azioni da intraprendere. Da ultimo, il caso sottoposto all’attenzione della suprema Corte permette di conoscere «the largest class action» della storia canadese mirante a comporre migliaia di ricorsi e di azioni giudiziarie (già in essere o potenziali). Nelle note che seguono, dopo aver ricostruito le vicende all’origine della controversia, si formuleranno alcune prime riflessioni sull’operato dei giudici delle corti provinciali e federale in particolare quanto al bilanciamento da essi condotto tra esigenze pubbliche e necessità private o, meglio, usando le parole della Corte suprema, tra «the need to memorialize and commemorate, all the while respecting the choice of survivors to share (or not share) their stories». 2. «From the 1860s to the 1990s, more than 150,000 First Nations, Inuit, and Métis children were required to attend Indian Residential Schools operated by religious organizations and funded by the Government of Canada. […] Thousands of these children were abused physically, emotionally, and sexually while at residential schools. […] In the late 1990s and early 2000s, a number of individual and class actions were brought by survivors of residential schools». È con queste sintetiche quanto emblematiche espressioni che la Corte suprema del Canada, attraverso le parole dei giudici Brown e Rowe, introduce il caso sottoposto al suo esame che non può essere compreso in tutto il suo significato se non, come aveva affermato nel 2008 il primo ministro Sthephen Harper nello Statement of Apology to former students of Indian Residential Schools4, rileggendo “a sad chapter of our history”: quello del Residential Schools System che, separando i bambini dalle famiglie appartenenti a First Nations, Inuit, Métis e isolandoli «from the influence of their homes, (…), traditions and cultures», aveva preteso di integrarli nella cultura dominante sul presupposto che «aboriginal cultures and spiritual beliefs were inferior and unequal».

4  Cfr. Statement of Apology to former students of Indian Residential Schools. On behalf of the Government of Canada The Right Honourable Stephen Harper, Prime Minister of Canada, June 11, 2008. Il testo è disponibile su www.rcaanc-cirnac.gc.ca/ eng.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Canada (Attorney General) v. Fontaine

233

Nel riconoscere, pur a distanza di anni, l’erroneità e la gravità della politica assimilazionista perseguita; nell’ammettere le nefaste conseguenze di quella politica in termini di altissimi costi umani e sociali; nel constatare ancora le dolorose ferite, frutto di negligenze e abusi commessi a danno di persone in giovanissima età, prive di difese e vulnerabili quanto le rispettive famiglie e comunità in fondo powerless di fronte a tali vicende, il Governo canadese, già agli inizi del duemila, predisponeva «a voluntary alternative dispute resolution – ADR – process» al fine di indennizzare i sopravvissuti per le tragiche esperienze passate. Sennonché, l’elevato numero di richieste e di ricorsi individuali e collettivi avviati e la complessità di gestione degli stessi suggerivano di lì a poco di procedere in modo diverso. Il 20 novembre 2005 il Governo, rappresentato dall’onorevole Frank Iacobucci, allo scopo di riunire e regolare «all of the existing proposed class action statements of claim», individuare un’unica «common series of class actions» e così provare a «tourner la page sur l’épisode des pensionnats indiens»5, firmava un accordo di principio insieme con i ricorrenti rappresentati dal National Consortium, nonché con il Merchant Law Group, l’Inuvialuit Regional Corporation, il Makivik Corporation, il Nunavut Tunngavik Inc., l’Independent Counsel, l’Assembly of First Nations e, ancora, con il General Synod of the Anglican Church of Canada, la Presbyterian Church in Canada, la United Church of Canada e con un’insieme di enti e istituzioni cattoliche6. Sulla base di quell’accordo e frutto di una intensa negoziazione, alcuni mesi dopo, l’8 maggio 2006, veniva ulteriormente siglato l’Indian Residential Schools Settlement Agreement (IRSSA) che si proponeva da un lato di regolare tutte le controversie relative alle residential schools (art. 4) e di risarcire finanziariamente le vittime (artt. 5 e 6), dall’altro di istituire sia una Truth and Reconciliation Commission (TRC), (art. 7) sia un fondo di dotazione economica per l’attuazione di programmi di guarigione (art. 8). Le azioni predisposte dall’IRSSA miravano, come già sopra anticipato, a raggiungere «a fair, comprehensive and lasting resolution of the legacy of Indian Residential Schools»7 e a promuovere «healing,

5   È la traduzione francese riportata nel testo che meglio sembra rendere il senso dell’accordo di principio del 2005. 6   L’elenco completo è indicato nell’allegato C dell’IRSSA. 7   Anche in tal caso è la traduzione francese che meglio sembra rendere il signifi-

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

234

Laura De Gregorio

education, truth and reconciliation and commemoration». Obiettivi, evidentemente, tutti meritevoli di tutela, ma di fatto solo apparentemente conciliabili essendo espressione di diverse necessità e di differenti finalità. Da un lato la Truth and Reconciliation Commission avrebbe dovuto dar vita ad un «historical record of the residential school system» e assicurare che «its legacy is preserved and made accessible to the public for future study and use». Ad essa sarebbe stato affiancato il National Centre for Truth and Reconciliation (NCTR) incaricato di «archive and store the records collected by the TRC, along with the historical records regarding residential schools». Con riferimento, invece al financially compensation destinato ai sopravvissuti, il sistema immaginato dall’IRSSA prevedeva due diverse forme di cui una connotata da elementi di estrema riservatezza e confidenzialità non compatibili con le esigenze di divulgazione della verità ai fini di «healing, education, truth and reconciliation and commemoration». Più precisamente, se l’indennizzo previsto dall’art. 5 (Common Experience Payment – CEP) non destava particolari criticità, trattandosi del versamento di una somma di denaro a favore di coloro che fossero stati ritenuti idonei perché former students in una residential school8, più articolata appariva la procedura prevista dall’art. 6. In tal caso, infatti, «in addition to any claim» gli ex studenti avessero rivendicato ai sensi del CEP, qualora fossero stati vittime di «sexual abuse, serious physical abuse and other wrongful acts resulting in serious psychological consequences», avrebbero potuto usufruire di una seconda modalità di risarcimento nell’ambito dell’Independent Assessment Process (IAP). L’adesione allo IAP esigeva innanzitutto che gli interessati proponessero una domanda all’Indian Residential Schools Adjudication Secretariat corredata dei documenti da cui risultassero con precisione le informazioni utili a ricostruire i fatti accaduti (date, luoghi, tempi) e permettessero di identificare gli autori di quegli eventi. In secondo luogo, sempre agli interessati, era richiesto di formulare cato: «résoudre, pour de bon et de manière juste et globale, les séquelles laissées par les pensionnats indiens». 8   L’indennizzo, ai sensi dell’art. 5, constava del versamento di una somma di denaro pari a 10 000 $ per i former students che avessero trascorso almeno un anno scolastico (o parte di esso) in uno dei pensionati indiani, cui doveva aggiungersi una somma di 3000 $ per ogni anno scolastico (o porzione di esso) di ulteriore residenza nella struttura. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Canada (Attorney General) v. Fontaine

235

«in the first person»9 una istanza comunicando «most private and most intimate personal information». Domanda e istanza così redatte, inviate al Governo canadese e all’organizzazione religiosa che all’epoca dei fatti gestiva la residential school, erano oggetto di una prima valutazione al fine di giungere ad un accordo circa la compensazione richiesta. Qualora questo primo tentativo di accomodamento non fosse riuscito ad individuare una soluzione condivisa, le medesime avrebbero dovuto essere prese in esame da un adjudicator sotto la supervisione del Chief Adjudicator of the Indian Residential Schools Adjudication Secretariat. In questo nuovo stadio dello IAP la definizione dell’indennizzo richiedeva di proseguire attraverso udienze successive aventi lo scopo di verificare la credibilità dei richiedenti e di valutare il pregiudizio da essi subito. La particolare delicatezza di tale fase imponeva evidentemente una elevata tutela della riservatezza. Come specificato sul sito web del Secretariat, infatti, «The hearing is held in private. The public and the media are not allowed to attend. Each person who attends the hearing must sign a confidentiality agreement. This means that what is said at the hearing stays private». Al termine dell’intero procedimento la definizione dell’indennizzo (ovvero il diniego di esso) sarebbe stato ovviamente motivato dall’adjudicator competente. Dalla descrizione compiuta si evince che nella sua strutturata articolazione la procedura avviata nell’ambito dello IAP prevedeva l’esame di una pluralità di documenti (sia da parte del Chief Adjudicator of the Indian Residential Schools Adjudication Secretariat che da parte del Governo canadese, rappresentato dal Settlement Agreement Operations Branch (SAO), direzione facente parte dell’Aboriginal Affairs and Northern Development Canada (AANDC)) di cui non era specificata la sorte (conservazione-archiviazione/distruzione-cancellazione) una volta emanata la decisione finale. Si trattava specificamente delle domande presentate dai ricorrenti, dei documenti obbligatori contenenti informazioni personali a carattere privato, delle dichiarazioni dei testimoni, degli elementi di prova prodotti dalle parti, delle trascrizioni e delle registrazioni delle udienze, dei rapporti medici degli esperti e, ancora, delle decisioni rese dagli adjudicators nelle diverse fasi del procedimento stesso. 9   Narrative (nella traduzione francese récit) è la significativa espressione utilizzata dai giudici Brown e Rowe.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

236

Laura De Gregorio

Ora, proprio sulla legittimità della conservazione-archiviazione di copie di questi documenti e sul diritto-dovere di loro utilizzo dopo la conclusione dello IAP, ovvero sulla loro distruzione-cancellazione e sull’analogo diritto-dovere di non farne uso, i giudici provinciali prima10 e la Corte suprema poi vengono chiamati a decidere dovendo dirimere, in fondo, «the tension» tra «that mandate of commemoration and memorialization» e la «privacy which IAP claimants were promised». 3. La sentenza Canada – Attorney General v. Fontaine, giunta quasi sul finire della lunga presidenza della C.J. McLachlin, propone all’attenzione dello studioso un tema di grande interesse e attualità che la sostanziale uniformità di scelte delle corti provinciali e di quella suprema – «We would dismiss the appeal and uphold the supervising judge’s order as varied by the Court of Appeal» – dirà quest’ultima, consente di mettere a fuoco in modo chiaro. La questione controversa, gli interessi in conflitto sottesi, gli accomodamenti ragionevoli opportuni e/o necessari sono infatti motivati dai giudici a partire da alcuni punti fermi relativi alla natura dell’IRSSA, alle peculiarità dello IAP e alla tipologia di documenti esaminati nell’ambito di quest’ultimo. Preliminare e determinante è innanzitutto la questione circa la natura dei documenti dello IAP. Sono federali per il Governo canadese, perché essenziali a preservare la memoria storica relativa agli abusi e ai soprusi commessi nei pensionati indiani, e come tali soggetti al Library and Archives of Canada Act. Sono viceversa documenti giudiziari per le corti, indispensabili per lo svolgimento dello IAP istituito appositamente dall’IRSSA, e che, nell’ambito di quello, vedono esaurire la loro funzione con la conseguenza di dover poi essere destroyed de-

10   Si tratta rispettivamente della Corte superiore e della Corte di appello della provincia dell’Ontario. La competenza dei giudici provinciali era relativa ai ricorsi proposti dai residenti in Nuova Scozia, Nuovo Brunswick, Isola del Principe Edoardo, Terranova e Labrador.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Canada (Attorney General) v. Fontaine

237

corso un periodo di quindici anni11 durante il quale solo i ricorrenti12 hanno possibilità di chiederne, a titolo individuale, l’archiviazione nel proprio dossier13. In questi termini si esprime fin da subito la Corte superiore dell’Ontario che rivendica la propria competenza ad emanare una ordinanza in rem di distruzione dei documenti avendo approvato l’IRSSA e autorizzato il ricorso collettivo14. In egual modo si pronunciano poi la Corte di appello e la Corte suprema. Il ragionamento della prima muove dalla natura non federale dello IAP, «not a federal go-

11   La richiesta di procedere con la distruzione dei documenti decorso un periodo di quindici anni è condivisa anche dall’Assembly of First Nations, dalle Sisters of St. Joseph of Sault Ste. Marie, dagli enti e dalle istituzioni cattoliche firmatarie dell’IRSSA e dall’Indipendent Counsel. La ratio di tale periodo di conservazione è motivata dalla Corte superiore con la necessità di predisporre e avviare «a notice program conducted by the TRC or the NCTR to advise IAP claimants of the rights they have under the IRSSA to share their stories with the NCTR». Sarà la Corte di appello a modificare parzialmente questa previsione assegnando la responsabilità del programma di notificazione al Chief Adjudicator e ricomprendendo in quel programma anche i documenti prodotti nell’ambito degli ADR process avviati prima della firma dell’IRSSA. 12   È la Corte di appello dell’Ontario che respingendo il ricorso proposto dalle Sisters of St. Joseph of Sault Ste. Marie, dagli enti e dalle istituzioni cattoliche firmatarie dell’IRSSA e dall’Indipendent Counsel precisa essere necessario, ma anche sufficiente il solo consenso degli interessati all’archiviazione dei documenti ad essi relativi utilizzati nello IAP. Non accogliendo l’istanza dei ricorrenti, per i quali l’IRSSA avrebbe previsto la necessità anche del loro consenso ai fini dell’archiviazione, la Corte motiva la propria scelta facendo appello al carattere di confidenzialità dell’IRSSA e dello IAP. «The IRSSA – argomentano infatti i giudici – permits survivors to disclose their own experiences, despite any claims that others may make with respect to confidentiality and privacy. Requiring consent of other ‘individuals affected’ for archiving of the IAP Documents would ‘eviscerate’ claimants IRSSA rights to disclose their complaints, to have their evidence archived only with their consent and to exercise control over their IAP Documents. By allowing claimants to archive their IAP transcripts, the IRSSA merely provides claimants with an alternative and expeditious means of preserving their stories as part of the TRC process». 13   Interessante al riguardo la riflessione della Corte suprema che, mentre riconosce i limiti dell’ordine di distruzione, che «may be inconsistent with the wishes of deceased claimants who were never given the option to preserve their records”, ammette che “a perfect outcome here is, in these circumstances, simply not possible - e dichiara che - in our view, however, the destruction of records that some claimants would have preferred to have preserved works a lesser injustice than the disclosure of records that most expected never to be shared». 14   Oltre alla Corte superiore dell’Ontario, approvano l’IRSSA, autorizzando il ricorso collettivo, anche: Quebec Superior Court, Manitoba Court of Queen’s Bench, Saskatchewan Court of Queen’s Bench, Alberta Court of Queen’s Bench, Supreme Court of British Columbia, Nunavut Court of Justice, Supreme Court of the Yukon, Supreme Court of the Northwest Territories.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

238

Laura De Gregorio

vernment program»15 ma «the product of a court-approved settlement», dalla constatazione del silenzio dell’IRSSA sulla destinazione finale dei documenti dello IAP e dalla conseguente supervisory authority del giudice che è «entitled to fill this ‘gap’». Quanto alla Corte suprema, ribadendo che l’approvazione dell’IRSSA e l’autorizzazione del ricorso collettivo attribuiscono al giudice provinciale un «administrative e supervisory jurisdiction over the implementation and administration of the IRSSA», essa conclude che laddove si riveli necessario offrire indicazioni anche sul trattamento finale dei documenti dello IAP «supervising judges are empowered to give that direction». Preliminari e determinanti sono in secondo luogo la natura contrattuale dell’IRSSA e i caratteri di riservatezza dello IAP che esso disciplina. È la Corte superiore dell’Ontario che fin da subito delinea gli elementi decisivi su cui poi la Corte suprema ulteriormente argomenterà. La Corte superiore dichiara applicabili all’IRSSA «the principles of contractual interpretation» in base ai quali individuare il contenuto e la ratio dell’intenzione delle parti «at the time they negotiated the contract»16. Quindi sottolinea la necessità di leggere l’IRSSA as whole, avendo riguardo «to the plain meaning of the words used as well as the context provided by the circumstances existing at the time the IRSSA was created». Da ultimo, pur riconoscendo che l’IRSSA non è un trattato ma che è «at least as important as a treaty», afferma che la sua interpretazione deve essere «informed by the honour of the Crown». Alla luce di tali considerazioni la Corte suprema introduce la propria riflessione indicando gli elementi che saranno poi alla base delle sue scelte: i principii di Confidentiality e di Voluntariness. 3.1. «The negotiators of the IRSSA intended the IAP to be a confidential and private process, that claimants and alleged perpetrators relied on the confidentiality assurances 15  «The Secretariat, which administers the IAP, – dirà la Corte – is independent from AANDC and comes under the direction of the Chief Adjudicator and therefore the control of the Chief Adjudicator». 16   A sostegno di questa considerazione la Corte suprema afferma che «while the IRSSA undoubtedly has very significant implications for Canada and our aboriginal peoples, it is at root a contract, the meaning of which depends on the objective intentions of the parties». Aggiunge poi una interessante riflessione sulla distinzione tra impatto del dispositivo della sentenza e valore di precedente dello stesso sostenendo che «while the supervising judge’s interpretation of the IRRSA will impact thousands of IAP claimants, it will have no significant precedential value outside of the IAP due to the IRSSA’s sui generis nature».

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Canada (Attorney General) v. Fontaine

239

and that without such assurances, the IAP could not have functioned. […] There is also evidence that the IAP would not have achieved its purpose but for the promise of absolute confidentiality”. […] The high premium placed on confidentiality by the participants in the IAP becomes readily apparent when one considers the nature of the information disclosed during the process».

Confidentiality/Riservatezza, innanzitutto. Questa è la prima parola attorno alla quale muove l’intero ragionamento della Corte suprema nel caso in esame: confidentiality assurances, confidentiality and private process, strict confidentiality, absolute confidentiality. In tale espressione, più volte ripetuta dai giudici estensori Brown e Rowe, si esprime infatti l’essenza dello IAP istituito dall’IRSSA e il senso ultimo di tale accordo. È da un lato la garanzia di riservatezza che guarda alle persone: i former students delle residential schools vittime di abusi e di soprusi, i presunti autori di quelle azioni terribili (confidentiality assurances v. reticence, shame, embarrassment17). Dall’altro è la garanzia di riservatezza che considera le informazioni, i dati, i documenti: most private, most sensitive, extremely sensitive, highly confidential (confidentiality assurances v. disclosure of information18). È l’allegato D dell’IRSSA a focalizzare l’attenzione su questi aspetti di riservatezza quanto alle persone (abusati, abusanti, istituzioni federali, istituzioni giudiziarie, organismi istituiti nell’ambito dell’IRSSA medesimo), ai documenti e alle azioni che i primi possono compiere sui secondi (raccolta, comunicazione, archiviazione). Èd è proprio su tale allegato che si sofferma la riflessione della Corte suprema per avvalorare le scelte delle corti di primo e secondo grado e ulteriormente precisarne la ragionevolezza. La Corte di Ottawa concorda innanzitutto con le corti dell’Ontario sulla necessità di distruzione dei documenti dello IAP decorso il termine di quindici anni (reputandola una soluzione appropriata tra «The Scylla of potentially unwanted destruction and the Charybdis of potentially injurious preservation») e concludendo, come i giudi17   Significativa al riguardo la precisazione della Corte nella nota 1 al punto 2 delle sue motivazioni che ricorda come unavoidably un ampio numero di acronimi vengono utilizzati nella redazione del testo. 18  «Disclosure of information contained in the IAP Documents – rileva la Corte suprema – could be devastating to claimants, witnesses and families. Further, disclosure could result in deep discord within the communities whose histories are intertwined with that of the residential school system».

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

240

Laura De Gregorio

ci provinciali, che l’applicazione sia del Privacy Act che del Library and Archives Canada sarebbe non solo contraria «to the high degree of confidentiality that the parties bargained for», ma tale da delineare «a breach of confidence» che si configurerebbe perché tale violazione «occurs when a confider discloses confidential information to a confidant in circumstances in which there is an obbligation of confdentiality and the confidant misuses the confidential information». Di più, la distruzione dei documenti dello IAP sarebbe giustificata sia perché «as a matter of contractual interpretation, destruction is what the parties had bargained for», ma anche perché, proprio la distruzione di essi, «amounted to an implied term in the IRSSA because it was necessary to give the agreement operative efficiency». Riconoscendo che il testo dell’IRSSA è «less than clear», la Corte rileva che quest’ultimo non detta espressamente alcuna disposizione sulla sorte delle decisioni dello IAP «beyond stating claimants will receive a redacted copy», con la conseguenza di doversi escludere la possibilità di conservare o archiviare «other copies of the decisions». Gli obiettivi di limitare l’uso e la comunicazione dei formulari di domanda dello IAP e le informazioni fornite durante le udienze sarebbero in effetti vanificati se le decisioni finali dell’intero Independent Assessment Process (che riproducono necessariamente una parte importante di quelle informazioni) non fossero poi soggette a simili restrizioni. Come già sostenuto dalla Corte di appello, anche la Corte suprema sottolinea che la mera circostanza che l’allegato D dell’IRSSA non richieda al Governo canadese di eliminare la documentazione immediatamente dopo la conclusione del procedimento, né suppone l’esistenza in capo al primo di un diritto di conservare per sempre quei documenti, né crea un tale diritto19. Nel condividere le scelte dei giudici provinciali superiori dell’Ontario sul significato dell’art. 11 dell’allegato D, secondo cui le informazioni comunicate nel corso delle udienze dello IAP sono confidenziali ma possono essere divulgate «as required within this process or otherwise by law», la Corte nega che quest’ultimo inciso – otherwise by law – implichi possibilità di applicare allo IAP le leggi federali – Privacy Act, Access to Information Act, Library and Archives of Ca-

19  «The public record, that is the history of residential school and the stories of survivors who have willingly shared them – aggiungerà la Corte – will still preserved through the work of the TRC».

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Canada (Attorney General) v. Fontaine

241

nada Act – che consentirebbe al Governo canadese di conservare e archiviare la documentazione utilizzata nello IAP medesimo. In realtà, l’inciso otherwise by law deve intendersi riferito, con le parole della Corte superiore solo «to the potential use of such information in criminal or child welfare proceedings, and that Canada’s copies of the application forms should be held during a retention period [solo] for this purpose»20. Da ultimo, la Corte suprema si sofferma sulla c.d IAP Guide per fugare ogni ulteriore dubbio circa la bontà delle proprie scelte e di quelle degli altri giudici. Precisa in proposito che tale guida è semplicemente un documento di ausilio per le parti nella compilazione della propria IAP application form; che non è, dunque, testo integrante dell’IRSSA e che, conseguentemente, in caso di difformità tra contenuto della guida e contenuto dell’IRSSA sarà quest’ultimo a prevalere. Sulla base di tali assunti riconosce corretta e appropriata la decisione della Corte superiore di non aver ritenuto necessario «to import the Guide’references to federal access, privacy and archiving legislation into the IRSSA» decidendo a sua volta di non assegnare alcun interpretive weight alla guida stessa. 3.2. «Application of the Privacy Act to the IAP Documents clearly runs counter to the principles of (…) voluntariness upon which, as we have explained, the IAP was founded. […] Nor does archival of the IAP Documents in the National Archives, coupled with their potential disclosure, conform to the principle of voluntariness governing the disclosure by survivors of their stories». Voluntariness/Volontarietà, in secondo luogo. Voluntariness è la seconda parola chiave importante per capire in tutta la sua profondità ancora una volta il nucleo dell’Independent Assessment Process e il senso dell’Indian Residential Schools Settlement Agreement e per comprendere il ruolo della Truth and Reconciliation Commission e del National Centre for Truth and Reconciliation. Nel suo Statement of Apology to former students of Indian Residential Schools del 2008 il primo ministro Stephen Harper enuncia20  «In our view – rimarcherà la Corte suprema – it is unlikely that the drafters intended these words as a trail of breadcrumbs implicitly linking the IRSSA to federal privacy, access and archiving legislation especially since the Privacy Act is explicitly referred to in connection with federal government disclosure obligations in Sch D, and since privacy, access to information and archives legislation are also explicitly referred in Sch N».

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Laura De Gregorio

242

va che la TRC avrebbe costituito «a unique opportunity to educate all Canadians on the Indian Residential Schools system». Aggiungeva che «it will be a positive step in forging a new relationship between Aboriginal peoples and other Canadians, a relationship based on the knowledge of our shared history, a respect for each other and a desire to move forward together with a renewed understanding that strong families, strong communities and vibrant cultures and traditions will contribute to a stronger Canada for all of us»21. È l’allegato N dell’IRSSA ad esporre nei dettagli il mandato e i compiti della TRC, nonché i principi ai quali il lavoro della stessa deve essere ispirato. In via generale compito della TRC è quello di creare un dossier storico completo sul sistema dei pensionati indiani e di sensibilizzare ed educare il pubblico canadese su quanto avvenuto e sulle pesanti ripercussioni che quel sistema ha lasciato. Nello svolgimento di tale importante missione l’attività della TRC deve essere victim centered ossia posta in essere «with confidentiality» e solo «if required by the former students». Così, tra gli altri, l’art. 2 dell’allegato N stabilisce che la TRC «cannot compel participation»; l’art. 4(b) ribadisce che il processo di verità e di riconciliazione si basa sul principio di partecipazione individuale, strettamente volontaria e discrezionale; ancora, l’art. 11 prevede che nella misura in cui sia conveniente per gli interessati, salve le esigenze processuali, le informazioni divulgate nell’ambito dello IAP possono essere comunicate alla TRC «for research and archiving purposes». Consegue a tali disposizioni che solo i singoli former students che abbiano aderito allo IAP possono discutere liberamente dell’oggetto dell’udienza che li riguarda, scegliere di conservare una copia delle proprie testimonianze, farne archiviare la trascrizione, scegliere anche di comunicare a terze persone le informazioni riservate oggetto del processo. Ora, alla luce di queste indicazioni, dettate per meglio assicurare la riuscita dello IAP e il ristoro delle vittime per le tragiche esperienze vissute, non stupisce, confermandone anzi la ragionevolezza, la scelta della Corte suprema di rigettare il ricorso del Procuratore generale e di confermare le decisioni dei giudici di primo e secondo grado. Questi ultimi, infatti, correttamente interpretando il principio di volontarietà dei partecipanti allo IAP, avevano rilevato una contraddittorietà non con la funzione e i compiti della TRC, ma con le modalità  Cfr. Statement of Apology, cit.

21

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Canada (Attorney General) v. Fontaine

243

che quest’ultima avrebbe voluto adottare per esercitare quel mandato e quella funzione. Per le corti, in altre parole, non può ritenersi rispettosa del principio di volontarietà la richiesta avanzata dalla TRC di trasferire tutti i documenti presso i National Archives e la CNVR (evitandone la distruzione che priverebbe le generazioni future di un sapere collettivo e di una storia comune essenziale per la guarigione delle ferite del passato22) e di poter farne uso per commemoration e rememoration pubblica del sistema dei pensionati indiani. Nell’avvalorare questa posizione la Corte suprema da un lato ricorda che il giudice deve interpretare l’IRSSA nei termini in cui esso è stato concluso tra le parti e non secondo quanto avrebbe voluto fosse concluso la CNVR. Dall’altro segnala che la commemorazione pubblica del sistema delle residential schools, certamente obiettivo fondamentale dell’IRSSA, non implica che ogni elemento di quest’ultimo debba contribuire in ugual modo alla realizzazione di quell’obiettivo. Da ultimo, la Corte rileva che solo i former students «not Canada and not anyone else» devono poter disporre della loro storia personale, come significativamente si legge nella traduzione francese: «ce sont les survivants qui sont maîtres de l’utilisation de leur histoire». 4. Iniziando queste note si giustificava l’interesse dello studioso per la sentenza Canada – Attorney General v. Fontaine motivando con l’attenzione rivolta da quest’ultima a temi di grande attualità. La disamina compiuta, provando ad enucleare le problematiche che la tutela dei dati personali ha sollevato nello specifico contesto delle procedure avviate dall’IRSSA, conferma la ricchezza di spunti che il caso in esame presenta. L’articolato ma lineare ragionamento delle corti, provinciali prima e suprema poi, appare, infatti, particolarmente meritevole perché, nel bilanciamento degli interessi in conflitto, focalizza la sua attenzione sui former student delle residential schools. Come recita la Corte, victim centered-axéè sur le victim. Con questa espressione i giudici di Ottawa indicano infatti il presupposto della loro argomentazione che, nei principi di confidentiality e di voluntariness, individua le due coordinate fondamentali.

22   La distruzione di tutti i documenti, sostiene il Governo canadese, potrebbe rivelarsi avventata perchè «The IAP is above all a method for compensating for abuse and consequent harm. (…) This core compensatory function would be compromised were the information to be disclosed without claimant’s consent».

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

244

Laura De Gregorio

Da questo punto di vista le scelte effettuate appaiono coerenti e in linea con quel processo che anche molti dei gruppi religiosi coinvolti nelle vicende dei pensionati indiani hanno da tempo avviato. Significativo al riguardo il percorso che la Chiesa cattolica canadese ha intrapreso sia specificamente sul tema degli abusi su minori e persone vulnerabili, che su quello della rilettura degli approcci di evangelizzazione delle popolazioni aborigene23. Il riconoscimento della gravità delle vicende passate, l’ammissione di responsabilità, la volontà di riconciliare e di iniziare una nuova fase anche in tal caso vedono collocata al centro la persona nella sua fragilità, nella sofferenza subita, nel rispetto della sua riservatezza e intimità, ma anche e soprattutto nella cura delle sue ferite.

23   Emblematico, al riguardo, il Discorso alle delegazioni dei popoli indigeni del Canada del 1° aprile 2022 di Papa Francesco. Si veda anche il documento della Commissione teologica internazionale del 1989 Fede e Inculturazione (entrambi i testi sono disponibili su www.vatican.va). Per un primo approfondimento si rinvia, inoltre, alla documentazione pubblicata sul sito della conferenza episcopale canadese su www.cccb.ca.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Veronica Federico*

Le sfide dell’utilizzo dei dati personali post mortem per l’identificazione dei migranti senza nome deceduti durante il viaggio. Riflessioni su privacy, database genetici, dignità, diritto all’identificazione e diritto a conoscere la sorte dei propri cari a partire dalle esperienze degli Stati del Mediterraneo centrale «Questo di tanta speme oggi mi resta! Straniere genti, l’ossa mie rendete Allora al petto della madre mesta» Ugo Foscolo1

Sommario: 1. Introduzione. – 2. Premesse fattuali e tecniche. – 3. I fondamenti giuridici. – 4. L’esperienza del continente americano. – 5. Italia, Malta, Grecia. – 6. In prospettiva.

1. La necessità di dare riposo alle salme e di conoscere luogo e modalità in tale riposo, qualunque essi siano, è un archetipo culturale che travalica i confini dell’Occidente ed attraversa la gran parte delle culture presenti e passate del pianeta. Riti funebri, culto dei defunti, sacralità delle esequie e dei luoghi di sepoltura fanno parte di quei fenomeni che, descritti, studiati ed analizzati dall’antropologia, contribuiscono ad identificare i tratti caratterizzanti delle culture nel tempo2.

*  Professoressa di Diritto pubblico comparato nell’Università di Firenze. 1   U. Foscolo, In morte al fratello Giovanni, 1803. 2   La dottrina antropologica in materia è vastissima. Per una breve analisi critica si rinvia a: A. Favole e G. Ligi, L’antropologia e lo studio della morte: credenze, riti, luoghi, corpi, politiche, in La Ricerca Folklorica, 2004, p. 3 ss. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

246

Veronica Federico

Incastonati nella matrice culturale occidentale come «diritto naturale» per eccellenza da Antigone che, in nome della legge divina che impone di dare sepoltura ai propri cari, viola il diritto positivo, ovvero la legge dello zio Creonte, re di Tebe (e per questo viene punita)3, il diritto a ricevere sepoltura o degne esequie, così come quello, da parte della famiglia o dei cari del defunto, di conoscere modalità delle morte e luogo della sepoltura, sono riconosciuti nei cataloghi dei diritti che dalla seconda metà del XX secolo hanno caratterizzato la cultura giuridica planetaria a partire dalle Convenzioni di Ginevra del 1949 e dei loro protocolli4. Le possibilità tecniche di identificazione, attraverso sempre più sofisticate analisi genetiche a partire da reperti biologici anche esigui e la triangolazione dei dati con quelli dei grandi database biometrici, unite ad un numero sempre tristemente crescente di corpi senza nome disseminati sulle rotte migratorie verso l’Europa che attraversano il Mar Mediterraneo, portano l’attenzione dei giuristi ad interrogarsi in primis sulle modalità di identificazione e sull’utilizzo di dati personalissimi post-mortem, ovvero di individui impossibilitati ad esprimere alcun tipo di consenso, e, quindi, sull’esistenza di un vero e proprio diritto ad essere identificati e sepolti degnamente da parte dell’individuo o dei familiari. Nel sistema di amministrazione della giustizia penale i dati prodotti dalle indagini della polizia scientifica, quello che nel linguaggio anglosassone si indica come forensic, hanno trovato un utilizzo crescente come elementi estremamente efficaci nella soluzione dei casi, attraverso strumenti sempre più sofisticati di comparazione delle impronte digitali, di profilazione5 genetica e biometrica. In modo particolare, 3   Dice Antigone a Creonte: «non pensavo che i tuoi bandi avessero tanta forza da consentire a chi è mortale di trascurare le leggi non scritte, ma salde, degli déi, che non sono nate oggi, non ieri, ma vivono dall’eternità e nessuno sa quando si rivelarono. E io non dovevo essere condannata dal tribunale degli déi per essermi lasciata intimidire dalla tracotanza di un umano» (Sofocle, Antigone, vv. 453-9). 4   «Le Parti belligeranti vigileranno perché l’inumazione o la cremazione dei morti, compiuta individualmente in tutta la misura in cui le circostanze lo permetteranno, sia preceduta da un diligente esame dei corpi, fatto possibilmente da un medico, per constatare la morte, stabilire l’identità e poter darne conto. La metà della doppia targhetta d’identità o la targhetta stessa, se si tratta di una targhetta semplice, resterà sul cadavere». art. 17 (1), Convenzione di Ginevra per migliorare la sorte dei feriti e dei malati delle forze armate in campagna, 1949. 5   Ai fini della riflessione condotta in questo scritto, si adotta la definizione di «profilazione» data dall’art. 4(4) del Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016 relativo alla protezione delle persone fisiche con

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Le sfide dell’utilizzo dei dati personali post mortem

247

in occasione di grandi tragedie come attacchi terroristici, disastri aerei o ambientali, questi strumenti si sono rivelati cruciali per l’identificazione delle vittime, e ciò ha contribuito all’elaborazione di protocolli precisi e rigorosi in materia. È evidente, però, che la semplice trasposizione di questi protocolli in ambito migratorio incontra una serie di ostacoli di natura differente. L’identificazione dei corpi dei migranti può essere estremamente difficile e può richiedere infrastrutture tecniche e tecnologiche ulteriori6, perché le condizioni di conservazione dei corpi nel deserto o in mare costituiscono una sfida importante anche per le moderne tecnologie. Un secondo ordine di problemi risiede nella difficoltà di confrontare i dati biometrici con quelli eventualmente presenti nelle banche dati sanitarie nazionali. In primo luogo, perché spesso l’identificazione del Paese d’origine della singola vittima è assai complicato; in secondo luogo perché nei Paesi di origine spesso non esistono database medici in cui cercare riscontri (ad esempio con i dati odontoiatrici, assi di frequente utilizzati per le identificazioni)7. Una terza sfida sta, come discuteremo, nella complessa operazione di riscontro del DNA delle vittime con quello dei familiari, o eventualmente con quello della popolazione di riferimento, ovvero un gruppo di campioni di DNA, identificati per origine geografica, che può aiutare nella definizione dell’area geografica di provenienza della vittima. Tali campioni semplicemente non esistono in aree come quelle dell’Africa sub-Sahariana o del Medio Oriente 8. Un quarto ostacolo è rappresentato dal costo di queste operazioni. Se, nel caso di attacchi terroristici o di disastri ambientali nei Paesi del Nord del mondo, l’opinione pubblica, e dunque l’indirizzo politico riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati (GDPR): «qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati personali per valutare determinati aspetti personali relativi a una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica; […]». 6   A. M’Charek, Dead-bodies-at-the-border”: Distributed Evidence and Emerging Forensic Infrastructure for Identification, in M. Maguire, U. Rao e N. Zueawski (a cura di), Bodies as Evidence: Security, Knowledge, and Power, Durham 2018. 7   L. Olivieri et al., Challenges in the Identification of Dead Migrants in the Mediterranean: The Case Study of the Lampedusa Shipwreck of October 3rd 2013, in Forensic Science International, 2018, p. 121 ss. 8   A. M’Charek e S. Casartelli, Identifying Dead Migrants: Forensic Care Work and Relational Citizenship, in Citizenship Studies, 2019, p. 738 ss. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

248

Veronica Federico

prevalente, è a favore delle operazioni di identificazione, assai diverso è lo scenario nel caso delle stragi di migranti, soprattutto se non si tratta di singoli eventi catastrofici capaci di scuotere le coscienze9 ma dello stillicidio quotidiano delle vittime che cadono en route. Per ovviare a ciò, alcune delle esperienze di maggior successo nell’identificazione, specialmente in America, hanno visto il coinvolgimento di una molteplicità di attori istituzionali e non, come vedremo, e sono state sostenute da massicce campagne di fundraising, che invece non risultano nelle esperienze dei Paesi del Mediterraneo, per i quali i costi sono sostenuti dai governi. Un sesto ostacolo è legato alla mancanza di coordinamento tra i diversi Paesi interessati dal fenomeno. Per quanto riguarda, ad esempio, i Paesi mediterranei, mancano, come ricorda C. Siccardi, regole e standard comuni a livello internazionale ed europeo per le operazioni di recupero, ed addirittura a livello interno, in Italia, le procure competenti per le indagini rispetto ai naufragi noti hanno disposto solo in alcuni casi il recupero delle salme, ritenendo, in altri, che ciò non fosse necessario ai fini del buon esito delle indagini medesime10. Per ovviare a ciò, la International Commission on Missing Persons11 sta conducendo una ricognizione sulla capacità e volontà di identificazione delle persone scomparse in Italia, Grecia, Malta e Cipro, finalizzata all’elaborazione di un programma di riconoscimento 9   Come è avvenuto in Italia rispetto ai tragici naufragi del 2013 a Lampedusa o del 2015 nel canale di Sicilia. In proposito si rinvia a: C. Cattaneo, Naufraghi senza volto, Milano 2018. 10   Nel suo scritto, C. Siccardi analizza i due approcci divergenti della Procura di Agrigento, competente per le indagini dei naufragi di Lampedusa dell’ottobre 2013, e di quella di Catania, titolare delle indagini del naufragio avvenuto di fronte alle coste libiche nell’aprile 2015. Cfr: C. Siccardi, I migranti scomparsi nel Mediterraneo: Problematiche costituzionali. Gruppo di Pisa, Settimo seminario annuale con i dottorandi in materia giuspubblicistiche, 21 settembre 2018. 11   Organizzazione intergovernativa lanciata per iniziativa dell’allora Presidente statunitense B. Clinton in occasione della riunione del G-7 a Lione nel 1996 per rispondere al bisogno di indentificare le oltre 40.000 vittime senza nome della guerra in ex Jugoslavia. Dal 2003 il mandato dell’ICMP è stato esteso per ricomprendere anche attività di sostegno a tutti i governi degli Stati membri o che ne facciano richiesta nell’esercizio di identificazione delle persone scomparse, grazie ad un sofisticato sistema di estrazione del DNA messo a punto nel laboratorio dell’Aia e, più interessante ai fini del nostro studio, attraverso una grande banca dati delle persone scomparse che permette da un lato la combinazione di un gran numero di dati e, dall’altro, l’accesso solo a porzioni ristrette di tale database, così da proteggere i dati sensibili. Cfr: I. Hanson, The International Commission on Missing Persons (ICMP) and the application of forensic archaeology and anthropology to identifying the missing, in Handbook of Forensic Anthropology and Archaeology, Londra 2016.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Le sfide dell’utilizzo dei dati personali post mortem

249

standardizzato e condiviso tra i Paesi del Mediterraneo centro-orientale così da favorire lo scambio di informazioni, ma garantendo il principio del Neminem laedere (conosciuto nel sistema internazionale con il Doing no harm) che, nell’era digitale, ricomprende la tutela dei dati sensibili12. A partire dalle esperienze di alcuni Paesi del Mediterraneo e del confine tra Stati Uniti e Messico, il contributo si propone di definire, in chiave comparata, il perimetro di un campo di ricerca sul delicato equilibrio tra protezione dei dati sensibili, diritto di accesso ai dati, diritto all’identificazione e diritto a conoscere il destino dei propri cari come «pilastro della protezione dovuta alle persone scomparse ed ai loro familiari», come si legge nel Progress Report of the Human Rights Council Advisory Committee on best practices on the issues of missing persons del 2010. 2. Partiamo dai dati. È a tutti noto che le rotte migratorie sono percorsi estremamente pericolosi, in tutte le regioni del mondo. Il confine tra Stati Uniti e Messico è un cimitero a cielo aperto, così come lo è quello tra Zimbabwe e Sudafrica13 o, nel continente asiatico, il confine tra Thailandia e Malesia14, solo per citare i casi più noti. In Europa, le notizie di naufragi e di tragedie fatali lungo il cammino verso il vecchio continente quasi non scuotono più le coscienze. Secondo i dati dell’Organizzazione Mondiale per le Migrazioni, dal 2014 sono 23.568 i migranti scomparsi nel Mediterraneo15. Molti di questi 12   ICRC, The Humanitarian Metadata Problem: “Doing no harm” in the Digital Era. ICRC, Ginevra 2018. 13   Il caso sudafricano non sarà parte della discussione di questo scritto. Si ricorda che per favorire il riconoscimento dei cadaveri lungo questa rotta migratoria il Comitato Internazionale della Croce Rossa (ICRC) ha lanciato nel 2018 il «Missing and Deceased Migrants Pilot Project», centrato sul coinvolgimento delle famiglie dei migranti nel processo di denuncia di scomparsa e di identificazione dei corpi. V. amplius: A. Singleton, F. Laczko e J. Black, Fatal Journeys Volume 4: Missing migrant children, Ginevra 2019; Si veda anche: ICRC, Missing and Deceased Migrants Pilot Project in South Africa and Zimbabwe: 2016 to 2018, Ginevra 2018. 14   Non verrà trattato nemmeno questo caso, anche perché, malgrado la consistenza dei caduti abbia attirato l’attenzione di organizzazioni non governative e della dottrina, non si registrano operazioni o programmi di identificazione. Cfr: K.F. Naz e A. Shah, The secrets of Wang Kelian exposed, in New Straits Times, 20 December. Si veda: www.nst.com.my (consultato in data 23 marzo 2022). 15   Su sito dell’OIM i dati sono aggiornati costantemente, pur nella consapevolezza che «ensuring full coverage and completeness of migrant deaths in the Mediterranean faces unique obstacles». Difficilissimo, infatti, avere contezza esatta dei naufragi,

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

250

Veronica Federico

corpi non vengono mai restituiti dal mare e molti di quelli recuperati restano comunque senza nome. Spesso non si ha notizia dei naufragi, soprattutto se non ci sono sopravvissuti, e, anche se vi sono sopravvissuti, resta difficile ricostruire con precisione numero e tipologia dei migranti scomparsi. Quando ciò avviene, il recupero delle salme risulta spesso assai difficoltoso per una serie di ostacoli tecnici ed economici. La maggior parte dei naufraghi annegati rimane sepolta nei fondali del Mediterraneo, senza nome. Anche nei casi in cui le salme sono recuperate e portate a riva, assai poche sono identificate e vengono restituite alla famiglia o ai cari. I numeri elevati dei corpi non identificati emergono, in Italia, dall’analisi dei dati riportati dal Registro nazionale dei cadaveri non identificati, istituito presso il Ministero dell’Interno nel 2007, in cui i numeri della Sicilia sopravanzano sistematicamente quelli delle altre regioni, appunto a causa dei migranti senza nome recuperati sulle coste siciliane. Al 2017, sul registro sono stati iscritti 1670 cadaveri senza nome recuperati nel Mediterraneo16, ed ogni anno questo numero aumenta17. In Grecia, secondo i dati dell’UNHCR, dal 2014 al 2021 sono stati più di 2000 i migranti morti o scomparsi18, ed in Spagna dal 2015 al 2021 oltre 2.40019. Ad ostacolare i processi di recupero delle salme ci sono innanzitutto ragioni di carattere tecnico dovute sia alla problematica localizzazione dei naufragi, sia alla difficoltà del recupero a profondità elevate, in tratti di mare attraversati da forti correnti; ci sono, poi, ragioni di carattere economico, in quanto si tratta di operazioni complesse, da eseguire con attrezzature sofisticate e da personale altamente specializzato, ed infine ci sono ragioni di carattere giuridico, legate,

specialmente quando non vi sono sopravvissuti, come troppo spesso accade, che possano ricostruire, seppur con approssimazione, gli eventi. Si veda: www.missingmigrants.iom.int/region/mediterranean (consultato in data 15 marzo 2022). 16  Comunicazione del Commissario Straordinario delle Persone Scomparse, 22/11/2017, Prot. 0007608. 17   Nel 2020, la Relazione annuale del Commissario Straordinario delle Persone Scomparse rileva che dei 942 corpi registrati, oltre 130 sono stati quelli recuperati in mare. Si veda la 24a Relazione annuale, consultabile a www.interno.gov.it/sites/default/files/2021-02/xxiv_relazione_annuale_2020_compressed.pdf (consultato in data 17 marzo 2022). 18   Per i dati si rinvia al sito a ciò dedicato dell’UNHCR: www.data2.unhcr.org/ en/situations/mediterranean/location/5179 (consultato in data 3 marzo 2022). 19  www.data2.unhcr.org/en/situations/mediterranean/location/5226 (consultato in data 3 marzo 2022). ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Le sfide dell’utilizzo dei dati personali post mortem

251

come vedremo, ad un delicato bilanciamento tra diritti ed interessi individuali e collettivi. Sotto il profilo tecnico, una volta recuperato il materiale biologico, la sfida sta tanto nell’estrazione dei dati bio-genetici, che è operazione che richiede perizia, attrezzature sofisticate20 e ha costi elevati21, quanto nella possibilità che questi dati genetici «ci parlino», ovvero rivelino l’identità della vittima e permettano la restituzione delle spoglie alla famiglia o la sepoltura con un nome. Per passare dall’identificazione generica, ovvero la ricostruzione del profilo biologico della vittima a partire dal cadavere o dai resti recuperati, all’identificazione personale, ovvero il procedimento che permette di verificare la corrispondenza tra il profilo biologico ed i dati biologici di una persona scomparsa o dei suoi familiari, occorre che questa seconda serie di dati siano a disposizione di chi effettua il processo di identificazione, ovvero siano a disposizione all’interno di database22. Si tratta di un passaggio tutt’altro che lineare. In primis perché spesso può trascorrere molto tempo prima che i congiunti della persona scomparsa si rendano conto della scomparsa. I percorsi migratori sono lunghi, tortuosi e perigliosi, le famiglie assumono lunghi silenzi come elemento fisiologico del viaggio. Pur nell’era dell’interconnettività, dobbiamo ricordare che ci sono aree del pianeta, ed in modo particolare in Africa, in cui le comunicazioni rimangono difficoltose ed economicamente impegnative. Vi è, in secondo luogo, 20   Dà conto di questo, in un racconto a tratti straziante sul lavoro sul riconoscimento delle vittime del Mediterraneo annegate nei pressi delle coste siciliane, il volume di C. Cattaneo, op. cit. 21   In questa fase, come scrivono De Angelis et al., «il principale ostacolo riguarda le competenze sui trasferimenti dei cadaveri e le spese per le ulteriori indagini tecniche, ad esempio le radiografie; infatti andrebbero meglio definiti i percorsi e gli enti che devono prendersi carico delle spese, dei trasferimenti, dell’eventuale permanenza in obitorio…» Cfr: D. De Angelis et al., Cadaveri senza nome e la questione migranti: profili medico-legali, in C. Cattaneo e M. D’Amico (a cura di), I Diritti Annegati, Milano 2016, p. 85. 22   I procedimenti di identificazione primaria (basata su impronte digitali, odontoiatriche, DNA, etc…) e secondaria (basata su caratteristiche fisiche particolari come tatuaggi, eventuali cicatrici, fratture, malformazioni ovvero effetti personali) sono stati standardizzati da parte dell’Interpol già a partire dal 1984 nella Guida per l’Identificazione delle Vittime dei Disastri. Per un’analisi delle sfide che le morti dei migranti nel Mediterraneo pongono a questi protocolli di identificazione, si rinvia a; H.H. Boer et al., Strengthening the role of forensic anthropology in personal identification: Position statement by the Board of the Forensic Anthropology Society of Europe (FASE), in Forensic science international, 2020.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

252

Veronica Federico

la difficoltà da parte dei congiunti di denunciare la scomparsa: spesso le autorità di polizia sono distanti dai luoghi di residenza, altrettanto spesso manca la fiducia nelle autorità pubbliche, ed infine, nel caso di migrazioni forzate, l’eventuale denuncia di scomparsa potrebbe mettere in pericolo i cari nel Paese di origine ed esporli a ritorsioni e persecuzioni. Assai complicata, infine, la eventuale operazione di incrocio dei dati: i Paesi del Sud del mondo non hanno sistemi di raccolta e gestione dei database genetici, per cui la possibilità di confronto con i dati bio-genetici può avvenire solo se la famiglia del congiunto, nella convinzione che il proprio familiare sia stato vittima di un naufragio, si sottoponga al prelievo di materiale genetico. Difficile anche solo da immaginare. Ed in effetti, secondo uno studio condotto nel 2018 dall’Organizzazione Internazionale per Migrazioni, «l’ostacolo principale per l’identificazione rimane nel processo di raccolta dei dati ante-mortem con i familiari delle vittime»23. 3. A dominare questo ambito tematico è la pietas, che costituisce fondamento comune, valore di riferimento universale già dall’epoca romana. Pietas come imperativo che, pur non collocandosi all’interno della sfera dei doveri la cui inottemperanza prevedeva sanzione giuridica, contribuiva alla saldatura tra mondo dell’etica e mondo del diritto24. È a partire da un dovere complesso, fatto di devozione e di rispetto, verso il genere umano che si giustifica la necessaria esigenza di dare un nome25, e dunque riconoscere il valore e la dignità di ogni singola vita,

23   S. Robins, Analysis of the Best Practices on the Identification of Missing Migrant, Ginevra 2018, p. 23. 24   M. Lentano, Signa culturae. Saggi di antropologia e letteratura latina, Bologna 2009. 25   Interessante, seppur non condivisibile a giudizio di chi scrive, è la posizione di chi, a contrario, sostiene che «the logic of identification – giving a name to corpses found at sea – risks, paradoxically, reproducing the hierarchy that assumes dead migrants are people who, in order to exist, have to be recognized, counted and named from the northern shore of the Mediterranean. A politics that accounts for border deaths without reproducing this space of governmentality attends to what exists beyond counting and identification: unaccountable deaths represent the unquantifiable ‘cost’ of borders that cannot be assessed from the northern shore of the Mediterranean and that requires taking into account those people – friends and relatives – for whom they are missing persons». M. Tazzioli, The politics of counting and the scene of rescue, in Radical Philosophy, 2015, p. 4. Meno drastica è la posizione di chi, come Jenny Edkins, mette in luce la contraddizione tra respingimento sistematico dei migranti effettuata in Europa e la necessaria accoglienza dei loro corpi. Si veda: J. Edkins,

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Le sfide dell’utilizzo dei dati personali post mortem

253

ed una sepoltura non anonima, come segno tangibile di quel valore e quella dignità, alle vittime dei naufragi sulle rotte della migrazione nel Mediterraneo ed in tutte le regioni del mondo26. Se si scende dal livello dei valori fondamentali a quello dei principi giuridici, entrano in gioco una serie di posizioni giuridiche e diritti piuttosto articolati che, ai fini di questo scritto, intendiamo semplicemente delineare. La prima, fondamentale questione da affrontare è la distinzione tra la posizione e la tutela giuridica della vittima e quelle dei familiari. Partendo dalla posizione giuridica e dalla tutela delle vittime, ci troviamo di fronte alla questione dei defunti come soggetti di diritto. Ovvero: il deceduto è titolare del diritto a che gli sia attribuito un nome ed in che modo può agire a tutela dei propri dati personalissimi, necessari all’identificazione, ovvero a tutela del proprio onore? In Italia il dibattito vede contrapposta da un lato la dottrina che, fondandosi sull’art. 1 del Codice civile e facendo perno sul brocardo mors omnia solvit, lega la soggettività dei diritti della personalità, espressione tipica appunto di un soggetto che vive, alla vita di questo. La titolarità dei diritti, infatti, sarebbe legata, per quanto concerne le persone fisiche, all’essere appunto persone, cioè esseri viventi27. Dall’altro, una parte consistente della dottrina, soprattutto civilistica, ha iniziato ad interrogarsi sul perdurare, anche post-mortem, di alcuni diritti della personalità, quali innanzitutto il diritto al nome ed ai dati sensibili e, partendo dalle disposizioni rimediali in caso di violazione, ha cercato di elaborare

Missing Migrants and the Politics of Naming: Names Without Bodies, Bodies Without Names, in Social Research, 2016, p.359 ss. 26   Nel diritto romano, la pietas, che Virgilio nel primo libro dell’Eneide riassume poeticamente nel celeberrimo verso «Sunt lacrimae rerum et mentem mortalia tangunt» (e poche vicende contemporanee, le mortalia dell’oggi, toccano la mente e sono le lacrime delle cose più delle morti nel Mediterraneo alla ricerca della salvezza e di una speranza di vita migliore in Europa), sgorga e trova applicazione in primis nella sfera della famiglia, per allargarsi poi al rapporto con gli dei ed arrivare anche alle relazioni interpersonali. Per una discussione sulla traslazione della pietas dall’ambito familiare a quello sociale, si rinvia a L. Gagliardi, La pietas al tempo di Augusto, tra sentimento e diritto, in S. Segenni (a cura di), Augusto dopo il bimillenario. Un bilancio, Firenze 2018. 27   La dottrina sulla capacità giuridica e la soggettività è sterminata. Ex pluribus, si veda: G. Alpa, Status e capacità. La costruzione giuridica delle differenze individuali, Bari 1993. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

254

Veronica Federico

giustificazioni teoriche alla protezione dei diritti della personalità in opposizione alla teoria dell’estinzione28. La dottrina anglosassone in materia dei diritti delle persone decedute è più risalente ed il dibattito si articola e vede contrapposte la nozione di diritto come espressione della volontà e dell’autonomia della persona a quella di interesse, che in qualche modo giustifica la sopravvivenza di alcuni diritti del defunto, ovvero quelli di cui il defunto stesso ha interesse ad una tutela che si estende oltre la propria vita29. Diversa è, poi, la riflessione che si può sviluppare rispetto al tema dell’utilizzo dei dati personali post-mortem per l’identificazione non a partire da un diritto soggettivo del defunto, ma dal riconoscimento che i delitti contro la pietas dei defunti, previsti dal capo II del Codice penale italiano e presenti nella larga maggioranza degli ordinamenti contemporanei30, indicano l’attenzione dell’ordinamento verso un bene 28   Una prima ricostruzione di alcune argomentazioni è proposta da M. Tescaro, che si sofferma in particolare sulle tesi che sostengono il parallelismo tra la tutela dei defunti e quella del concepito, su quelle secondo cui i diritti della personalità post-mortem sopravvivono anche in assenza di un titolare dei medesimo diritti, ed il loro esercizio sarebbe affidato a soggetti viventi che, non titolari, ne sarebbero meramente legittimati, per passare poi ad analizzare le tesi che ipotizzano una vera e propria successione mortis causa anche per alcuni dei diritti della personalità, e superando il vincolo della patrimonialità nelle successioni, immaginando dunque una continuità dei diritti della personalità anche dopo il temine della vita. Infine, su un piano differente, si colloca la riflessione di chi sostiene la tesi dell’acquisto iure proprio dei diritti della personalità di un defunto. Secondo tale prospettiva, i diritti del defunto si estinguono con la morte, ma altri diritti nuovi, pur aventi ad oggetto nome, onore, dati personali del defunto, si creerebbero in capo a terzi, che ne sarebbero titolari in base a criteri di solidarietà familiare o affettiva con il defunto. Cfr: M. Tescaro, Tutela postmortale della personalità morale e specialmente dell’identità personale, in Jus Civile, 2014, p.316 ss. 29   Pur riconoscendo che «the law is full of conflicts when it comes to the rights of the dead», è interessante la ricostruzione del dibattito tra Interest Theory e Posthumous rights che propone K.R. Smolensky. Cfr: K.R. Smolensky, Rights of the Dead, Arizona Legal Studies Discussion Paper, 2009. La dottrina anglosassone è ricchissima in proposito ed assai variegata, ed è ugualmente interessante la posizione di chi nega vigorosamente l’esistenza di diritti post-mortem. Ex pluribus: S. Winter, Against Posthumous Rights, in Journal of Applied Philosophy, 2010, p.186 ss. 30   Sono sanzionati dai principi di common law i crimini di offesa contro i cadaveri nell’ordinamento britannico, ugualmente l’art. 168 del Codice penale tedesco punisce gli atti di disturbo della pace dei defunti, ed una recente sentenza della Bundesgerichtshof conferma il principio anche in nome del rispetto del diritto umanitario internazionale. Cfr: K. Ambos, Deceased Persons as Protected Persons Within the Meaning of International Humanitarian Law: German Federal Supreme Court Judgment of 27 July 2017, in Journal of International Criminal Justice, 2018, p. 1105 ss. Il codice penale francese, entrato in vigore nel 1995, ha inserito il vilipendio di cadavere e gli

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Le sfide dell’utilizzo dei dati personali post mortem

255

giuridico suscettibile di tutela che si configura, appunto, nel sentimento individuale e collettivo (e pertanto riconosciuto dall’intera collettività come legittimo e suscettibile di tutela) di deferenza verso i defunti, a prescindere dal legame affettivo o di sangue eventualmente esistente31. Che questa tutela si leghi alla dignità umana, come sostiene parte della dottrina32 e come ha suggerito la Corte di Strasburgo nel caso Elberte v Latvia del 2015 in cui la Corte ha asserito che la protezione della dignità e dell’integrità dell’individuo deve essere garantita a ogni nato, sia che si trovi nella condizione di essere vivo o morto33, ovvero che essa si leghi a ragioni di ordine pubblico e di etica collettiva34, poco rileva ai fini della presente analisi. Piuttosto, ci si interroga sulla portata di questo sentimento di deferenza. Ovvero: se non fosse possibile ricostruire un diritto soggettivo del defunto all’essere identificato, esiste un onere di identificazione a carico dello Stato in cui si rinviene il corpo, derivante dal riconoscimento dell’interesse giuridico che ricopre la deferenza verso i defunti? E tale onere in quale relazione si pone con la tutela dei dati personali della vittima? Ricordiamo infatti che, se è indubbiamente vero, come oltraggi alle spoglie mortali e ai luoghi di riposo dei morti in una sezione intitolata Atteintes au respect aux morts all’interno del capo V dedicato alle Atteintes à la dignité de la personne (artt. 225-17 e 225-18). La sacralità del corpo dei defunti è riconosciuta anche dal diritto internazionale umanitario, che, tra le norme di diritto consuetudinario, annovera anche la condanna contro la mutilazione, la spoliazione ed i maltrattamenti contro i cadaveri. In proposito, si veda: S. Erikkson, Humiliating and degrading treatment under international humanitarian law: Criminal accountability, State responsibility, and cultural considerations, in AFL Rev, 2004, LV, p. 473 ss. 31   Altra riflessione ancora è, invece, quella attorno alla natura giuridica del cadavere, in cui volutamente non ci addentriamo. Sufficit ricordare, con le parole di C. Ciancio che: «Il cadavere, giuridicamente parlando, è un rebus. Non è più soggetto, ma non è un oggetto, una cosa; non è propriamente un bene immateriale, ma la sua consistenza naturalistica non è apprezzabile dall’ordinamento come qualsiasi altro residuo di vita organica.» C. Ciancio, Requiescant in pacem. Alcune osservazioni sulla protezione del cadavere nel Regno d’Italia, in Historia et ius, 2016, p. 3. 32   C. Siccardi, op.cit. Sul nesso tra dignità, morte, migrazione riflette V. Squire, che nel suo volume del 2020 dedica un capitolo a Lampedusa. Cfr: V. Squire, Europe’s Migration Crisis: Border Deaths and Human Dignity, Cambridge 2020. 33  La Corte riflette, a questo proposito, sull’applicazione della Convention on Human Rights and Biomedicine and the Additional Protocol in un caso che aveva ad oggetto la natura ed i limiti del diritto dei congiunti ad opporsi al prelevamento dei tessuti dei congiunti defunti, anche nel caso di trapianti. Elberte v. Latvia, ECHR 005 (2015), par. 142. 34   V. Mormando, I delitti contro il sentimento religioso e contro la pietà dei defunti, Padova 2005. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

256

Veronica Federico

sostengono alcuni, che la mancata identificazione lede non solo «la dignità dei morti dimenticati in fondo al mare e dei loro cari, ma questa situazione pone a rischio i principi supremi del nostro ordinamento»35, è altrettanto vero che la tutela dei dati sensibili di questi morti richiede particolari garanzie. L’inserimento dei dati biologici nei database che possono poi consentire, attraverso il confronto dei dati, l’identificazione, è operazione giuridicamente assai delicata36, non scevra da una serie di possibili ricadute non solo in punta di diritto, ma anche per l’incolumità dei familiari delle vittime. Tutti i processi di identificazione e la profilazione e conservazione dei dati personali di chi è vittima di migrazioni forzate non coinvolge, infatti, esclusivamente l’individuo, ma familiari e membri della medesima minoranza o gruppo politico, religioso, ecc. … Se rispetto alla seconda categoria poco o nulla rileva l’estrazione, la profilazione e la conservazione dei dati biologici e genetici, le ricadute, invece, sui consanguinei possono essere assai pesanti37. 35   M. D’Amico, I morti senza nome del Mediterraneo: profili multidisciplinari. Il punto di vista del giurista, in C. Cattaneo e M. D’Amico (a cura di), I diritti annegati, Milano 2016, p. 12. 36   Sia consentito, a questo proposito, fare analogicamente riferimento al ricchissimo dibattito sul tema del database genetici a fini giudiziari. Ex pluribus: L. Scaffardi, Giustizia genetica e tutela della persona, Padova 2017. 37   Si pensi, ad esempio, al discusso programma pilota del Regno Unito, lanciato nel 2009, che incorpora analisi genetiche come proxy della nazionalità come strumento investigativo nei casi di richiesta fraudolenta di asilo (UK Home Office, Nationality: disputed, unknown and other cases, 2017, accessibile su www.assets.publishing. service.gov.uk/government/uploads/system/uploads/attachment_data/file/649602/ Nationality-Disputed-unknown-and-other-cases-v6_0.pdf (consultato il 7 marzo 2022). Ugualmente inquietante, sotto il profilo della garanzia dei diritti fondamentali, è lo studio condotto negli USA che dimostra come, nel 2008, rispetto a richiedenti asilo provenienti dall’Africa, oltre l’80% dei casi di coloro che non accettavano la profilazione genetica all’ingresso del Paese sono stati sospettati di essere fraudolent asylum seekers e dunque sottoposti a surplus di indagini (Cfr: J. Esbenshade, Special report: An assessment of DNA testing for African refugees, in AIC Immigration Policy Center Working papers, 2010). Infine, urge sottolineare come l’utilizzo di test genetici sia sempre più frequente in molti Paesi del Nord del mondo per verificare le relazioni parentali in occasione dei ricongiungimenti familiari (su questo tema la dottrina comincia ad essere importante. Tra gli altri, si veda: C. Lee e T.H. Voigt, DNA testing for family reunification and the limits of biological truth, in Science, Technology, and Human Values, 2020, p. 430 ss.; J. Kim, Establishing identity: Documents, performance, and biometric information in immigration proceedings, in Law and Social Inquiry, 2010, p. 760 ss.) mentre l’Alto Commissariato delle Nazioni Unite per i Rifugiati (UNHCR) ritiene adeguato l’utilizzo di test genetici come extrema ratio solo in quei casi in cui il sospetto di frodi

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Le sfide dell’utilizzo dei dati personali post mortem

257

A questo proposito è interessante notare come il GDPR38, direttamente applicabile all’interno dell’UE da maggio 2018, non si occupa della tutela dei dati personali dei defunti39 ed il considerando n. 27 del Regolamento semplicemente stabilisce che la normativa non si applica ai deceduti, ma lascia liberi gli Stati membri di prevedere una regolamentazione nazionale in materia40. Il secondo macro-capitolo è quello che ha i familiari come soggetto di tutela. Si apre a questo proposito il tema del «diritto a conoscere». Il diritto dei familiari a conoscere la sorte riservata ai propri congiunti affonda le radici nel diritto internazionale umanitario e trova codificazione negli articoli 32 e 33 del I Protocollo Addizionale alle Convenzioni di Ginevra del 1949, adottato nel 197741, che riconoscono «il diritto che hanno le famiglie di conoscere la sorte dei loro membri». Il triste fenomeno della sparizione forzata degli oppositori, adottata come strumento di oppressione da parte delle dittature dei Paesi Latino-Americani, ma non sconosciuta in altri continenti, ha portato ad estendere l’applicazione di questo diritto da parte delle corti, ed in particolare dalla Corte Interamericana dei diritti dell’uomo42 e dalla sia estremamente elevato (UNHCR, Family reunification. UNHCR’s Response to the European Commission Green Paper on the Right to Family Reunification of Third Country Nationals Living in the European Union (Directive 2003/86/EC)). Per una discussione sul tema, si rinvia a: V. Oray e S.H. Katsanis, Ethical considerations for DNA testing as a proxy for nationality, in Glob Bioeth., 2021, XXXII, I, pp. 51-66. 38   Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016 relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati. Si veda in proposito nota 4. 39   In questo, il GDPR riprende l’impostazione della direttiva 95/46/CE che disciplinava la protezione dei dati sensibili fino all’entrata in vigore del nuovo regolamento, che si applicava esclusivamente alle persone viventi, in quanto i defunti non possono essere riconosciuti, dal diritto europeo, soggetti di diritti. Sul tema, si rinvia a: I. Sasso, La tutela dei dati personali “digitali” dopo la morte dell’interessato (alla luce del regolamento UE 2016/679), in Diritto delle successioni e della famiglia, 2019, p.181 ss. 40   «Il presente regolamento non si applica ai dati personali delle persone decedute. Gli Stati membri possono prevedere norme riguardanti il trattamento dei dati personali delle persone decedute». Considerando 27, GDPR. 41   Ratificato in Italia con legge 11 dicembre 1985, n. 76. 42   Molto è stato scritto sulla giurisprudenza della Corte interamericana rispetto al diritto a conoscere la verità e all’istituzione delle Commissioni Verità e Riconciliazione che hanno accompagnato alcuni dei processi di transizione democratica in America Latina. Pur non presentando né la Dichiarazione Americana dei diritti e dei doveri dell’uomo, né la Convenzione Interamericana dei diritti dell’uomo uno specifico diritto dei congiunti alla verità, la Corte sin dalla fine degli anni ’80 ha ricostruito tale diritto a partire dall’art. 5 della Convenzione-diritto all’integrità fisica e morale © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

258

Veronica Federico

Corte europea dei diritti dell’uomo43, fino a giungere, nel 2006, alla Convenzione internazionale per la protezione di tutte le persone dalla sparizione forzata44 che, all’art. 18, prevede esplicitamente il diritto dei familiari ad accedere alle informazioni relative al proprio congiunto. Seppur sviluppato a partire da vicende fattuali differenti rispetto a quelle che sottendono il ragionamento condotto in questo scritto, in quanto nel caso delle persone forzatamente scomparse, ovvero nel caso del fenomeno dei desaparecidos, gli Stati o parti di esso sono responsabili o complici della sparizione e dunque pesa su di essi l’onere della verità, il diritto a conoscere le sorti dei propri congiunti si è progressi(apripista in tale senso è stata la sentenza Velásquez Rodríguez v. Honduras, Judgment of July 29, 1988 in cui la Corte ha riconosciuto «the right of the victim’s family to know his fate and, if appropriate, where his remains are located, [which] represents a fair expectation that the State must satisfy with the means available to it» (par. 181) e poi la celeberrima Villagran-Morales et al. v. Guatemala, Judgment of November 19, 1999, conosciuta come la sentenza degli Street Children). Per un’analisi si rinvia a A. Jacqmin, La verità sui desaparecidos: salme disperse e reati insabbiati, in Sociologia del Diritto, 2017, II, pp. 131-52; D. Groome, The right to truth in the fight against impunity, in Berkeley J. Int’l L., 2011, XXIX, pp. 175-99. Sulla ricostruzione del diritto alla verità nel sistema Interamericano, si veda: E. Ferrer-Mac-Gregor, The Right to the Truth as an autonomous right under the Inter-American Human Rights System, in Mexican law review, 2016, pp.121-139. 43   La problematica relativa al diritto di essere informati rispetto alla sorte dei familiari scomparsi emerge in Europa ed è portato all’attenzione della Corte EDU a partire dalla seconda metà degli anni ’70, in relazione all’invasione di Cipro (Corte eur. dir. uomo, Grande Camera, sentenza del 10 maggio 2001, ricorso n. 25781/94, Cipro c. Turchia. Cfr: L. Staffler, Sparizione forzata di persone, in A. Gaito, B. Romano, M. Ronco e G. Spangher (a cura di) Digesto Disciplina Penalistica - Decimo aggiornamento, Torino 2018). Le argomentazioni della Corte si consolidano negli anni, fino ad arrivare, nel 2012, nel caso El-Masri v. the former Yugoslav Republic of Macedonia, deciso dalla Grande Camera, ad una più precisa delineazione del diritto alla verità (anche se i giudici Tulkens, Spielmann, Sicilianos e Keller nella concurring opinion si erano spinti ancora oltre criticando la nozione di «nuovo diritto» applicata alla fattispecie. Cfr: J. Sweeney, The Elusive Right to Truth in Transitional Human Rights Jurisprudence, in International and Comparative Law Quarterly, 2018, LXVII, II, pp. 353-87) a partire dagli artt. 3 e 13 CEDU. Per la discussione del caso, si rinvia a: N. Napoletano, «Extraordinary renditions», tortura, sparizioni forzate e «diritto alla verità»: alcune riflessioni sul caso «El-Masri», in Diritti umani e diritto internazionale, 2013, p. 1 ss. Per una discussione sull’approccio della Corte Europea in chiave comparata rispetto alla Corte Interamericana, è utile vedere: T. Pagotto e C. Chisari, Il riconoscimento del diritto alla verità dall’America latina all’Europa. Evoluzioni e prospettive di un diritto in via di definizione, in Rivista di Diritti Comparati, 2021, pp. 57-90. 44   Convenzione adottata dall’Assemblea Generale delle Nazioni Unite con risoluzione n. 61/117 del 20 dicembre 2006, aperta alla firma il 6 febbraio 2007 ed entrata in vigore il 23 dicembre 2010, firmata dall’Italia nel 2007 e ratificata nel 2015. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Le sfide dell’utilizzo dei dati personali post mortem

259

vamente affermato come diritto a sé stante, a prescindere dalla condotta dello Stato ed è certamente uno dei diritti in gioco nella discussione dell’utilizzo dei dati personali post mortem per l’identificazione dei migranti senza nome. Da ultimo, sotto un profilo sostanziale, urge ricordare che l’identificazione dei cadaveri è strumentale all’affermazione di una serie di altri diritti, quali in primis quello alla sepoltura secondo il credo o i desiderata della vittima, l’eventuale apertura di una pratica di successione ereditaria, l’affidamento dei figli minori, la possibilità per i congiunti di avere accesso ad eventuali sussidi e prestazioni socio-assistenziali in quanto orfani e vedovi. 4. La necessità di indentificare i corpi dei migranti è stata avvertita con particolare urgenza nel continente americano. Il lungo percorso che dall’America Latina conduce a Stati Uniti e Canada passa attraverso il Messico, ed è proprio alla frontiera tra Messico e Stati Uniti che le autorità messicane dal 2007 al 2018 hanno registrato oltre 40.180 denunce di scomparsa, di cui moltissimi sono migranti45. A gennaio 2019, la Comisión Nacional de Búsqueda de Personas Desaparecidas46 ha denunciato il recupero di 36.708 corpi non identificati47. Le infrastrutture per l’identificazione attraverso la profilazione dei dati genetici messe a punto per la ricerca delle persone scomparse negli Stati Uniti risultano spesso inadeguate per dare un nome ai migranti scomparsi, le cui famiglie possono risiedere in Paesi lontani o vivere negli Stati Uniti ed in Canada irregolarmente48. Inoltre, paura, sfiducia

45   È necessario ricordare, però, che il fenomeno della scomparsa è tristemente frequente in Messico e legato alla violazione sistematica dei diritti fondamentali nel Paese. La scomparsa dei migranti, dunque, si inserisce in un contesto in cui le personas desaparecidas raggiungono numeri assai più elevati rispetto al contesto europeo. Cfr: D. Franco Migues, Technologies of hope. Technopolitical appropriations for the Search for Missing Persons in Mexico, in Comunicación y sociedad, 2019, pp. 1-29. 46   Commissione creata nel 2017 dalla Ley General en Materia de Desaparición (art. 53). 47   January 2019 report, disponibile su www.gob.mx/cnb/en (consultato il 21 marzo 2022). 48   Grande è il dibattito negli Stati Uniti sull’introduzione, annunciata dal Department of Homeland Security nel 2019 ed attuata nel 2020, di test genetici sistematici sui migranti alla frontiera, come strumento probativo per i ricongiungimenti familiari ed anche nei centri di detenzione dei migranti irregolari. Pur trattandosi di un fenomeno differente rispetto a quello che si discute nello scritto, è ovvio che in questo contesto la profilazione e conservazione dei dati genetici delle vittime e dei familiari si possa

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

260

Veronica Federico

e reticenza nei confronti delle forze dell’ordine, ed in particolar modo delle guardie di frontiera, rendono ancora più complessa la stessa denuncia della sparizione49. Nel contesto del confine messicano-statunitense, la difficoltà dei processi di identificazione sta anche nel fatto che entrambi i Paesi hanno una struttura federale, dunque ai confini nazionali si sovrappongono quelli degli stati federati, creando un complesso intreccio di norme applicabili, di competenze e di standard operativi50. La questione, quindi, della interoperabilità dei database genetici ha fatto sorgere forti interrogativi tanto nella dottrina quanto nelle organizzazioni non governative attive sul territorio, in quanto ciò può potenzialmente aumentare l’esposizione dei familiari delle vittime a processi di identificazione forense che nulla hanno a che fare con l’identificazione dei propri congiunti51. Le esperienze più interessanti e che hanno portato i migliori risultati sono quelle che si sono sviluppate in stretta collaborazione con le organizzazioni di società civile, capaci di vincere le resistenze delle famiglie e dei congiunti al fine di creare meccanismi protetti di identi-

pericolosamente intrecciare con i database genetici del Department of Homeland Security e possano costituire una minaccia seria ai diritti fondamentali di persone particolarmente vulnerabili come i migranti ed i loro congiunti. Per una discussione più approfondita, si rinvia a: T. Kritzman-Amir Swab before you enter: DNA collection and immigration control, in Harv. CR-CLL Rev., 2012, p. 77 ss. 49   S.H. Katsanis e K.M. Spradley, Preventing a third death: Identification of missing migrants at the US-Mexico border, in H. Erlich, E. Stover e T.J. White (a cura di), Silent Witness: Forensic DNA Evidence in Criminal Investigations and Humanitarian Disasters, Oxford 2020. 50   Sufficit ricordare che, in assenza di una legge federale sul riconoscimento e l’identificazione dei cadaveri, alcuni degli Stati di frontiera, come Arizona, California e New Mexico affidano il compito dell’identificazione al medico legale, mentre in Texas tale competenza ricade sotto l’autorità dei giudici di pace. Per una discussione critica di questo sistema così diversificato e dell’impatto che esercita sui processi di riconoscimento, si rinvia a: K. Spradley e T. P. Gocha, Migrant deaths along the Texas/Mexico border: A collaborative approach to forensic identification of human remains, in R. Parra, S.C. Zapico e D.H. Ubelaker (a cura di), Forensic Science and Humanitarian Action: Interacting with the Dead and the Living, New York 2020. 51   Proprio per minimizzare tale rischio, il Center for Human Identification della University of Texas ha creato un database genetico a fini umanitari indipendente, ovvero senza interoperabilità con altri database genetici a fini forensi, e, in primis, non connesso con lo State DNA Index System (SDIS) ed il National DNA Index System (NDIS). Cfr: M. M. Bus, T. Schellberg e B. Budowle, Human trafficking–multinational challenge for forensic science, in Forensic Science International: Genetics Supplement Series, 2019, p. 403 ss. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Le sfide dell’utilizzo dei dati personali post mortem

261

ficazione attraverso la profilazione dei dati genetici dei cadaveri e delle famiglie di origine. Una delle esperienze più significative è quella del Border Project, condotta dall’Equipo Argentino de Antropología Forense che, a partire dal 2010, ha raccolto quasi 3.500 campioni di DNA dai familiari di migranti scomparsi in El Salvador, Guatemala, Honduras ed in alcuni Stati messicani, in collaborazione con organizzazioni di società civile locale raccolti nei Bancos de Datos Forenses de Migrantes no Localizados o Desaparecidos. I dati genetici sono stati quindi conservati in un database centralizzato, in cui confluiscono anche i dati genetici raccolti post-mortem. Ciò ha permesso l’identificazione di più di duecento cinquanta cadaveri fino al 202152. Rispetto ai numeri delle scomparse, pare una goccia nell’oceano, ma se si considerano le sfide che processi come questo comportano, tanto sotto il profilo giuridico53 quanto sotto quello politico, culturale, sociale e psicologico54, non stupisce che l’OIM indichi il Border Project come una best practice a livello mondiale: «The Border Project catalyses a transnational approach using both State and non-State collected data, representing an unprecedented collaboration between civil society and States»55. 5. A Malta la registrazione dei morti viene effettuata solo per le persone che vengono a mancare sul territorio del Paese e non in mare. Ne consegue che i numeri dei cadaveri senza nome sono esigui56. Sono competenza del dipartimento di medicina legale dell’ospedale il pre-

 www.eaaf.org/proyecto-frontera/ (consultato il 21 marzo 2022).   B. Duhaime e T. Andreanne, Protection of migrants from enforced disappearance: A human rights perspective, in International Review of the Red Cross, 2017, n. 99.905. 54  Interessante la prospettiva di chi, partendo dallo studio dell’esperienza del Pima County Medical Examiner che lavora dal 2006 con il Colibrì Center for Human Rights dell’Arizona e con una serie di organizzazioni non governative statunitensi e messicane, dimostra come il processo di identificazione del congiunto, mettendo le famiglie in relazione tra di loro e con le autorità statali, arrivi non solo ad una pacificazione sotto il profilo psicologico e religioso, ma anche ad una vera e propria crescita sotto il profilo sociale e politico, che l’autore definisce in termini di cittadinanza. R.C. Reineke, Forensic citizenship among families of missing migrants along the U.S.-Mexico border, in Citizenship Studies, 2021, pp. 21-37. 55   S. Robins, op.cit., p. 8. 56   Dal 1990 al 2013 all’OIM risultano solo 83 corpi di migranti non identificati. Un numero chiaramente enormemente inferiore rispetto a quello reale. S. Robins, op.cit., p. 24. 52 53

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

262

Veronica Federico

lievo, la profilazione e la conservazione dei dati biologici e genetici di tutti i cadaveri. Solo due sono i registri in cui si annotano i decessi nel piccolo Stato in mezzo al Mediterraneo, entrambi confluiscono nel Public Registry a La Valletta57. Potenzialmente, questo potrebbe favorire i processi di identificazione, che invece rimangono limitati perché Malta non provvede al recupero dei cadaveri non solo nella propria zona di search and rescue, ma nemmeno all’interno delle acque territoriali. In Grecia, campioni di DNA vengono prelevati da ogni salma non identificata e archiviati nei database genetici dal laboratorio della Divisione centrale della Polizia scientifica, sotto il controllo del Ministero degli Interni. Ciò comporta una centralizzazione dei processi di identificazione che, in astratto, potrebbe rendere più semplice il riconoscimento della salma da parte delle famiglie, che hanno la possibilità, in via di principio, di inviare al medesimo laboratorio un campione del proprio DNA, ad esempio attraverso le ambasciate dei loro Paesi ad Atene, per le operazioni di riscontro. Come più volte sottolineato, questa procedura trova il suo principale ostacolo nella sostanziale impossibilità da parte delle famiglie di operare questo riscontro. Inoltre, se anche si arrivasse a identificare, attraverso un riscontro di carattere genetico, i resti della vittima, l’ostacolo maggiore sta nel fatto che le salme, che dovrebbero essere sepolte in modo tale da poter essere facilmente identificate attraverso un codice attribuito ad ogni cadavere da medico legale e guardia costiera, spesso non lo sono, specialmente nelle isole58, anche perché la sepoltura è materialmente affidata ad attori non statali (le ditte di pompe funebri) ed il loro operato è raramente controllato. Ne consegue, secondo gli esperti, una sostanziale impossibilità per le famiglie di identificare il corpo ed il luogo di sepoltura del congiunto59.

57   T. Last et al., Deaths at the borders database: Evidence of deceased migrants’ bodies found along the southern external borders of the European Union, in Journal of ethnic and migration studies, 2017, pp. 693-712. 58  Assai scioccante l’analisi sulle procedure cimiteriali sull’isola di Lesbos che, nel 2014, ci avevano restituito Iosif Kovras e Simon Robins. Il cimitero dell’isola era «shocking and disturbing, with bodies covered with earth without a proper grave». I. Kovras e S. Robins, Missing Migrants: Deaths at Sea and Addressing Migrant Bodies in Lesbos. Intervento presentato alla International Studies Association annual conference. Toronto, 26-29 marzo 2014. 59   S. Robins, Migrant bodies in Europe: Routes to identifying the dead and addressing the needs of the families of the missing, in IOM, Fatal journeys, Ginevra 2017, p. 71.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Le sfide dell’utilizzo dei dati personali post mortem

263

In Italia, l’autorità responsabile per i cadaveri senza nome è il Commissario straordinario del governo per le persone scomparse, istituito nel 2007 con il decreto del Presidente della Repubblica 31 luglio 2007, insieme al Registro generale dei cadaveri non identificati, in cui confluiscono tutte le informazioni riguardo le salme senza nome rinvenute sul territorio italiano attraverso il Sistema Informativo Nazionale Ricerca Scomparsi, e a cui i familiari delle persone scomparse possono eventualmente rivolgersi. Sulla base dei primi protocolli siglati nel 2014, nel 2015 e nel 201660 per l’identificazione dei «corpi senza nome» a seguito delle tragiche vicende del naufragio del 2013 di fronte alle coste di Lampedusa61 e del naufragio del 18 aprile 2015 nel canale di Sicilia, a circa duecento chilometri dalla coste italiane (uno dei più gravi naufragi del Mediterraneo, con quasi mille morti)62, il Commissario straordinario del Governo per le persone scomparse ha stipulato una serie di protocolli, il più recente dei quali con Regione Toscana nel 2019, «allo scopo di evitare che [i cadaveri non identificati] possano restare privi di esame esterno e/o autoptico ed essere sepolti senza che siano stati raccolti quantomeno i dati relativi agli identificatori primari (impronte digitali, campione per il DNA e dati odontoiatrici) indispensabili ad una successiva comparazione con i dati ante mortem di un soggetto scomparso al fine di stabilirne l’identità»63. I profili gene60  Protocollo di intesa tra il Ministro dell’Interno, il Ministro dell’Istruzione, dell’Università e della Ricerca e il Commissario straordinario del Governo per le persone scomparse – 31 marzo 2016, con l’obiettivo di coinvolgere diverse università nell’opera di identificazione delle vittime del naufragio del 18 aprile 2015, sotto l’egida della Società Scientifica Nazionale dei Genetisti Forensi Italiani. Cfr: S. Bissaro et al., I diritti dei migranti scomparsi e dei loro familiari: profili di diritto interno e sovranazionale, in C. Cattaneo e M. D’Amico (a caura di), I Diritti Annegati, Milano 2016, p. 68. 61   Protocollo di Intesa tra il Commissario straordinario del Governo per le persone scomparse, il Capo del Dipartimento per le Libertà Civili e l’Immigrazione del Ministero dell’Interno ed il Rettore dell’Università di Milano, 30 settembre 2014, disponibile su www.interno.gov.it/sites/default/files/allegati/protocollo_persone_ scomparse_naufragi_lampedusa_3-11_ottobre_2013_0.pdf (consultato il 25 marzo 2022). 62   Protocollo di Intesa tra il Commissario straordinario del Governo per le persone scomparse ed il Rettore dell’Università di Milano, 23 luglio 2014, disponibile su www.interno.gov.it/sites/default/files/allegati/protocollo_comm_persone_scomparse_univ_milano_vittime_naufragio_18_aprile_2015_1.pdf (consultato il 25 marzo 2022). 63   Protocollo di Intesa tra il Commissario straordinario del Governo per le persone scomparse, il Presidente della Regione Toscana, il Procuratore Generale presso la Corte d’Appello di Firenze, il Prefetto di Firenze, il Rettore dell’Università di Firen-

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

264

Veronica Federico

tici estratti dai corpi delle vittime confluiscono in una sezione dedicata64 della banca dati nazionale del DNA presso il Dipartimento di pubblica sicurezza del Ministero dell’Interno, ai sensi della l. 30 giugno 2009, n. 8565. I processi di identificazione delle vittime dei naufragi del 2013 e del 2015 hanno visto la collaborazione di una molteplicità di attori, in primis del laboratorio di antropologia e odontologia forense dell’Università degli Studi di Milano, meglio conosciuto come LABANOF, in cooperazione con una serie di organizzazioni internazionali e di organizzazioni non governative66, ed hanno portato all’identificazione di trentanove vittime del naufragio del 3 ottobre 2013 attraverso la combinazione di diverse tecniche di identificazione (analisi genetiche, odontologiche ed antropologiche)67. Si è trattato di operazioni importantissime, che hanno permesso l’elaborazione e l’affinamento di protocolli specifici e hanno, inoltre, riportato al centro del dibattito l’attenzione verso queste tragedie della migrazione, diventando best practice a livello internazionale68. Ma resta vero che «such a caseby-case approach represents only a small fraction of the thousands of migrants who have died in shipwrecks on the Central Mediterranean route in recent years»69. ze, il Direttore Generale dell’A.O.U.C. di Firenze, il Presidente ANCI Toscana, 19 luglio 2019, disponibile su: www.interno.gov.it/sites/default/files/2020-12/protocollo_toscana_29_07_2019.pdf (consultato il 25 marzo 2022). 64   Ai sensi dell’art.7(c) della l. n. 85 del 2009 «La banca dati nazionale del DNA provvede (c) alla raccolta dei profili del DNA di persone scomparse o loro consanguinei, di cadaveri e resti cadaverici non identificati». 65   La legge, con cui l’Italia aderisce al Trattato di Prüm del 2005 (che, nel quadro della cooperazione di polizia in materia di lotta al terrorismo, alla criminalità transfrontaliera e all’immigrazione clandestina, prevede tra le altre misure lo scambio di dati relativi al DNA tra gli Stati contraenti) e ne recepisce i contenuti, si inserisce nel quadro della lotta a criminalità e terrorismo e concerne la materia penale. Cfr: L. Scaffardi, Forensic genetics: the evolving challenge of DNA cross-border exchange, in BioLaw Journal-Rivista di BioDiritto, 2021, p. 329 ss. 66   Croce Rossa Italiana, Comitato Internazionale della Croce Rossa, Organizzazione Mondiale per le Migrazioni, Amnesty International, CEI-Fondazione Migrantes, l’associazione Borderline Europe, il Comitato 3 ottobre, la Federazione Italiana Psicologi per i Popoli. 67   C. Cattaneo et al., The rights of migrants to the identification of their dead: an attempt at an identification strategy from Italy, in International Journal of Legal Medicine, 2022, p. 6. 68   S. Robins, Analysis of the Best Practices on the Identification of Missing Migrant, Ginevra 2018. 69   A. M’Charek e J. Black, Engaging Bodies as Matters of Care, in P. Cuttia e T. Last (a cura di), Border Deaths, Amsterdam 2020. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Le sfide dell’utilizzo dei dati personali post mortem

265

6. Obiettivo di questo contributo, come anticipato nell’introduzione, è quello di delineare il perimetro di un campo di ricerca, all’interno degli studi sulla migrazione, sul delicato equilibrio tra protezione dei dati sensibili, diritto di accesso ai dati, diritto all’identificazione e diritto a conoscere il destino dei propri cari in chiave comparata. La discussione scientifica in materia, iniziata in Italia a partire dalle esperienze dei percorsi di identificazione dei naufragi del 2013 e del 201570, vede il prevalere di studi di caso71, mentre manca una riflessione di carattere sistemico che combini ed analizzi, in chiave comparata, i pilastri su cui si articola la questione: diritto della persona deceduta all’identificazione, diritto dei congiunti a «sapere», diritto alla riservatezza ed al pieno controllo sulle informazioni che riguardano la propria persona, limiti posti dal bilanciamento di tali diritti rispetto alle risorse economiche ed alle scelte politiche degli ordinamenti. Tutto questo, ovviamente, in una prospettiva multidisciplinare. Il diritto da solo, in questo ambito di ricerca, si trova confrontato a sfide troppo ampie che richiedono il ricorso ad altre discipline per meglio comprenderne non solo gli aspetti tecnici, ma anche psicologici, sociali, politici e filosofici. Altro elemento fondamentale, spesso sottovalutato dalla dottrina, è il fattore tempo. Esso rileva rispetto ad una pluralità di aspetti: in primis quello tecnico legato alla possibilità concreta di raccogliere le eventuali testimonianze dei sopravvissuti nonché i dati di carattere antropologico, odontoiatrico, genetico delle vittime. Quindi per quanto riguarda il rapporto con i congiunti il tempo è rilevante sotto un duplice aspetto: la difficoltà di contattare i familiari e la difficoltà dei familiari di denunciare la scomparsa da un lato, ed il tempo lungo delle analisi di identificazione dall’altro. In terzo luogo, ben sappiamo che il tempo non incide sulla natura profonda dei diritti fondamentali72, che 70   Molto e magistralmente hanno scritto in proposito C. Cattaneo, M. D’Amico, C. Siccardi ed altri, già ampiamente citati in questo contributo, che hanno avviato in Italia una riflessione in materia che attraversava già da qualche tempo in maniera carsica e trasversale diversi ambiti di ricerca internazionale. 71   Spesso, inoltre, si tratta di studi che assumono la forma di report, con un approccio meno rigoroso sotto il profilo analitico, come si evince dalle fonti citate nello scritto. 72   Anche se, rispetto al diritto alla riservatezza, il tempo gioca un ruolo da protagonista nella definizione di diversi elementi della tutela alla riservatezza stessa, come ad esempio nel diritto all’oblio (si veda: M.L. Ambrose, It’s about time: privacy, information life cycles, and the right to be forgotten, in Stan. Tech. L. Rev., 2012, p. 369

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

266

Veronica Federico

sono imprescrittibili, ma esso ha un impatto invece importante rispetto ad aspetti procedurali, all’attuazione dei diritti ed alla loro percezione73. Infine, il tempo è di grande rilievo nella delicata opera di bilanciamento tra tutela dei diritti e risorse a disposizione per attuarli e garantirli. Come già sottolineato e come emerge anche dall’esperienza statunitense, italiana, greca e maltese, le operazioni di identificazione sono costose economicamente e possono essere controverse sotto un profilo politico. Quanto più esse avvengono lontano dal momento del disastro, tanto più difficile sarà ottenere ampio consenso attorno ad esse. Ci pare di ravvisare, infine, un ulteriore filone di analisi su cui affinare la riflessione comparata, ovvero la tensione tra esigenze di centralizzazione dei database e armonizzazione delle procedure di identificazione, da un lato, e pericoli di usi impropri dei dati. Non pare pienamente convincente, infatti, l’argomentazione della dottrina che sostiene che nel caso di prelievo di materiali biologici da cadaveri non identificati non sorgerebbero neppure potenziali conflitti con i diritti alla riservatezza perché, trattandosi di soggetti non identificati, non ne è nota l’identità74. Non occorre la fantapolitica per immaginare, attraverso meccanismi di interoperabilità dei database, la possibilità di triangolazione dei dati con quelli di altri servizi statali, in primis quelli relativi alla gestione dei flussi migratori. Come già accennato75, dal 2020 negli USA sono stati introdotti test genetici sistematici sui migranti alla frontiera, e similmente fa il Regno Unito. Ed allora, non è peregrino immaginare che, in alcuni contesti particolarmente ostili all’immigrazione, la presenza del DNA di un familiare nel database delle vittime non identificate dei disastri en route possa giocare a sfavore del familiare che desidera entrare, regolarmente in un Paese terzo. E rispetto a questo scenario, per quanto appena detto, a poco vale quanto previsto, in Italia, dall’art. 12 della legge n. 85 del 2009, ovvero che «i profili del DNA e i relativi campioni non contengono le informazioni che consentono l’identificazione diretta del soggetto cui sono riferiti», così come la previsione di immediata cancellazione di profiss.; R. Pardolesi, L’ombra del tempo e (il diritto al) l’oblio, in Questione Giustizia, 2017) o la regolazione della conservazione dei dati (cfr: V. Palladini, Data retention e privacy in rete: verso una regolazione conforme al diritto UE?, in Rivista italiana di informatica e diritto, 2011, pp. 1-10. 73   L. Cuocolo, Tempo e potere nel diritto costituzionale, Milano 2009. 74   S. Bissaro et al., op. cit., p. 76. 75   Si rinvia alla nota 23. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Le sfide dell’utilizzo dei dati personali post mortem

267

lo e relativo campione biologico in caso di identificazione (art.13, c)). Chiaramente, qui vi è necessità di ripensare a tutele e garanzie. Ugualmente non pienamente convincente, anche se meno problematica, è l’argomentazione di chi risolve gli eventuali conflitti rispetto alla protezione dei dati sensibili dei familiari grazie alla volontarietà del prelevamento di campioni biologici ed all’esplicito consenso. Ben sappiamo che il consenso informato è uno dei pilastri attorno cui ruota l’impianto della protezione dei dati personali in ambito europeo. Eppure non possiamo non interrogarci sui limiti della volontarietà rispetto a condizioni di particolare vulnerabilità. La riflessione qui è ampia in ambito bioetico76, non ancora altrettanto in ambito migratorio. Si tratta di piste di indagine promettenti sotto il profilo scientifico, perché offrono angolazioni interessanti ed in parte innovative da cui guardare ad alcuni dei temi più dibattuti degli ultimi anni, ed urgenti sotto quello politico ed umano, cui varrebbe la pena dedicare pensiero critico e dibattito intellettuale e politico. Molto è stato fatto negli ultimi anni per tutelare dignità e rispetto delle vittime e dei loro familiari, ma molto resta da fare, tanto sotto il profilo politico, quanto sotto quello scientifico per affinare protocolli operativi che compenetrino tutti gli interessi e le sensibilità in gioco. Il primo, assoluto ed irrinunciabile obiettivo resta però che non si contino più vittime lungo percorsi migratori.

76   Su questo tema è stato scritto molto. Tra gli altri si segnala D. Poletti, Vulnerabilità ed atti personalissimi, in Diritto e questioni pubbliche, 2020, p. 11 ss. per l’utilizzo del concetto di vulnerabilità che può trovare un’applicazione interessante in ambito migratorio.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Marco Cecili*

L’identificazione del migrante: tra sviluppo di database europei ed esigenze di tutela

Sommario: 1. Introduzione. Migrazioni e tecnologia: un’ulteriore spinta verso la crisi della statualità? – 2. L’iter e ruolo dell’identificazione nel sistema di accoglienza dei migranti. – 3. Gli obblighi informativi verso il migrante. – 4. Migrante e dati personali: quali tutele? – 5. Il ruolo dei database. – 6. Eurodac: il database delle impronte digitali a livello europeo. – 7. Conclusioni. Dalla raccolta dei dati all’integrazione del migrante: un’utopia o un sogno realizzabile?

1. La globalizzazione, accompagnata sia dalla velocità che contraddistingue la società moderna sia dalla della piena accessibilità al web, ha indebolito il ruolo degli Stati nazionali1. La sovranità statale, nella sua specifica dimensione territoriale, appare, non da oggi, una categoria in evoluzione, soggetta a un oscuramento del suo significato tradizionale, se non a una vera e propria «crisi di senso»2. Le profonde trasformazioni della dimensione economica, sociale e persino antropologica provocate dalla globalizzazione stanno determinando lo spiazzamento dell’unità spaziale nazionale e incrinando l’esclusività e l’assolutezza del potere giuridico statale sul proprio territorio3. Grazie all’Unione europea è sembrato che i confini interni fossero scomparsi (anche se la crisi sanitaria ne ha confermato l’esistenza4), ma i controlli della frontiera esterna sono aumentati per rispondere alla migrazione irregolare5. Il costante ripetersi delle ondate migratorie ha posto da tempo all’attenzione della giurisprudenza, della dottrina e del legislatore la * Assegnista di ricerca in Diritto costituzionale presso la LUISS Guido Carli. 1   Sul punto è sempre attuale la riflessione di S. Sassen, The global city: introducing a concept, in Brown Journal of World Affairs, 2005, II, pp. 27-43. 2   Come afferma S. Sicardi, Essere di quel luogo. Brevi considerazioni sul significato di territorio e di appartenenza territoriale, in Politica del diritto, 2003, p. 14. 3   G. Scaccia, Il territorio fra sovranità statale e globalizzazione dello spazio economico, in Rivista AIC, 2017, spec. p. 28 ss. 4   Durante la crisi sanitaria molti Stati europei hanno nuovamente posto controlli alle frontiere (es. Spagna e Portogallo). 5   H. Van Houtum, Human Blacklisting: The Global Apartheid of the EU’s External Border Regime, in Environment and Planning D. Society and Space, 2010, pp. 957-976. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

270

Marco Cecili

questione della regolamentazione dei flussi di ingresso in Europa6 (che non possono più essere intesi come una mera emergenza, e quindi ontologicamente temporanea, ma si pongono in correlazione con elementi politici, economici e geografici, rappresentando da almeno 30 anni una costante storica7). Il tema impegna gli ordinamenti moderni in maniera drammatica e, soprattutto, gli Stati che per la loro collocazione geografica costituiscono un primo approdo per i migranti. Tra questi è ovviamente compresa l’Italia, che da secoli è considerata la porta dell’Europa8. La riflessione sulla migrazione si può legare, inoltre, ad un altro grande mutamento che sta attraversando la società contemporanea: l’informatizzazione. A partire dagli anni Novanta del secolo scorso, lo sviluppo delle tecnologie dell’informazione e della comunicazione ha avuto un impatto notevole sulle attività umane, influenzandone il progresso sociale, economico e culturale. Tali strumenti possono essere usati, ovviamente, dalla Pubblica amministrazione9 e ben possono essere utilizzati anche per affrontare il fenomeno migratorio. I dati dei migranti possono essere raccolti attraverso database e le informazioni

6   La letteratura sul punto è sterminata. Da ultimo si vedano B. Çalı, I. Motoc e L. Bianku (a cura di), Migration and the European Convention on Human Rights, Oxford 2021; G. Clayton e G. Firth, Immigration & Asylum Law, Oxford 2021; P. Pannia, C. Panzera e A. Rauti, Dizionario dei diritti degli stranieri, Napoli 2020; O. Spataro, Fenomeno migratorio e categorie della statualità. Lo statuto giuridico del migrante, Torino 2020. Si vedano anche C. Costello, The Human Rights of Migrants and Refugees in European Law, Oxford 2016; P. Pannia, V. Federico, A. Terlizzi e S. D’Amato, Legal and Policy Framework of Migration Governance, RESPOND Working Paper Series, 2018, disponibile in www.diva-portal.org/smash/get/ diva2:1255350/FULLTEXT01.pdf. 7   Sul punto si veda C. Pooley in I.D. Whyte (a cura di), Migrants, Emigrants and Immigrants: A Social History of Migration, Londra 2021, con particolare attenzione all’introduzione dei curatori (Introduction: Approaches to the Study of Migration and Social Change). Si consiglia anche J. Krause e T. Trappe, A Short History of Humanity: How Migration Made Us Who We Are, Londra 2021; B. Milone, Le migrazioni in Italia oggi. Cause, dinamiche sociologiche e potenzialità socio-culturali, Milano 2017. Si veda P. Pannia, Institutional uncertainty” as a technique of migration governance. A comparative legal perspective, in DPCE Online, 2020, IV, pp. 5136-5157. 8   È significativo che sull’isola di Lampedusa sia stata realizzata l’opera «Porta di Lampedusa – Porta d’Europa», grazie alla volontà di Arnoldo Mosca Mondadori e di Amani (una ONG). 9   La transizione digitale della pubblica amministrazione è un tema al centro del dibattito politico e scientifico, anche a seguito dello stanziamento di notevoli fondi attraverso il Next Generation UE.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

L’identificazione del migrante

271

lavorate sia per comprendere la storia personale dell’individuo sia per indirizzare il successivo percorso d’integrazione10. In questo lavoro l’analisi sarà circoscritta allo studio delle modalità di riconoscimento del migrante all’arrivo in Italia, osservando in particolare sia l’operazione di raccolta delle informazioni sia il successivo inserimento di questi dati nei database nazionali ed europei. È opportuno riflettere, in questa sede, se al migrante possano essere estesi tutti i diritti che la legislazione sull’uso dei dati personali (che possono essere definiti i diritti di «quarta generazione»11) riconosce ai cittadini dell’Unione europea e nazionali12. 2. Oggi il sistema di accoglienza dei migranti nel territorio italiano è disciplinato dal d.lg. 18 agosto 2015, n. 142 13, adottato in attuazione della Direttiva 2013/32/UE e della Direttiva 2013/33/ UE. Alcune integrazioni e modifiche sono state apportate sia dal d.l. 17 febbraio 2017, n. 13, che ha previsto alcuni interventi urgenti in materia di immigrazione, sia dalla l. 7 aprile 2017, n. 4714, sui

10   Per un’attenta e aggiornata analisi sul punto P. Hanke e D. Vitiello, HighTech Migration Control in the EU and Beyond: The Legal Challenges of “Enhanced Interoperability”, in E. Carpanelli e N. Lazzerini (a cura di), Use and Misuse of New Technologies. Contemporary Challenges in International and European Law, Cham 2019. 11  Riprendendo F. Modugno, I diritti della terza generazione. La tutela dei nuovi diritti, in Parlamento, 1989, p. 53 ss.; Id., I “nuovi diritti” nella giurisprudenza costituzionale, Torino 1995. 12   Si segnala che il recente conflitto in Ucraina ha portato molti cittadini ucraini a spostarsi sul territorio europeo. Per questo l’Unione europea ha approvato il 4 marzo 2022, con deliberazione unanime del Consiglio, una decisione di esecuzione che introduce una protezione temporanea a seguito dell’afflusso massiccio di persone in fuga dall’Ucraina a causa della guerra. La protezione temporanea consiste in un permesso di restare nell’Unione per un un anno, estendibile a due, a tutti i cittadini ucraini che chiedano protezione in uno degli Stati membri. Vista la fluidità della questione tali innovazioni e le questioni legate alla crisi ucraina non saranno oggetto di questa ricerca. Inoltre negli ultimi mesi all’interno dell’Unione europea si sta discutendo di una revisione del sistema di asilo, tema che però, non sarà trattato in questa sede. Per approfondimenti si rinvia a Riforma del sistema di asilo dell’UE, in Consilium.europa.eu . 13   D.lg. 18 agosto 2015, n. 142 (Attuazione della direttiva 2013/33/UE recante norme relative all’accoglienza dei richiedenti protezione internazionale, nonché della direttiva 2013/32/UE, recante procedure comuni ai fini del riconoscimento e della revoca dello status di protezione internazionale). 14   Per un’analisi si rinvia a E. Di Napoli, Riflessioni a margine della «nuova» procedura di accertamento dell’età del minore straniero non accompagnato ai sensi dell’art. 5 della l. 47/2017, in Diritto, Immigrazione e Cittadinanza, III, 2017.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

272

Marco Cecili

minori stranieri non accompagnati e, infine, dal d.lg. 22 dicembre 2017, n. 22015. La fase iniziale del sistema è il «doveroso» soccorso e la prima assistenza ai migranti16 e nei luoghi di sbarco vanno effettuate anche le operazioni di identificazione. Attualmente le funzioni di prima assistenza sono assicurate nei centri governativi e nelle strutture temporanee17, mentre le procedure di soccorso e identificazione dei migranti giunti nel territorio nazionale si svolgono presso i c.dd. punti di crisi (hotspot)18, che dovrebbero essere allestiti nei luoghi di sbarco (anche se restano ancora pochi)19. In questo momento, oltre alle già citate operazioni di prima as-

15   Modifiche sono state apportate anche dal d.l. 4 ottobre 2018, n.113, e dal d.l. 21 ottobre 2020, n. 130. 16   Si ricordi, ad esempio, la Convenzione delle Nazioni Unite sul diritto del mare del 1982, art. 98 (Obbligo di prestare soccorso): «Ogni Stato deve esigere che il comandante di una nave che batte la sua bandiera, nella misura in cui gli sia possibile adempiere senza mettere a repentaglio la nave, l’equipaggio o i passeggeri: a) presti soccorso a chiunque sia trovato in mare in condizioni di pericolo; b) proceda quanto più velocemente è possibile al soccorso delle persone in pericolo, se viene a conoscenza del loro bisogno di aiuto, nella misura in cui ci si può ragionevolmente aspettare da lui tale iniziativa; c) presti soccorso, in caso di abbordo, all’altra nave, al suo equipaggio e ai suoi passeggeri e, quando è possibile, comunichi all’altra nave il nome della propria e il porto presso cui essa è immatricolata, e quale è il porto più vicino presso cui farà scalo. Ogni Stato costiero promuove la costituzione e il funzionamento permanente di un servizio adeguato ed efficace di ricerca e soccorso per tutelare la sicurezza marittima e aerea e, quando le circostanze lo richiedono, collabora a questo fine con gli Stati adiacenti tramite accordi regionali». Si segnala l’interessante lettura fornita da Corte di cassazione, Sez. III, sent. 20 febbraio 2020 (ud. 16 gennaio 2020), n. 6626, sul caso Sea Watch 3. Cfr. anche C. Casiello e M.E. Venditti, Il caso Diciotti: tra obblighi di soccorso in mare e garanzia dei diritti fondamentali, in DPCE Online, 2019, II, pp. 947-981; E. Mezzasalma, Una nuova concezione dell’obbligo di salvataggio in mare alla luce della sentenza della Cassazione sul caso Sea Watch 3?, in Giurisprudenza Penale, 2020. 17   Ex d.lg. n. 142 del 2015, artt. 9 (Misure di prima accoglienza) e 11 (Misure straordinarie di accoglienza). 18   Previsti dal Testo unico delle disposizioni concernenti la disciplina dell’immigrazione e norme sulla condizione dello straniero (d.lg. 25 luglio 1998, n. 286), art. 10-ter. Si veda M. Benvenuti, Gli hotspot come chimera. Una prima fenomenologia dei punti di crisi alla luce del diritto costituzionale, in Diritto, Immigrazione e cittadinanza, 2018, II. 19   In totale i numeri delle migrazioni devono far riflettere. Nel 2017 ben 183.681 migranti hanno fatto ingresso nel nostro Paese, mentre nel 2019 sono stati 91.424 e nel 2020 ben 83.300 (un numero alto considerando la crisi pandemica) e nel 2021 sono stati 66.700.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

L’identificazione del migrante

273

sistenza, viene svolto uno screening sanitario e si compie l’identificazione del migrante, completando le informazioni necessarie per la richiesta della protezione internazionale o per la successiva espulsione attraverso il decreto di respingimento20. Il sistema, dunque, si articola in due fasi: a) una di prima accoglienza per il completamento delle operazioni di identificazione del richiedente e per la presentazione della domanda di asilo, all’interno dei c.dd. centri governativi di prima accoglienza ordinari e straordinari21; b) una fase di seconda accoglienza e di integrazione, assicurata, a livello territoriale, dai progetti degli enti locali22. Le attività sub a) comprendono l’identificazione dello straniero (se non si è riusciti a completarla negli hotspot), la verbalizzazione e l’avvio della procedura di esame della domanda di asilo, l’accertamento delle condizioni di salute e la sussistenza di eventuali situazioni di vulnerabilità23. Tutti questi passaggi sono effettuati nei centri governativi e, soprattutto, nei centri di accoglienza già esistenti, come i Centri di accoglienza per i richiedenti asilo (CARA) e i Centri di accoglienza (CDA)24 e temporaneamente possono essere utilizzati anche i Centri di accoglienza straordinaria (CAS) 25. La seconda accoglienza è garantita dai vari progetti del «Sistema di accoglienza e integrazione» (SAI)26, coordinato dal Servizio centrale,

  Con lo spostamento nei CIE (Centri di identificazione ed espulsione).   Servizio studi Camera dei Deputati, Diritto di asilo e accoglienza dei migranti sul territorio, 11 marzo 2021, p. 4. 22   M. Giovanetti, La frontiera mobile dell’accoglienza per richiedenti asilo e rifugiati in Italia. Vent’anni di politiche, pratiche e dinamiche di bilanciamento del diritto alla protezione, in Diritto, Immigrazione e Cittadinanza, 2019, pp. 16-27. 23   Per il delicato tema del riconoscimento dei minori, si rinvia a M. Benvenuti, Dubito ergo iudico. Le modalità di accertamento dell’età dei minori stranieri non accompagnati in Italia, in Diritto, immigrazione e cittadinanza, 2022, I, pp. 172-95, dove viene anche trattato il Protocollo multidisciplinare del 2020 (spec. pp. 189-193). 24   L’invio del richiedente in queste strutture è disposto dal prefetto, sentito il Dipartimento per le libertà civili e l’immigrazione del Ministero dell’interno. 25   Centri non governativi, usati in caso di esaurimento dei posti nei centri governativi, a causa di massicci afflussi di richiedenti. 26   Nuova definizione fornita dal d.l. n. 130 del 2020, art. 4, commi 3 e 4. Il SAI sostituisce il SIPROIMI (Sistema di protezione per titolari di protezione internazionale e per minori stranieri non accompagnati), introdotto dal primo Decreto Sicurezza nel 2018, che a sua volta aveva rimpiazzato il modello SPRAR (Sistema di Protezione per Richiedenti Asilo e Rifugiati). 20 21

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

274

Marco Cecili

attivato dal Ministero dell’interno e affidato con attraverso una convezione all’Associazione nazionale dei comuni italiani (ANCI)27. In questa fase non si fornisce solo il vitto e l’alloggio, ma si dovrebbe mirare ad un graduale inserimento nella società attraverso corsi di lingua italiana, la formazione professionale, l’assistenza legale, l’orientamento e l’inserimento lavorativo e sociale28. Oggi, dopo il d.l. n. 130 del 2020, possono essere inseriti nei circuiti di accoglienza i titolari di protezione internazionale, i minori stranieri non accompagnati e i richiedenti la protezione internazionale (esclusi nel d.l. n. 113 del 2018). L’iter che si è cercato brevemente di schematizzare ha come cardine l’identificazione e la raccolta dei dati dei migranti. Tutte le formalità occorrenti (foto-segnalamento, identificazione e verbalizzazione della domanda di protezione) sono serventi anche alla necessità di avviare il richiedente, privo di mezzi di sostentamento, verso l’accoglienza decentrata sul territorio, secondo un sistema di distribuzione che assegna a ciascuna Regione una quota percentuale di richiedenti asilo pari alla quota regionale di accesso al Fondo nazionale per le politiche sociali. Vengono, inoltre, previsti servizi di accoglienza dedicati, sia nei centri governativi che nell’ambito del sistema di accoglienza territoriale, per alcune categorie di persone vulnerabili29. L’accoglienza è assicurata fino alla decisione della Commissione territoriale ovvero, in caso di ricorso giurisdizionale, fino all’esito dell’istanza di sospensiva e/o alla definizione del procedimento di primo grado.

27   Sulla natura giuridica dell’ANCI, si veda la recente Corte di cassazione, SS.UU., 19 aprile 2021, n. 10224, che ne ha riconosciuto la natura privatistica. 28   Viene garantita anche la tutela psico-socio-sanitaria. 29   Si tratta dei minori, dei minori non accompagnati, dei disabili, degli anziani, delle donne in stato di gravidanza, dei genitori singoli con figli minori, delle vittime della tratta di esseri umani, delle persone affette da gravi malattie o da disturbi mentali, delle persone per le quali è stato accertato che hanno subito torture, stupri o altre forme gravi di violenza psicologica, fisica o sessuale, delle vittime di mutilazioni genitali. Si segnala che è stato attivo fino a qualche anno fa il progetto «Silver» (Soluzioni innovative per la vulnerabilità e il reinserimento sociale dei migranti), finanziato dal Fondo Asilo Migrazione e Integrazione, che era rivolto ai migranti in condizioni di vulnerabilità socio-sanitaria, vittime di traumi psicologici legati alle situazioni drammatiche di viaggio o del contesto di partenza. Il punto di forza era l’utilizzo della psicologia transculturale e dell’antropologia culturale per l’identificazione del disagio psico-sanitario dei destinatari; il progetto prevedeva la formazione di un’equipe multidisciplinare (composta da due psicologi, uno psichiatra, un assistente sociale o antropologo o sociologo e un mediatore culturale).

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

L’identificazione del migrante

275

A questo punto appare evidente una discrasia tra chi raccoglie di dati (in genere operatori del Ministero dell’Interno) e chi è chiamato a gestire concretamente l’accoglienza dei migranti, con un ruolo spesso controverso degli enti locali, che devono confrontarsi anche con la popolazione residente, spesso attratta nel fenomeno Ninby (Not In My Back Yard30). 3. Le principali criticità nell’identificazione dei migranti risiedono nella difficoltà di rendere effettivo il diritto «di essere informati», cioè che il migrante comprenda il contenuto essenziale dei diritti che gli sono riconosciuti. La questione si lega all’obbligo dello Stato di informare tempestivamente e correttamente una persona delle modalità con le quali «formalizzare» la volontà di chiedere aiuto o protezione internazionale. Ciò è determinante considerando che, secondo la normativa europea e nazionale, è richiedente la protezione internazionale (e, dunque, accede alla procedura e al sistema di accoglienza e di tutele previsto dalla legge) non solo chi abbia proposto un’apposita istanza amministrativa, ma chi abbia «anche solo manifestato», in qualsiasi forma, il timore di rientrare nel paese di origine o dal quale proviene. Andando più a fondo, per quanto riguarda la definizione di richiedente la protezione internazionale, va rilevato che l’art. 2, par. 1, lett. b), della Direttiva 2013/32/UE31 qualifica la domanda di protezione internazionale come «una richiesta di protezione rivolta a uno Stato membro da un cittadino di un paese terzo o da un apolide di cui si può ritenere che intenda ottenere lo status di rifugiato o lo status di protezione sussidiaria, e che non sollecita esplicitamente un diverso tipo di protezione non contemplato nell’ambito di applicazione della Direttiva 2011/95/ UE e che possa essere richiesto con domanda separata». La terminologia «si può ritenere che intenda ottenere lo status», accompagnata alla sottolineatura che deve trattarsi di persona che, allo stesso tempo, 30   Il termine indica la protesta da parte dei membri di una comunità locale contro la realizzazione di opere pubbliche con impatto rilevante (ad esempio termovalorizzatori o discariche) in un territorio che viene da loro avvertito come vicino ai loro interessi quotidiani, ma che non si opporrebbero alla realizzazione di tali opere se in un altro luogo per loro meno importante (al contrario si parlerebbe del più radicale fenomeno Banana, Build Absolutely Nothing Anywhere Near Anything). 31   Direttiva 2013/32/UE del Parlamento europeo e del Consiglio, del 26 giugno 2013, recante procedure comuni ai fini del riconoscimento e della revoca dello status di protezione internazionale.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

276

Marco Cecili

«non sollecita esplicitamente un diverso tipo di protezione», chiarisce che il carattere presuntivo o potenziale della richiesta di protezione internazionale (soprattutto a seguito di sbarchi o attraversamenti) è fortemente sostenuto dall'ordinamento. Si vuole, infatti, che la persona «che si può ritenere che intenda ottenere lo status» abbia quale unica condizione formalmente ostativa alla possibilità di presentare la richiesta di protezione internazionale il non avere personalmente sollecitato «esplicitamente un diverso tipo di protezione». Già nella Direttiva 2004/83/CE32 e nella raccomandazione33 che istituiva un «Manuale pratico per le guardie di frontiera» (Manuale Schengen) si prevedeva che «un cittadino di un paese terzo deve essere considerato un richiedente asilo/protezione internazionale se esprime in un qualsiasi modo il timore di subire un grave danno facendo ritorno al proprio paese di origine o nel paese in cui aveva precedentemente la dimora abituale», specificando che la volontà di chiedere protezione «non deve essere manifestata in una forma particolare»34. Tra gli obblighi c’era quello «informare i richiedenti, in una lingua che possa essere da loro sufficientemente compresa, delle procedure da seguire (come e dove presentare la domanda), nonché dei loro diritti e doveri, incluse le conseguenze possibili dell’inosservanza dei loro obblighi e di una mancata collaborazione con le autorità»35. Chiaro ed inequivoco, dunque, l’obbligo di adeguata informativa e del correlato diritto all’informazione di cui sono titolari tutti coloro che arrivano via mare o via terra o attraverso valichi ufficiali di frontiera. L’obbligo di informazione a carico degli Stati membri in favore delle persone presenti ai valichi di frontiera o tenuti nei centri di trattenimento è rafforzato dall’art. 8 della Direttiva 2013/32/UE, quando si dice che «qualora vi siano indicazioni che cittadini di paesi

32   Direttiva 2004/83/CE del Consiglio del 29 aprile 2004 recante norme minime sull’attribuzione, a cittadini di paesi terzi o apolidi, della qualifica di rifugiato o di persona altrimenti bisognosa di protezione internazionale, nonché norme minime sul contenuto della protezione riconosciuta 33   Raccomandazione della Commissione C (2006) 5186 def. del 6 novembre 2006. 34   Par. 10 del Manuale. Si sottolinea, inoltre, che «Non occorre che la parola “asilo” sia pronunciata espressamente; l’elemento determinante è l’espressione del timore di quanto potrebbe accadere in caso di ritorno. In caso di incertezza sul fatto che una determinata dichiarazione possa essere intesa come l’intenzione di chiedere asilo un’altra forma di protezione internazionale, le guardie di frontiera devono consultare le autorità nazionali a cui spetta esaminare le domande di protezione internazionale». 35   Ibidem.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

L’identificazione del migrante

277

terzi o apolidi tenuti in centri di trattenimento o presenti ai valichi di frontiera, comprese le zone di transito alle frontiere esterne, desiderino presentare una domanda di protezione internazionale, gli Stati membri forniscono loro informazioni sulla possibilità di farlo. In tali centri di trattenimento e ai valichi di frontiera gli Stati membri garantiscono servizi di interpretazione nella misura necessaria per agevolare l’accesso alla procedura di asilo». L’imperatività della lettera della Direttiva è evidente: a fronte di mere indicazioni di volontà espresse in ogni forma dalla persona straniera o apolide in determinate condizioni (valichi di frontiera e centri di trattenimento) «gli Stati membri forniscono» informazioni e «garantiscono» servizi rivolti a raggiungere lo scopo voluto dalla persona. Non da ultimo, è utile ricordare la Decisione (UE) 2015/152336 e la Decisione (UE) 2015/160137 (che hanno istituito misure temporanee nel settore della protezione internazionale a beneficio dell’Italia e della Grecia), che, indipendentemente dai diritti e dalle procedure riconosciute per l’attuazione del piano di relocation delle persone provenienti da Italia e Grecia verso altri Paesi europei38, hanno previsto esplicitamente 36   Decisione (UE) 2015/1523 del Consiglio, del 14 settembre 2015, che istituisce misure temporanee nel settore della protezione internazionale a beneficio dell’Italia e della Grecia. 37   Decisione (UE) 2015/1601 del Consiglio, del 22 settembre 2015, che istituisce misure temporanee nel settore della protezione internazionale a beneficio dell’Italia e della Grecia. 38   Le decisioni sono state in gran parte disattese dagli Stati membri. Si pensi, ad esempio, alla vicenda alla base della sentenza Corte giust., 6 settembre 2017, cause riunite C- 643/15 e C- 647/15, Repubblica slovacca e Ungheria c. Consiglio, ECLI:EU:C:2017:631. Oggetto della causa era il ricorso ex art. 263 TFUE dai Paesi del c.d. Visegrad per l’annullamento della decisione sulla ricollocazione di 120.000 migranti aventi bisogno di protezione internazionale dall’Italia e dalla Grecia verso gli altri Stati membri dell’Unione. Inoltre, anche la Spagna non ha attuato i piani di ricollocamento, anche se tale inadempimento è stato riconosciuto dal Tribunal Supremo, Sala de lo Contencioso-Administrativo, Sección Quinta, sentencia núm. 1.168/2018, 9 luglio 2018 (sul punto si rinvia a D. Moya e A. Romano, La sentenza del Tribunal Supremo spagnolo sulla mancata attuazione della ricollocazione: lezioni dalla Spagna?, in Diritto, Immigrazione e Cittadinanza, 2019, I). Come è stato lucidamente notato «rimane dunque dell’esperimento della ricollocazione se non la presa di coscienza di una mancanza effettiva di solidarietà tra Stati membri, unitamente alla conferma che nel “DNA” della sovranità nazionale sono forse ormai assenti tracce di solidarietà. Ciò dovrebbe indurre a chiedersi se ha ancora senso riferirsi agli Stati membri come società caratterizzata dal pluralismo, dalla non discriminazione, dalla tolleranza, dalla giustizia, dalla solidarietà e dalla parità tra donne e uomini, come recita l’art. 2 del TUE» (L. Rizza, Obbligo di solidarietà e perdita dei valori, in Diritto, Immigrazione e Cittadinanza, 2018, II p. 21).

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

278

Marco Cecili

supporto a tali Paesi anche nella «fornitura di informazioni ai richiedenti o potenziali richiedenti suscettibili di ricollocazione ai sensi della presente decisione e predisposizione dell’assistenza specifica di cui possono avere bisogno»39, rendendo ulteriormente chiaro l’obbligo che incombe sulla p.a. anche nei riguardi dei potenziali richiedenti asilo. Le citate norme europee hanno dato, sotto tale profilo, nuovo impulso alla normativa nazionale e alle pronunce giurisprudenziali. I tribunali italiani, però, ancor prima dell’entrata in vigore del d.lg. n. 142 del 2015, hanno riconosciuto il dovere/obbligo di informativa. La Corte di Cassazione, ad esempio, con ord. n. 5926 del 25 marzo 2015, ha stabilito che «se deve per un verso negarsi che le norme nazionali prevedano espressamente il dovere d’informazione ai valichi di frontiera invocato dal ricorrente, o che sia nella specie direttamente applicabile la previsione di tale dovere contenuta nel richiamato art. 8 della direttiva 2013/32/UE […], non può tuttavia continuare ad escludersi che il medesimo dovere sia necessariamente enucleabile in via interpretativa facendo applicazione di regole ermeneutiche pacificamente riconosciute, quali quelle dell’interpretazione conforme alle direttive europee in corso di recepimento e dell’interpretazione costituzionalmente orientata al rispetto delle norme interposte della CEDU, come a loro volta interpretate dalla giurisprudenza dell’ apposita corte sovranazionale». Nessun ostacolo testuale alla configurazione di un dovere d’informazione sulle procedure da seguire per ottenere il riconoscimento della protezione internazionale, come delineato dal richiamato art. 8 della Direttiva 2013/32/UE, conforme alle indicazioni della giurisprudenza CEDU, è dato scorgere nella normativa nazionale, e in particolare nel d.lg. 28 gennaio del 2008, n. 25, art. 3, comma 2, art. 6, comma 1, e art. 26, comma 1, o nel d.P.R. n. 303 del 2004, art. 2, comma 1, che specificamente fanno riferimento alla presentazione delle domande di protezione internazionale all’ingresso nel territorio nazionale40. La Corte di Cassazione non ha fatto riferimento solo al diritto della persona a godere delle necessarie informazioni, ma ha delineato i presupposti giuridici dell’obbligo della p.a. di fornire tali informazioni.

  Decisione (UE) 2015/1601, art. 7, par. 1, lett. b).   L’ordinanza citata è intervenuta nell’ambito del giudizio di convalida del trattenimento nel CIE di una persona straniera per dare esecuzione a un provvedimento di respingimento differito di cui all’art. 10, comma 2, d.lg. n. 286 del 1998. 39 40

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

L’identificazione del migrante

279

L’art. 1, comma 2, del d.lg. n. 142 del 2015 stabilisce che «le misure di accoglienza di cui al presente decreto si applicano dal momento della manifestazione della volontà di chiedere la protezione internazionale». Manifestazione di volontà che, come visto, può non essere esplicita, e in certi casi e per un certo lasso temporale può mancare (pensiamo a chi è soccorso in mare e sbarca dopo giorni di traversata in condizioni disumane: non si può pretendere che esprima una qualsivoglia volontà nelle ore immediatamente successive allo sbarco) e che, dunque, va analizzata con riferimento al dettato normativo europeo richiamato. Se per misure di accoglienza intendiamo un insieme di diritti e non solo un luogo di ricovero, è evidente che in tali misure rientri ampiamente anche il diritto ad essere informati sulla possibilità di chiedere protezione. Nei confronti di tale persona, cioè il potenziale richiedente asilo, anche la normativa italiana impone alla p.a. di essere preparata, istruita e formata al fine di potere positivamente garantire (direttamente o tramite soggetti terzi indipendenti) l’esercizio del diritto alla protezione internazionale. L’obbligo di informativa è stato ritenuto fondamentale all’esercizio dei diritti dei rifugiati dalla giurisprudenza della Corte EDU in diverse pronunce, rivolte contro Italia41. È opportuno notare, però, una leggera discrasia tra la normativa interna e quella europea. Il d.lg. n. 142 del 2015, inserendo l’art. 10-bis all’interno del d.lg. n. 25 del 2008, ha innovato la materia prevedendo che «le informazioni di cui all’articolo 10, comma 1, sono fornite allo straniero che manifesta la volontà di chiedere protezione internazionale ai valichi di frontiera e nelle relative zone di transito nell’ambito dei servizi di accoglienza previsti dall’articolo 11, comma 6, del decreto legislativo 25 luglio 1998, n. 286»42. L’art. 10, comma 1, d.lg. n. 25 del 2008, infatti, stabilisce che «all’atto della presentazione della domanda l’ufficio di polizia competente a riceverla informa il richiedente della procedura da seguire, dei suoi diritti e doveri durante il procedimento e dei tempi e mezzi a sua disposizione per corredare la domanda degli elementi utili all’esame; a tale fine consegna al richiedente l’opuscolo 41   Si vedano ad esempio Corte eur. dir. uomo, sent. 23 febbraio 2012, Hirsi Jamaa ed altri c. Italia; sent. 21 ottobre 2014, Sharifi e altri c. Italia e Grecia. 42   Il comma 2 dell’art. 10-bis prevede che è assicurato l’accesso ai valichi di frontiera dei rappresentanti dell’UNHCR e degli enti di tutela dei titolari di protezione internazionale con esperienza consolidata nel settore. Per motivi di sicurezza, ordine pubblico o comunque per ragioni connesse alla gestione amministrativa, l’accesso può essere limitato, purché non impedito completamente.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

280

Marco Cecili

informativo di cui al comma 2»43. Gli artt. 10 e 10-bis paiono solo parzialmente conformi all’art. 8 della Direttiva 2013/33/UE: l’attività informativa, infatti, sembrerebbe seguire la già avvenuta manifestazione di volontà di chiedere protezione, mentre la normativa europea prevede che agli stranieri sia fornita una informazione sulla possibilità di accedere alla protezione internazionale qualora si abbiano semplici indicazioni della sussistenza di detta volontà44. Occorre, infine, individuare la sede in cui far valere la violazione del diritto alla corretta e tempestiva informazione. Sul presupposto che abbia interesse a dolersi dell’omissione in questione lo straniero espulso o respinto, sarà il giudice ordinario in sede di convalida del trattenimento o di ricorso avverso i provvedimenti di espulsione o respingimento ad essere investito della questione, posto che è proprio la mancata individuazione della persona come richiedente asilo ad avere determinato l’adozione dei provvedimenti ablativi della libertà individuale che, diversamente, non sarebbero mai stati emessi. 4. Gli Stati raccolgono e conservano grandi quantità di informazioni riguardanti i propri cittadini. Il dato personale ha un’importanza rilevante nella società attuale ed è un elemento imprescindibile per la corretta affermazione della propria identità individuale, e per questo deve essere accuratamente tutelato45. L’obiettivo è quello di evitare qualsiasi tipo di abuso da parte del titolare del trattamento e le finalità di interesse e sicurezza nazionale perseguite da uno Stato non possono perciò giustificare un’illimitata ingerenza nella sfera privata del singolo individuo, e questo vale, ovviamente, anche per il migrante. Innanzitutto, è opportuno che sia riconosciuto il diritto ad accedere ai propri dati personali raccolti dalle autorità nazionali di frontiera e nel dovere del titolare del trattamento di rendere edotto quest’ultimo delle finalità del trattamento stesso e delle modalità con cui questo vie43   È stato previsto che il richiedente è informato del fatto che, ove proveniente da un Paese designato di origine sicuro ai sensi dell’art. 2-bis, la domanda può essere rigettata ai sensi dell’art. 9, comma 2-bis. 44   Associazione per gli Studi Giuridici sull’Immigrazione, Il trattamento riservato ai migranti sbarcati sulle coste italiane obbligo di identificazione e di informazione nell’approccio hotspot, 2018, in Asgi.it. 45   Ad esempio, Consiglio di Stato, Sez. VI, sent. 29 marzo 2021, n. 2631 ha confermato che Facebook non può essere considerato gratuito, perché l’uso è corrisposto dalla cessione dei dati personali, necessari per la profilazione e per garantire pubblicità mirate, dalle quali derivano i profitti di Facebook.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

L’identificazione del migrante

281

ne condotto46. Bisogna sottolineare, infatti, che l’art. 8 della «Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale»47 afferma che ogni persona ha il diritto di venire a conoscenza se è in corso un trattamento automatico dei propri dati personali, le sue finalità nonché le generalità e i contatti del soggetto che sta conducendo suddetto trattamento. Anche gli artt. 13-15 del GDPR48 specificano in maniera dettagliata le informazioni che il soggetto interessato ha diritto di sapere in merito al trattamento dei propri dati personali. L’art. 15, rubricato come «Diritto di accesso dell’interessato», prevede che quest’ultimo debba essere informato, ad esempio, della finalità del trattamento, dei soggetti con cui saranno condivise le informazioni che lo riguardano, della durata della fase di gestione dei dati nonché della possibilità di rivolgersi a un’autorità garante per far valere i propri diritti. Dopo aver dato per assodato che esiste un diritto di accesso ai propri dati raccolti, è opportuno domandarsi come la disciplina del GDPR trovi applicazione per quanto riguarda i controlli effettuati nei confronti dei migranti che chiedono di entrare nei confini europei. La «Convenzione per l’applicazione dell’Accordo di Schengen»49 all’art. 109 specifica che ogni individuo ha il diritto di chiedere l’accesso ai propri dati secondo quanto previsto dalla normativa nazionale di ogni Stato membro. Tale diritto deve essere poi esercitato attraverso l’ausilio dell’autorità garante preposta. La Convenzione prevede, però, due significative limitazioni all’esercizio del diritto. Qualora lo Stato verso il quale viene rivolta la richiesta di accesso non è quello che concretamente detiene i dati oggetto di domanda, questo ha la possibilità di esprimere il proprio parere sulla richiesta effettuata (e un simile procedimento rischia di provocare ri46   M. Forti, Flussi migratori e protezione dei dati personali: alla ricerca di un punto di equilibrio tra sicurezza pubblica e tutela della privacy dei migranti e dei rifugiati all’interno del territorio europeo, in Media Laws, 2020, II, pp. 219 e 220. 47   Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale, STE n. 108, firmata nell’ambito del Consiglio di Europa a Strasburgo il 28 gennaio 1981. 48   Il Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati). 49   Convenzione di applicazione dell’Accordo di Schengen del 14 giugno 1985 tra i governi degli Stati dell’Unione economica Benelux, della Repubblica federale di Germania e della Repubblica francese relativo all’eliminazione graduale dei controlli alle frontiere comuni, 22 settembre 2000.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

282

Marco Cecili

tardi nel rilascio delle informazioni richieste). La seconda restrizione prevede, invece, che il Paese a cui provenga la richiesta possa rifiutarsi di rilasciare i dati in proprio possesso quando questi sono necessari per l’adempimento di un obbligo giuridico o sono utilizzati per operazioni di sorveglianza e sicurezza. Una simile disposizione concede, però, un ampio margine di discrezionalità, in particolare in tema di migrazione, al Paese detentore dei dati personali del soggetto, situazione che può facilmente portare ad abusi. Anche il diritto all’oblio50 per i dati personali dei migranti è un tema su cui è opportuno riflettere, visto che ha ricadute importanti. Si pensi, per fare un esempio, a un migrante che venga espulso e fatto tornare nel suo paese d’origine a seguito di una sentenza51. Qualche tempo dopo un funzionario di quel paese fa una ricerca sul nome della persona interessata e trova la decisione che gli rifiuta l’asilo, la quale rivela che durante il suo soggiorno nel paese ospitante ha partecipato a una riunione di un’organizzazione antigovernativa, la cui appartenenza è un reato nel suo paese d’origine. Anche il migrante può avere, quindi, tutto l’interesse affinché questi dati vengano anonimizzati o rimossi. Il GDPR riconosce all’art. 17 che l’interessato ha la facoltà di ottenere dal titolare del trattamento la cancellazione dei dati personali che lo riguardano senza ingiustificato ritardo qualora sussistano determinati requisiti. Per le finalità della presente ricerca, si vuole rivolgere l’attenzione in maniera particolare al motivo elencato all’art. 17, par. 1, lett. a), ossia quando viene meno la finalità per cui i dati sono stati effettivamente raccolti. Quando può dirsi raggiunto lo scopo prefissato dalla raccolta e catalogazione dei dati raccolti da parte delle autorità nazionali di frontiera nei confronti dei soggetti migranti? Come esplicitato più volte, tali dati vengono raccolti per garantire un’accoglienza più efficace e per prevenire l’ingresso nel territorio statale di potenziali rischi per la sicurezza e la salute pubblica. Ad un primo esame sembrerebbe quindi che, una volta scongiurati tali pericoli, non ci sia più necessità di mantenere nei database i dati raccolti. Il rischio è che si possa realizzare un trattamento discriminatorio, visto che il soggetto migrante potrebbe

50   Il diritto all’oblio permette di richiedere la cancellazione o l’aggiornamento di una notizia o di un fatto di cronaca che ci riguarda in prima persona. 51   Esempio che si ritrova in F. Donati, Trasparenza della giustizia e anonimizzazione dei provvedimenti giudiziari, in Astrid Rassegna, 2022.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

L’identificazione del migrante

283

vedere «conservati» senza alcun limite di tempo i dati che lo riguardano solo per il motivo di essere una persona immigrata. L’art. 17, però, dispone alcuni limiti all’applicazione del diritto all’oblio. Questo non trova, infatti, spazio qualora il titolare del trattamento collezioni e gestisca dati personali perseguendo un interesse pubblico o nell’esercizio di pubblici poteri. Le riflessioni in merito a tale disposizione sono le medesime che sono state sollevate anche nelle restrizioni previste all’esercizio del diritto di accesso e l’interesse dell’intera comunità nazionale non può condurre a ingerenze tanto penetranti e prolungate nella sfera privata dell’individuo (e per un approfondimento sul mantenimento dei dati nei database si rinvia, però, al par. 6). Infine, i dati riguardanti i migranti che chiedono di entrare in territorio europeo vengono raccolti e immagazzinati in diversi database al fine di analizzare gli eventuali rischi per la sicurezza e la salute pubblica. Le informazioni presenti consentono, quindi, una profilazione del migrante, ma questo è un procedimento legittimo? L’art. 22 del GDPR sancisce che esiste il diritto di non essere sottoposto a una decisione che si basi esclusivamente su un trattamento automatizzato (compresa la profilazione). Il medesimo articolo specifica, però, che una simile decisione può essere presa qualora sia autorizzata dal diritto dell’Unione europea o dalla normativa nazionale del titolare del trattamento. Devono essere, però, previste delle adeguate garanzie per la tutela dei diritti fondamentali dell’interessato. La procedura di rilascio dei visti e dei permessi di soggiorno negli Stati europei si basa soprattutto sui dati raccolti nel momento in cui il soggetto migrante chiede di entrare in territorio europeo. L’analisi delle caratteristiche dell’interessato attraverso l’esame, anche automatico, dei suoi dati è quindi legittimo, ma quest’ultimo deve essere reso edotto dei suoi diritti, compreso quello di far intervenire un essere umano per analizzare concretamente i dati raccolti (anche se l’affermazione di tale diritto è davvero poco realizzabile, visto che il migrante, al momento dell’identificazione, ha ben altri bisogni e obiettivi). 5. L’abolizione dei confini interni per garantire la libertà di movimento ha portato gli Stati membri a immaginare strumenti che potessero sopperire ai controlli doganali. A questo obiettivo rispondono i database istituiti dall’Unione europea per immagazzinare i dati raccolti dai soggetti che richiedono di entrare nei confini degli Stati membri e

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

284

Marco Cecili

svolgono un ruolo importante per permettere la collaborazione tra le diverse autorità statali. Uno degli strumenti più importanti è il «Sistema di informazione Schengen» (SIS). Si tratta di una banca dati operativa dal 1995 che permette alle autorità nazionali facenti parte dell’area di Schengen di scambiarsi informazioni relative alle identità di specifiche persone o beni52. Gli artt. 95-100 della «Convenzione di applicazione dell’Accordo di Schengen» chiariscono che solo i dati relativi a determinate categorie di persone rientrano in tale archivio. Si fa, infatti, riferimento a individui su cui pende una richiesta per estradizione (art. 95), a persone provenienti da Stati terzi all’Unione europea a cui è stato rifiutato l’ingresso nel territorio europeo (art. 96), a soggetti scomparsi (art. 97) o ricercati dalle pubbliche autorità in quanto testimoni o imputati in un processo (art. 98) o a persone sospettate di pianificare crimini (art. 99). Recentemente al SIS è stato affiancato Eurodac, che è un perfetto esempio di come la collaborazione tra forze di polizia si svolga anche attraverso l’ausilio di strumenti tecnologici. Si tratta infatti di un archivio in cui vengono depositate le impronte digitali e i dati biometrici dei richiedenti asilo e migranti irregolari. Fa parte integrante del cd. «Sistema Dublino», poiché funziona nelle aree di applicazione del Regolamento (UE) n. 604/201353. La creazione di un unico confine europeo, infine, non può prescindere da una politica uniforme che coinvolga tutti i Paesi membri in materia di visti e la banca dati VIS ha risposto a questa esigenza54. Un simile archivio si prefigge diversi scopi, come la lotta all’immigrazione illegale e alla diffusione del terrorismo e la prevenzione di pratiche di visa shopping, ossia di coloro che tentano l’ingresso in un Paese con la

52  Convenzione di applicazione dell’Accordo di Schengen, art. 92. Per un approfondimento, cfr. Corte dei Conti Europea, Insegnamenti da trarre dallo sviluppo del Sistema d’informazione Schengen di seconda generazione (SIS II) ad opera della Commissione europea, 2014. 53   Il sistema di Dublino serve ad armonizzare le politiche degli stati dell’Unione europea sull’asilo. Stabilisce quali paesi sono competenti per l’esame delle richieste di asilo all’interno dell’Unione e assicura a ogni richiedente che la sua domanda sia esaminata nel rispetto della convenzione di Ginevra sui rifugiati del 1951. Si basa sul principio del primo paese d’arrivo, secondo cui lo stato responsabile per l’esame della richiesta è quello d’ingresso nell’Unione. Il «sistema Dublino» è stato sottoscritto nel 1990 e poi modificato nel 2003 e 2014. 54   Decisione 2004/512/CE del Consiglio dell’8 giugno 2004.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

L’identificazione del migrante

285

normativa più permissiva nella speranza di ricevere una risposta positiva alla propria domanda di visto. I tre database sopracitati mostrano alcune caratteristiche in comune, visto che rispondono all’esigenza dei Paesi membri dell’Unione europea di controllare l’ingresso e la circolazione dei migranti (e non solo) provenienti da Stati terzi all’interno del proprio territorio. La maggiore differenza tra questi database è data dai criteri secondo cui le informazioni riguardanti uno specifico individuo vengono registrate. Il SIS si attiva, infatti, esclusivamente nel caso in cui una determinata persona venga ritenuta «pericolosa» per la sicurezza pubblica, a differenza di Eurodac, che registra le impronte digitali di ogni richiedente asilo, e di VIS, che raccoglie le informazioni relative ai visti indipendentemente dalla «pericolosità» del richiedente o titolare. Una simile differenza in termini di approccio può causare una sostanziale disparità di trattamento, visto che la profilazione preventiva di un soggetto solo perché ritenuto «pericoloso» può infatti ledere la sua sfera privata e la sua autonomia informativa. Fino al 2014 il numero dei dati caricati su Eurodac era molto basso, tanto che il progetto era stato definito «un fallimento quasi completo»55. Questa posizione si basava sul numero assai esiguo di nominativi caricati sul portale dai Paesi dell’Europa meridionale56. Tuttavia, la tendenza emersa nel decennio successivo mostra un diverso uso di Eurodac, con un aumento della raccolta dei dati dei migranti e l’effettivo caricamento degli stessi sulla piattaforma57. In Italia, per risolvere l’annoso problema della raccolta e della conservazione dei dati dei migranti, il d.l. n. 13 del 2017 ha previsto lo sviluppo del «Sistema informatico di gestione dell’accoglienza» (SGA), con l’obiettivo di tracciare il percorso del singolo straniero in Italia sin dal suo arrivo nel territorio nazionale e a seguirne il cammino nella successiva fase di accoglienza58. Il sistema (ancora in via di sviluppo) garantirebbe, a livello centrale, la necessaria conoscenza della disloca-

55   J. Aus, Eurodac: A Solution Looking for A Problem?, in European IntegrationOnline Papers, 2006, X-VI, p. 12. 56   Ad esempio, nel 2005 e nel 2006 furono caricate solo 12.000 identità. Sul punto S. Fragapane e G. Minaldi, Migration policies and digital technologies in Europe: a comparison between Italy and Spain, in Journal of European Integration, 2018, p. 908. 57   Ibidem. 58   Corte dei Conti, La “prima accoglienza” degli immigrati: la gestione del fondo nazionale per le politiche e i servizi dell’asilo (2013-2016), in Camera.it, p. 31.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

286

Marco Cecili

zione dei richiedenti asilo, utile anche per una più attenta pianificazione dell’accoglienza. Con il sistema SGA, inoltre, ogni prefettura è agevolata nello svolgimento della quotidiana attività di gestione e controllo delle strutture site nel proprio ambito di competenza. Tale piattaforma si integra con gli altri sistemi informatici utilizzati per la gestione delle domande di protezione internazionale (c.d. Vestanet) e per la gestione dei casi inerenti al Regolamento Dublino (Dublinet). Il sistema, alimentato con i dati dei migranti già presenti nei centri, consente alle prefetture di visualizzare, per ogni singola struttura di accoglienza, tutte le fasi procedurali riguardanti l’esame della domanda di protezione internazionale riferita a ciascuno degli ospiti accolti. Dopo molta sperimentazione sono attivi sia il sistema SGA59 sia la rete Vestanet60. Il primo, permette, al momento dello sbarco, di dividere i migranti conoscendo in tempo reale le disponibilità di ogni singola provincia tramite dati inseriti dalle Prefetture. Il secondo, invece, permette la gestione informatizzata delle richieste d’asilo. I sistemi SGA e Vestanet operano comunque, come si è visto, a livello nazionale, mentre manca una rete che a livello provinciale interconnetta tutti i soggetti che partecipano all’accoglienza. Le reti nazionali permettono di individuare le presenze a livello centrale e di conoscere la situazione del migrante dal punto di vista della presenza, ma si tratta di dati caricati dalle prefetture, le quali non hanno, però, pieno accesso a Vestanet e non conoscono (se non indirettamente) lo stato della domanda di riconoscimento. Per quanto ci siano delle eccezioni (ad esempio la Prefettura di Lodi61) non risultano né esperienze di interconnessione tra le strutture di accoglienza né un’attività delle prefetture che diano immediato conto della presenza dei migranti e che permettano, inoltre, una rapida contabilizzazione delle presenze. Le forze di polizia e gli enti locali non hanno la possibilità di sapere giorno per giorno chi si trova sul territorio di competenza, eppure la tecnologia metterebbe a disposizione gli strumenti per creare questa interconnessione, ad esempio un semplice cloud. Abbiamo visto, quindi, che i soggetti da interconnettere sarebbero

  Attivo dall’11 dicembre 2017.   Ministero dell’Interno, Circolare 18 gennaio 2018, n. 10380. 61   «Progetto per una gestione informatizzata dell’accoglienza dei richiedenti asilo in ambito provinciale e per la previsione del “rating di impresa” nella selezione degli enti gestori del servizio di assistenza», in Culturaprofessionale.interno.gov.it, p. 3. 59 60

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

L’identificazione del migrante

287

molti62 e tutti hanno ruoli diversi (ma allo stesso modo centrali) nella gestione della migrazione e con il sistema SGA si vorrebbe colmare questa mancanza di connessione. 6. Eurodac («European dactylographic system»), come abbiamo visto, è il primo database biometrico introdotto in Europa nel 2000 con lo scopo di determinare lo Stato competente all’esame della domanda di asilo63. Al di là di Eurodac, si è di fronte all’affermarsi di un quadro in cui l’acquisizione e la conservazione di dati biometrici dei cittadini di Paesi terzi hanno assunto un ruolo centrale nel sistema di identificazione e di controllo della mobilità. Tutte le banche dati che sono gestite dall’Agenzia europea Eu-Lisa («European Agency for the operational management of large-scale IT systems in the area of freedom, security and justice») sono oggetto di supervisione da parte del Garante europeo per la protezione dei dati personale («EDPS – European Data Protection Supervisor»). Tale unificazione gestionale e di supervisione conferma come, pur nella loro individualità, i database di gestione della mobilità dei cittadini di Paesi terzi, siano espressione di un approccio unitario del fenomeno migratorio. Eurodac, nello specifico, da strumento ancillare e tecnico del Sistema comune di asilo è diventato progressivamente centrale: negli hotspot e nelle procedure di ricollocamento il rilevamento delle impronte digitali è l’elemento cardine del sistema. L’intero modello si compone di una banca dati centrale informatizzata (denominata «Sistema centrale») e di una infrastruttura di comunicazione tra il Sistema centrale e gli Stati membri, dotata di una rete virtuale cifrata dedicata ai dati Eurodac. Ogni Stato Membro, attraverso un singolo punto di accesso (il cd. focal point nazionale), invia i dati al Sistema centrale, che in tempo reale effettua il controllo relativo alla presenza o meno delle impronte inserite nel Sistema, indicando, se presenti, come sono state classificate e quando e dove le impronte della persona sono state già rilevate. In Italia

62   Si pensi, ad esempio, alla prefettura, alla questura e ai commis­sariati, ai Carabinieri; alla Guardia di Finanza, alla Commissione Territoriale per il riconosci­mento della protezione Internazionale, ai Comuni e all'Ufficio scolastico provinciale. 63   Sul punto E. Guild, Unreadable papers? The EU’s first experiences with biometrics: Examining EURODAC and the EU’s borders, in J. Lodge (a cura di), Are you who you say you are? The EU and biometric borders, Nijmegen 2007, pp. 31-43; E. Brouwer, Digital borders and Real rights. Effective remedies for Third-Country Nationals in the Schengen information system, Leiden 2008.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

288

Marco Cecili

l’autorità responsabile per Eurodac è la «Direzione centrale anticrimine – Servizio di polizia» a Roma, a essere stata investita del ruolo di focal point nazionale. A livello decentrato i 14 Gabinetti regionali di polizia scientifica sono i soggetti deputati all’inserimento delle informazioni relative alle impronte e le trasmettono, attraverso l’interfaccia nazionale AFIS («Automated Fingerprint Identification System»), al focal point nazionale. È infatti soltanto quest’ultimo abilitato, come è opportuno ripetere, a trasmettere i dati al Sistema centrale di Eurodac. In concreto, quando l’operatore di pubblica sicurezza rileva le impronte digitali, queste vengono trasmesse direttamente al Servizio polizia scientifica di Roma, che le invia al Sistema centrale. Quest’ultimo in tempo reale fornisce l’informazione se le impronte sono già presenti nel Sistema o meno, informazione che viene dal Sistema nazionale ritrasmessa al focal point locale. Quando le impronte sono già presenti nel Sistema, gli Stati membri possono scambiarsi le informazioni relative alla persona attraverso la rete di scambio informativo (Dublinet) creata appositamente a tale scopo. Infatti, Eurodac non contiene i dati anagrafici della persona, ma esclusivamente le informazioni per identificare la presenza o meno delle impronte nel Sistema. Solo successivamente si può risalire, attraverso Dublinet, all’identità della persona e prendere così i provvedimenti previsti dal Regolamento di Dublino. Ciò conferma ulteriormente che Eurodac non è stato pensato come un database utile a fini investigativi, tanto che soltanto attraverso la rete Dublinet è possibile individuare i dati anagrafici della persona inserita nel Sistema. Come accennato, sono tre le categorie di persone i cui dati possono essere inseriti nel sistema: i richiedenti protezione internazionali maggiori di anni 14 («Categoria 1»); le persone provenienti da Paesi terzi o gli apolidi fermati in relazione all’attraversamento irregolare via terra, mare o aria della propria frontiera in provenienza da un Paese terzo e che non siano stati respinti («Categoria 2»); le persone provenienti da Paesi terzi o gli apolidi di età non inferiore a 14 anni soggiornanti irregolarmente nel suo territorio, con l’obiettivo di stabilire se la persona ha già presentato una richiesta di asilo in altro Stato membro («Categoria 3»)64. 64   La verifica di norma avviene quando la persona: a) dichiara di avere presentato una domanda di protezione internazionale, ma non indica lo Stato membro in cui l’ha presentata; b) non chiede protezione internazionale ma rifiuta di essere rimpatriato nel suo Paese di origine affermando che vi si troverebbe in pericolo; c) cerca di evitare l’allontanamento con altri mezzi rifiutandosi di cooperare alla propria identi-

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

L’identificazione del migrante

289

I dati inseriti permangono nel Sistema per un tempo di conservazione che cambia in base alla categoria di inserimento. I dati dei richiedenti asilo sono mantenuti nel sistema per dieci anni65 e vengono cancellati prima del decorrere di tale periodo soltanto in caso di acquisizione della cittadinanza italiana66. Contrariamente a quanto la ratio originaria sottostante alla creazione Eurodac farebbe pensare, qualora al richiedente asilo venisse riconosciuta la protezione internazionale i suoi dati non verrebbero cancellati, ma solo contrassegnati. Tale procedura determina che i dati rimangano nelle disponibilità delle autorità di polizia per tre anni. Decorsi i tre anni, i dati sono «congelati» e non sono più accessibili. Saranno cancellati una volta decorsi i 10 anni. Per i soggetti inseriti nel sistema come «Categoria 2» la conservazione dei dati dura 18 mesi67. I dati possono essere cancellati prima del decorso di tale termine, oltre che nel caso, improbabile, di acquisizione della cittadinanza, anche qualora venga rilasciato un permesso di soggiorno (si pensi ad esempio al caso, anch’esso improbabile, di rilascio di un permesso di soggiorno a seguito di un provvedimento di regolarizzazione) e, soprattutto, se si ha notizia della partenza dallo Stato membro dove il soggetto era stato intercettato. Lo Stato è tenuto a rilevare le impronte digitali non appena possibile e massimo, salvo circostanze eccezionali, entro 72 ore dalla presentazione della domanda di protezione internazionale ai sensi dell’art. 20, par. 2, del Regolamento (UE) n. 604/2013. Analogo termine applicato alle persone fermate nell’attraversamento irregolare della frontiera. In questo caso il termine di 72 ore decorre dalla data del fermo. Qualora le persone si trovino in stato di custodia, reclusione o trattenimento per oltre 72 ore il rilevamento delle impronte deve avvenire prima della loro liberazione. La ratio di tale termine breve discende dalla necessità di evitare il protrarsi di una situazione di mancata identificazione68. I diritti della persona i cui dati sono inseriti in Eurodac sono definiti dall’art. 29 del Regolamento (UE) n. 603/2013. La formula-

ficazione, in particolare non esibendo alcun documento di identità oppure esibendo documenti falsi. 65   Art. 12 Regolamento n. 603/2013. 66   Art. 13 Regolamento n. 603/2013. 67   Art. 16 Regolamento n. 603/2013. 68   Emerge una distinzione con le tempistiche previste dall’art. 13 Cost., dove la libertà personale può essere limitata, in casi di necessità e urgenza, solo per 48 ore (più altre 48 in caso di richiesta di convalida all’Autorità giudiziaria). © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

290

Marco Cecili

zione dell’art. 29 è il risultato delle criticità sollevate dalle ispezioni dell’«Eurodac Supervision Coordination Group» (SCG)69. L’art. 29 del nuovo Regolamento stabilisce che la persona debba essere informata «per iscritto, e dove necessario oralmente in una lingua che la persona comprende o che ragionevolmente si suppone a lei comprensibile» di quanto segue: a) dell’identità del responsabile del trattamento; b) dello scopo per cui i suoi dati saranno conservati in Eurodac, compresa una descrizione delle finalità del Regolamento n. 604/2013 conformemente al diritto all’informazione disciplinato nell’art. 4, nonché una spiegazione, in forma accessibile e con un linguaggio semplice e chiaro, della possibilità di accesso delle autorità di polizia degli Stati membri e di Europol; c) dei destinatari dei dati; d) dell’esistenza di un obbligo di rilevamento delle impronte digitali per le persone che ricadono nelle Categorie 1 e 2; e) del diritto di accesso ai dati che la riguardano e del diritto di chiedere che i dati inesatti che la riguardano siano rettificati o che i dati che la riguardano trattati illecitamente siano cancellati, nonché del diritto di ottenere informazioni sulle procedure da seguire per esercitare tali diritti, compresi gli estremi del responsabile del trattamento e delle autorità nazionali di controllo. A fronte di tale centralità del diritto all’informazione, i dati forniti dal report annuale sul funzionamento di Eurodac redatto da EU-Lisa restituiscono un quadro molto lontano da quello a cui le norme farebbero pensare. Il numero di richieste di accesso da parte del titolare dei dati è più che insignificante in rapporto al numero di impronte presenti nel Sistema70. Inoltre, la maggioranza delle richieste proviene sempre da uno Stato membro, la Francia71, il cui attivismo è dovuto alla presenza di una organizzazione non governativa nella Regione di Calais che assiste le persone nella formulazione delle richieste di accesso. 7. L’Italia è al centro dei processi migratori di tutto il Mediterraneo e oltre cinque milioni di stranieri (non cittadini dell’Unione euro69  L’Eurodac Supervision Coordination Group è formato dai rappresentanti dei garanti per la protezione dei dati personali dei singoli Stati membri e dal Garante europeo e ha il compito di supervisionare il Sistema informativo relativamente al rispetto del diritto alla protezione dei dati personali e aspetti correlati. 70   Sul punto V. Ferraris, Eurodac e i limiti della legge: quando il diritto alla protezione dei dati personali non esiste, in Diritto, Immigrazione e Cittadinanza, 2017, II, pp. 12 e 13. 71   Si tratta di 34 richieste nel 2013 (pari al 69%), di 10 nel 2014 (pari al 39%) e di 38 nel 2015 (pari al 43%).

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

L’identificazione del migrante

291

pea) vivono sul nostro territorio72 e questo è un dato che rappresenta l’8,5% della popolazione complessiva. Il nostro Paese, dunque, avrà un ruolo fondamentale nel definire nuovi modelli di accoglienza e integrazione sociale, economica e culturale73. Le procedure di identificazione sono un tema cruciale nella gestione dei fenomeni migratori. I migranti, infatti, potrebbero incontrare ulteriori ostacoli nell’accesso ai servizi di base come cibo o assistenza medica e potrebbero fare affidamento su organizzazioni criminali, viste le difficoltà di aprire un conto in banca74 o avere un contratto di lavoro. Come è stato notato «la marginalità sociale, in cui spesso gli immigrati sono costretti a vivere per mancanza di concrete possibilità lavorative e, dunque, economiche, contribuisce ad alimentare il pregiudizio tanto che, ancora oggi, molti italiani sono convinti che l’equazione extracomunitario/criminale esista. Non solo, nel comune sentire, gli immigrati sono la risposta all’aumento della criminalità, al degrado urbano, e quindi all’insicurezza per cui l’unica via possibile da intraprendere è quella della repressione e dell’isolamento»75. La maggioranza delle migrazioni è causata da fattori espulsivi (push-factors), spesso drammatici (guerre civili, conflitti vari, decadimento delle condizioni di vita, violazioni dei diritti umani) e l’e72   Commissione europea, Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni, Piano d’azione per l’integrazione e l’inclusione 2021-2027 {SWD(2020) 290 final}, p. 2 «Attualmente gli abitanti nati al di fuori dell’UE sono circa 34 milioni (circa l’8 % della popolazione dell’UE), il 10 % dei giovani (fascia di età 15-34 anni) nati nell’UE ha almeno un genitore nato all’estero. Sebbene sia complessivamente aumentata negli ultimi anni, la percentuale di abitanti nati al di fuori dell’UE varia ancora notevolmente da uno Stato membro all’altro. È pari o superiore al 10% circa in Svezia, Estonia, Lussemburgo, Croazia, Lettonia, Austria, Malta e Germania, mentre è inferiore al 3% in Repubblica Ceca, Ungheria, Romania, Bulgaria, Polonia e Slovacchia. Oltre un quarto dei migranti è costituito da persone con un livello di istruzione elevato, che offrono risorse, ambizione e motivazione ma spesso non sono in grado di mettere a frutto le proprie capacità. Quasi il 40% è sovraqualificato per il lavoro che svolge: uno spreco di potenziale che non possiamo permetterci. Allo stesso tempo, quasi un quinto dei migranti possiede solo un’istruzione elementare e ha bisogno di ulteriore sostegno». 73   Per un’analisi C. Corsi, Da stranieri a cittadini. Linee di un percorso italiano, in G. Cerrina Feroni e V. Federico (a cura di), Società multiculturali e percorsi di integrazione: Francia, Germania, Regno Unito ed Italia a confronto: Francia, Germania, Regno Unito ed Italia a confronto, Firenze 2017, pp. 37-64. 74   Sul punto diffusamente G. Mattarella, L’inclusione finanziaria degli immigrati. La tutela del consumatore vulnerabile nei servizi bancari, Torino 2021. 75   S. Sicurella, Le sfide che i figli degli immigrati devono affrontare, in Rivista di Criminologia, Vittimologia e Sicurezza, 2015, I, p. 44.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

292

Marco Cecili

migrazione di queste persone ha un carattere casuale (soprattutto sotto il profilo del Paese di destinazione). Le loro probabilità di integrazione socio-lavorativa sono ridotte e spesso limitate all’economia sommersa. A tali problemi si potrebbe ovviare creando un sistema efficace che contenga e gestisca i dati sull’identità di migranti, rifugiati e richiedenti asilo. Si è riflettuto se utilizzare anche la tecnologia Blockchain per tentare di affrontare il problema. La Blockchain, infatti, è una sorta di database digitale condiviso e sincronizzato distribuito attraverso più nodi (che sono i dispositivi che memorizzano una versione locale del «libro mastro»). Il «World Food Programme», con il supporto delle Nazioni Unite, ha varato il progetto Building Blocks attraverso il quale in Giordania è stata avviata una campagna di identificazione dei rifugiati basata sulla tecnologia Blockchain e sulla biometria: con una scansione dell’iride, a Zaatari – il più grande centro di accoglienza per rifugiati siriani (circa 80.000 persone) – è divenuto possibile non solo fornire a ciascuno dei residenti un ID-digitale del tutto sostitutivo e univoco per certificarne e autorizzarne gli spostamenti in entrata e in uscita dal campo, così limitando l’infiltrazione di esponenti di movimenti terroristici, ma anche gestire e migliorare il supporto alimentare fornito alla popolazione76. È evidente che lo sviluppo della tecnologia possa e debba essere utilizzato dagli Stati per la gestione dei flussi migratori e garantire anche l’inserimento nella società. Un modo per realizzare l’inclusione è senza dubbio inserire il migrante in un contesto socio-produttivo77: partendo dai minori, ai quali va permesso 76   Insieme all’ID digitale, infatti, ciascun ospite del campo è dotato di un portafoglio virtuale (ammontano a 107.000 i soggetti beneficiari di un trasferimento economico nell’ambito del progetto Building Blocks) tramite il quale è possibile pagare acquisti presso i supermercati convenzionati con un semplice battito di ciglia (si tratta del sistema «eye-pay» di Iris Guard), nel contempo riducendo drasticamente – grazie alla rete di conio virtuale Ethereum – i costi di tassazione e di transazione bancaria cui normalmente soggiacciono i fondi umanitari, a tutto beneficio di quelle economie precarie. Sul punto Non solo criptovalute: la gestione dell’immigrazione clandestina passa anche attraverso la blockchain, in Irpa.it, 24 settembre 2020. 77  Riprendendo S. Tusini Alcune domande (e risposte data-based) su migrazioni, accoglienza e identità, in M. Marchegiani (a cura di), Antico mare e identità migranti: un itinerario interdisciplinare, Torino 2017, p. 163, i dati relativi all’integrazione non sono confortanti. Per fornire solo alcuni spunti: mediamente solo il 37,8% degli alunni stranieri residenti in Italia dichiarano di sentirsi italiani. In particolare: meno della metà (circa il 48%) dei ragazzi nati in Italia e di quelli arrivati in Italia prima dei 6 anni si sente italiano, e solo un risicatissimo 17% dei ragazzi entrati in Italia dall’età di 11 anni in poi sente una qualche appartenenza al nostro paese. Di conseguenza, interrogati su dove vorrebbero vivere da grandi, il 50% degli alunni stranieri residenti in

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

L’identificazione del migrante

293

l’accesso all’istruzione pubblica, fino ad arrivare ad un’inclusione lavorativa soddisfacente che faccia sentire realizzato lo straniero78. Oggi, infatti, non vengono raccolti i dati fondamentali per l’integrazione della persona (es. titoli d studio, qualifiche professionali, esperienze lavorative). Sembrerebbe che lo Stato oggi si accontenti di indentificare la persona, ma senza svolgere tutta l’attività necessaria all’integrazione della stessa. Dopo la grave crisi pandemica è necessario non sprecare l’eccezionale forza lavoro presente sul nostro territorio. Per fare ciò, si dovrebbe comprendere come tutto il sistema migratorio si incentri sul riconoscimento, il momento centrale del processo di accoglienza e integrazione. Questo termine non va inteso solo nel senso di attribuire un’identità, ma si collega alla necessità di far emergere e raccogliere tutte le sfumature della persona, affinché sia inserita nel tessuto socio-produttivo e si permetta il pieno sviluppo della persona umana e la crescita dell’intera società79, rafforzando la natura bi-direzionale del rapporto. È opportuno incoraggiare, quindi, le concrete possibilità di inserimento nel mercato occupazionale, sfruttando la piccola e media impresa, che incoraggia un modello «diffusivo» di immigrazione80. Attraverso una profonda revisione dell’accoglienza e sfruttando le possibilità che la tecnologia offre, si potrebbero creare reti e database davvero interconnessi e unitari (sempre rispettando i diritti di informazione, oblio e accesso riconosciuti ai cittadini), aiutando così una vera integrazione socio-occupazionale dei migranti e raccogliere le sfide che il futuro ci pone davanti, senza disperdere l’unitarietà che contraddistingue la persona umana81.

Italia vorrebbe vivere in un altro paese, il 20% auspica di tornare nel paese di nascita, e solo il 30% dichiara di voler restare qui (ISTAT, L’integrazione scolastica e sociale delle seconde generazioni, Statistiche Report, 15 marzo, 2016). 78   Si potrebbe anche pensare di limitare la necessità della cittadinanza per poter svolgere alcuni concorsi pubblici. Molto interessante l’analisi di M. Gnes, Al servizio della Nazione. L’accesso degli stranieri agli impieghi pubblici, Milano 2019. 79   Sul punto si veda S. Stacca, Il dovere di lavorare per il progresso materiale o spirituale della società, in Rivista trimestrale di diritto pubblico, 2021, pp. 29-47. 80   Centro Studi e Ricerche Idos, Immigrati e integrazione, 23, in Integrazionemigranti.gov.it. 81   Sul tema si rinvia, da ultimo, all’accurata ricostruzione e analisi di P. Pannia, La diversità rivendicata: giudici, diritti e culture tra Italia e Regno Unito, Milano 2021, spec. pp. 85-140. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Federico Ungaretti Dell’Immagine*

Verifica del green pass e tutela del diritto alla protezione dei dati personali

Sommario: 1. Premessa. – 2. Le misure di distanziamento e controllo dei dati sanitari. – 3. Le certificazioni verdi covid-19: il c.d. green pass. – 4. Il diritto alla protezione dei dati personali nel contesto pandemico. - 4.1. (segue) Il diritto alla protezione dei dati personali come diritto fondamentale. - 4.2. Le limitazioni al diritto alla protezione dei dati personali. - 4.3. Il controllo dei dati nel rapporto di lavoro. – 5. La legittimità della certificazione Covid-19 green pass. - 5.1. Le modalità di verifica del green pass. - 5.2. (segue) Le modalità di verifica del green pass nel rapporto di lavoro. – 6. La compliance della protezione dei dati personali. – 7. La tutela del diritto alla protezione dei dati personali nel contesto pandemico. - 7.1. (segue) La tutela risarcitoria. - 7.2. (segue) La responsabilità solidale. - 7.3. (segue) Il danno non patrimoniale da lesione del diritto alla protezione dei dati. 7.4. (segue) Il danno patrimoniale. – 8. Conclusioni.

1. Il 30 gennaio 2020, in seguito alla segnalazione da parte della Cina di un cluster di casi di polmonite ad eziologia ignota, identificata poi come coronavirus Sars-CoV-2, nella città di Wuhan, l’Organizzazione Mondiale della Sanità ha dichiarato emergenza di sanità pubblica di interesse internazionale l’epidemia di coronavirus in Cina. Il giorno successivo il Governo italiano, tenuto conto del carattere particolarmente diffusivo dell’epidemia, ha proclamato lo stato di emergenza e messo in atto le prime misure contenimento del contagio sull’intero territorio nazionale. Al d.P.C. 8 marzo 2020 ha fatto seguito una lunga serie di provvedimenti governativi e legislativi, volti a contenere il rischio sanitario ma al tempo stesso limitativi della libertà di circolazione e di spostamento degli individui, ed impattanti sul diritto alla protezione dei dati personali. 2. In una prima fase, nel momento di maggiore criticità sanitaria e senza la presenza dei vaccini, la protezione della salute e della salubrità degli esercizi aperti al pubblico e degli ambienti di lavoro, è stata perseguita con misure di distanziamento sociale e di controllo dei

* Assegnista di ricerca in Diritto processuale civile nell’Università di Firenze. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

296

Federico Ungaretti Dell’Immagine

dati sanitari dei lavoratori1 e degli utenti finalizzate al tracciamento dei soggetti infetti. Le modalità utilizzate per verificare la temperatura corporea e recepire la dichiarazione di assenza di sintomi influenzali e di contatto con persone affette dal virus sono avvenute però con modalità improvvisate ed artigianali in assenza, ab initio, di una base giuridica. Tali trattamenti hanno presentato evidenti criticità2, forse inevitabili3, rispetto alla protezione dei dati personali ma hanno consentito attraverso successive modifiche normative ed organizzative di innalzare il livello di tutela con l’utilizzo di sistemi informatizzati idonei al tracciamento, ed anche in grado geolocalizzare i soggetti infetti, nel rispetto però dei diritti di riservatezza4. 3. In una seconda fase ancora in essere, dopo la scoperta dei vaccini, sono state man mano dettate disposizioni volte a prevenire il contagio e favorire la ripartenza delle attività economiche e ne è derivata la necessità di condizionare la libertà di movimento o di accesso a luoghi o servizi al possesso della certificazione verde Covid-19 (c.d. green pass)5. 1   Protocollo 14 marzo 2020 aggiornato dal Protocollo 24 aprile 2020, le cui misure sono state integralmente richiamate nei vari d.P.C. ed integrate dal protocollo del 6 aprile 2021. Su cui E. Dagnino, La tutela della privacy ai tempi del coronavirus: profili giuslavoristici, in giustiziacivile.com del 17 marzo 2020. Cfr. art. 29-bis, d.l. 8 aprile 2020, n. 23 (conv. in l. 5 giugno 2020, n. 40), che ha precisato come i datori di lavoro adempiano all’obbligo di sicurezza «mediante l’applicazione delle prescrizioni contenute nel protocollo condiviso di regolamentazione delle misure per il contrasto e il contenimento della diffusione del Covid-19 negli ambienti di lavoro, sottoscritto il 24 aprile 2020 tra il Governo e le parti sociali, e successive modificazioni e integrazioni, e negli altri protocolli e linee guida di cui all’art. 1, comma 14, del d.l. n. 33/2020, nonché mediante l’adozione e il mantenimento delle misure ivi previste». L’ art. 1, comma 14, d. l. 16 maggio 2020, n. 33 (conv. in l. 14 luglio 2020, n. 74), ha specificato poi come le attività produttive debbano svolgersi «nel rispetto dei contenuti di protocolli e linee guida idonei a prevenire o ridurre il contagio» e il comma 15, che ha previsto la sospensione dell’attività sino «al ripristino delle condizioni di sicurezza». 2   Comunicazione Garante del 02 marzo 2020. 3   D. Poletti, Il trattamento dei dati inerenti alla salute nell’epoca della pandemia: cronaca dell’emergenza, in Persona e mercato, 2020, p. 65; A. Stizia, Coronavirus, controlli e “privacy” nel contesto del lavoro, in LG, 2020, p. 495; A. Maresca, Il rischio di contagio da COVID-19 nei luoghi di lavoro: obblighi di sicurezza e art. 2087 c.c. (prime osservazioni sull’art. 29-bis della l. n. 40/2020), in DSL, 2020, II, p. 2. 4   Cfr. Autorità Garante, Provvedimento di autorizzazione al trattamento dei dati personali effettuato attraverso il Sistema di allerta Covid 19- App Immuni, 1° giugno 2020. 5   Art. 9 del d. l. 22 aprile 2021, n. 52, conv. con modif. dalla l. 17 giugno 2021, n. 87.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Verifica del green pass e tutela dei dati personali

297

Quest’ultima non è un documento sanitario ma è una attestazione che comprova alternativamente lo stato di avvenuta vaccinazione contro il SARS-Cov-2, la guarigione dall’infezione ovvero l’effettuazione di un test molecolare o antigenico rapido che dimostri la negatività rispetto all’agente patogeno. Nata in ambito dell’Unione per facilitare gli spostamenti all’interno dell’Unione europea6, è divenuto in Italia l’attestato indispensabile per accedere a pubblici esercizi ed anche al luogo di lavoro7 fino a divenire una certificazione di avvenuta vaccinazione o guarigione8. Nella sua ultima versione la certificazione green pass c.d. rafforzato, costituisce, infatti, il documento che attesta di aver ricevuto la vacci-

6   L’adozione del Certificato, operativo dal 1° luglio 2021, è prevista dal Reg. UE 2021/954 del Parlamento Europeo e del Consiglio del 14 giugno 2021, nel Quadro per il rilascio, la verifica e l’accettazione di certificati interoperabili di vaccinazione, di test e di guarigione in relazione alla Covid-19 per i cittadini di paesi terzi regolarmente soggiornanti o residenti nel territorio degli Stati membri durante la pandemia di Covid-19. 7   Il d.l. n. 52 del 2021 (modificato con il d.l. 18 maggio 2021, n. 65), ha previsto in origine l’obbligo della certificazione verde senza riferimento ai luoghi di lavoro ma pochi giorni dopo è stato esteso a tutto il personale scolastico. Il d.l. 21 settembre 2021 n. 127, conv. con modif dalla l. 19 novembre 2021 n. 165, sempre con la stessa tecnica additiva rispetto alla disciplina di cui al d.l. n. 52 del 2021, ha reso obbligatorio, a decorrere dal 15 ottobre 2021, il possesso del green pass per l’accesso nei luoghi di lavoro pubblici (art. 9-quinques) e privati (art. 9-septies), da parte dei lavoratori in forza presso aziende, enti pubblici e che svolgono attività di formazione e volontariato. 8   Il d.l. 7 gennaio 2022 n. 1, vigente dall’8 gennaio 2022, convertito dalla l. 4 marzo 2022, n. 18, ha aggiunto le nuove disposizioni all’art. 1 del d.l. 1° aprile 2021, n. 44, conv., con modif., dalla l. n. 76 del 2021: a) art. 4-quater che, al comma 1 ha esteso l’obbligo di vaccinazione per la prevenzione dell’infezione da SARS-CoV-2 agli ultra cinquantenni, dalla data di entrata in vigore della disposizione e fino al 15 giugno 2022. Il comma 2 dello stesso articolo prevede l’esenzione o il differimento dalla vaccinazione in caso di accertato pericolo per la salute, in relazione a specifiche condizioni cliniche documentate, attestate dal medico di medicina generale dell’assistito o dal medico vaccinatore, nel rispetto delle circolari del Ministero della salute in materia di esenzione dalla vaccinazione anti SARS-CoV-2, ed inoltre il differimento della vaccinazione fino alla prima data utile prevista sulla base delle circolari del Ministero della salute per i soggetti che abbiano contratto l’infezione. L’obbligo vaccinale opera anche per coloro che compiono il cinquantesimo anno di età in data successiva a quella di entrata in vigore della norma, sino al termine del 15 giugno 2022, ed è punito in caso di violazione con una sanzione amministrativa di 100 euro. b) art. 4-quinquies che al comma 1, a decorrere dal 15 febbraio 2022, ha esteso ai lavoratori pubblici e privati over 50, ai quali già si applica l’obbligo vaccinale di cui all’art. 4-quater valevole per la generalità dei cittadini, l’obbligo di possedere ed esibire il super Green pass, per l’accesso ai luoghi di lavoro nell’ambito del territorio nazionale.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

298

Federico Ungaretti Dell’Immagine

nazione o contratto l’infezione da Coronavirus ed essere guarito, con l’esclusione rispetto al green pass c.d. base di chi ha effettuato un test antigenico rapido o un tampone molecolare. In mancanza di tale certificazione, in forza degli ultimi provvedimenti legislativi, scatta il divieto di accesso sul luogo di lavoro ai lavoratori di età superiore a cinquanta anni, soggetti al nuovo obbligo vaccinale previsto. 4. Tutta la legislazione emergenziale ha dovuto affrontare però numerose problematiche inerenti la difesa della privacy rispetto alle contrapposte esigenze di pubblico interesse, tanto più alla luce del rilievo che il dato personale assume nell’ambito della società digitale e della capacità di sfruttamento del dato stesso in campo commerciale. La regolamentazione dei controlli e del conseguente trattamento dei dati personali, anche sanitari, durante lo stato di emergenza si presta pertanto, a qualche riflessione rivolta al futuro costituendo, in concreto, l’applicazione necessaria, immediata e diretta delle indicazioni dettate dal diritto positivo in materia. Il contesto pandemico ha consentito, infatti, di testare la capacità del sistema di tutelare il diritto alla protezione dei dati personali e di verificarne la resistenza nel bilanciamento con gli altri diritti di valore costituzionale. 4.1. Occorre, dunque, mettere in luce, da un lato, che il diritto alla protezione dei dati ha un valore costituzionale. Pur non trovando esplicita enunciazione all’interno della costituzione, il diritto alla riservatezza, in sé e per sé, vi entra tramite il catalogo aperto dell’art. 2 Cost. ed il recepimento nell’ordinamento interno dell’art. 8 della CEDU. L’art. 8 della Carta dei diritti fondamentali dell’Unione europea e l’art. 16, par. 1, del Trattato sul funzionamento dell’Unione europea hanno previsto, poi, che ogni persona ha diritto alla protezione dei dati personali e tale principio è stato oggi enunciato dal Regolamento UE 2016/679, General Data Protection Regulation (inde, “GDPR”), al considerando 1 e 4 che lo qualificano espressamente come diritto fondamentale. La diversa formulazione delle disposizioni lascia apprezzare, inoltre, il percorso evolutivo del diritto che trova la sua scaturigine come

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Verifica del green pass e tutela dei dati personali

299

diritto di escludere i terzi dalla propria sfera personale9 ma si trasforma con il progredire della tecnologia informatica in diritto alla tutela dell’identità personale10 ed alla protezione del dato, ormai abitualmente consegnato a terzi nelle più svariate forme, per poi completarsi, più di recente, come diritto alla tutela della stessa identità digitale11. 4.2. È la stessa disciplina positiva, dall’altro lato, a prevedere, in astratto la legittimità di limitare il diritto alla protezione dei dati personali, qualora ciò sia necessario al fine di tutelate interessi generali ritenuti prevalenti nel rispetto dei principi di proporzionalità, necessità e sicurezza12. Lo stesso trattamento del dato sanitario dell’individuo, nonostante sia di regola vietato13, è consentito in una serie di fattispecie specifiche previste ex lege. Rilevano, in particolare, le ipotesi in cui: a) l’interessato presti il proprio consenso; b) il trattamento sia necessario per assolvere gli obblighi ed esercitare i diritti specifici del titolare del trattamento o dell’interessato, in materia di diritto del lavoro e della sicurezza sociale 9   S. D. Warren e L.D. Brandeis, The Right to Privacy, in Harvard Law Review, 1890, p. 193 ss. 10   Cass., 22 giugno 1985, n. 3769, in Foro it., 1985, I, c. 2211. In dottrina: F.D. Busnelli, Spunti per un inquadramento sistematico, in C.M. Bianca e F.D. Busnelli (a cura di), Tutela della privacy. Commentario alla L. 31 dicembre 1996, n. 675, in Nuove leggi civ. commentate, 1999, p. 228 ss; G. Finocchiaro, Il nuovo Regolamento europeo sulla privacy e sulla protezione dei dati personali, Bologna 2017, p. 12 ss.; G.M. Riccio, G. Scorza e E. Belisario (a cura di), GDPR e Normativa Privacy, Padova 2018, p. 596 ss.; E. Lucchini Guastalla, Il nuovo Regolamento Europeo sul trattamento dei dati personali: i principi ispiratori, in Contr. e impr. 2018, p. 106 ss.; S. Sica, V. D’antonio e G.M. Riccio, La nuova disciplina europea della privacy, Padova 2016; M.G. Stanzione, Il Regolamento europeo sulla privacy: origine ed àmbito di applicazione, in Europa e dir. priv. 2016, p. 1249 ss. 11  Il d.P.C. 24 ottobre 2014, c.d. «Decreto Spid», definisce all’art. 1, lett. o), l’Identità digitale come «la rappresentazione informatica della corrispondenza biunivoca tra un utente e i suoi attributi identificativi, verificata attraverso l’insieme dei dati raccolti e registrati in forma digitale». Il D. lg. 10 agosto 2018, n. 101, ha introdotto nel Codice della Privacy l’art. 2-terdecies a tutela dei dati personali concernenti persone decedute. In dottrina: G. Alpa e G. Resta, Le persone fisiche e i diritti della personalità, I, in Trattato di Diritto Civile, diretto da R. Sacco, Torino 2006; V. Zeno Zencovich, I diritti della personalità, in Trattato di Diritto Civile, a cura di N. Lipari e P. Rescigno, I - Le fonti e i soggetti, Milano 2009, p. 495 ss. 12   Cfr. Considerando n. 4 e art. 23, par. 1 del GDPR; P. Perlingieri, Privacy digitale e protezione dei dati personali tra persona e mercato, in Foro Napoletano, 2018, p. 481 ss. 13   Cfr. art. 9 GDPR.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

300

Federico Ungaretti Dell’Immagine

e protezione sociale; c) il trattamento sia necessario per motivi di interesse pubblico rilevante sulla base del diritto dell’Unione o degli Stati membri. Resta fermo, in ogni caso, il principio di proporzionalità rispetto allo scopo e, quindi, la necessità di predisporre misure appropriate e specifiche in grado di tutelare l’integrità del diritto alla protezione del dato. L’adozione di procedure per la gestione del rischio che siano in grado di impedire la lesione della riservatezza secondo un principio responsabilizzazione del titolare del trattamento (c.d. accountability di cui all’articolo 5, paragrafo 2, GDPR), costituisce del resto il connotato fondamentale del GDPR costruito in funzione preventiva dell’illecito. Con l’adozione di tale ultima regolamentazione di matrice europea si è, infatti, passati da un sistema normativo che era incentrato sulla responsabilità ex post14 ad uno che privilegia la responsabilizzazione ex ante che sia in grado attraverso la attività di compliance di recepire ed adattare all’interno della singola impresa le regole di gestione del dato15. 4.3. Nell’ambito del rapporto di lavoro, poi, le misure emergenziali si sono innestate sulle specifiche disposizioni in materia di sicurezza sul luogo di lavoro e di trattamento dei dati sanitari dei lavoratori. È noto, da una parte, che l’art. 2087 c.c. impone al datore di lavoro di adottare misure organizzative dell’esercizio dell’impresa necessaria a tutelare l’integrità fisica e la personalità morale dei prestatori di lavoro. La pandemia ha però costretto a ripensare la stessa funzione della disciplina prevenzionistica che da strumento di tutela dei dipendenti dalla nocività dell’ambiente di lavoro causato da scelte organizzative aziendali e dalla tipologia di attività svolta16, si è trasformato nel mezzo per evitare una diffusione del contagio all’interno del luogo di lavoro, con conseguente danno alla salute dei lavoratori ed allo stesso esercizio dell’attività di impresa17. 14   V. Ricciuto, Le finalità del codice, in V. Cuffaro, R. D’orazio e V. Ricciuto (a cura di), ll codice del trattamento dei dati personali, Torino 2007, p. 16. 15   E. Tosi (a cura di), Privacy digitale. Riservatezza e protezione dei dati personali tra GDPR e nuovo Codice Privacy, Milano 2019. 16   S. Sonnati, La progressione delle misure di sicurezza e le complessità teoriche e applicative dell’obbligo di certificazione verde Covid-19 nei luoghi di lavoro, in Labor, 2022, p. 27. 17   A. Maresca, Il rischio di contagio da COVID-19 nei luoghi di lavoro: obblighi di sicurezza e art. 2087 c.c., cit., 2020, p. 3.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Verifica del green pass e tutela dei dati personali

301

Le finalità della normativa si sono, dunque, invertite18 con la conseguenza di far assumere un ruolo centrale al controllo degli ingressi nei luoghi di lavoro ed al trattamento dei dati personali del lavoratore afferenti i movimenti, i contatti interpersonali ed anche la condizione sanitaria del singolo. Proprio in merito a tale ultimo dato personale, l’art. 5 della l. 20 maggio 1970, n. 300 (Statuto dei lavoratori), dispone, però, che sono vietati gli accertamenti da parte del datore di lavoro sulla idoneità fisica e sullo stato di salute dei lavoratori, essendo consentito soltanto richiederne l’accertamento ai servizi ispettivi degli istituti previdenziali competenti. E la disciplina specifica in materia di sicurezza sul lavoro prevede espressamente, ai sensi dell’art. 41 del d. lg. 9 aprile 2008, n. 81, la sorveglianza sanitaria sui dipendenti è demandata in via esclusiva al medico competente. 5. In tale quadro legislativo, si sono sovrapposti, di volta in volta, i provvedimenti emergenziali governativi e legislativi fino alla recente introduzione del green pass rispetto al quale si è posta la necessità di armonizzare le opposte esigenze di tutela di diritti confliggenti quali l’interesse alla sanità pubblica e quello alla riservatezza dei dati personali e sanitari. Sulla legittimità del passaporto vaccinale si sono subito sollevate contestazioni19 per contrasto con i principi fondamentali di libertà ma anche per la lesione diretta del diritto alla protezione dei dati. Il Tribunale dell’Unione europea20, da un lato, è stato chiamato a pronunciarsi su ricorso cautelare di una cittadina italiana che ha richiesto la sospensione della esecuzione dell’art. 3 par. 1, lettere a) e b) del regolamento (UE) 2021/953. La ricorrente lamentava, infatti, una illegittima discriminazione tra soggetti vaccinati e non vaccinati da Covid-19 sull’errato presupposto scientifico che i primi non contagino, con conseguente lesione del diritto alla libertà di circolazione. Il Giudice dell’Unione ha, però, potuto rigettare l’istanza in mancanza della prova dell’irreparabilità del

  S. Sonnati, La progressione delle misure di sicurezza, cit.   Corte eur. dir. uomo, 21 settembre 2021, Zambrano c. Francia. 20  Tribunale UE, Ordinanza del Presidente del Tribunale dell’UE 29 ottobre 2021, causa T-527/21, Stefania Abenante c. Italia, ECLI:EU:T:2021:750. 18 19

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

302

Federico Ungaretti Dell’Immagine

danno rispetto a una disciplina finalizzata, invece, ad ampliare la facoltà di circolazione delle persone. Nell’ordinamento interno21 è stata, invece, proposta impugnativa contro il d.P.C. 17 giugno 2021, contenente le disposizioni attuative della legge istitutiva22 della certificazione verde Covid-19 green pass, chiedendone l’integrale sospensione dell’efficacia per la lesione del diritto alla riservatezza sanitaria ed il conseguente rischio di discriminazioni nello svolgimento di attività condizionate al possesso della stessa certificazione. Il giudice amministrativo, sia in prime cure che in sede di reclamo, ha tuttavia ritenuto, per quanto rilevante ai nostri fini, che il prospettato rischio di compromissione della sicurezza nel trattamento dei dati sensibili connessi alla implementazione del c.d. green pass appare rivestire carattere «meramente potenziale», non rinvenendosi «in concreto» alcun profilo di illegittimità, tanto più rispetto ad un atto diretto ad indicare le «modalità di controllo» della certificazione, quando quest’ultima è previsione dettata a livello europeo e diretta a favorire la libertà di circolazione. Si comprende bene, dunque, che a divenire centrale nella valutazione di legittimità non è l’obbligo di certificazione in sé e per sé, residuando discussa semmai la diversa questione dell’obbligo vaccinale23, ma il concreto declinarsi del controllo del green pass e del trattamento dei dati personali nel bilanciamento dell’esigenza contrapposta di ostensione e di protezione dei dati medesimi. In altri termini, diviene centrale la valutazione della proporzionalità24 tra le esigenze del diritto da proteggere e di quello da sacrificare, nel rispetto altresì del principio di minimizzazione che impone di ridurre per quanto possibile ogni compressione non indispensabile dei diritti medesimi. 5.1. In particolare, emerge il rilievo assunto dalla modalità di verifi  Consiglio di Stato, ordinanza 17 settembre 2021, n. 5130.   L. 22 aprile 2021 n. 52. 23   TAR Lombardia, Sez. I, ordinanza 9-14 febbraio 2022, n. 192 ha sollevato la questione di legittimità costituzionale dell’art. 4, comma 4, del decreto legge 1 aprile 2021, n. 44, convertito con modificazioni nella legge 28 maggio 2021, n. 76, così come modificato dal d. l. 26 novembre 2021, n. 172, convertito nella l. 21 gennaio 2022, n. 3, nella parte in cui prevede, quale effetto dell’accertamento dell’inadempimento dell’obbligo vaccinale, l’immediata sospensione dall’esercizio delle professioni sanitarie. Contra: Consiglio di Stato 20 ottobre 2021, n. 2085; Cfr. nell’ordinamento francese: Conseil constitutionel 5 agosto 2021 n. 824. 24   Corte cost., 21 febbraio 2019, n. 20, in Foro it., 2020, c. 125 ss. 21 22

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Verifica del green pass e tutela dei dati personali

303

ca obbligatoria degli ingressi all’interno di esercizi pubblici destinati a servizi ed attività25 di svago e nei luoghi di lavoro26. Tale verifica implica, anzitutto, una fase necessaria – il controllo del possesso del green pass – ed una fase eventuale – la richiesta dei documenti di identità personale – quest’ultima limitata ai casi di manifesta incongruenza dei dati anagrafici contenuti nella certificazione rispetto al possessore. Nonostante l’ambiguità delle disposizioni27, infatti, il Ministero degli Interni28 ha precisato che soltanto i pubblici ufficiali, o i soggetti autorizzati con funzioni di ausilio alle forze di polizia, possono, di regola, identificare le persone. Al verificatore del green pass è, invece, concessa tale facoltà al solo fine di evitare l’utilizzo illegittimo di una certificazione altrui. La modalità del controllo necessario prevista dalla regolamentazione di cui al d.P.C. 13 giugno 2021, sotto il profilo della protezione dei dati, presentava però profili di criticità che sono stati superati29, prima, con il d.P.C. 12 ottobre 202130 che ha introdotto tra l’altro l’app di

25   D. l. n. 52 del 2021. convertito in l. n. 87 del 2021, da ultimo modificato con d. l. n. 1 del 2022, convertito in l. n. 18 del 2022. 26   L’art. 1 comma 4 e l’art. 4, comma 4 del d. l. n. 127 del 2021. 27   Parere Garante, Nota di risposta alla Regione Piemonte, 10 agosto 2021. 28   Ministero degli Interni, Circolare 10 agosto 2021. 29   Cons. Stato, 30 ottobre 2021, n. 5950, ha respinto l’istanza di sospensione del decreto 6 agosto 2021, n. 257, con cui il Ministero dell’Istruzione ha imposto al personale docente e non docente della scuola il possesso della certificazione verde per accedere al luogo di lavoro in ragione dell’avvenuto pieno recepimento delle indicazioni del Garante e dal fatto che la lettura con app dedicata esclude ogni conservazione o conoscibilità del dato identitario personale. 30   In forza del quale oltre all’app «VerificaC19», sono state rese disponibili ulteriori funzionalità: - l’integrazione del sistema di lettura e verifica del QR code del certificato verde nei sistemi di controllo agli accessi fisici, inclusi quelli di rilevazione delle presenze, o della temperatura; - per gli enti pubblici aderenti alla Piattaforma NoiPA, realizzata dal Ministero dell’economia e delle finanze, l’interazione asincrona tra la stessa e la Piattaforma nazionale-DGC; - per i datori di lavoro con più di 50 dipendenti, sia privati che pubblici non aderenti a NoiPA, l’interazione asincrona tra il Portale istituzionale INPS e la Piattaforma nazionale-DGC; - per le amministrazioni pubbliche con almeno 1.000 dipendenti, anche con uffici di servizio dislocati in più sedi fisiche, una interoperabilità applicativa, in modalità asincrona, tra i sistemi informativi di gestione del personale e la Piattaforma nazionale-DGC.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

304

Federico Ungaretti Dell’Immagine

verifica C19 e, poi, con il recentissimo d.P.C. 2 marzo 202231, che aggiorna le regole rispetto ai precedenti provvedimenti governativi. Sono, infatti, previste ora differenti modalità di verifica delle certificazioni verdi Covid-19 in funzione dei dati necessari al controllo, tutelando in ogni caso il diritto alla riservatezza dell’intestatario della certificazione stessa, senza rendere visibili al verificatore le informazioni che ne hanno determinato l’emissione. Recependo ulteriori indicazioni del Garante32, è stata così imposta ai preposti alla verifica di utilizzare per la lettura del QR code bidimensionale esclusivamente l’ultima versione dell’applicazione resa disponibile dal Ministero della salute ovvero l’ultima versione delle librerie software, resa disponibile sulla piattaforma utilizzata dal Ministero della salute per la pubblicazione del codice sorgente del pacchetto di sviluppo per applicazioni. Si esige, quindi, che gli addetti al controllo siano appositamente autorizzati dal titolare del trattamento e ricevano le necessarie istruzioni in merito al trattamento dei dati connesse all’attività stessa, con particolare riferimento alla possibilità di utilizzare le diverse modalità di verifica relative al possesso di specifiche tipologie di certificazione verde Covid-19. 5.2. Nell’ambito del rapporto di lavoro, inoltre, è fatto obbligo ai datori di lavoro di verificare il possesso del green pass in modo da interdire l’accesso agli spazi aziendali a chi ne sia sfornito33. Le modalità operative per l’organizzazione delle verifiche sono rimesse alla libera determinazione della parte datoriale che è tenuta però ad individuare i soggetti preposti a tale attività potendo, almeno in teoria, limitarsi ad un controllo a campione. Si deve ritenere, infatti, che debbano essere controllati tutti i soggetti che accedono ai luoghi di lavoro, essendo vietato archiviare e mantenere i dati controllati34 ma gravando sul controllore l’onere di dimostrare di aver svolto la verifica.   D.P.C. 2 marzo 2022.   Parere 13 dicembre 2021, n. 430, sullo schema di decreto del Presidente del Consiglio dei ministri del 17 dicembre 2021. 33   Tribunale di Firenze, 3 marzo 2022, ha precisato la facoltà di interdire l’accesso al luogo di lavoro sia legittima soltanto per previsione di legge o indicazione del medico competente. 34   Cfr. Art. 13, comma 5 del d.P.C. del 17 giugno 2021, il quale dispone che «l’at31 32

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Verifica del green pass e tutela dei dati personali

305

Al tempo stesso, però, è salvaguardata la facoltà del lavoratore di comunicare che non possiede la certificazione, ciò costituendo anche l’adempimento di un obbligo di correttezza nei rapporti con il datore di lavoro. 6. Si è indugiato sulla esposizione delle modalità di controllo perché, seppure appaiano disposizioni meramente tecniche che si risolvono nel corretto utilizzo di una applicazione, creano in realtà una serie di obblighi che guidano la predisposizione di quei modelli organizzativi preventivi del rischio che, in una situazione ordinaria, sarebbero rimessi alla libera iniziativa ed alla corrispondente responsabilizzazione del titolare del trattamento. Il dovere di nomina da parte del titolare del soggetto autorizzato o designato al trattamento è, infatti, la regola dettata dal combinato disposto dell’art. 2-quaterdecies Codice privacy e dell’art. 29 GDPR. L’obbligo di formare specificamente i soggetti delegati affinché, da un lato, attuino le procedure di trattamento e, dall’altro lato, rispettino quelle organizzative, presuppone che entrambe siano state adottate come previsto dall’art. 32 GDPR. Le prime, riguardano l’infrastruttura dell’impresa e le procedure di sicurezza adottate per proteggere le informazioni da eventuali violazioni lesive dei diritti del consumatore e del lavoratore. Le seconde, invece, esigono la adeguata implementazione del sistema di deleghe atto ad individuare i soggetti che cooperano al trattamento con il titolare ed il responsabile e, quindi, divengono responsabili in via solidale per le violazioni35. L’atto di nomina a delegati deve, pertanto, contenere istruzioni chiare e precise per i soggetti autorizzati al ricevimento delle certificazioni verdi. tività di verifica delle certificazioni non comporta, in alcun caso, la raccolta dei dati dell’intestatario in qualunque forma» sicché, come evidenziato dal Garante della privacy con nota del 6 settembre 2021, e ribadito nel parere favorevole dell’11 ottobre 2021, sussiste un divieto di conservazione del dato in quanto le operazioni di trattamento relative alla verifica restano valide solo nell’ambito strettamente circoscritto agli obblighi di legge, fermo il divieto di richiedere copia o prelevare copia digitale del Green Pass e quindi di annotazione (cartacea o digitale) della validità della certificazione, laddove l’unico soggetto deputato alla conservazione resta il Ministero della salute. Cfr. C. Ciccia Romito, Green Pass nei luoghi di lavoro: le questioni relative alla protezione dei dati personali, Quotidianogiuridico.it del 29 settembre 2021. 35   Si veda infra. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

306

Federico Ungaretti Dell’Immagine

L’insieme di misure organizzative adottate deve essere poi riportato nel modello privacy aziendale e con conseguente aggiornamento del registro dei trattamenti ex art. 30 del GDPR. L’esperienza delle certificazioni obbligatorie ha, quindi, permesso di creare una serie di disposizioni legislative e governative che hanno imposto ex lege l’adozione di sistemi di gestione del rischio da illecito trattamento dei dati prima generalmente sottovalutati. L’utilizzo diffuso di strumenti tecnologici, in una transizione digitale accelerata, ha inoltre dimostrato come proprio l’informatica giochi un ruolo decisivo al fine della protezione del dato, oltre che nella violazione dello stesso. 7. Sotto il profilo dinamico è del tutto evidente, però, che la contingenza ha costretto ad un aumento vertiginoso di occasioni in cui gli individui sono costretti a consegnare a terzi i propri dati, sia mediante il consenso – indispensabile per accedere a servizi online – sia in forza di disposizioni governative e legislative quali appunto quelle dettate in tema di green pass. Rispetto a tale massa di informazioni, spesso trattate da sistemi informatici in grado di elaborarli profilando e geolocalizzando gli utenti, si pone in chiave prospettiva il problema della tutela del diritto e, quindi, della responsabilità per la violazione. Il sistema di tutela della protezione dei dati personali è, infatti, costruito sui due pilastri complementari ma autonomi ed alternativi costituiti dal potere dell’autorità amministrativa di emettere sanzioni e provvedimenti ordinatori e dal potere del giudice ordinario di condannare al risarcimento dei danni su domanda del danneggiato36. L’autorità garante può irrogare sanzioni di carattere amministrativo per violazione della normativa e può concedere misure correttive, mentre il risarcimento del danno deve essere richiesto dal singolo esclusivamente all’autorità giurisdizionale. Il periodo emergenziale ha dimostrato l’efficacia dell’attività del Garante sia nella funzione di supporto al legislatore sia in quella istrut-

36   F. Valerini, Le novità processuali in materia di privacy dopo il Reg. 679/2016 (GDPR) e il D.lgs. 101/2018, in Judicium.it; P. Mazza, Profili processuali del diritto alla protezione dei dati personali nel regime del Reg. UE 2016/679 (GDPR) e del riformato D.Lgs. n. 196/2003, in Corr. giur., 2021, p. 959.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Verifica del green pass e tutela dei dati personali

307

toria e decisoria dotato, peraltro, di un apparato sanzionatorio ad alta efficacia deterrente. Rimane, semmai, qualche dubbio sulla possibilità che un unico ufficio con risorse limitate possa soddisfare tutte le richieste di tutela e compiere adeguate istruttorie su una pluralità di settori. 7.1. Sul piano del c.d. private enforcement, l’art. 82 del GDPR37, rimasta la disposizione di riferimento, delinea le conseguenze per illecito trattamento dei dati personali individuando i soggetti danneggianti e la condotta antigiuridica e costruendo, secondo la ricostruzione preferibile, una ipotesi di responsabilità oggettiva ex art. 2050 c.c.38 in linea di continuità con quanto già previsto dal previgente dettato legislativo. 7.2. Occorre inoltre considerare, tanto più quando venga predisposto un sistema di delega interno all’impresa, che la responsabilità si estende a tutti coloro che ricevono l’incarico di trattare il dato. L’art. 82 comma 4 GDPR prevede, infatti, la responsabilità solidale di tutti i soggetti coinvolti nel trattamento del dato personale con l’effetto di ampliare la tutela per il danneggiato. La regola della solidarietà fra danneggianti del resto non è nuova per l’ordinamento. Si rinviene già nell’art. 1156 del codice civile del 186539, nel Progetto italo-francese di codice delle obbligazioni e dei contratti del 192740 e trova conferma nell’art. 2055 c.c. che, riprendendo la previsione del 37   E. Tosi, Responsabilità civile per illecito trattamento dei dati personali e danno non patrimoniale, cit., passim: E. Tosi, La responsabilità civile per trattamento illecito dei dati personali alla luce del General Data Protection Regulation (GDPR), in Studium iuris, 2020, p. 480; M.L. Gambini, Principio di responsabilità e tutela aquiliana dei dati personali, Napoli 2018, passim; G.M. Riccio, G. Scorza e E. Belisario (a cura di), GDPR e Normativa Privacy, Padova 2018, p. 596 ss.; M. Ratti, La responsabilità da illecito trattamento dei dati personali nel nuovo Regolamento, in G. Finocchiaro (a cura di), Il nuovo Regolamento europeo sulla privacy e sulla protezione dei dati personali, Bologna 2017, p. 615 ss. 38   M. Franzoni, Responsabilità derivante da trattamento dei dati personali, in G. Finocchiaro e F. Delfini (a cura di), Diritto dell’informatica, Milano 2014, p. 831; E. Tosi, La responsabilità civile per trattamento illecito dei dati personali, cit. 39   Ai sensi del quale «[s]e il delitto o quasi-delitto è imputabile a più persone, queste sono tenute in solido al risarcimento del danno cagionato». 40   Stessa regola veniva quindi confermata nel Progetto italo-francese di codice delle obbligazioni e dei contratti del 1927, il cui art. 84, comma 1, ribadiva il principio che quando più persone sono responsabili dello stesso fatto dannoso, esse sono «obbligate solidalmente al risarcimento del danno».

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

308

Federico Ungaretti Dell’Immagine

codice abrogato, configura la responsabilità solidale dei danneggianti per il medesimo fatto dannoso, ancorché le condotte lesive siano tra loro autonome. Nelle ipotesi dei controlli del green pass tra Titolare del trattamento e Responsabili del Trattamento e loro delegati si crea perciò una obbligazione risarcitoria solidale per il danno subìto dall’interessato. Soltanto all’interno del rapporto tra i coobbligati il responsabile – e i suoi delegati – potrà far valere in via di regresso l’esimente di aver rispettato le istruzioni ricevute, lasciando il titolare nella posizione di garanzia e quindi soggetto a responsabilità salvo dimostrazione di aver attuato tutte le misure idonee a prevenire il danno e, quindi, l’imprevedibilità dell’evento41. Da un punto di vista di individuazione dei legittimati passivi dell’azione, dunque, il sistema appare idoneo a garantire il completo risarcimento del danno per le violazioni in conformità alle indicazioni del GDPR. 7.3. La criticità sorge, però, se si passa ad esaminare la possibilità per il singolo di ottenere un ristoro effettivo. Posto che l’illecito è insito nella mera condotta42 e, quindi, si determina per la sola violazione degli obblighi, non è così scontato che ciò determini un danno risarcibile, almeno alla stregua della attuale giurisprudenza. La Corte di Cassazione43 è, infatti, ferma nell’affermare che la ri-

  Cass. Civ. 17 settembre 2020, n. 19328.   Senza pretesa di completezza, per la qualificazione come responsabilità extracontrattuale: G. Resta e A. Salerno, La responsabilità civile per il trattamento dei dati personali, in G. Alpa (a cura di), La responsabilità d’impresa, Milano 2015, p. 643 ss.; E. Navarretta, Commento sub art. 9, in Tutela della «privacy», in C.M. Bianca e F.D. Busnelli (a cura di), Tutela della privacy, cit., in Nuove leggi civ. commentate, cit., p. 323 ss.; contra, per una qualificazione come responsabilità contrattuale da inadempimento: F.D. Busnelli, Itinerari europei nella “terra di nessuno tra contratto e fatto illecito”: la responsabilità da informazioni inesatte, in Contratto e Impresa, 1991, p. 539 ss.; per una qualificazione come responsabilità da contatto sociale: C. Castronovo, Situazioni soggettive e tutela nella legge sul trattamento delle informazioni personali, in Eur. e dir. priv., 1998, I, p. 677 ss; per una qualificazione di responsabilità speciale, F. Bravo, Riflessioni critiche sulla natura della responsabilità da trattamento illecito dei dati personali, in N. Zorzi Galgano (a cura di), Persona e mercato dei dati, Milano 2019, p. 383 ss. 43   Cass. Civ. 10 giugno 2021, n. 16402, in Pluris; Cass. Civ. 17 settembre 2020, n. 19328; Cass. 20 agosto 2020, n. 17383, in Dir. internet, 2020, p. 619, con nota di A. 41 42

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Verifica del green pass e tutela dei dati personali

309

sarcibilità del danno non patrimoniale derivante dalla lesione dei diritti alla protezione dei dati personali è subordinata alla verifica della «gravità della lesione» e della «serietà del danno» atteso che, in nessun caso, la liquidazione di un determinato importo a titolo di danno può conseguire alla mera violazione del diritto o al fatto illecito. Occorre, quindi, non soltanto che l’evento dannoso si sia verificato ma altresì che questo superi il limite di tolleranza che deriva dal principio di solidarietà ex art. 2 Cost. Si applica, pertanto, un doppio filtro dell’ingiustizia44 che è rigoroso nella valutazione della gravità della lesione, onde evitare di comprendere e risarcire ogni incomodo o disagio creato al danneggiato nell’esercizio di un valore tutelabile, con conseguente svilimento del valore stesso. Senza poter in questa sede analizzare la complessa tematica del danno non patrimoniale nel sistema della responsabilità civile45 e delle plurime funzioni della medesima46, occorre però mettere in luce come i Avitabile, Il risarcimento del danno a seguito dell’illecito trattamento di dati personali: un nuovo impulso dal reg. Ue 27 aprile 2016 n. 679? 44   Cass., Sez. Un., 11 novembre 2008, nn. 26972-26975, in Resp. civ., 2009, p. 4, con note di M. Franzoni, G. Zaccaria, F. Bilotta, G. Facci, C. Filippi, G. Partisani; in Danno e resp., 2009, p. 19, con note di S. Landini, C. Sganga; in Foro it., 2009, I, c. 122, con note di A. Palmieri, R. Pardolesi, G. Ponzanelli, E. Navarretta; in Riv. dir. civ., 2009, 97 con nota di F.D. Busnelli. 45   M. Franzoni, La responsabilità civile una lunga storia ancora da scrivere, in Contr. e imp., 2021, 1103; R. Pardolesi, Il futuro del danno non patrimoniale, in Danno e Responsabilità, 2021, p. 628. 46   Sez. un., 5 luglio 2017, n. 16601, in Foro It., 2017, I, p. 2613 ss., con i commenti di A. Palmieri e R. Pardolesi, I danni punitivi e le molte anime della responsabilità civile; E. D’alessandro, Riconoscimento di sentenze di condanna a danni punitivi: tanto tuono` che piovve; R. Simone, La responsabilita` civile non è solo compensazione: punitive damages e deterrenza; P.G. Monateri, I danni punitivi al vaglio delle sezioni unite; C. Castronovo, Diritto privato e realta` sociale. Sui rapporti tra legge e giurisprudenza. A proposito di giustizia, in Eur. Dir. Priv., 2017, p. 794; A. Di Majo, Principio di legalita` e proporzionalita` nel risarcimento con funzione punitiva, in Giur. It., 2017, p. 1792; G. Alpa, Le funzioni della responsabilita` civile e i danni ‘‘punitivi’’: un dibattito sulle recenti sentenze della Suprema Corte di Cassazione, in Contratto e Impresa, 2017, p. 1084; G. Franzoni, Quale danno punitivo?, ibidem, 1107; G. Ponzanelli, Sezioni Unite e danni punitivi, ibidem, 1122; F. Benatti, Note sui danni punitivi in Italia: problemi e prospettive, ibidem, p. 1129; F. Astone, Responsabilita` civile e pluralita` di funzioni nella prospettiva dei rimedi. Dall’astreinte al danno punitivo, ibidem, p.  276; M. Latorre, Un punto fermo sul problema dei ‘‘danni punitivi’’, in Danno e Resp., 2017, p. 421; C. Consolo, Riconoscimento di sentenze, specie USA e di giudici popolari, aggiudicanti risarcimenti punitivi o comunque sopracompensativi, se in regola con il nostro principio di legalita`, in Corr. Giur., 2017, © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

310

Federico Ungaretti Dell’Immagine

principi indicati rischiano di fatto di precludere l’effettività della tutela stessa. La questione, che trascende il diritto alla protezione dei dati personali, è peraltro oggetto di remissione alle Sezioni Unite, chiamate a pronunziarsi proprio sulla configurabilità del danno in re ipsa47. Sembra stridere con il sentimento comune, infatti, che, in un settore come quello dei diritti reali, anche di recente, si ammetta tout court la risarcibilità del danno in re ipsa48 mentre in altre fattispecie non sia sufficiente la violazione della disposizione diretta alla protezione di un diritto fondamentale della persona ed al più sia concesso un alleggerimento dell’onere probatorio a carico del danneggiato mediante l’utilizzo di presunzioni49. È auspicabile allora che il Supremo Collegio colga l’occasione per uniformare i principi sulla prova del danno e sulla funzione anche punitiva della responsabilità civile50, soprattutto in quelle fattispecie dove al diritto del singolo si affianca un interesse ultraindividuale ad evitare condotte illecite massive nelle attività di trattamento dei dati personali. Si pensi alle istruttorie aperte dall’autorità nei confronti di app per il controllo del green pass, diverse da quelle autorizzate, che richiedono una preliminare registrazione per il download e trasferiscono quindi i dati a terzi51. L’utilizzo dei dati di accesso a fini di monitoraggio, in mancanza di diffusione al pubblico dei dati, potrebbe anche non configurare una lesione grave per il singolo, e quindi impedire ogni ristoro, residuando al più un danno patrimoniale parametrato sulla mancanza del consenso al trattamento dei dati stessi.

p. 1050; C. Scognamiglio, Le Sezioni Unite ed i danni punitivi tra legge e giudizio, in Resp. Civ. Prev., 2017, p.  1109; A. Briguglio, Danni punitivi e delibazione di sentenze straniere: turning point ‘‘nell’interesse della legge’’, ibidem, p. 1597; C. Salvi, Le definizioni della responsabilita` civile, in Foro it., 2018, I, c. 2504. 47   Cass., Sez. III, 17 gennaio 2022, n. 1162. 48   Cass., 10 marzo 2022, n. 7788 scrive: «la violazione delle prescrizioni sulle distanze tra le costruzioni, attesa la natura del bene giuridico leso, determina un danno in “re ipsa”». 49   Cass. civ., 26 ottobre 2017, n. 25420. 50   A. Proto Pisani, Brevi note sul danno morale, in Riv. dir. proc., 2021, p. 567, là dove osserva che «nei casi in cui le conseguenze dannose dell’illecito consistono (anche o solo) nella mera sofferenza intima, interiore, non relazionale […] la corresponsione di somme di denaro alla persona che ha subito l’illecito non ha funzione risarcitoria ma di pena pecuniaria sui generis, benché corrisposta non allo Stato o ad altro soggetto pubblico (o assimilabile), bensì al privato». 51   Autorità garante, Comunicato 1° novembre 2021. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Verifica del green pass e tutela dei dati personali

311

7.4. Sotto quest’ultimo profilo, bisogna mettere in luce anche come, di recente, la giurisprudenza abbia affermato che i dati personali possono «costituire un “asset” disponibile in senso negoziale, suscettibile di sfruttamento economico»52. Si assiste cioè ad un fenomeno di patrimonializzazione del dato personale che diviene oggetto di protezione sia come diritto fondamentale della persona sia come diritto allo sfruttamento del valore economico dello stesso, con una complementarietà della protezione derivante dalla applicazione anche della legislazione a protezione del consumatore o utente53. Rimane però il dubbio che anche la risarcibilità del singolo danno, a meno di convogliare una pluralità di pretese in una azione di classe, non abbia la capacità di divenire un effettivo strumento di tutela utilizzando la responsabilità civile in funzione meramente compensativa del danno. 8. In conclusione, l’esperienza della pandemia con la conseguente alluvionale produzione legislativa e governativa ha consentito di porre l’attenzione sulla tutela dei dati personali e di imporre l’adozione di sistemi di gestione del rischio innalzando così, in via preventiva, il livello di protezione dei dati stessi, in linea con le aspirazioni del GDPR. L’informatizzazione dei controlli e, più in generale, del trattamento dei dati, mette in luce al tempo stesso l’accentuarsi del pericolo di lesioni dei diritti anche per il valore economico che assume il dato personale. Sul piano della tutela per le violazioni resta, dunque, l’impressione di un sistema che, al pari di quanto avviene nel settore della concorrenza, non sfrutta le potenzialità del controllo privato mosso dalla ricerca individuale di un risarcimento del danno e privilegia un modello di tutela pubblica, il c.d. public enforcement, rimesso però alla attività del Garante che, se ha dato buona prova di sé durante la pandemia, rischia di non poter fare altrettanto allorquando, auspicabilmente il prima possibile, cesserà lo stato di emergenza sanitaria.

  TAR Lazio Roma, Sez. I, sentenza 10 gennaio 2020, n. 261.  Corte giust., 13 settembre 2018, cause riunite C-54/17 e C-55/17, Autorità Garante della Concorrenza e del Mercato c. Wind Tre SpA e Vodafone Italia SpA, ECLI:EU:C:2018:710. Cfr.: d.lg. 4 novembre 2021, n. 170 (in attuazione della direttiva (UE) 2019/771), efficace a decorrere dal 1° gennaio 2022 ed applicazione ai contratti conclusi successivamente a tale data che ha inserito gli artt. da 135-octies a 135-viciester al codice del consumo. 52 53

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Nuove tecnologie e pubblica amministrazione

Ippolito Piazza*

Intervento pubblico, iniziativa privata e tutela dei diritti nel social housing

Sommario: 1. Di cosa parliamo quando parliamo di social housing. – 2. Il problema della casa in Italia e il declino delle politiche abitative. – 3. Il «diritto alla casa»: da diritto-ragione a diritto soggettivo? – 4. Il Piano casa del 2009 e il social housing. – 5. Cenni al social housing nella legislazione regionale. – 6. Pubblico e privato nel social housing. – 7. Social housing e innovazione.

1. Un comunicato stampa del Comune di Firenze di alcuni mesi fa1 informava che di lì a poco sarebbero stati consegnati sessantasei alloggi di «Osteria Social Club», ricavati da un edificio in precedenza occupato abusivamente e «destinati ad affitto a canone calmierato». L’intervento immobiliare – proseguiva il comunicato – è stato reso possibile dalla «azione congiunta» della Fondazione Cassa di Risparmio di Firenze e del Comune di Firenze, «con l’intervento finanziario del Fondo Investimenti per l’Abitare (indirettamente investito in maggioranza da Cassa depositi e prestiti), anchor investor del Fondo Housing Toscano gestito da InvestiRE SGR» e con «la gestione sociale» affidata ad Abitare Toscana. Gli alloggi sono destinati a famiglie e singoli che hanno «scelto» questa soluzione per «soddisfare il proprio bisogno abitativo, migliorando la propria qualità di vita, a costi inferiori e tutelando la socialità». La selezione degli inquilini è stata effettuata mediante un bando promosso dal Comune di Firenze, che prevedeva tra i requisiti di ammissione la residenza o lo svolgimento di attività lavorativa in ambito regionale e un reddito familiare «superiore a quello previsto per gli alloggi erp [edilizia residenziale pubblica], ma non sufficiente per sostenere gli affitti presenti sul libero mercato immobiliare privato». Il comunicato, di là dalla vicenda specifica, è significativo perché, in poche righe, rivela gli elementi tipici di un fenomeno entrato da almeno un decennio nel discorso dei giuristi e nel dibattito pubblico italia* Ricercatore t.d. di Diritto amministrativo nell’Università di Firenze.   Terminati i lavori al ‘Casone’ di via dell’Osteria, gli alloggi saranno consegnati all’inizio di ottobre, 15 settembre 2020, reperibile sul sito del Comune di Firenze (www.comune.fi.it/comunicati-stampa). 1

316

Ippolito Piazza

no sulle politiche abitative2, quello del c.d. social housing. L’espressione è comunemente utilizzata per riferirsi a qualcosa di più recente rispetto alla tradizionale edilizia residenziale pubblica, dalla quale si differenzia, dal lato dell’offerta, per il più intenso coinvolgimento di attori privati rispetto a quelli pubblici; dal lato della domanda, per essere mirato a fornire risposte alle esigenze abitative non (o non necessariamente) delle fasce economicamente più deboli o marginali della popolazione. E, infatti, nel caso descritto dal comunicato del Comune di Firenze, ci troviamo di fronte a un intervento immobiliare che vede coinvolti un attore pubblico (Comune) e diversi attori privati (una fondazione di origine bancaria, un fondo immobiliare3, una società come «gestore sociale»4); destinato a soggetti individuati attraverso una selezione pubblica effettuata dall’ente locale, privi dei requisiti per accedere agli alloggi di edilizia residenziale pubblica ma altresì privi dei mezzi per reperire un alloggio sul mercato; mirato non soltanto a rispondere al bisogno primario di una abitazione ma anche a un miglioramento della qualità della vita e della socialità. In quest’ottica si inscrive anche l’idea che i futuri inquilini abbiano “scelto” questa soluzione abitativa: l’utilizzo del verbo – di là dall’enfasi perdonabile in un comunicato stampa

2   È sufficiente una ricerca nelle banche dati di settore e nei siti internet dei principali quotidiani. 3   In particolare, il Fondo Housing Toscano è, come si legge sul suo sito internet, un fondo comune di investimento immobiliare, che ha come scopo principale «la realizzazione di interventi abitativi di social housing nel territorio della Regione Toscana, favorendo la formazione di un contesto abitativo e sociale all’interno del quale sia possibile non solo accedere ad un alloggio adeguato di edilizia convenzionata, ma anche a relazioni umane ricche e significative». Il fondo è partecipato dal Fondo Nazionale di Investimento per l’Abitare, da alcune fondazioni bancarie toscane, dalla Regione Toscana, da una compagnia assicurativa, dall’Istituto di Sostentamento del Clero della Diocesi di Firenze e da cooperative di abitazione. A sua volta, il Fondo Investimenti per l’Abitare (FIA) è stato istituito nel 2009 da CDP Immobiliare SGR, una società di gestione del risparmio creata da Cassa Depositi e Prestiti SpA (che ne detiene il 70%) insieme ad ACRI (Associazione di Fondazioni e di Casse di Risparmio SpA) e ad ABI (Associazione Bancaria Italiana). Sulla questione dei fondi immobiliari per il social housing si tornerà oltre in questo scritto (par. 4). 4   Per gestione sociale si intende «l’insieme delle attività connesse all’amministrazione degli immobili e alla gestione delle relazioni tra le persone che vi abitano»; in particolare, si parla di gestione sociale, anziché di semplice gestione immobiliare, quando l’attività di gestione «tradizionalmente svolta sul complesso (facility e property management) si implementa di un’ulteriore attività che tiene conto anche di aspetti sociali»: v. M.L. Del Gatto, G. Ferri e A.S. Pavesi, Il gestore sociale quale garante della sostenibilità negli interventi di Housing Sociale, in Techne, 2012, p. 112.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Intervento pubblico e iniziativa privata nel social housing

317

– sembra rinviare all’adesione a un progetto che vada oltre il semplice soddisfacimento di un bisogno elementare. In queste pagine si affronteranno alcuni dei profili giuridici del social housing, che l’esempio portato in apertura aiuta a mettere a fuoco. Si tratta di profili che toccano problemi molto più generali (la garanzia dei diritti sociali, il rapporto tra pubblico e privato), ai quali potrà qui solo accennarsi, ma che rivelano la complessità di un fenomeno che – seppur ancora limitato nella sua diffusione5 – sembra destinato a crescere nell’immediato futuro6. È bene chiarire, anzitutto, che ci si occuperà del social housing “in senso stretto”. Capita infatti, specialmente nel contesto sovranazionale, che l’espressione social housing sia riferita a tutte le politiche e gli strumenti pubblici di contrasto al disagio abitativo7; al contrario ci si riferirà qui a quegli strumenti che sono complementari rispetto alla edilizia residenziale pubblica8 e che sono rivolti all’«area grigia», cioè

5   Le stime indicano infatti che gli alloggi riconducibili al social housing sono circa novemila soltanto: v. Forum Disuguaglianze Diversità, Una casa dignitosa, sicura e socievole per tutti. Una missione strategica attivata dal Piano Nazionale di Ripresa e Resilienza, 14 febbraio 2021. 6   Il Piano Nazionale di Ripresa e Resilienza (PNRR), adottato come noto sulla spinta del programma europeo Next Generation EU, nell’ambito della missione dedicata a inclusione e coesione, prevede uno specifico investimento (2,8 mld) per il «Programma innovativo della qualità dell’abitare» (PINQuA), nel quale ha rilievo centrale proprio il social housing (v. infra, par. 7). 7  Si vedano, tra vari esempi, la «Risoluzione del Parlamento europeo dell’11 giugno 2013 sull’edilizia popolare nell’Unione europea» e la «Risoluzione del Parlamento europeo del 21 gennaio 2021 sull’accesso a un alloggio dignitoso e a prezzi abbordabili per tutti». Si noti che, nella versione italiana della risoluzione del 2013, l’espressione inglese social housing diviene alternativamente «edilizia popolare» o «edilizia abitativa sociale» e sembra quindi includere sia quelle che in Italia sono le tradizionali politiche abitative (edilizia popolare o pubblica), sia quelle di più recente sperimentazione (edilizia sociale). Nella risoluzione del 2021, continuano a essere utilizzate entrambe le espressioni, talvolta come sinonimi (v. punto 51), talaltra invece in senso diverso, sebbene non specificato (per esempio, nella risoluzione il Parlamento invita la Commissione e gli Stati membri ad aumentare gli investimenti in «alloggi sociali, pubblici, efficienti sotto il profilo energetico, adeguati e a prezzi accessibili» (v. punto 53). Riguardo al passaggio da “pubblico” a “sociale” è fondamentale R. Lungarella, Social housing: una definizione inglese di “edilizia residenziale pubblica”?, in Ist. feder., 2010, p. 271 ss. 8   Secondo la definizione di M. Allena e M. Renna, L’housing sociale, in F.G. Scoca, P. Stella Richter e P. Urbani (a cura di), Trattato di diritto del territorio, Torino, 2018, spec. p. 290 ss. Per una definizione più analitica, M.G. Della Scala, Il social housing come servizio d’interesse generale tra tutela multilivello del diritto sociale all’abitare e imperativi della concorrenza, in Riv. giur. edil., 2019, p. 181:

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

318

Ippolito Piazza

a coloro che, pur non privi dei mezzi di sussistenza, non sono in grado di accedere all’abitazione tramite il libero mercato. Sarà tuttavia inevitabile, proprio per tale rapporto di complementarietà, fare alcuni riferimenti all’edilizia residenziale pubblica9. Occorrerà, dunque, ricostruire il quadro normativo del social housing, con uno sguardo, oltre che alla legislazione nazionale, ad alcune esperienze regionali. Si può già anticipare che il quadro normativo è insufficiente a restituire la complessità del social housing: non soltanto per la frammentarietà della legislazione, ma soprattutto perché il social housing, essendo fondato sull’iniziativa privata, si presenta in forme varie e molteplici10. È, infatti, determinante l’interazione tra soggetti privati operanti sul territorio ed enti locali. «Gli istituti innovativi e le formule originali tese a dare risposta a tali multiformi e mutevoli istanze, sintetizzate nella formula del social housing, si caratterizzano, in prima approssimazione, per quattro principali profili: la tendenziale plurifunzionalità degli interventi, miranti a soddisfare una molteplicità di bisogni di carattere sociale e ambientale; la cooperazione pubblico-privato nella programmazione e realizzazione dei medesimi; il riferirsi a categorie diverse da quelle tradizionalmente considerate dall’edilizia residenziale pubblica; il necessario misurarsi con il sistema dei diritti e delle libertà di matrice europea, svelando la dialettica in atto tra diritti sociali e valori economici in ordinamenti interni ormai necessariamente influenzati dagli equilibri istituzionali disegnati dal sistema giuridico sovranazionale». Lo stesso Consiglio di Stato, nella sentenza dell’Adunanza plenaria del 30 gennaio 2014, n. 7, ha definito il social housing come una «modalità di intervento nella quale gli aspetti immobiliari vengono studiati in funzione dei contenuti sociali, offrendo una molteplicità di risposte per le diverse tipologie di bisogni, dove il contenuto sociale è prevalentemente rappresentato dall’accesso a una casa dignitosa per coloro che non riescono a sostenere i prezzi di mercato, ma anche da una specifica attenzione alla qualità dell’abitare». 9   L’edilizia residenziale pubblica si ripartisce tradizionalmente in: “edilizia sovvenzionata”, volta alla costruzione di abitazioni da destinare in modo permanente alla locazione e finanziata direttamente dallo Stato; “edilizia agevolata”, volta a garantire l’accesso alla proprietà della casa a categorie protette o corporative tramite la concessione di agevolazioni statali per la copertura degli interessi sui mutui contratti dagli assegnatari; “edilizia convenzionata”, volta a garantire l’acquisto o la locazione a costo calmierato per alcune categorie attraverso la stipula di convenzioni tra i comuni e i costruttori (v., per tutti, G.M. Racca, L’edilizia abitativa sociale pubblica, in L. Lenti (a cura di), Tutela civile del minore e diritto sociale della famiglia, VI, in Tratt. dir. fam. Zatti, p. 873 ss.; P. Urbani, L’edilizia residenziale pubblica tra Stato e autonomine locali, in Ist. feder., 2010, p. 252; nonché l. 5 agosto 1978, n. 457). Tra queste tre categorie, «è certamente la prima quella diretta a coloro che versano in stato di bisogno e che vantano la pretesa maggiore ad alloggi popolari» (P. Urbani, ibidem), ed è quindi a essa che si farà riferimento; anche perché l’«edilizia residenziale pubblica […] ha perduto la sua pluralità di contenuti e forme, finendo, così, per identificare, nell’interpretazione prevalente, solo gli alloggi di proprietà di enti pubblici» (R. Lungarella, Social housing, cit., p. 272). 10  Per un’ampia casistica, si rinvia a M. Bernardi, Pratiche e sperimentazioni ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Intervento pubblico e iniziativa privata nel social housing

319

Proprio l’interazione tra pubblico e privato pone il problema della individuazione delle regole applicabili a un’attività, almeno in parte, “privata”, ma certamente rivolta alla soddisfazione di interessi generali. Si tratta di un risvolto di un problema più ampio e ormai tradizionale, quello cioè dell’attività “oggettivamente” amministrativa. Vedremo come la giurisprudenza e la dottrina abbiano sposato una tesi diretta alla pubblicizzazione delle regole del social housing, così da tutelare gli interessi pubblici e privati da esso coinvolti. Tuttavia, si mostrerà come un simile processo di pubblicizzazione incontri dei limiti, almeno per alcune esperienze di social housing, per il rispetto della iniziativa privata che ne è alla base (pena, altrimenti, uno stravolgimento delle stesse). In tal senso, la soluzione al problema, come si dirà, andrà cercata nella natura del social housing come strumento complementare all’edilizia pubblica, incentivato attraverso risorse pubbliche ma basato sull’iniziativa privata. Proprio per questa sua natura, vi è un’ultima questione da affrontare: che ruolo ha o può avere il social housing rispetto alla soddisfazione dei bisogni abitativi o addirittura rispetto al diritto alla casa? Infine, una volta delineato un quadro del social housing, si formuleranno alcune osservazioni e ipotesi riguardanti il prossimo futuro e il rapporto con l’innovazione e le nuove tecnologie. 2. Benché si presenti con i tratti peculiari accennati nel paragrafo precedente (soddisfazione di bisogni complessi di persone non indigenti, attraverso l’azione congiunta di pubblico e privato), il social housing costituisce pur sempre una risposta a un problema che da più di un secolo i pubblici poteri si incaricano di risolvere11: quello della difficoltà, dell’abitare in Italia, in C. Iaione, M. Bernardi e E. De Nictolis (a cura di), La casa per tutti. Modelli di gestione innovativa e sostenibile per l’adequate housing, Bologna 2019, p. 195 ss. e P. Duret, Nuove sinergie nel crocevia dell’housing sociale, in P. Duret (a cura di), Nuove sinergie per il social housing, Napoli 2020, p. 3 ss. 11   Come ricorda S. Civitarese Matteucci, L’evoluzione della politica della casa in Italia, in Riv. trim. dir. pubbl., 2010, p. 169, le politiche abitative sono «conseguenza dei fenomeni di inurbamento, connessi all’industrializzazione, che in Italia divengono cospicui, soprattutto nel Nord del paese, dall’inizio del XX secolo». Anche M. Nigro, nel suo L’edilizia popolare come servizio pubblico (considerazioni generali), in Riv. trim. dir. pubbl., 1957, p. 118 ss., primo saggio organico sulla materia (sul quale si vedano le considerazioni di A. Sandulli, Mario Nigro, giurista dello stato democratico-sociale, ivi, 2010, p. 646 s.) riconosceva come, pur non essendo mancati nel corso della storia interventi volti a provvedere un alloggio ai più poveri, «un’azione diffusa ed organica dello Stato, diretta ad agevolare ad una categoria di cittadini, identificabili per la loro ridotta capacità economica […] l’acquisizione di un alloggio, o addirittu© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

320

Ippolito Piazza

per alcune fasce della popolazione, di procurarsi una casa. Ecco perché è necessario, prima di affrontare gli aspetti giuridici del social housing, rammentare i contorni di tale problema, che per comodità di inquadramento va sotto il nome di “disagio abitativo”12, e lo stato delle politiche abitative in Italia nel momento in cui il social housing è stato introdotto. Quella italiana è spesso definita come una “società di proprietari di casa”: in effetti, più del 70% delle famiglie italiane (che sono circa 25 milioni) vive in abitazioni di proprietà13. Un simile risultato è stato favorito dalle politiche pubbliche attuate nello scorso secolo, attraverso normative di favore per l’accesso alla proprietà e attraverso la cessione agli inquilini di parte del patrimonio immobiliare pubblico14. In realtà, benché il favore per la proprietà sia stato un elemento ricorrente nelle politiche abitative italiane, queste ultime sono state attuate nel tempo attraverso una varietà notevole di strumenti. È sufficiente pensare che i pubblici poteri possono intervenire – e sono intervenuti – sul lato dell’offerta abitativa (incrementando la costruzione di alloggi), sul lato della domanda (per esempio, tramite trasferimenti alle famiglie per l’acquisto della casa sul mercato), sulla regolazione dei rapporti privati (regolando, in primo luogo, il mercato delle locazioni)15. Riguardo alle politiche che agiscono sull’offerta di abitazioni – tra ra mettendolo a loro disposizione […] è sicuramente solo contemporanea, risalendo all’incirca alla seconda metà del secolo scorso o addirittura ai primi del nostro» (ivi, p. 121). Sui “precedenti” storici delle politiche abitative, v. A. Divari, De social housing#an italian brief history, in Nomos, 2019, p. 175 ss. 12   Anche questa espressione, come è facile intuire, si presta a una pluralità di significati: è qui sufficiente intenderla in senso lato e riferirla ai dati di seguito esposti. Come rileva A. Simoncini, L’abitazione come diritto fondamentale. Introduzione, in A. Bucelli (a cura di), L’esigenza abitativa. Forme di fruizione e tutele giuridiche, Padova 2013, p. 15, l’utilizzo del termine “disagio”, in luogo di “esigenza” (abitativa), serve a includervi i «problemi crescenti anche di chi – a titolo di proprietà o di affitto – ha una abitazione». 13  Istat, Censimento generale della popolazione e delle abitazioni, 2011. Sugli effetti distorsivi di queste stime ottimistiche, che hanno contribuito a inaridire il finanziamento dell’edilizia residenziale pubblica, v. P. Urbani, L’edilizia residenziale, cit., p. 250 s., il quale rileva come sia comunque consistente la percentuale di cittadini non proprietari di casa, che oltretutto la proprietà dell’abitazione spesso non corrisponde al luogo di lavoro (in ragione degli spostamenti verso le grandi città e verso il nord) e che, infine, occorre tener conto dei bisogni della popolazione immigrata. 14   Ricostruisce l’evoluzione della legislazione sulla materia, evidenziando l’emersione di una preferenza per la proprietà della casa, E. Olivito, Il diritto costituzionale all’abitare. Spinte proprietarie, strumenti della rendita e trasformazioni sociali, Napoli 2017, spec. p. 144 ss. V. anche S. Civitarese Matteucci, L’evoluzione, cit., spec. p. 172. 15  I. Costarelli e M. Maggio, Il welfare abitativo italiano. Un’analisi delle norISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Intervento pubblico e iniziativa privata nel social housing

321

le quali rientra il social housing – la prima normativa rilevante fu la legge Luttazzi (l. 31 maggio 1903, n. 254), il cui oggetto principale era costituito dalla autorizzazione alle casse di risparmio (a cui erano equiparati i monti di pietà) a concedere prestiti «per la costruzione e l’acquisto di case popolari», anche oltre i limiti fissati nei rispettivi statuti per i mutui o i conti correnti con ipoteca16. Destinatarie dei prestiti erano le società cooperative, che dovevano avere come oggetto esclusivo la costruzione, l’acquisto e la vendita ai soci o la locazione (anche ai non soci) di case popolari. La legge fissava altresì le caratteristiche dei destinatari: le case popolari potevano infatti essere vendute o locate solo a famiglie o persone che avessero una entrata complessiva non superiore a un limite fissato per regolamento17. L’intervento pubblico era quindi volto essenzialmente a favorire l’iniziativa privata, secondo una prospettiva tipicamente liberale18, come confermava ulteriormente la legge Luttazzi nel prevedere alcune agevolazioni per le «case popolari» costruite da industriali, proprietari e conduttori di terre e vendute o date in affitto ai dipendenti, impiegati, operai, coltivatori19. L’intervento pubblico diretto era invece “sussidiario”20 e rimesso ai Comuni, i quali, quando si fosse «riconosciuto il bisogno di provvedere alloggi per le classi meno agiate» e ove mancassero i soggetti prima citati e le società di beneficienza, erano autorizzati a intraprendere la costruzione di case popolari «soltanto per darle in pigione»21. Sebbene questa fosse l’impostazione di fondo della legge, la stessa è altresì ricordata come il provvedimento normativo che ha dato vita agli istituti autonomi per le case popolari, enti pubblici ancora oggi operanti nel settore dell’edilizia pubblica: a questi «corpi morali legalmente riconosciuti» che avesmative regionali del decennio 2008-2018, in Riv. it. pol. pubbl., 2021, p. 298; S. Civitarese Matteucci, L’evoluzione, cit., p. 168 s. 16   Art. 1, l. n. 254 del 1903. La legge autorizzava anche le opere pie e le imprese di assicurazione a fare prestiti e mutui per la costruzione di case popolari; norme di favore erano previste anche per gli istituti di credito fondiario. 17   Si veda l’art. 4, l. n. 254 del 1903, che stabiliva comunque il limite massimo in 3500 lire. 18   M. Allena e M. Renna, L’housing sociale, cit., p. 295: «Il descritto meccanismo, nel quale le autorità pubbliche agivano essenzialmente come “regolatrici” del sistema, rispondeva a rigorosi canoni liberali e al connesso principio di non ingerenza, salvo stretta necessità, dello Stato nel fenomeno economico […]». 19   Art. 15, l. n. 254 del 1903. 20   S. Civitarese Matteucci, L’evoluzione, cit., p. 170, parla di «una sorta di criterio di sussidiarietà orizzontale ante litteram». 21   Art. 18, l. n. 254 del 1903. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

322

Ippolito Piazza

sero come fine esclusivo «di compiere operazioni per le case popolari» erano infatti garantiti tutti i benefici stabiliti nella legge Luttazzi22. Un decisivo impulso alle politiche di offerta di abitazioni venne poi nel secondo dopoguerra, quando, grazie anche ai fondi del piano Marshall, fu avviato un piano di costruzione di abitazioni per i lavoratori di durata settennale. Si tratta del c.d. «piano INA-Casa» (l. 28 febbraio 1949, n. 43), così chiamato perché per la sua esecuzione veniva costituita presso l’istituto nazionale per le assicurazioni una gestione autonoma, munita di personalità giuridica (Gestione INA-Casa). La gestione autonoma avrebbe dato esecuzione alle deliberazioni adottate da un comitato di nomina governativa, nel quale, insieme ai rappresentanti dei ministeri, trovavano posto anche i rappresentanti dei lavoratori. In particolare, il comitato aveva il compito di presiedere all’impiego dei fondi raccolti, predisporre il piano di costruzione degli alloggi e dei relativi ammortamenti e vigilare sulla sua attuazione. Il piano era finanziato attraverso un contributo pubblico e attraverso contributi versati dai lavoratori e dai datori di lavoro. La legge prevedeva che metà degli alloggi costruiti fosse da destinare alla locazione e metà alla vendita in favore dei lavoratori assegnatari, secondo quella impostazione di preferenza per la proprietà alla quale si è fatto cenno. Per quanto riguarda la metà degli alloggi destinati alla locazione, questi sarebbero stati affidati agli istituti delle case popolari, all’istituto nazionale per le case degli impiegati dello Stato, agli istituti di previdenza o altri enti pubblici similari, ai quali, al termine della gestione INA, gli alloggi sarebbero stati definitivamente trasferiti in proprietà. Il piano INA-Casa è ricordato come il più robusto investimento pubblico nel settore abitativo, che – nonostante i risultati al di sotto delle attese23 – portò alla costruzione di 335 mila appartamenti24. Alcuni anni più tardi la gestione INA-Casa venne soppressa e sostituita con un nuovo piano decennale, il c.d. piano Gescal («Gestione case per lavoratori»)25, sempre finanziato attraverso contributi dello Stato, dei lavoratori e dei datori di lavoro, la cui resa però fu inferiore 22   Come ricorda M. D’Amuri, La casa per tutti nell’Italia giolittiana. Provvedimenti e iniziative per la municipalizzazione dell’edilizia popolare, Milano 2013, p. 67 ss., l’ispirazione per questa previsione venne dall’esperienza avviata l’anno precedente a Trieste, dove era stato creato un Istituto comunale per abitazioni minime. 23   S. Civitarese Matteucci, L’evoluzione, cit., p. 172. 24  I. Costarelli e M. Maggio, Il welfare abitativo italiano, cit., p. 299. 25   Legge 14 febbraio 1963, n. 60.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Intervento pubblico e iniziativa privata nel social housing

323

rispetto al piano precedente. Le principali ragioni del fallimento sono individuate nella inefficienza gestionale delle amministrazioni centrali e nella incapacità dei comuni di predisporre i piani di zona necessari per localizzare ed espropriare le aree in cui edificare gli immobili26. All’inizio degli anni Settanta fu varata una nuova legge (l. 22 ottobre 1971, n. 865), che tentò di regolare in maniera organica la materia dell’edilizia pubblica, agendo prima di tutto sul versante organizzativo. La legge autorizzò infatti il governo a provvedere allo scioglimento degli enti pubblici edilizi sia a carattere nazionale che locale (tra i quali la Gescal ma anche enti che si occupavano di specifiche categorie di lavoratori, come gli impiegati dello Stato), strutturando il sistema attorno al Ministero dei lavori pubblici, a livello centrale, e gli istituti autonomi per le case popolari (IACP), a livello periferico. Presso il primo era istituito un Comitato per l’edilizia residenziale, col compito di programmare l’utilizzo dei fondi e verificarne l’utilizzo, mentre agli IACP spettava l’esecuzione dei programmi. Per finanziare questa programmazione, oltre a nuovi stanziamenti, la legge prevedeva che vi confluissero tutti i fondi precedentemente stanziati «a qualsiasi titolo dallo Stato, dalle aziende statali e dagli enti pubblici edilizi a carattere nazionale, destinati agli stessi scopi»27. Gli anni Settanta si chiusero con un nuovo piano decennale di edilizia residenziale (l. n. 457 del 1978), affidato sempre al Comitato per l’edilizia residenziale, che avrebbe agito sulla base degli indirizzi programmatici del Cipe. Quello del 1978 – anno nel quale, sul diverso versante della regolazione dei rapporti privati, venne introdotta la nuova disciplina delle locazioni di immobili urbani (l. 27 luglio 1978, n. 392) e con essa un limite ai canoni di locazione (c.d. equo canone) – può considerarsi l’«ultimo provvedimento organico di finanziamento dell’edilizia residenziale pubblica», poiché la disciplina successiva ha mostrato «caratteri ancora più marcatamente episodici ed improntati ad emergenza e straordinarietà»28. Dalla fine degli anni Settanta, l’intervento pubblico, e in particolare quello statale, si è infatti andato via via riducendo, per 26   Si veda ancora S. Civitarese Matteucci, L’evoluzione, cit., p. 172 s. e la letteratura ivi citata. 27   Art. 1, l. n. 865 del 1971; v. anche l’art. 67. 28   S. Civitarese Matteucci, L’evoluzione, cit., p. 174. Ricorda R. Lungarella, Social housing, cit., p. 272, che anche i programmi realizzati in base alla successiva l. 17 febbraio 1992, n. 179, recante «Norme per l’edilizia residenziale pubblica», furono finanziati con le economie del piano del ’78.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

324

Ippolito Piazza

l’azione (principalmente e semplificando) di tre fattori: l’attenuazione del problema della casa, che si era fatto meno pressante rispetto ai primi anni del dopoguerra e che quindi perse centralità nel dibattito politico; il peggioramento della situazione della finanza pubblica; il processo di trasferimento delle competenze in materia di edilizia pubblica alle regioni, prima attraverso il d.P.R. 24 luglio 1977, n. 616, e il d.lg. 31 marzo 1998, n. 112, infine con la revisione del titolo V della Costituzione. A quest’ultimo proposito, occorre sottolineare che non si è trattato di una semplice sostituzione dell’amministrazione centrale con quelle regionali: lo spostamento delle competenze in capo alle regioni non è stato infatti accompagnato dal necessario finanziamento delle stesse. Il risultato è stato l’abbandono dell’intervento pubblico (complessivamente considerato) nel settore, cosa che «ha determinato nel breve volgere di un decennio il collasso del sistema»29. Il XX secolo è stato pertanto segnato da una parabola nell’intervento pubblico nell’offerta di abitazioni ai ceti più svantaggiati, con un primo tratto ascendente nel quale lo Stato si è fatto carico del problema attraverso il sostegno all’iniziativa privata; un vertice toccato quando l’impegno dello Stato si è concretizzato direttamente nella costruzione di abitazioni; infine, un tratto discendente, col progressivo abbandono delle politiche di edilizia pubblica e dei relativi finanziamenti. Così, la spesa per l’edilizia pubblica in Italia ha finito per essere pari a soltanto l’1% del Pil, contro percentuali decisamente più alte di altri paesi europei30, e gli alloggi di edilizia residenziale sono stati destinati unicamente ai nuclei più poveri e più fragili socialmente, secondo un processo di «residualizzazione»31. Da alcuni anni il problema abitativo è però tornato ad affacciarsi con forza, a causa delle ricorrenti (e perduranti) crisi economiche e del conseguente impoverimento della popolazione. Secondo una stima recente, gli alloggi in locazione nel sistema dell’edilizia residenziale pubblica (ERP) sono più di 790 mila (87,5 mila sono quelli in locazione a riscatto)32, tuttavia è generalmente attestato che siano 650 mila le famiglie

  P. Urbani, L’edilizia residenziale, cit., p. 250.   In particolare, il 2,9% in Francia e il 5,6% in Inghilterra: i dati, riferiti al 2002, sono citati da P. Urbani, L’edilizia residenziale, cit., p. 254. 31  I. Costarelli e M. Maggio, Il welfare abitativo italiano, cit., p. 296. 32   Osservatorio Edilizia Residenziale Pubblica, a cura di Nomisma e Federcasa, febbraio 2019 (su dati del 2016). 29 30

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Intervento pubblico e iniziativa privata nel social housing

325

in attesa di assegnazione di un alloggio pubblico33. Ancor più significativo è che il problema della casa non riguarda oggi soltanto coloro che hanno i requisiti per accedere agli alloggi ERP, ma interessa ormai molte più persone (quella “area grigia” variamente composta da giovani, immigrati, famiglie di reddito medio-basso e così via). In base a stime degli ultimi anni, il disagio abitativo riguarda circa 1,4 milioni di famiglie, cioè il 5,7% del totale. Le stime riguardano sia famiglie che vivono in affitto (circa 1,1 milioni), sia famiglie proprietarie di casa (circa 300 mila), sulle quali pesano rispettivamente il canone di locazione e la rata mensile del mutuo34. Per disagio abitativo non deve intendersi, infatti, soltanto la difficoltà nel procurarsi una abitazione ma anche la difficoltà nel mantenerla senza erodere eccessivamente le risorse familiari. Ebbene, secondo dati Eurostat, in Italia l’8,2% della popolazione vive in famiglie che spendono più del 40% del proprio reddito per l’abitazione, una percentuale di poco inferiore rispetto alla media europea (9,6%)35. Tutto questo ha imposto la ricerca di nuove soluzioni al problema abitativo, tra le quali rientra appunto il social housing (par. 4). 3. Mentre le politiche abitative, dopo gli anni Settanta, andavano incontro a un progressivo declino, su di un altro piano avveniva invece un processo contrario: venivano infatti delineandosi con sempre maggior forza e nitidezza i contorni di un “diritto alla casa”36, nelle 33   Per tutti, v. E. Puccini, Il diritto all’abitare nell’epoca del Covid-19, in Parolechiave, 2020, p. 207. 34   Dimensione del disagio abitativo pre e post emergenza Covid-19. Numeri e riflessioni per una politica di settore, documento elaborato da Nomisma e Federcasa, maggio 2020. 35  Eurostat, Statistiche sulle abitazioni, 2020, reperibili sul sito www.ec.europa. eu/eurostat/. 36   Si è consapevoli che nel dibattito giuridico è più diffusa l’espressione “diritto all’abitazione”, per sottolineare che ciò che conta non è tanto la disponibilità di un immobile quanto la sua destinazione a fine abitativo: tuttavia, ci pare che in questa circostanza un termine più comune come “casa” risulti ugualmente comprensibile e maggiormente evocativo del contenuto di un diritto che dovrebbe soddisfare plurime e fondamentali esigenze della persona umana. Sulla distinzione tra abitazione e casa, nonché sulla complessità dei bisogni legati all’abitazione, v. già G. Tatarano, Accesso al bene «casa» e tutela privatistica, in N. Lipari (a cura di), Tecniche giuridiche e sviluppo della persona, Roma-Bari 1974, p. 407: «Oggi l’individuo prende in fitto o acquista una casa per soddisfare oltre che bisogni biogenici (sussistenza, efficienza, confortevolezza), bisogni sociogenici, che si sviluppano cioè con i rapporti sociali e tendono a diventare non meno forti e urgenti dei primi: desiderio di riconoscimento e approvazione, di una propria privacy, di benessere e sicurezza nel futuro. Con la

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

326

Ippolito Piazza

carte internazionali dei diritti ma anche in ambito giurisprudenziale e scientifico37. A livello internazionale, un riferimento al diritto alla casa si trova già nella Dichiarazione universale dei diritti umani, approvata dalle Nazioni Unite nel 1948: l’art. 25 sancisce infatti il diritto di ogni individuo a «un tenore di vita sufficiente a garantire la salute e il benessere proprio e della sua famiglia, con particolare riguardo all’alimentazione, al vestiario, all’abitazione, e alle cure mediche e ai servizi sociali necessari». Sempre l’Assemblea generale delle Nazioni Unite adottò qualche anno più tardi il Patto internazionale sui diritti economici, sociali e culturali (1966), nel quale il diritto sancito dalla Dichiarazione universale è ribadito, insieme all’impegno degli Stati a darvi attuazione38. A livello europeo troviamo riconosciuto (dal 1996) il diritto alla casa nella Carta sociale europea, adottata dal Consiglio d’Europa, che afferma il diritto di tutte le persone ad avere un’abitazione e che prevede l’impegno degli Stati a garantirne l’effettivo esercizio attraverso misure destinate a «1- favorire l’accesso ad un’abitazione di livello sufficiente; 2- a prevenire lo status di “senza tetto” in vista di eliminarlo gradualmente; 3- rendere il costo dell’abitazione accessibile alle persone che non dispongono di risorse sufficienti». Di «diritto all’assistenza abitativa» parla invece il terzo paragrafo dell’art. 34 della Carta dei diritti fondamentali dell’Unione europea, in base al quale «al fine di lottare contro l’esclusione sociale e la povertà, l’Unione riconosce e rispetta il diritto all’assistenza sociale e all’assicasa il consumatore tende ad acquistare scuole, strade, chiese, negozi, servizi pubblici, vicini di casa, un tragitto casa-lavoro, uno status sociale, una vita culturale, insomma una maniera di vivere. “Abitazione” è allora espressione ellittica, per indicare un complesso di bisogni che il bene “casa” è destinato a soddisfare […]». 37   Sulle opposte parabole, riguardo al diritto alla casa, della dottrina e del legislatore, v. anche F. Pallante, Il problema costituzionale dell’attuazione dei diritti sociali (con particolare riguardo al diritto all’abitazione), in Questione giustizia online, 2018 e E. Bargelli, La costituzionalizzazione del diritto privato attraverso il diritto europeo. Il right to respect for the home ai sensi dell’art. 8 CEDU, in Eur. dir. priv., 2019, p. 51 ss. 38   Art. 11, Patto internazionale sui diritti economici, sociali e culturali: «Gli Stati Parti del presente Patto riconoscono il diritto di ogni individuo ad un livello di vita adeguato per sé e per la sua famiglia, che includa alimentazione, vestiario ed alloggio adeguati […]. Gli Stati Parti prenderanno misure idonee ad assicurare l’attuazione di questo diritto […]». Si veda anche l’art. 2, che impegna ogni Stato parte «ad operare […] con il massimo delle risorse di cui dispone al fine di assicurare progressivamente con tutti i mezzi appropriati, compresa in particolare l’adozione di misure legislative, la piena attuazione dei diritti riconosciuti nel presente Patto». ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Intervento pubblico e iniziativa privata nel social housing

327

stenza abitativa volte a garantire un’esistenza dignitosa a tutti coloro che non dispongano di risorse sufficienti, secondo le modalità stabilite dal diritto dell’Unione e le legislazioni e prassi nazionali». Da ultimo, sempre nell’ordinamento dell’Unione, si è aggiunto il Pilastro europeo dei diritti sociali (2017), tra i cui principi fondamentali ve n’è uno (n. 19) dedicato ad «Alloggi e assistenza per i senzatetto», in base al quale: (a) le persone in stato di bisogno hanno accesso ad alloggi sociali o all’assistenza abitativa di qualità; (b) le persone vulnerabili hanno diritto a un’assistenza e a una protezione adeguate contro lo sgombero forzato; (c) ai senzatetto sono forniti alloggi e servizi adeguati al fine di promuoverne l’inclusione sociale. Si tratta di prescrizioni rivolte in primo luogo agli Stati, che – di là dagli specifici limiti applicativi39 – vanno nella direzione di configurare il diritto alla casa come un diritto-ragione40, cioè una giustificazione, fornita da un principio, per l’attribuzione di una serie di micro-diritti, che richiedono attuazione da parte del legislatore41. Ciò non significa che le richiamate previsioni sul diritto alla casa siano prive di conseguenze apprezzabili. In primo luogo, a seguito delle sentt. n. 120 e n. 194 del 2018 della Corte costituzionale, la Carta sociale europea è da considerarsi parametro interposto di legittimità costituzionale, ai sensi dell’art. 117, comma 1, Cost.42. Inoltre, le previsioni delle carte internazionali possono avere un rilievo a livello interpretativo riguardo alla normativa domestica43. Oltre a questo, occorre anche considerare il rilievo 39   La Carta europea dei diritti fondamentali, come noto, prevede un ambito applicativo limitato alle istituzioni e agli organi dell’Unione, mentre le sue disposizioni si applicano agli Stati membri limitatamente all’attuazione del diritto europeo (art. 51). 40   In tal senso, S. Civitarese Matteucci, L’evoluzione, cit., p. 164. 41   Si veda, per tutti, M. Barberis, Una filosofia del diritto per lo stato costituzionale, Torino 2017, p. 41 ss. 42   In proposito, tra altri, v. C. Lazzari, Sulla Carta Sociale Europea quale parametro interposto ai fini dell’art. 117, comma 1, Cost.: note a margine delle sentenze della Corte Costituzionale n. 120/2018 e n. 194/2018, e G.E. Polizzi, Le norme della Carta sociale europea come parametro interposto di legittimità costituzionale alla luce delle sentenze Corte costituzionale nn. 120 e 194 del 2018, entrambi in federalismi.it, 2019; in dottrina, prima delle sentenze della Corte, v. S. Civitarese Matteucci e G. Gardini, Diritto alla casa e uguaglianza sostanziale: dalla edilizia economica e popolare ai programmi di riabilitazione urbana, in Pausania.it, 2006 e M. Allena, Il social housing: posizioni giuridiche soggettive e forme di tutela tra ordinamento nazionale ed europeo, in Dir. pubbl., 2014, p. 184 ss. 43   M. Allena, Il social housing, cit., p. 190 s. L’A. ritiene in realtà che, oltre al rilievo interpretativo, l’art. 31 della Carta possa avere un «contenuto essenziale immediatamente precettivo e tale da creare posizioni di vantaggio in capo al cittadino» e che,

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

328

Ippolito Piazza

della Convenzione EDU in questa materia: sebbene infatti quest’ultima non contempli il diritto alla casa, i giudici di Strasburgo hanno assicurato alcune garanzie attraverso l’applicazione dell’art. 8, relativo al diritto al rispetto della vita privata e familiare, e dell’art. 1 del protocollo addizionale relativo alla protezione della proprietà. Si tratta però di garanzie essenzialmente procedurali o, comunque, riconosciute in casi particolarmente gravi o nelle ipotesi di spossessamento della casa44. Del resto, anche quando la Corte EDU invoca una obbligazione di risultato a garantire un tetto alle persone vulnerabili, lo fa parlando di una «obbligazione in senso descrittivo», poiché le norme della Convenzione non hanno «un’efficacia diretta nei confronti dei singoli individui», inoltre, le sentenze della Corte non forniscono «pretese spendibili in giudizio dai singoli individui nei confronti degli Stati condannati»45. Il sistema multilivello di tutela può costituire una base per il riconoscimento del diritto alla casa anche in sede nazionale, dove, come noto, l’unico riferimento espresso a livello costituzionale è rappresentato dall’art. 47, c. 2, che impegna la Repubblica a favorire l’accesso del risparmio popolare alla «proprietà dell’abitazione». Proprio il riferimento all’”abitazione” ha permesso alla dottrina di offrire una lettura che valorizzasse una lettura funzionale della previsione costituzionale: la «proprietà dell’abitazione» non deve essere riferita tanto al bene “casa”, quanto alla funzione che essa svolge («…il favore costituzionale va, dunque, verso la proprietà della casa solo se e in quanto essa sia destinata ad abitazione del proprietario; e non ad una abitazione ma alla abitazione»)46. quindi, «non vi siano convincenti ragioni, almeno in linea di principio, per negare al diritto alla casa riconosciuto nella Carta sociale europea […] la tutela giurisdizionale a tutti riconosciuta dai principi costituzionali interni (e, in particolare, dall’art. 24 Cost.)» (ivi, p. 184). Sul punto della tutela giurisdizionale si tornerà oltre in questo paragrafo. 44   In argomento, E. Bargelli, La costituzionalizzazione, cit., par. 6, M. Allena, Il social housing, cit., p. 192 ss. e della stessa A., Il social housing nel contesto giuridico sovranazionale ed europeo, in P. Duret (a cura di), Nuove sinergie per il social housing, cit., p. 87 ss. 45   E. Bargelli, La costituzionalizzazione, cit., par. 7. 46   D. Sorace, A proposito di «proprietà dell’abitazione», «diritto d’abitazione» e «proprietà (civilistica) della casa», in Riv. trim. dir. proc. civ., 1977, p. 1179. Traccia di un simile ragionamento si riscontra pure in quella giurisprudenza che nega che la nuda proprietà – non consentendo di poter usufruire dell’immobile come abitazione – possa giustificare la revoca dell’assegnazione di un alloggio sociale. Si veda in particolare Tar Latina, I, 2 febbraio 2012, n. 64: poiché la l. 28 aprile 1938, n. 1165, ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Intervento pubblico e iniziativa privata nel social housing

329

In realtà, di là dall’art. 47, comma 2, l’esistenza di un diritto alla casa trova un più solido fondamento in altre previsioni costituzionali, primo fra tutti l’art. 3: come è stato scritto con esemplare chiarezza, «la mancanza di un tetto è il primo o fra i primissimi ostacoli che, limitando di fatto la libertà e l’uguaglianza dei cittadini, impediscono il pieno sviluppo della persona umana»47. Aderendo a una lettura aperta dell’art. 2 della Costituzione, si può anche sostenere che il diritto alla casa rientri tra quelli inviolabili dell’uomo48. Ma, tralasciando per un momento la natura del diritto alla casa, è altresì evidente – come da tempo sostiene la dottrina – che il godimento di un’abitazione si colleghi a una serie ulteriori di garanzie costituzionali49: prima di tutto la tutela della salute (art. 32), ma anche la tutela della famiglia (artt. 30, 31, 36), di cui la casa è la «sede naturale, per così dire il territorio»50, e delle persone che abbiano diritto all’assistenza (art. 38)51. Si può quindi a buona ragione sostenere che il “diritto alla casa” abbia un fondamento costituzionale, come del resto da molti anni ha riconosciuto anche la Corte costituzionale. Nella nota sentenza del 25 febbraio 1988, n. 217, la Corte ha infatti affermato che l’impegno dei pubblici poteri nel favorire l’acquisto della prima casa si ricolleghi a art. 31, lett. a), stabilisce che non possa essere assegnato un alloggio «a chi sia proprietario nello stesso centro urbano di altra abitazione che risulti adeguata ai bisogni della propria famiglia», secondo il giudice amministrativo la nuda proprietà «che, per definizione, pone una separazione della proprietà dal suo contenuto di godimento (spettante quest’ultimo all’usufruttuario)» non consente al ricorrente di disporre di tale diritto sull’immobile per le esigenze della famiglia». 47   M. Nigro, L’edilizia popolare, cit., p. 154. V. anche T. Martines (e altri), Il «diritto alla casa», in N. Lipari (a cura di), Tecniche giuridiche, cit., p. 392: «L’abitazione costituisce punto di riferimento di un complesso sistema di garanzie costituzionali, e si specifica quale componente essenziale (oltre che presupposto logico) di una serie di “valori” strettamente collegati a quel “pieno sviluppo della persona umana” che la Costituzione pone a base (assieme all’istanza partecipativa) della democrazia sostanziale». 48   T. Martines (e altri), Il «diritto alla casa», cit., p. 392 s.: «In senso più specifico, l’abitazione appare come uno strumento indispensabile per consentire l’effettiva realizzazione dei diritti dell’uomo, sia come singolo sia nelle formazioni sociali ove si svolge la sua personalità (art. 2 Cost.)». 49   F. Modugno, I «nuovi diritti» nella giurisprudenza costituzionale, Torino 1995, p. 63: «il diritto all’abitazione è un diritto inviolabile anzitutto perché è deducibile da una pluralità di riferimenti costituzionali (artt. 2, 4, 13, 14, 16, 29, 30, 31, 32, 35, 36, 37, 38, 42 e 47) tutti rivolti a creare le condizioni minime di uno Stato sociale […]». Si veda anche F. Bilancia, Brevi riflessioni sul diritto all’abitazione, in Ist. feder., 2010, p. 231 ss. 50   T. Martines (e altri), Il «diritto alla casa», cit., p. 394. 51   M. Nigro, L’edilizia popolare, cit., p. 158. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

330

Ippolito Piazza

«fondamentali regole della civile convivenza, essendo indubbiamente doveroso da parte della collettività intera impedire che delle persone possano rimanere prive di abitazione» e, soprattutto, ha sancito che l’interesse all’acquisto della casa gode di «una particolare protezione come interesse di primaria importanza per la realizzazione della forma di Stato democratico voluto dalla Costituzione». Sempre secondo i giudici costituzionali, il «diritto all’abitazione rientra […] fra i requisiti essenziali caratterizzanti la socialità cui si conforma lo Stato democratico voluto dalla Costituzione». La Corte, trovandosi a giudicare la legittimità costituzionale (per una questione di riparto di competenza legislativa) della l. 18 dicembre 1986, n. 891 riguardante misure di favore per l’acquisto da parte dei lavoratori dipendenti della prima casa in aree ad alta tensione abitativa, fonda il suo argomento principalmente sull’art. 47, comma 2, di cui in effetti la legge in questione costituisce precisa attuazione; tuttavia, le citazioni appena riportate designano confini più vasti e basi ulteriori per il diritto alla casa. Del resto, nella stessa sentenza, si legge che l’art. 47, comma 2, individua nelle misure volte a rendere effettivo «il diritto delle persone più bisognose ad avere un alloggio in proprietà una forma di garanzia privilegiata dell’interesse primario ad avere un’abitazione». E infatti, poco più tardi, la stessa Corte ha sostenuto che le affermazioni contenute nella sent. n. 217 del 1988 hanno una portata più ampia di quella dell’art. 47, comma 2 e si ricollegano «al fondamentale diritto umano all’abitazione» rinvenibile già nella Dichiarazione del 1948 e nel Patto internazionale del 196652. Il diritto-ragione di rilievo costituzionale ha quindi trovato diverse traduzioni legislative in micro-diritti: dalle misure descritte nel paragrafo precedente, alla previsione di fondi di sostegno per le locazioni53, fino alle misure di favore per i conduttori nei contratti di locazione (si 52   Corte cost., 7 aprile 1988, n. 404. Sulla sentenza, criticamente, v. A. Pace, Il convivente more uxorio, il «separato in casa» e il c.d. diritto «fondamentale» all’abitazione, in Giur. cost., 1988, I, p. 1801 s., secondo cui la Corte non potrebbe desumere dalle Carte internazionali e da leggi ordinarie l’esistenza di un diritto fondamentale (inespresso) destinato peraltro a imporsi, come nel caso di specie, su un diritto fondamentale espresso in Costituzione (diritto di proprietà). In senso opposto si era espresso invece T. Martines (e altri), Il «diritto alla casa», cit., p. 395, secondo cui «sul diritto (di proprietà) sulla abitazione prevale, nel disegno costituzionale, il diritto alla abitazione, tutte le volte che non ne sia possibile la conciliazione». 53   Come il Fondo nazionale per il sostegno all’accesso alle abitazioni in locazione, di cui all’art. 11, l. 9 dicembre 1998, n. 431.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Intervento pubblico e iniziativa privata nel social housing

331

pensi per esempio alla durata minima dei contratti di locazione degli immobili a uso abitativo). Si tratta di una concretizzazione necessaria, dal momento che il rilievo costituzionale del diritto impone ai pubblici poteri di darvi attuazione54. Resta, però, al fondo una questione: esiste un diritto alla casa inteso in senso forte, cioè come pretesa azionabile nei confronti dei pubblici poteri a ottenere un alloggio? È possibile uscire dalla prospettiva del diritto-ragione per entrare in quella del diritto soggettivo? È evidente che la risposta a questa domanda trascende la questione del diritto alla casa e riguarda, più in generale, la esigibilità dei diritti sociali e la loro natura di diritti condizionati alla disponibilità di risorse pubbliche55. La dottrina ha dato alla domanda risposte diverse nel tempo. In un primo momento, anche coloro che con più forza hanno sostenuto le ragioni del diritto alla casa, si sono arrestati di fronte alla configurabilità di un diritto soggettivo, pur in presenza dei requisiti per accedere alle abitazioni di edilizia residenziale pubblica. È stata sostenuta al limite, per chi possedesse tali requisiti, la sussistenza di un interesse legittimo per reagire all’inadempimento delle amministrazioni a fronte di doveri previsti dalla legge (come la formazione dei piani di zone da destinare all’edilizia pubblica)56; mentre, per coloro privi dei requisiti, vi sarebbe stato solo un interesse semplice57. Una impostazione simile è stata confermata anche dalla dottrina   In tal senso, già T. Martines (e altri), Il «diritto alla casa», cit., p. 393 s.   La stessa Corte cost., nella sentenza del 18 maggio 1989, n. 252, di poco successiva a quelle prima richiamate, si è espressa in modo molto chiaro sulla natura condizionata del diritto alla casa: «Occorre, viceversa, precisare, sul tema di causa, che, come ogni altro diritto sociale, anche quello all’abitazione, è diritto che tende ad essere realizzato in proporzione delle risorse della collettività; solo il legislatore, misurando le effettive disponibilità e gli interessi con esse gradualmente satisfattibili, può razionalmente provvedere a rapportare mezzi a fini, e costruire puntuali fattispecie giustiziabili espressive di tali diritti fondamentali». Di recente, nella giurisprudenza amministrativa, v. Tar Lombardia, IV, 5 giugno 2018, n. 1421 e Tar Lombardia, IV, 20 novembre 2017, n. 2208, secondo cui «il diritto alla casa, come diritto sociale, non può essere inteso come pretesa assoluta di ottenere dai pubblici poteri un’abitazione al di fuori di qualsiasi regola ma pone semmai in capo all’amministrazione pubblica l’onere di organizzare, tenendo peraltro conto delle risorse disponibili, un sistema di assegnazione di alloggi pubblici». 56   T. Martines (e altri), Il «diritto alla casa», cit., p. 398. 57   Ivi, p. 398 s.: «Per gli altri, e cioè per coloro che sono esclusi dai benefici diretti dell’edilizia economica e popolare, si può semmai configurare la esistenza di un interesse semplice, esplicantesi nelle iniziative partecipatorie e genericamente tutelato dalle figure di responsabilità politica». 54 55

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

332

Ippolito Piazza

successiva, che ha distinto tre accezioni del diritto all’abitazione: un significato «forte» (diritto a ricevere in proprietà, in locazione o comunque in assegnazione un alloggio), uno «intermedio» (diritto soggettivo perfetto del locatario alla stabilità di godimento del proprio alloggio), uno «debole» (diritto strumentale rispetto ad altre situazioni soggettive riconosciute di bisogno)58. Ebbene, per i primi due significati, è addirittura escluso che essi siano compatibili col nostro ordinamento costituzionale, in quanto la proprietà fondiaria e l’attività edilizia sono (anche) private e non potrebbero essere riservate ai pubblici poteri59. Ad avviso di questa dottrina, il diritto alla casa è un diritto condizionato, che richiede la interposizione del legislatore per la sua attuazione, perché soltanto il legislatore può effettuare il necessario bilanciamento tra mezzi e fini in un determinato momento storico60. La dottrina più recente ha invece tentato di portare a compimento il discorso, immaginando i modi nei quali il diritto alla casa in senso forte possa essere fatto effettivamente valere. Anzitutto, un tale diritto può essere inteso come vincolo al legislatore (o, anche, un vincolo al bilancio): la Corte costituzionale dovrebbe cioè poter “colpire” la manovra di bilancio quando in quest’ultima il Parlamento non abbia stabilito risorse sufficienti per garantire il diritto alla casa61. Ma il diritto alla casa può essere inteso anche come diritto soggettivo azionabile ed esigibile: quando gli alloggi di edilizia residenziale pubblica non siano sufficienti per tutti coloro che abbiano i requisiti o quando siano insufficienti le risorse dei fondi di sostegno alle locazioni, si dovrebbe poter agire di fronte a un giudice, nei confronti delle pubbliche ammi-

  F. Modugno, I «nuovi diritti», cit., p. 58.   Ivi, p. 58: «[…] nel significato forte e anche in quello intermedio, tale diritto non è certamente compatibile con il nostro ordinamento costituzionale, in cui tanto la proprietà fondiaria quanto l’attività edilizia non sono e non possono essere riservate ai pubblici poteri: il che equivarrebbe a negare la proprietà privata, la libera iniziativa economica e quindi il libero mercato anche soltanto nel settore della offerta e della domanda delle abitazioni». 60   F. Modugno, I «nuovi diritti», cit., p.  69: «[…] il diritto […] all’abitazione […], come diritto sociale inviolabile, ma condizionato, non può certo di per sé produrre conseguenze quali l’esigibilità del diritto nei confronti dei pubblici poteri, ma, nei limiti e agli effetti in cui sia stato attuato dal legislatore, non consente da parte di quest’ultimo diminuzioni di tutela, passi all’indietro, mutamenti di valutazione, e soprattutto, come diritto inviolabile della persona, esige che il bilanciamento tra interessi e valori contrapposti effettuato dal legislatore, sia soggetto al controllo di costituzionalità». 61   F. Pallante, Il problema costituzionale, cit., par. 4. 58 59

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Intervento pubblico e iniziativa privata nel social housing

333

nistrazioni62, affinché condanni queste ultime a mettere a disposizione un alloggio o una somma di denaro63. Il discorso è certamente coerente ma si scontra con la difficoltà – materiale e giuridica – di attuare una simile soluzione, quantomeno per la messa a disposizione di un alloggio64. Dal punto di vista giuridico, sembra infatti necessaria una interpositio legislatoris per la configurazione di un diritto azionabile. Ma anche ove ciò non fosse necessario, ritenendo che il diritto discenda dal possesso dei requisiti per l’assegnazione di un alloggio pubblico, non si vede come esso possa essere soddisfatto per tutti i possibili beneficiari65. Si pensi all’ordinamento francese, nel quale il legislatore è effettivamente intervenuto positivizzando un simile diritto – il Droit au logement opposable (Dalo)66 – e ponendo a carico dello Stato un’obbligazione di risultato67. L’istituto garantisce, però, anzitutto la possibilità di esperire un ricorso a una commissione di mediazione e poi eventualmente un ricorso giurisdizionale; la concreta soddisfazione dell’interesse del ricorrente vittorioso passa quindi dalla effettiva disponibilità di alloggi: così, non tutti coloro ai quali il diritto è riconosciuto ottengono effettivamente un alloggio68. Va comunque sottolineato che, 62   A. Giorgis, Il diritto costituzionale all’abitazione. I presupposti per una immediata applicazione giurisprudenziale, in Questione giustizia, 2007, p.  1132: «Il soggetto passivo del diritto all’abitazione («adeguata») deve tuttavia essere individuato principalmente nell’insieme dei contributivamente capaci e dunque direttamente nella Repubblica e nelle sue diverse articolazioni amministrative centrali e/o locali. Le disposizioni costituzionali sopra richiamate dispiegano i propri effetti soprattutto “verticalmente” nel rapporto individuo-autorità». 63   A. Giorgis, Il diritto costituzionale all’abitazione, cit., p. 1334. 64   Certamente meno problematica appare la condanna al pagamento di una somma di denaro, che l’attore potrebbe utilizzare per reperire o mantenere un’abitazione. Sulle potenzialità dei sussidi per il pagamento dell’affitto o anche del mutuo per l’acquisto della casa, si vedano già le considerazioni di G. Tatarano, Accesso al bene «casa», cit., p. 412. 65   Peraltro, si potrebbe aggiungere una considerazione ulteriore: se il diritto alla casa è inteso, come ormai sembra essere pacifico, come una situazione soggettiva che tutela un interesse complesso delle persone, non limitato cioè alla disponibilità di un “tetto”, è sufficiente la messa a disposizione di un alloggio “qualunque” per soddisfarlo? Si pensi, in proposito, ai casi di rifiuto delle abitazioni proposte dalle amministrazioni agli assegnatari, riportati da A. Divari, De social housing, diritto sociale all’abitazione o all’abitazione sociale?, in Ist. feder., 2019, p. 225. 66   Loi n. 2007-290 del 5 marzo 2007. 67   In proposito, v. già U. Breccia, Itinerari del diritto all’abitazione, in A. Bucelli (a cura di), L’esigenza abitativa, cit., p. 145 ss. 68   Non si può tuttavia sminuire l’importanza di uno strumento che prova coraggiosamente a “prendere sul serio” il diritto alla casa e che ha avuto una attuazione crescente: dal 2008 al 2018, quasi 240 mila famiglie sono state riconosciute titolari del

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

334

Ippolito Piazza

se non si ottiene l’alloggio, è possibile chiedere la condanna dello Stato al pagamento di un risarcimento. In definitiva, il diritto alla casa: i) trova oggi fondamento nelle Carte internazionali, le quali hanno effetti nel nostro ordinamento; ii) ha altresì rilievo costituzionale, ricavabile sia dall’art. 47, comma 2, sia dalle altre garanzie costituzionali che presuppongono il godimento di un’abitazione; iii) si tratta però, allo stato, di un diritto sociale condizionato, la cui misura è quindi rimessa al legislatore; iv) anche ipotizzando che i beneficiari individuati dalla legge abbiano un diritto “forte”, direttamente azionabile, il problema della effettiva disponibilità degli alloggi è superabile solamente attraverso il pagamento di una somma di denaro. Alla luce di ciò, si tenterà di capire quale ruolo possa avere il social housing rispetto al diritto alla casa (par. 6). 4. Al momento della crisi economica esplosa negli anni 2007-2008, ci si trovava pertanto in una situazione nella quale le politiche abitative pubbliche avevano assunto un carattere marginale, sia dal punto di vista dell’impegno finanziario, sia da quello dei destinatari; si era invece parallelamente rafforzata l’affermazione di un diritto alla casa, il cui contenuto comprende l’adeguatezza della soluzione abitativa e la risposta a una serie di bisogni più ampi della persona. Tornato d’attualità il problema del disagio abitativo, a causa del deterioramento delle condizioni economiche delle famiglie, anche il legislatore si è nuovamente occupato della materia: in un simile contesto, il social housing si presentava come soluzione ottimale. Era infatti indispensabile, per far fronte alla scarsità di risorse pubbliche, un rinnovato coinvolgimento dei privati nella realizzazione di alloggi da destinare a chi non fosse in grado di sostenere le condizioni del mercato immobiliare; allo stesso tempo, i privati avrebbero potuto garantire una gestione degli alloggi così realizzati che favorisse obiettivi di socialità e di incremento della qualità dell’abitare. Nella stessa direzione era andata peraltro un’iniziativa nata nel 2004 in Lombardia, che aveva portato alla creazione di una fondazione per il social housing, costituita da una fondazione bancaria con la partecipazione della Regione e degli enti locali, e che è stata di ispirazione per le successive scelte legislative. diritto e quasi 150 mila hanno avuto accesso a un alloggio; solo nel 2017 i ricorsi sono stati più di 100 mila. Le statistiche sono reperibili sul sito www.vie.publique.fr. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Intervento pubblico e iniziativa privata nel social housing

335

Dal punto di vista normativo, il primo passaggio da considerare è costituito dalla l. 8 febbraio 2007, n. 9 (Interventi per la riduzione del disagio abitativo per particolari categorie sociali), che tentava di affrontare nuovamente il problema della casa in maniera organica, riattivando una programmazione a livello nazionale e regionale. Così, da un lato, la legge prevedeva l’adozione di un programma nazionale, predisposto dal Ministro delle infrastrutture e basato sulle indicazioni emerse in un «tavolo di concertazione generale sulle politiche abitative», al quale avrebbero preso parte i rappresentanti delle istituzioni centrali e locali, dei proprietari di case e degli inquilini69; dall’altro, era stabilito che le Regioni, su proposta dei comuni capoluogo e dei comuni caratterizzati da alta tensione abitativa, predisponessero un piano straordinario per l’edilizia residenziale pubblica, articolato in tre annualità70. La legge del 2007 si segnala anche perché rinviava a un decreto del Ministro delle infrastrutture per la definizione degli «alloggi sociali», al fine di esentarli dal rispetto dell’obbligo di notifica degli aiuti di stato. La definizione è stata introdotta con d. m. del 22 aprile 2008, che descrive l’alloggio sociale come «l’unità immobiliare adibita ad uso residenziale in locazione permanente che svolge la funzione di interesse generale, nella salvaguardia della coesione sociale, di ridurre il disagio abitativo di individui e nuclei familiari svantaggiati, che non sono in grado di accedere alla locazione di alloggi nel libero mercato»71. Aggiunge il d. m. che l’alloggio sociale «si configura come elemento essenziale del sistema di edilizia residenziale sociale costituito dall’insieme dei servizi abitativi finalizzati al soddisfacimento delle esigenze primarie». Si tratta, con tutta evidenza, di una definizione molto ampia, sia con riferimento ai destinatari dell’alloggio sociale, sia con riferimento al «sistema» di edilizia residenziale sociale. Ai sensi del decreto ministeriale, infatti, l’edilizia residenziale “sociale” include anche quella “pubblica” (e corrisponde, quindi, a un’idea di social housing in senso lato). Una simile ampiezza della definizione non sorprende se si consideri la sua finalità, cioè quella di sottrarre ogni alloggio “di interesse generale” ai vincoli riguardanti gli aiuti di stato72. L’alloggio sociale è altresì qualificato come standard urbanistico («da   Art. 4, l. n. 9 del 2007.   Art. 3, l n. 9 del 2007. 71   La definizione è stata poi sostanzialmente ripresa nell’art. 10, comma 3, del successivo d.l. 28 marzo 2014, n. 47. 72   Sul punto, v. S. Civitarese Matteucci, L’evoluzione, cit., p. 186. 69 70

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

336

Ippolito Piazza

assicurare mediante cessione gratuita di aree o di alloggi, sulla base e con le modalità stabilite dalle normative regionali»73), cioè una di quelle «dotazioni territoriali necessarie» da rispettare nella pianificazione urbanistica per permettere alla comunità la fruizione della «città pubblica»74. Ai nostri fini, più rilevanti appaiono però altre previsioni del decreto, poiché mostrano l’intento di integrare (o addirittura equiparare) pubblico e privato nell’edilizia sociale. L’art. 1 del d.m. include, infatti, nella nozione di alloggio sociale anche gli alloggi realizzati o recuperati da operatori privati, purché vi sia stata una contribuzione pubblica (comprese le agevolazioni fiscali e le agevolazioni urbanistiche); inoltre, il «servizio di edilizia residenziale sociale» è definito come il servizio «erogato da operatori pubblici e privati prioritariamente tramite l’offerta di alloggi in locazione». Nello stesso 2008 si tennero le elezioni politiche, che portarono al mutamento della maggioranza parlamentare e all’insediamento del governo Berlusconi IV, che mantenne l’idea di un intervento organico in ambito abitativo ma che regolò nuovamente la materia. Fu così emanato il d.l. 25 giugno 2008, n. 112 (c.d. manovra estiva), per la promozione «dello sviluppo economico e della competitività del Paese», che conteneva, fra le varie misure, anche il Piano casa (art. 11), cioè un piano nazionale di edilizia abitativa da approvare con d.P.C., d’intesa con la Conferenza unificata tra Stato, regioni ed enti locali. In base alla legge, il piano era rivolto all’«incremento del patrimonio immobiliare ad uso abitativo attraverso l’offerta di abitazioni di edilizia residenziale», con il «coinvolgimento di capitali pubblici e privati», da «destinare prioritariamente a prima casa» per una serie di categorie (art. 11, comma 2, lett. a-g): nuclei familiari a basso reddito, anche monoparentali o monoreddito, giovani coppie a basso reddito, anziani in condizioni sociali o economiche svantaggiate, studenti fuori sede, soggetti sottoposti a procedure esecutive di rilascio e, infine, immigrati regolari a basso reddito, residenti da almeno dieci anni in Italia o da almeno cinque nella medesima Regione. Il legislatore si faceva dunque carico del «nuovo» disagio abitativo, estendendo il sostegno pubblico a una serie variegata di categorie, accomunate dalla

73   Art. 1, comma 5, d.m. 22 aprile 2008, ma si vedano già anche i commi 258 e 259, art. 1, della l. 24 dicembre 2007, n. 244. 74   G. Durano, I livelli essenziali delle prestazioni nel governo del territorio, in F.G. Scoca, P. Stella Richter e P. Urbani (a cura di), Trattato, cit., p. 548 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Intervento pubblico e iniziativa privata nel social housing

337

fragilità economica ma potenzialmente escluse dall’accesso all’edilizia residenziale pubblica. Il d.l. n. 112 del 2008 stabiliva poi una serie di interventi in cui il Piano doveva articolarsi (art. 11, comma 3). Ai fini del social housing in senso stretto, decisivo è il primo degli interventi previsti (lett. a): si tratta infatti della costituzione di fondi immobiliari «destinati alla valorizzazione e all’incremento dell’offerta abitativa, ovvero alla promozione di strumenti finanziari immobiliari innovativi e con la partecipazione di altri soggetti pubblici o privati, articolati anche in un sistema integrato nazionale e locale, per l’acquisizione e la realizzazione di immobili per l’edilizia residenziale». È il tentativo, poi portato a compimento75, di utilizzare fondi immobiliari, nati con l’apporto di risorse pubbliche e private, per realizzare operazioni mirate alla creazione di alloggi sociali. Lo strumento dei fondi non è l’unica innovazione del d.l. n. 112 del 2008, che ha altresì previsto, sempre al fine di stimolare l’iniziativa privata, un intervento consistente nella «promozione da parte dei privati di interventi anche ai sensi della parte sul codice dei contratti che disciplina la finanza di progetto» (lett. c). Accanto a questi strumenti più innovativi, ne sono previsti altri di carattere più tradizionale: l’incremento del patrimonio abitativo attraverso le risorse derivanti dall’alienazione di alloggi di edilizia pubblica (lett. b); le agevolazioni, anche amministrative, in favore delle cooperative edilizie costituite tra i soggetti destinatari degli interventi (lett. d); la realizzazione di «programmi integrati di promozione edilizia residenziale anche76 sociale» (lett. e)77. Il piano è stato quindi approvato con d.P.C. del 16 luglio 2009 («Piano nazionale di edilizia abitativa») e ha ripartito le risorse tra le diverse linee di intervento, privilegiando il finanziamento di interventi di competenza degli (ex) IACP e dei comuni e la costituzione del 75  Vedi infra in questo stesso paragrafo, nonché l’esempio portato in apertura di questo scritto. 76   Sul punto è intervenuta la Corte cost., con sent. n. 121 del 26 marzo 2010, che ha sancito la illegittimità costituzionale della disposizione limitatamente alla parola «anche»: quest’ultima avrebbe infatti consentito «l’introduzione di finalità diverse da quelle che presiedono all’intera normativa», finalità «non precisate e non preventivamente inquadrabili nel riparto di competenze tra Stato e regioni», mentre la legittimità dell’esercizio della potestà legislativa concorrente dello Stato nella materia si fonda sul «fine unitario dell’incremento del patrimonio di edilizia residenziale pubblica» (punto 8 del considerato in diritto). 77   Sui piani integrati, e sulle problematiche connesse, v. P. Urbani, L’edilizia abitativa tra piano e mercato. I programmi integrati di promozione di edilizia residenziale e di riqualificazione urbana, in Dem. e dir., 2009, p. 89 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

338

Ippolito Piazza

sistema integrato di fondi78 e lasciando le risorse residue per gli altri interventi, da attuare attraverso appositi accordi di programma. Il piano ha quindi dato avvio al sistema dei fondi immobiliari per il social housing, cioè un sistema articolato su uno o più fondi immobiliari chiusi a livello statale79, che ha la missione di investire in fondi a livello locale80, scegliendo gli investimenti locali sulla base di criteri individuati già dal Piano casa e che tentano di coniugare la redditività con gli obiettivi di interesse pubblico (per esempio, è privilegiata la capacità degli investimenti proposti di integrarsi con le politiche pubbliche locali). Allo stesso modo, il d.P.C. del 2009 detta alcuni criteri che il regolamento del fondo statale deve rispettare e che sono rivolti a temperare la natura privatistica dello strumento81: così, se è richiesto che il fondo abbia un rendimento obiettivo in linea con quello di altri strumenti finanziari comparabili presenti sul mercato, allo stesso tempo gli si impone una durata minima di venticinque anni e una adeguata diversificazione territoriale degli investimenti. La gara per l’aggiudicazione del servizio è stata in seguito vinta da Cassa Depositi e Prestiti, che ha dato vita al Fondo Investimenti per l’Abitare (FIA, gestito dalla stessa CDP)82. In base a un monitoraggio della fine del 2017 del Ministero delle Infrastrutture, risultavano una trentina di fondi locali sottoscritti dal FIA e gli investimenti assunti ammontavano complessivamente a poco più di tredicimila alloggi (dei quali però soltanto poco più di un terzo già realizzati). Con il piano casa del 2009 si introduce, in definitiva, una nuova politica per la casa, che affianca alla tradizionale edilizia pubblica una edilizia “sociale”83, caratterizzata per i destinatari ai quali si rivolge – categorie

78   In particolare, l’art. 2 del d.P.C. destinava 200 milioni al primo intervento e 150 al secondo. 79   Le quote di questi fondi possono essere sottoscritte da investitori istituzionali di lungo termine. Sui fondi immobiliari “pubblici”, v. ampiamente A. Maltoni, Gli attori pubblici: i fondi comuni di investimento immobiliare ad apporto pubblico o partecipati da enti pubblici, in F.G. Scoca, P. Stella Richter e P. Urbani (a cura di), Trattato, cit., p. 324 ss., in particolare p. 371 ss. per il sistema di fondi per il social housing. 80   La partecipazione nei fondi locali era prevista inizialmente nel limite massimo del 40%, poi elevato al 80% dal d.P.C. del 23 febbraio 2013. 81   Sul punto, v. anche A. Maltoni, Gli attori pubblici, cit., p. 373 s. 82   A distanza di alcuni anni CDP ha creato anche un secondo fondo (FIA2) dedicato in particolare alle smart cities. 83   L’espressione «edilizia residenziale sociale» si trova nell’art. 10 del successivo d.l. 28 marzo 2014, n. 47 (c.d. piano casa Lupi), che conferma sostanzialmente le scelte del piano casa del 2009. Scettico sulla esistenza di reali differenze tra edilizia pubblica e edilizia sociale è R. Lungarella, Social housing, cit., p. 271 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Intervento pubblico e iniziativa privata nel social housing

339

“deboli” ma non “debolissime” – e per gli strumenti con i quali si deve realizzare – un sistema integrato di fondi immobiliari con capitali pubblici e privati o comunque forme di partenariato pubblico-privato. 5. Il Piano casa ha predisposto un quadro di regole, strumenti e finanziamenti che ha avuto attuazione a livello regionale e locale84. Di particolare interesse è la legge regionale lombarda (8 luglio 2016, n. 16), che parla di «servizio abitativo sociale» (art. 32, comma 1), distinto dai servizi abitativi pubblici, come del servizio che «consiste nell’offerta e nella gestione di alloggi sociali a prezzi contenuti destinati a nuclei familiari con una capacità economica che non consente loro né di sostenere un canone di locazione o un mutuo sul mercato abitativo privato, né di accedere ad un servizio abitativo pubblico» e che comprende sia alloggi sociali destinati alla locazione, sia alloggi destinati alla vendita. La stessa legge prevede anche la partecipazione della Regione al sistema integrato nazionale e locale dei fondi immobiliari per il social housing. La legge regionale lombarda tenta inoltre di dare soluzione a uno specifico problema che sorge dalla commistione tra pubblico e privato e che riguarda la tutela dei possibili beneficiari degli alloggi di edilizia sociale. I criteri per la selezione dei beneficiari sono infatti individuati in atti normativi, come è naturale avvenga in tutti i casi in cui vi sia un contributo pubblico; tuttavia, la selezione dei beneficiari può essere rimessa al privato che, oltre all’attuazione dell’intervento immobiliare, può essere incaricato anche della sua gestione. Poiché i rapporti tra privato ed enti pubblici (comune e Regione) sono regolati da una convenzione, la legge regionale prevede che la convenzione possa affidare al primo l’individuazione degli assegnatari: qualora venga scel84   La materia dell’edilizia pubblica non è contemplata dall’art. 117 Cost., tuttavia la Corte costituzionale si è più volte pronunciata sul riparto di competenze individuando «tre livelli normativi» (v. per esempio Corte cost. n. 121 del 2010): il primo riguarda la determinazione dell’offerta minima di alloggi da destinare alle esigenze dei ceti meno abbienti (inclusa la fissazione di principi che uniformino i criteri di accesso su tutto il territorio nazionale), che rientra, ai sensi dell’art. 117, comma 2, lett. m), nella potestà esclusiva statale; il secondo livello riguarda la programmazione degli insediamenti di edilizia pubblica, che rientra nel governo del territorio ed è dunque oggetto di legislazione concorrente; il terzo livello attiene invece alla gestione del patrimonio immobiliare di edilizia residenziale pubblica e la relativa potestà legislativa compete alle regioni. Sull’evoluzione del riparto di competenze legislative, prima e dopo la riforma del titolo V, v. G.M. Racca, L’edilizia abitativa, cit., p. 878 ss.; sulla legislazione regionale in tema di diritto all’abitazione, v. P. Vipiana, La tutela del diritto all’abitazione a livello regionale, in federalismi.it, 2014, p. 1 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

340

Ippolito Piazza

ta questa strada, il soggetto attuatore è comunque tenuto a effettuare «una selezione pubblica», avvalendosi della piattaforma informatica regionale; in caso contrario, alla individuazione provvede direttamente il comune. La legge regionale lombarda prefigura, quindi, un modello in cui è indifferente la natura pubblica o privata dell’agente, poiché le regole applicabili sono comunque quelle dell’attività amministrativa85. Ciò non toglie che la Regione e i comuni debbano comunque esercitare «nell’ambito delle rispettive competenze, le funzioni di verifica e di controllo sull’esatto adempimento degli obblighi previsti dalla convenzione […] nonché sul rispetto degli standard di servizio da parte dei soggetti promotori e attuatori» (art. 33, comma 4). Anche la legge regionale del Lazio (l. r. 11 agosto 2009, n. 21) distingue tra edilizia residenziale pubblica e sociale: tuttavia, quest’ultima è definita in termini molto generali, riprendendo in larga misura le definizioni elaborate a livello statale. In particolare, l’edilizia residenziale sociale è intesa come «disponibilità di alloggi realizzati o recuperati da operatori pubblici e privati» tramite contributi o agevolazioni pubbliche; gli operatori privati con i quali la Regione si impegna a promuovere questo tipo di edilizia sono fondazioni no profit, imprese sociali, banche etiche, altri soggetti senza scopo di lucro ma anche imprese di costruzione e cooperative di abitazione (art. 12). La legge prevede espressamente che la gestione degli alloggi di edilizia residenziale sociale possa essere affidata, con procedura a evidenza pubblica, sia a soggetti pubblici che a soggetti privati. Altrove la distinzione è invece meno netta o addirittura assente: si pensi alla legge regionale piemontese (l. r. 17 febbraio 2010, n. 3), dove di parla genericamente di «edilizia sociale» o a quella umbra (l. r. 28 novembre 2003, n. 23) dove, a seguito delle modifiche intervenute nel tempo, viene usata l’espressione «edilizia residenziale sociale». Riguardo più specificamente al sistema dei fondi immobiliari, si segnala l’esperienza della Regione Toscana, che ha fatto ricorso alla partecipazione a un fondo immobiliare chiuso, come previsto dalla legislazione nazionale. In particolare, l’art. 48 della l. r. 24 dicembre 2013, n. 77 (Legge finanziaria per l’anno 2014) autorizzava la spesa (di massimo 5 milioni di euro) per la sottoscrizione di quote di fondi

85   Secondo la logica recepita anche dall’art. 1, comma 1-ter della legge sul procedimento amministrativo.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Intervento pubblico e iniziativa privata nel social housing

341

immobiliari chiusi «aventi la finalità di realizzare alloggi sociali» come definiti dal d.m. del 2008. Anche in questo caso, la disciplina normativa è utilizzata per indirizzare l’uso dello strumento finanziario alla cura dell’interesse pubblico. Così, la legge regionale prevedeva che l’individuazione del fondo in cui investire sarebbe stata subordinata all’impegno della società di gestione del fondo immobiliare al rispetto di una serie di obiettivi, tra i quali il coinvolgimento della Regione «nelle scelte strategiche». La legge specificava inoltre che era «esclusa la partecipazione regionale a fondi immobiliari che perseguano obiettivi speculativi» (art. 48, comma 3): il ritorno economico per il fondo era quindi ammesso, ma non doveva essere speculativo. L’investimento è stato effettuato nel Fondo Housing Toscano (v. supra, par. 1), oggetto anche di un recente intervento normativo (l. r. 5 agosto 2020, n. 78), necessario per provvedere a una ulteriore sottoscrizione di quote. Oltre a prevedere lo stanziamento di risorse, quest’ultima legge stabilisce le finalità che devono avere gli interventi del Fondo Housing Toscano (art. 1, comma 2). Tra queste, alcune riguardano le caratteristiche delle future abitazioni («incentivare una nuova qualità dell’abitare che tenga conto delle criticità emerse […] a seguito dell’emergenza epidemiologica da Covid-19»; «promuovere un modello abitativo “post pandemia”») e hanno un evidente tenore programmatico. Un’altra finalità esplicitata dalla legge ha invece per oggetto il ruolo della Regione e, pur difettando di un preciso contenuto normativo, palesa nuovamente la necessità di un coinvolgimento della stessa nell’utilizzo delle risorse («intervenire sul territorio della Toscana coinvolgendo la Regione nelle relative scelte strategiche, per garantire il coordinamento con gli strumenti della politica abitativa regionale e potenziare gli effetti sociali della partecipazione»). In particolare, lo strumento giuridico individuato per conseguire queste finalità è uno strumento negoziale, cioè un protocollo di intesa con la società che gestisce il Fondo. 6. Come più volte accennato, l’ibridazione tra intervento pubblico e iniziativa privata tipica del social housing ha determinato la necessità di creare (o individuare) norme capaci di contemperare le finalità dell’intervento privato (cioè la remunerazione o quantomeno la sostenibilità finanziaria dell’operazione immobiliare) con l’interesse pubblico alla fornitura di alloggi sociali a chi non è in grado di sostenere prezzi di © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

342

Ippolito Piazza

mercato. È facile intuire che il successo del social housing si basi in gran parte su questo delicato equilibrio. La creazione di norme ad hoc è particolarmente evidente riguardo al sistema dei fondi, come mostrano tanto la legge statale, quanto le leggi regionali. In tal senso, è decisivo l’utilizzo di strumenti privatistici, come il regolamento del fondo, che, per esempio, potrebbe riservare particolari classi di quote a investitori istituzionali che perseguono «finalità etiche», come enti pubblici o fondazioni bancarie, alle quali potrebbero essere riconosciuti, a fronte di minori partecipazioni agli utili, particolari diritti che consentano loro di verificare il perseguimento di interessi pubblici o etici negli interventi di social housing86. Le maggiori preoccupazioni sono emerse però riguardo alla selezione dei beneficiari degli interventi87: non tanto, in verità, riguardo alla determinazione dei criteri, che è già rimessa alla legge o a fonti sub-legislative. Quanto piuttosto sul versante dei rimedi, poiché si è sostenuto che una ricostruzione privatistica dei rapporti tra ente pubblico finanziatore e privato attuatore dell’intervento impedirebbe una tutela effettiva dei potenziali beneficiari degli alloggi sociali. Il rapporto bilaterale tra amministrazione e costruttore lascerebbe, infatti, estraneo il potenziale beneficiario, che non avrebbe strumenti di reazione di fronte a una ingiusta esclusione dall’assegnazione degli alloggi88. Il controllo sull’attività del soggetto attuatore sarebbe rimesso unicamente alla pubblica amministrazione, la quale potrebbe attivare i rimedi per l’inadempimento della convenzione, che possono arrivare sino alla sua risoluzione ma non garantirebbero una tutela reale ai beneficiari (cioè, l’assegnazione della casa). È stato quindi proposto di attribuire carattere pubblicistico alle convenzioni di social housing e, a cascata, anche agli atti che danno loro esecuzione: in questo modo, il procedimento di selezione e assegnazione degli alloggi effettuato dal privato attuatore sarebbe un procedimento pubblicistico, gli atti relativi sarebbero impugnabili di fronte al giudice amministrativo che, in caso di illegittimità, potrebbe ordinare la ripetizione della procedura. Una simile tesi è rafforzata dalla pronuncia dell’Adunanza plenaria del Cons. St. n. 7

 Così A. Maltoni, Gli attori pubblici, cit., p. 375.   In particolare, v. M. Allena, Il social housing, cit., p. 201 ss. 88   Se non eventualmente rimedi risarcitori, qualora la convenzione venga ricostruita in senso privatistico come contratto a favore di terzi: v. M. Allena, Il social housing, cit., p. 207. 86 87

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Intervento pubblico e iniziativa privata nel social housing

343

del 2014, che ha assimilato l’affidamento di opere di social housing alla concessione di un servizio pubblico. Invero, la soluzione più piana al problema è quella, spesso applicata, della selezione diretta dei beneficiari da parte degli enti locali. Ma vi è un problema ulteriore, che ha a che fare con la difficoltà di ricondurre a un unico modello le esperienze di social housing. Accanto alle fattispecie più «semplici», nelle quali un costruttore si impegna a destinare una quota di alloggi realizzati o recuperati al social housing, che somigliano molto alle normali selezioni per gli alloggi di edilizia residenziale, ve ne sono altre nelle quali il ruolo del privato è preponderante rispetto al pubblico: si tratta di iniziative nelle quali i contenuti «sociali» dell’housing sono decisivi e alle quali sembra quindi male adattarsi una selezione degli assegnatari di tipo pubblicistico89. Oppure, vi sono casi nei quali è determinante la prospettiva finanziaria dell’intervento: è stato rilevato infatti che, nei casi in cui il rischio di eventuali morosità pesi maggiormente sulla SGR che gestisce il fondo o sul gestore sociale, il loro ruolo nella selezione degli assegnatari è proporzionalmente accresciuto90. Una ricostruzione che estenda a questi casi le regole del diritto amministrativo appare complicata, perché incompatibile con la salvaguardia dell’autonomia privata che è alla base dell’intervento di social housing. 89   Per numerosi esempi si vedano C. Prevete, La fornitura di housing in Italia, in C. Iaione, M. Bernardi e E. De Nictolis (a cura di), La casa per tutti, cit., p. 182 ss. e, nello stesso volume, M. Bernardi, Pratiche, cit., p. 195 ss., spec. p. 202 ss.: «Nei progetti finanziati con fondi FIA la selezione dei residenti normalmente avviene attraverso avvisi che riportano indicazioni standard (reddito, cittadinanza, età) […]. Va però sottolineato che alcuni progetti realizzati con fondi FIA stanno dimostrando maggiore attenzione per formule di co-abitazione, inaugurando sperimentazioni innovative […] nel quale la definizione dei residenti è passata attraverso processi conoscitivi e occasioni di coprogettazione gestiti da Fondazione Housing Sociale». Interessante notare, come fa l’A., che in queste sperimentazioni sono presenti non solo soluzioni di housing a canone convenzionato, per le quali la selezione è effettuata come appena descritto, ma anche «soluzioni a canone sociale, per le quali però la selezione dei residenti è demandata agli Uffici Casa e segue le consuete regole degli alloggi popolari». 90   C. Prevete, Housing sociale: problemi e prospettive, in Riv. giur. urb., 2018, p. 529 ss.: «Nell’ambito di queste categorie di riferimento, la selezione dei residenti è affidata per ogni progetto alla SGR e al Gestore Sociale in maniera congiunta. Il loro ruolo nella scelta è strettamente dipendente e proporzionale alla ripartizione del rischio economico, e in particolare alla ripartizione tra SGR e Gestore sociale del danno subito in caso di morosità. Più alto è il rischio economico che SGR o gestore sociale devono sopportare, maggiore è il ruolo che essi rivestono nella scelta dei residenti». La stessa A. sembra però aderire alla ricostruzione pubblicistica delle convenzioni di social housing.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

344

Ippolito Piazza

La preferenza per la non completa “pubblicizzazione” di ogni esperienza di social housing può trovare fondamento se si riannodano i fili con il tema del diritto alla casa. S’è visto, infatti, come si tratti di un diritto che gode di un riconoscimento costituzionale, che impegna i pubblici poteri verso la sua attuazione; ma s’è visto anche come si tratti essenzialmente di un diritto-ragione, attuabile percorrendo molteplici strade, la cui scelta è rimessa alla discrezionalità del legislatore e al diverso bilanciamento che, nel tempo, potrà essere fatto tra interessi pubblici, interessi privati e risorse disponibili. Soltanto le pretese più forti (cioè quelle dei soggetti più fragili), che attengono al nucleo essenziale del diritto alla casa, richiedono necessariamente un intervento pubblico diretto: in questo caso, di là dalle difficoltà pratiche, è infatti possibile immaginare una obbligazione (almeno di mezzi) in capo agli enti pubblici. Man mano però che ci si allontana dal nucleo essenziale, la soddisfazione del diritto diventa invece oggetto di scelte politiche non obbligate91: è in questo più ampio raggio che rientra il social housing, che si rivolge infatti non alle fasce più deboli della popolazione e che attenua l’intensità dell’intervento pubblico coinvolgendo l’iniziativa e il capitale privato92. Ciò comporta anche l’applicazione di regole diverse da quelle proprie dell’attività interamente pubblica. Del resto, la complementarietà del social housing rispetto ad altre politiche pubbliche è dimostrata dalla limitatezza degli interventi finora realizzati e, ancor più, dalla loro distribuzione territoriale, specialmente con riferimento al sistema integrato dei fondi immobiliari. È sufficiente guardare al monitoraggio già citato del Ministero delle Infrastrutture per vedere come la quasi totalità dei fondi locali sia stata creata nelle regioni del nord e, in misura minore, del centro (dove sono concentrate le fondazioni di origine bancaria, autentico motore del sistema)93. 91   U. Breccia, Itinerari, cit., p. 131: «Via via che ci si allontana dall’enunciato di rango costituzionale che suole essere formulato in termini di diritto all’abitazione, i ruoli del principio (nella legittimazione delle fonti subordinate e nella costruzione ermeneutica di norme attuative) si attenuano, nel senso di lasciare opportunamente il posto al primato che l’istanza e la destinazione abitativa assumono, concretamente e opportunamente, con riguardo alle singole scelte operative». 92   Sul rapporto tra intervento pubblico, attività privata e diritti sociali v. A. Albanese, Diritto all’assistenza e servizi sociali. Intervento pubblico e attività dei privati, Milano 2007, p. 97 ss. 93  Notano I. Costarelli e M. Maggio, Il welfare abitativo italiano, cit., p. 323, come il tentativo di attribuire un carattere generalista all’edilizia sociale sia più for-

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Intervento pubblico e iniziativa privata nel social housing

345

7. La limitata attuazione del social housing non deve però portare a sminuirne la portata innovativa. Il fenomeno si caratterizza, infatti, sin dall’origine, per il tentativo non solo di offrire soluzioni accessibili a una fascia più ampia di persone, rispetto a quelle considerate negli ultimi decenni dall’edilizia residenziale pubblica; ma anche di sperimentare soluzioni abitative più innovative. Il primo riferimento è alle tecnologie legate all’”abitare”: così, tanto nella legislazione quanto nei programmi di social housing, i decisori pubblici incentivano sempre l’innovazione, potremmo dire, sia nell’hardware (soluzioni costruttive, risparmio energetico, utilizzo di materiali innovativi) che nel software (sperimentazioni nella condivisione della gestione degli spazi e nelle forme di socialità tra inquilini). Ma vi è una seconda, altrettanto se non più decisiva, coniugazione tra social housing e innovazione e riguarda i dati e la “conoscenza”. È osservazione comune che ogni politica pubblica abitativa dovrebbe fondarsi innanzitutto sulla conoscenza del disagio abitativo, dello stato degli immobili di proprietà pubblica, dell’avanzamento dei programmi di edilizia pubblica e sociale94. Eppure, questa conoscenza non è facile95: basti pensare che i dati più facilmente accessibili giungono da ricerche effettuate da privati e che l’Osservatorio nazionale sulla condizione abitativa, previsto sin dalla l. n. 431 del 1998, non è mai stato pienamente realizzato. Di là, quindi, dalla quantità di risorse disponibili, la tecnologia è indispensabile per aumentare l’efficacia delle politiche per la casa: occorre mettere in rete gli osservatori costituiti a livello regionale e locale; integrare le conoscenze delle amministrazioni pubbliche (per esempio, l’Agenzia delle entrate, così da rendere più semplici i controlli) e anche quelle dei privati che operano nel sociale (si pensi proprio alle numerose esperienze no profit di social housing)96. Se queste sono priorità per il presente, ci si deve infine domandare: qual è il futuro del social housing? Nei prossimi anni il destino di queste politiche sembra essere legato a doppio filo al PNRR97, che prevede male che sostanziale, proprio a causa della «esiguità numerica dell’offerta di edilizia sociale introdotta dalla programmazione». 94   Per il problema, con generale riferimento al contrasto alla povertà, v. C. Franchini, L’intervento pubblico di contrasto alla povertà, Napoli 2021, spec. p. 196 ss. 95   Sulla difficoltà di conoscere, in particolare, i risultati conseguiti dal sistema dei fondi immobiliari, v. C. Prevete, Housing sociale: problemi e prospettive, cit., 2018, p. 526. 96   In tal senso, v. Forum Disuguaglianze Diversità, Una casa dignitosa, cit., p. 11. 97   Sul tema, v. P. Lombardi, Riflessioni sul diritto all’abitazione tra Carta sociale © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

346

Ippolito Piazza

uno specifico investimento (2,8 mld) per il «Programma innovativo della qualità dell’abitare» (PINQuA), nel quale ha rilievo centrale proprio il social housing (inteso in senso ampio). Gli interventi ammessi per la realizzazione del programma sono stati già approvati, con decreto del Ministro delle infrastrutture e della mobilità sostenibili n. 383 del 7 ottobre 2021. La bontà degli interventi non può certo essere qui giudicata: si può soltanto osservare che in realtà essi non nascono con il PNRR, perché il «programma innovativo nazionale per la qualità dell’abitare», confluito nel PNRR, nasce in realtà con la legge di bilancio 202098. La cosa ha determinato, peraltro, la necessità di rivedere il cronoprogramma degli interventi, dal momento che il programma era finanziato inizialmente fino al 2033, scadenza incompatibile con le più imminenti previsioni del PNRR (2026). C’è da sperare che questo adattamento alle forme del PNRR non pregiudichi la riuscita degli interventi, che è legata, come facile intuire, prima di tutto alla capacità amministrativa delle amministrazioni coinvolte. Si tratta di un programma che è in linea col recente passato: esso era promosso per «concorrere alla riduzione del disagio abitativo con particolare riferimento alle periferie» ed era in particolare finalizzato a «riqualificare e incrementare il patrimonio destinato all’edilizia residenziale sociale […] in un’ottica di sostenibilità e densificazione» (art. 1, comma 437)99. Soprattutto, il programma era pensato per garantire sia interventi sugli immobili di edilizia residenziale pubblica, sia l’attivazione di finanziamenti pubblici e privati, nonché «il coinvolgimento di operatori privati, anche del Terzo settore»: pare quindi essersi stabilizzato un sistema che, oltre alle esigenze dei più fragili, intende soddisfare un insieme ulteriori di bisogni attraverso l’interazione di pubblico e privato.

europea, Corte costituzionale e PNRR, in federalismi.it, 2022. 98   L. 27 dicembre 2019, n. 160, art. 1, comma 437 ss. 99   La legge, nel delineare le finalità del piano, parla di edilizia residenziale «sociale», che sembra però doversi intendere in senso lato; nel comma successivo, infatti, laddove sono indicate le priorità che i criteri di selezione delle proposte dovranno seguire, si dice che dovrà essere privilegiata anche «l’entità degli interventi riguardanti gli immobili di edilizia residenziale pubblica». ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Chiara Sartoris*

Sanità digitale e tutela dei dati personali

Sommario: 1. La digitalizzazione sanitaria nel quadro euro-unitario – 2. Le regole sul consenso al trattamento dei dati sanitari – 3. Dalla cartella clinica al fascicolo sanitario elettronico – 4. Per una sanità digitale sostenibile: prime riflessioni.

1. Il delicato rapporto tra tutela della salute e tutela dei dati personali è sotto l’attenzione di tutti, come le vicende relative alla pandemia da Covid-19 dimostrano. Di là dalle specifiche questioni poste da tale evento, rimane il problema di comprendere a quali sfide si esponga oggi la tutela dei dati personali dei pazienti di fronte all’evoluzione digitale che sta trasformando l’erogazione delle prestazioni sanitarie. È noto che da anni l’ordinamento ha intrapreso, sia pur faticosamente, un processo di digitalizzazione complessiva del Paese, il quale coinvolge anche e soprattutto il settore sanitario. L’Unione europea, pur non avendo competenza diretta in questa materia, incentiva in varie forme lo sviluppo della c.d. salute digitale1. Si tratta di una sfida impegnativa, ma anche di una opportunità storica fondamentale per consentire il miglioramento tanto del sistema sanitario nazionale quanto del rapporto di fiducia tra paziente e personale sanitario. Nel contempo, però, lo sviluppo di strumenti di sanità digitale, se non adeguatamente gestito, può determinare l’insorgere di possibili pregiudizi per i dati personali dei pazienti. L’accresciuta consapevo* Assegnista di ricerca in Diritto privato nell’Università di Firenze 1   A evidenziare l’importanza dello sviluppo della digitalizzazione in ambito sanitario sono proprio le recenti vicende connesse alla emergenza pandemica. Basti pensare alla questione della tutela dei dati personali nell’ambito dei sistemi e delle app di tracciamento del contagio. Su questi temi v.: G. Eysenbach, What is e-health, in Journal of Medical Internet Research, 2001, p.  3 ss.; Cangelosi, I servizi pubblici sanitari: prospettive e problematiche della telemedicina, in Dir. fam., 2007, p. 431 ss.; E. Santoro, Web 2.0 e Medicina. Come social network, pcast, wiki e blog trasformano la comunicazione, l’assistenza e la formazione in sanità, Roma 2009; G. Comandé, Patients medical turism and electronich health records: mobility between sector regulations and sustemic interactions liability in the third millennium, in Liber amicorum in honor of Gert Brüggemeier, Baden-Baden 2009, p. 331 ss.; C. Filauro, Telemedicina, cartella clinica elettronica e tutela della privacy, in Danno e resp., 2011, p. 481 ss.; G. Cosentino, La sanità italiana ala sfida della sanità digitale, Milano 2015; E. Stefanini, Telemedicina, “mHealth” e diritto, in Rass. dir. farm., 2016, p. 1023 ss.; © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

348

Chiara Sartoris

lezza dell’importanza e del valore anche economico dei propri dati personali da parte dei cittadini, unita all’evoluzione del rapporto medico-paziente, segnano le coordinate di riferimento per comprendere come lo sviluppo della sanità digitale richieda una grande attenzione per la tutela dei dati. In questa prospettiva, il presente contributo intende analizzare la questione dei presupposti per la manifestazione del consenso al trattamento dei dati sanitari che avvenga attraverso strumenti elettronici di archiviazione di informazioni sulla salute. Il passaggio dalla cartella clinica cartacea al dossier elettronico e, in ultimo, al fascicolo sanitario elettronico se, per un verso, segna un notevole miglioramento nella efficienza della erogazione della prestazione sanitaria, per l’altro, richiede un attento esame delle implicazioni in punto di tutela dei dati dei pazienti. È noto che l’impiego di strumenti digitali ampli notevolmente le occasioni di rischio sia sotto il profilo delle modalità di gestione, sia sotto il profilo dell’ampliamento della platea dei soggetti che possono accedervi. La ricerca di un delicato bilanciamento tra due diritti di rilevanza costituzionale richiede, dunque, di analizzare i presupposti per il trattamento dei dati sanitari mediante i nuovi strumenti digitali a disposizione delle strutture sanitarie, alla luce del quadro normativo euro-unitario. In questa sede non ci si può che limitare a un mero richiamo delle principali coordinate normative. Il riferimento è, innanzitutto, alle norme del Regolamento (UE) A. Spina, La medicina degli algoritmi: intelligenza artificiale, medicina digitale e regolazione dei dati personali, in F. Pizzetti, Intelligenza artificiale, protezione dei dati personali e regolazione, Torino 2018, p. 327 ss.; G. Polifrone, Sanità digitale. Prospettive e criticità di una rivoluzione necessaria, Milano 2019; F. Cirillo, The impact of e-Health on privacy and fundamental rights: from confidentiality to data protection regulation, in European Journal of Private Law and Technologies, 2019, p. 2 ss.; M. Ciancimino, Protezione e controllo dei dati in ambito sanitario e intelligenza artificiale. I dati relativi alla salute tra novità normative e innovazioni tecnologiche, Napoli 2020; C. Perlingieri, Coronavirus e tracciamento tecnologico: alcune riflessioni sull’applicazione e sui relativi sistemi di interoperabilità dei dispositivi, in Actualidad juridica iberoamericana, 2020, p. 836 ss.; C. Perlingieri, eHealth and Data, in R. Senigaglia, C. Irti e A. Barnes (a cura di), Privacy and Data Protection in Software services, Berlino 2021, p.  127 ss.; D. Poletti, Il trattamento dei dati inerenti alla salute nell’epoca pandemica: cronaca dell’emergenza, in Dir., merc. e tecnolog., 2020, II, p. 75 ss.; A. Adinolfi, L’Unione europea dinanzi allo sviluppo dell’intelligenza artificiale: la costruzione di uno schema di regolamentazione europeo tra mercato unico digitale e tutela dei diritti fondamentali, in S. Dorigo (a cura di), Il ragionamento giuridico nell’era dell’intelligenza artificiale, Pisa 2020, p. 13 ss.; C. Botrugno, Tecnologie dell’informazione e della comunicazione e tutela della salute, le sfide aperte tra protezione, circolazione e riutilizzo dei dati, in Dir. e quest. pubbl., 2020, p. 137 ss. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Sanità digitale e tutela dei dati personali

349

2016/679 (GDPR), come attuato nell’ordinamento italiano con il d.lg. 10 agosto 2018, n. 101, che ha adeguato il previgente d.lg. 30 giugno 2003, n. 196 (Codice della privacy) al mutato contesto normativo euro-unitario. In particolare, la questione in esame va inquadrata alla luce dei principi che emergono dal combinato disposto del considerando 1 e del considerando 4 del GDPR: se, per un verso, «la protezione delle persone fisiche, con riguardo al trattamento dei dati con carattere personale è un diritto fondamentale» (considerando 1), per altro verso, il trattamento di tali dati «non è una prerogativa assoluta, ma va considerato alla luce della sua funzione sociale e va contemperato con altri diritti fondamentali, in ossequio al principio di proporzionalità» (considerando 4). È, dunque, nel coordinamento tra tali principi di fondo che la questione in esame richiede di essere studiata. In ultimo, e più specificamente, si ricorda che l’Unione europea è di recente intervenuta nella materia che ci occupa con la Raccomandazione (UE) 2019/243 del 6 febbraio 2019 diretta ad agevolare la definizione di «un formato europeo di scambio delle cartelle cliniche elettroniche». Tale provvedimento di soft law, che si inserisce nel sentiero già avviato con la Direttiva 2011/24/UE (concernente l’applicazione dei diritti dei pazienti relativi all’assistenza sanitaria transfrontaliera)2, ha l’obiettivo di promuovere l’interoperabilità delle cartelle elettroniche a livello transfrontaliero in modo da garantire ai cittadini dell’Unione l’esercizio concreto del diritto di accedere ai propri dati sanitari in modo sicuro (art. 1). L’importanza di un obiettivo così ambizioso

2   La Direttiva 2011/24/UE è stata recepita dall’Italia con il d.lg. 24 marzo 2014, n. 38, e va coordinata con la successiva Direttiva 2012/52/UE (recante misure destinate ad agevolare il riconoscimento di ricette mediche emesse in un altro Stato membro) per la comunanza di intenti. Tali provvedimenti muovono dalla consapevolezza che i sistemi sanitari degli Stati membri costituiscano «un elemento centrale dei livelli elevati di protezione sociale dell’Unione europea e contribuiscono alla coesione e alla giustizia sociali e allo sviluppo sostenibile» (considerando 3 – Direttiva 2011/24/ UE). In tale prospettiva, l’Unione europea intende garantire l’effettività dei diritti dei pazienti relativi all’assistenza sanitaria transfrontaliera. Per un’analisi della direttiva in esame v. G. Di Federico, La direttiva 2011/24/UE e l’accesso alle prestazioni mediche nell’Unione europea, in Riv. del dir. e della sicur. soc., 2012, p.  683 ss.; A. Cattarin, I riflessi della direttiva 2011/24/UE sull’organizzazione del SSN [Servizio Sanitario Nazionale]. Le nuove fronteiere dello spazio sanitario europeo, in Sanità pubbl. e priv., 2012, p. 5 ss.; A. Errante Parrino, La direttiva 2011/24/UE sui diritti dei pazienti relativi all’assistenza sanitaria transfrontaliera. Verso un diritto alla salute europeo?, in Pers. e merc., 2013, p. 379 ss.; F. Trincia, La tutela del diritto alla salute secondo la direttiva 2011/24/UE, in Lavoro, Diritti, Europa, 2018, p. 2 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

350

Chiara Sartoris

ha trovato profetico riconoscimento in tale Raccomandazione – se si pensa che è stata emanata in epoca pre-pandemica – e mostra oggi tutta la sua attualità. L’Unione europea intende proporre un modello di erogazione delle prestazioni sanitarie che sia sempre più ispirato alla personalizzazione del servizio e alla sua diffusione capillare sul territorio, coerentemente con i mutamenti demografici della popolazione e la evoluzione scientifica e tecnologica (cfr. considerando 2, 3 e 5). In questa ottica, allora, il processo di digitalizzazione dei dati e delle cartelle cliniche costituisce lo strumento principe per realizzare una sanità efficiente e sostenibile. 2. Al fine di inquadrare il problema del trattamento dei dati personali nel nuovo contesto della sanità digitale, merita richiamare, prima di tutto, le specifiche norme in tema di trattamento dei dati sanitari. È noto che i dati relativi alla salute costituiscano una «categoria speciale di dati» riconosciuta come tale sin dalla Convenzione n. 108/1981 (c.d. Convenzione di Strasburgo)3. Tanto è vero che già la l. 31 dicembre 1996, n. 675, aveva dettato una disciplina giuridica più rigorosa annoverando i dati sanitari tra i c.dd. dati sensibili (artt. 2223)4. L’appartenenza a tale categoria implicava il consenso specifico 3   Si tratta della «Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale» adottata dal Consiglio d’Europa nel 1981, che costituisce il primo e più importante strumento giuridico internazionale per la protezione dei dati personali oggetto di trattamenti automatizzati. Nel medesimo anno il Comitato dei Ministri del Consiglio d’Europa ha poi adottato la Raccomandazione n. 81 «relativa alla regolamentazione applicabile alle banche di dati sanitari automatizzate», volta a individuare «i criteri di gestione delle banche di dati sanitari automatizzate» nei limiti in cui la Convenzione di Strasburgo ne consentiva la costituzione. In particolare, il punto 5.4. sancisce il principio cardine della materia: «senza il consenso espresso e cosciente della persona interessata, l’esistenza e il contenuto di un dossier sanitario che la riguardi non può essere comunicato a persone o organismi fuori dal campo delle cure mediche, della sanità pubblica o della ricerca medica, a meno che una tale comunicazione non sia permessa dalle regole del segreto professionale dei medici». 4   Per uno studio sulla disciplina antecedente alla introduzione del Regolamento (UE) 2016/679 v.: G. Ciacci, Problemi e iniziative in tema di tutela dei dati personali con particolare riguardo ai dati sanitari, Bologna 1991; U. De Siervo, La nuova legislazione sulla tutela della riservatezza, in Orient. Soc., 1997, p. 93 ss.; G. Finocchiaro, Una prima lettura della legge 31 dicembre 1996, n. 675 “tutela delle persone e di altri soggetti rispetto al trattamento dei dati personali”, in Contr. e impr., 1997, p. 299 ss.; V. Zambrano, Dati sanitari e tutela della sfera privata, in Dir. dell’inf., 1999, p. 1 ss.; E. Pellecchia, Commento su art. 22 L. 31 dicembre 1996, n. 675, in Nuove leggi civ. comm., 1999, p. 533 ss.; C.M. Zampi, M. Bacci e L. Baldassarri, Diritto alla

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Sanità digitale e tutela dei dati personali

351

dell’interessato al trattamento e una tutela rafforzata. Con il successivo Codice della privacy viene ribadita la centralità del consenso dell’interessato, reputato «presupposto legittimante e condizione di liceità del trattamento dei dati personali». In particolare, per i trattamenti effettuati per finalità di cura vigeva il sistema del c.d. doppio binario: l’art. 26 Codice privacy sanciva il principio del consenso scritto dell’interessato e della previa autorizzazione del Garante per la privacy (comma 1), aggiungendo, però, che i dati sensibili potevano essere oggetto di trattamento anche senza il consenso in una serie di casi particolari (ad esempio, per la salvaguardia della vita o dell’incolumità fisica di un terzo), nei quali, tuttavia, per trattare il dato occorreva, pur sempre, la previa autorizzazione del Garante per la privacy (art. 26, comma 4). Con l’entrata in vigore del GDPR e del d.lg. n. 101 del 2018 di recepimento, si sono registrate alcune rilevanti novità nella materia che ci occupa: per un verso, i dati relativi alla salute oggi si estendono a ricomprendere anche i dati genetici e biometrici (art. 4); per l’altro, tali dati non sono più riconducibili al tradizionale concetto di «dato sensibile», bensì sono annoverati nella nozione di «categoria particolare di dati personali» (art. 9 GDPR)5. La diversa locuzione utilizzata dal legislatore europeo non ha rilievo meramente formale, ma ha un suo preciso significato sostanziale. Tanto è vero che il Garante è interve-

salute, diritto alla privacy e consenso dell’avente diritto, in Riv. it. med. leg., 2001, p. 1037 ss.; G.M. Riccio, Privacy e dati sanitari, in F. Cardarelli, S. Sica e V. Zeno-Zencovich (a cura di), Il Codice dei dati personali, Temi e problemi, Milano 2004, p. 269 ss.; A. Di Martino, La protezione dei dati personali, in S.P. Panunzio (a cura di), I diritti fondamentali e le Corti in Europa, Napoli 2005; G.P. Cirillo, Il codice sulla protezione dei dati personali, Milano 2004; D. Poletti, Commento sub art. 76 D.Lgs. 196/2003, in C.M. Bianca e F.D. Busnelli, Commentario al Codice Privacy, Padova 2007, p. 1203 ss. 5   Numerosi gli studi della dottrina sui contenuti del Regolamento (UE) 2016/679. Con riguardo allo specifico tema qui in esame v.: F. Piraino, Il contrasto sulla nozione di dato sensibile, sui presupposti e sulle modalità del trattamento, in Nuova giur. civ. comm., 2017, p. 1232 ss.; M. Granieri, Il trattamento di categorie particolari di dati personali nel Reg. UE 206/679/UE, in Nuove leggi civ. comm., 2017, p. 165 ss.; A. Busacca, Le “categorie particolari di dati” ex art. 9 GDPR. Divieti, eccezioni e limiti alle attività di trattamento, in Ordine internazionale e diritti umani, 2018, p. 19 ss.; S. Salletti e S. Scalia, L’impatto della nuova normativa “privacy” sugli studi clinici, in Rass. dir. farm. e salute, 2018, p. 1009 ss.; E. Tosi, Privacy digitale. Riservatezza e protezione dei dati personali tra GDPR e nuovo Codice Privacy, Milano 2019; T. Mudler, The protection of data concerning health in Europe, in European Data Protection Law Review, 2019, p. 209 ss.; P. Guarda, I dai sanitari, in I dati personali nel diritto europeo, Torino 2019. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

352

Chiara Sartoris

nuto con l’emanazione di un provvedimento (n. 55 del 7 marzo 2019) volto a fornire chiarimenti sull’applicazione della nuova disciplina in ambito sanitario6. La nozione di dato relativo alla salute è stata ampliata – in coerenza con il mutamento a cui il concetto generale di salute è andato incontro anche a livello internazionale7 – riconducendovi non solo i dati attinenti alla salute fisica o mentale di una persona, ma anche i dati riconducibili alla prestazione di servizi di assistenza sanitaria suscettibili di rivelare informazioni sul suo stato di salute (considerando 35 e art. 4, n. 15). A ciò si aggiunga che, fermo restando il divieto generale di trattamento di questa particolare tipologia di dati, sono ammesse talune deroghe ai sensi dell’art. 9, par. 2, GDPR. A riguardo, occorre segnalare il radicale mutamento di prospettiva che è intervenuto con il GDPR. In particolare, in relazione ai dati sanitari, è venuto meno il meccanismo del c.d. doppio binario e, più in generale, il consenso non costituisce più l’unica base giuridica legittimante il trattamento. Tanto appare coerente con la nuova concezione di privacy accolta dal GDPR, quale emerge dall’art. 1, par. 1, che prevede, accanto alla protezione, anche il principio di libera circolazione dei dati personali. Ebbene, come è stato evidenziato da autorevole dottrina, la nuova normativa determina il superamento del precedente sistema fondato sulla centralità del consenso dell’interessato. Questo mutamento di approccio determina ricadute rilevanti anche per la materia che ci occupa. Si afferma, infatti, «un modello di trattamento funzionalizzato: il consenso del titolare, infatti, non sarà necessario

6   A riguardo v. M. D’Agostino Panebianco, Il trattamento dei dati nel sistema sanitario nazionale italiano alla luce del provvedimento del Garante del 7 marzo 2019, in Ciberspazio e diritto, 2019, p. 241 ss. 7   Come è noto, sulla base di studi interdisciplinari in ambito medico-legale, l’Organizzazione mondiale della sanità oggi propone una nozione di «salute» più matura e complessa (dal latino salvus, cioè salvo), da intendere non semplicemente come assenza di malattia o di infermità, bensì come «uno stato di completo benessere fisico, mentale e sociale» (secondo la famosa definizione contenuta nella carta fondativa del 1948), il quale costituisce «la risultante di stili di vita, aspetti e percezioni culturali ed età della persona» (secondo la definizione aggiornata nel 2006). Cfr. M. Luciani, Salute I) Diritto alla salute (dir. cost.), in Enc. giur. Treccani, XXVII, Roma 1991, p. 9 ss.; R. Ferrara, Salute (diritto alla), in Dig. disc. pubbl., Torino 1997, p. 520 ss.; V. Durante, Dimensioni della salute. Dalla definizione dell’OMS al diritto attuale, in Nuova giur. civ. comm., 2001, p. 2 ss.; R. Balduzzi, voce Salute (diritto alla), in Diz. dir. pubbl., diretto da S. Cassese, Milano 2006; F. Leonardi, Il grande paradosso della salute. La salute non è uno stato di completo benessere fisco, mentale e sociale. Nuove prospettive, Pisa 2015; D. Morana, La salute come diritto costituzionale, Torino 2015.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Sanità digitale e tutela dei dati personali

353

quando entrino in gioco interessi superindividuali. In tal modo si agevola l’attività terapeutica, che, così, risulta esonerata – divenendo, quindi, più fluida – dall’onere di richiedere sempre e comunque l’autorizzazione al trattamento dei dati»8. Una precisazione, a questo punto, si rende opportuna. È vero che il consenso dell’interessato non è più indispensabile, ma ciò vale solo per i trattamenti necessari alla prestazione sanitaria, ossia quelli strettamente connessi alle finalità di cura9. Tanto in considerazione dell’inestricabile relazione che lega il piano del trattamento sanitario al piano del trattamento dei dati personali del paziente (art. 9, par. 2, lett. h): è chiaro che l’acquisizione di dati personali del paziente (anamnesi, farmaci assunti, ecc.) costituisce presupposto indispensabile per l’erogazione della prestazione sanitaria finalizzata alla cura. In particolare, rientrano nel concetto di «prestazione sanitaria di cura» tutte quelle attività che vanno dalla prevenzione alla diagnosi, dall’assistenza sanitaria alla somministrazione di terapie. Ciò significa, evidentemente, che, in tali frangenti, la base giuridica del trattamento non può essere il consenso, ma, a seconda dei casi, è l’esecuzione di un contratto di cui il paziente è parte insieme alla struttura sanitaria o al professionista sanitario (art. 6, lett. b), ovvero la salvaguardia di interessi vitali del paziente e o di altra persona fisica (art. 6, lett. c). Ne consegue che, in questo mutato contesto normativo, il consenso del paziente rimane necessario solo per quei trattamenti che, pur essendo riconducibili latamente alla prestazione sanitaria, non sono necessari alla sua erogazione: si pensi all’utilizzo di app para-mediche

8   Queste le parole di G. Garofalo, Trattamento e protezione dei dati personali: spunti rimediali in ambito sanitario, in Dir. fam. e pers., 2021, p. 1395. 9   Occorre precisare che la regola generale del divieto di trattamento dei dati personali può essere derogata in tre ipotesi e, quindi, non solo per finalità di cura: per motivi di interesse pubblico (art. 9, par. 2, lett. g); per finalità di medicina preventiva, diagnosi, assistenza o terapia sanitaria o sociale ovvero gestione dei sistemi e servizi sanitari o sociali (art. 9, par. 2, lett. h); per motivi di interesse pubblico nel settore della sanità pubblica (art. 9, par. 2, lett. i). Si ricorda che è proprio con riferimento a quest’ultima ipotesi che la sussistenza di situazioni emergenziali di gravi minacce alla salute legittima il trattamento dei dati sulla salute. Non a caso, in forza della Delibera del Consiglio dei Ministri del 31 gennaio 2020 che ha dichiarato lo stato di emergenza nazionale fino al 31 luglio 2020, è stata emanata l’ordinanza del Capo del Dipartimento della Protezione Civile n. 630 del 3 febbraio 2020 con cui è stato previsto che le pubbliche amministrazioni possano effettuare tutti i trattamenti di dati personali che risultino necessari all’espletamento delle funzioni attribuitegli nell’ambito dell’emergenza Covid-19, nel rispetto dei principi di cui all’art. 5 del GDPR.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

354

Chiara Sartoris

(come quelle comunemente scaricabili sugli smartphone), che non hanno finalità di telemedicina in senso proprio10, o all’invio di comunicazioni anche promozionali (come quelle preordinate alla fidelizzazione della clientela da parte di farmacie o di para-farmacie). In ultimo, si ricorda che lo stesso GDPR consente agli Stati membri di prevedere ulteriori condizioni di liceità del trattamento dei dati sanitari: ai sensi dell’art. 9, par. 4, «gli Stati membri possono mantenere o introdurre ulteriori condizioni, comprese limitazioni, con riguardo al trattamento di dati genetici, dati biometrici o relativi alla salute», a condizione, però, che le misure in questione non costituiscano un ostacolo alla libera circolazione dei dati all’interno del territorio dell’Unione europea (art. 1, par. 3, GDPR). Tanto è vero che il legislatore italiano ha previsto due nuove regole: da un lato, in forza dell’art. 2-quater del d.lg. n. 108 del 2018, il Garante della privacy è chiamato a promuovere l’adozione di regole deontologiche, che debbono costituire condizioni essenziali per la liceità e la correttezza del trattamento dei dati personali (cfr. provvedimento n. 515 del 2018); dall’altro, l’art. 2-septies equipara alle regole deontologiche le misure di garanzia che il Garante è chiamato ad adottare mediante apposito provvedimento, che, però, ci consta non sia stato ancora emanato. 3. Come anticipato, il trattamento dei dati sanitari pone sfide ancora maggiori quando l’erogazione della prestazione sanitaria presuppone l’utilizzo di strumenti digitali – come sempre più frequentemente accade – diretti alla documentazione o all’archiviazione digitale dei dati. Basti pensare al dossier elettronico o al fascicolo sanitario elettronico recentemente introdotto. Prima di analizzare le questioni poste singolarmente da tali strumenti merita ricordare che, tradizionalmente, la principale forma di documentazione sanitaria informativa in ambito ospedaliero è rappresentata dalla cartella clinica11. Si tratta di un documento recante un 10   Ben diverso è il discorso per le app mediche finalizzate alla erogazione di prestazioni sanitarie a distanza (c.d. telemedicina). In tal caso, la raccolta di dati non richiede il previo consenso del paziente, poiché si ricade nella regola generale di cui al GDPR, a condizione che i dati siano accessibili ai soli professionisti sanitari. Si pensi alle app di telemonitoraggio per patologie croniche (malattie cardiovascolari, diabete). 11   Per uno studio specifico v. U. Gabrielli, La cartella clinica ospedaliera, in Riv. it. dir. soc., 1970, p. 498 ss.; F. Buzzi e C. Sclavi, La cartella clinica: atto pubblico, scrittura privata o “tertium genus”?, in Riv. it. med. leg., 1997, p. 1161 ss.; E. Barillà e C. Caputo, Problemi applicativi della legge sulla privacy: il caso delle cartelle cli-

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Sanità digitale e tutela dei dati personali

355

insieme di informazioni relative ai dati anamnestici, diagnostici e terapeutici di ogni persona che venga ricoverata in ospedale o che si sottoponga ad analisi e cure mediche. L’importanza della cartella clinica è, dunque, evidente. Tale strumento risponde a plurimi scopi in quanto consente la raccolta organica dei dati relativi a ogni ricovero al fine di consentire l’assunzione di decisioni mediche, di fornire una fonte informativa e di tracciare le attività svolte, oltre che per finalità amministrative12. Per questi motivi, il Codice di deontologia medica niche, in Pol. dir., 1998, p. 275 ss.; O. Bucci, La cartella clinica. Profili strumentali, gestionali, giuridici e archivistici, Santarcangelo di Romagna 1999; B. Primicerio, La cartella clinica e la documentazione sanitaria ad essa collegata: evoluzione, utilizzazione e responsabilità, in Dir. san. mod., 2004, p. 207 ss.; F. Frè, La cartella clinica nel sistema sanitario italiano, in Nuova rass. leg., dottr. e giurisp., 2007, p. 2387 ss.; P. Baice, La cartella clinica tra diritto di riservatezza e diritto di accesso, in Resp. civ., 2008, p. 169 ss.; C. Sartoretti, La cartella clinica tra diritto all’informazione e diritto alla privacy, in R. Ferrara (a cura di), Salute e sanità, Trattato di biodiritto, diretto da S. Rodotà e P. Zatti, Milano 2010, p. 592 ss.; C. Filauro, Telemedicina, cartella clinca e tutela della privacy, cit., p. 481 ss. 12  Dibattuta, presso la dottrina, è la questione della natura giuridica della cartella clinica. Secondo un consolidato indirizzo, occorre distinguere, innanzitutto, a seconda che il soggetto autore della cartella sia pubblico o privato: le cartelle provenienti da soggetti pubblici (ospedali e strutture private convenzionate con il SSN) sono considerate come certificazioni amministrative provenienti da pubblici ufficiali e, quindi, come atti pubblici idonei a fare piena prova fino a querela di falso di ciò che il medico (pubblico ufficiale) vi ha riportato, ai sensi degli artt. 2699 e 2700 c.c.; mentre le cartelle formate da strutture private non convenzionate con il SSN o dai liberi professionisti non avrebbero il medesimo valore probatorio e non potrebbero essere considerate né atti pubblici né certificazioni. Corollario di tale impostazione è che solo quando la cartella promana da un soggetto pubblico possono configurarsi i reati propri del pubblico ufficiale, quali la falsità materiale in atto pubblico (artt. 476 ss. c.p.) e la falsità ideologica in atto pubblico (art. 479 c.p.). Secondo un diverso orientamento, ai fini della qualificazione della natura giuridica e del valore probatorio della cartella sanitaria non rileva il carattere pubblico o privato del suo autore. O meglio, viene osservato che anche il professionista che esercita l’attività sanitaria in struttura privata opera, pur sempre, come esercente una funzione di pubblica utilità, al pari di quello che opera in struttura pubblica, in quanto a rilevare sarebbe la natura dell’attività svolta. Tanto implicherebbe la sostanziale assimilazione di regime e di trattamento delle due ipotesi. Conseguentemente, in base al principio giurisprudenziale di vicinanza della prova, gravano sul professionista le conseguenze processuali della irregolare tenuta della cartella. Cfr. F. Buzzi e C. Sclavi, La cartella clinica: atto pubblico, scrittura privata o tertium genus?, in Riv. it. med. leg., 1997, p. 1161 ss.; V. Occorsio, Cartella clinca e “vicinanza” della prova, in Riv. dir. civ., 2003, V, p. 1249 ss.; S. Corso, Salute e riserbo del paziente: questioni aperte in tema di cartella clinica, in Resp. med. dir. e prat. clin., 2017, p. 3 ss. In giurisprudenza: Cass., 27 settembre 2009, n. 10695, in Mass. Giust. civ., 2010, p. 2020 ss.; Cass., 12 maggio 2003, n. 7201, in Rass. giur. san., 2003, p. 235 ss.; Cass., 30 novembre 2011, n. 25568, in Giust. civ., 2012, I, p. 1248 ss.; Cass., 12 giugno 2015, n. 12218, in Giust. civ., 2012, I, p. 1248 ss.; © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

356

Chiara Sartoris

prescrive al personale sanitario di compilare tale documentazione in modo chiaro e preciso, indicando ogni dato obiettivo relativo alla condizione patologica e al suo decorso e le attività diagnostico-terapeutico effettuate (art. 23). Già da quanto detto sin qui si percepirà come la efficienza e l’utilità di tali strumenti di documentazione siano ancora maggiori quando vengano gestiti in forme elettroniche. La cartella clinica elettronica13 sostituisce oggi quella cartacea, ma non si sovrappone completamente a quest’ultima, distinguendosi per la maggior integrabilità con altri strumenti informatici e per la più immediata e agevole consultazione. Occorre, però, precisare un aspetto. La cartella sanitaria, quand’anche in formato elettronico, essendo un documento predisposto dalla struttura sanitaria presso la quale un paziente è in cura, si limita a fotografare una singola e specifica vicenda della sua storia clinica. In questo senso, accanto alla cartella sanitaria, è utile la predisposizione di un fascicolo sanitario, di cui quest’ultima è parte integrante. Il fascicolo sanitario, a sua volta, non deve essere confuso con il dossier sanitario14. Merita, quindi, porre ordine tra i vari strumenti di documentazione sanitaria a disposizione delle strutture, al fine di comprendere come si atteggi la tutela dei dati personali. In base ai provvedimenti emanati dal Garante per la privacy15, tanto il dossier quanto il fascicolo costituiscono una raccolta degli eventi clinici relativi a una determinata persona con l’obiettivo di documentarne l’intera storia clinica (documentazione relativa a ricoveri, referti di laboratorio). Con la differenza, però, che il dossier sanitario raccoglie dati e informazioni gestiti da un solo titolare del trattamento, cioè dalla singola struttura sanitaria presso la quale un paziente abbia più volte ricevuto prestazioni sanitarie (erogate anche da più professionisti operanti in quella struttura). Il fascicolo sanitario, invece, è uno struCass., 31 marzo 2016, n. 6209 ss., in Riv. it. med. leg., 2016, IV, p. 1706 ss., con nota di P. Ferrara, Onere della prova invertito in caso di imperfetta compilazione della cartella clinica? La recente sentenza della Suprema Corte n. 6209 del 31 marzo 2016. 13   La cartella sanitaria elettronica è stata introdotta con un emendamento sulle semplificazioni approvato dalle Commissioni Affari Costituzionali e Attività produttive della Camera in vigore dal 12 febbraio 2012. 14   Cfr. L. Califano, Fascicolo sanitario elettronico (Fse) e dossier sanitario: il contributo del Garante privacy al bilanciamento tra diritto alla salute e diritto alla protezione dei dati personali, in Sanità pubbl. e priv., 2015, III, p. 7 ss. 15   Il riferimento è, in primo luogo, alle Linee Guida in tema di fascicolo sanitario elettronico e di di dossier sanitario del 2009. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Sanità digitale e tutela dei dati personali

357

mento più ampio – e potenzialmente più pervasivo, sotto il profilo della privacy – essendo formato dai dati sanitari raccolti e gestiti da diversi titolari del trattamento, ossia da tutte le strutture presso le quali una persona abbia ricevuto prestazioni sanitarie nel corso della propria vita. In prima approssimazione, quindi, il fascicolo sanitario può essere definito come un insieme di più dossier. Come anticipato, lo sviluppo della sanità digitale consente oggi di costruire i dossier, così come i fascicoli sanitari, in formato elettronico, agevolando enormemente la gestione delle informazioni dei pazienti da parte del personale sanitario. In questa prospettiva, l’utilità del fascicolo sanitario elettronico16 è duplice in quanto, per un verso, consente a qualsiasi professionista sanitario di tracciare e consultare digitalmente, in ogni momento, tutta la storia sanitaria di un paziente a garanzia di una prestazione sanitaria più efficace; per l’altro, costituisce uno strumento di trasparenza anche per il paziente, il quale, a sua volta, può accedere liberamente a tutte le informazioni concernenti la sua salute, migliorando, così, il rapporto di fiducia con il medico. Nonostante gli indubbi vantaggi sul piano delle attività di cura, lo strumento in esame è ancora ben lontano dall’essere pienamente operante a livello pratico. Merita ricordare che il fascicolo sanitario elettronico è stato istituto con i d.l. 18 ottobre 2012, n. 179, (recante «Ulteriori misure urgenti per la crescita del Paese»), che lo definiva come «l’insieme dei dati e documenti digitali di tipo sanitario e sociosanitario generati da eventi clinici presenti e trascorsi, riguardanti l’assistito» (art. 12). In particolare, per ogni fascicolo era previsto un nucleo minimo di dati uguali per tutti, quali i dati identificativi e amministrativi del paziente, i referti, i verbali di pronto soccorso, le lettere di dimissione e un profilo sanitario sintetico (c.d. patient summary)17. La nor16   Per uno studio sullo strumento in esame v.: G. Gliatta, Il diritto alla privacy in ambito medico: trattamento dei dati sensibili e fascicolo sanitario elettronico, in Resp. civ., 2010, p. 682 ss.; V. Peigné, Il fascicolo sanitario elettronico, verso una “trasparenza sanitaria” della persona, in Riv. it. med. leg., 2011, p. 1519 ss.; P. Guarda, Il fascicolo sanitario elettronico e la protezione dei dati personali, Trento 2011; L. Nocco, G. Comandé e V. Peigné, Il fascicolo sanitario elettronico: uno studio multidisciplinare, in Riv. it. Med. Leg., 2012, p. 106 ss.; R. Ducato e U. Rizzo, Diritto all’autodeterminazione informativa del minore e gestione dei dati “supersensibili” nel contesto del fascicolo sanitario elettronico, in Dir. inf., 2012, p. 703 ss; L. Califano, Fascicolo sanitario elettronico (Fse) e dossier sanitario: il contributo del Garante privacy al bilanciamento tra diritto alla salute e diritto alla protezione dei dati personali, cit., p. 7 ss. 17   Osserva V. Peigné, Il fascicolo sanitario elettronico, verso una “trasparenza sanitaria” della persona, cit., p.  1519 ss.: il FSE «mira a riunire tutte le informazioni

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

358

Chiara Sartoris

ma più rilevante, ai presenti fini, era l’art. 12, comma 3-bis, ove veniva sancita la regola del consenso informato del paziente alla alimentazione del fascicolo: «il FSE può essere alimentato esclusivamente sulla base del consenso libero e informato da parte dell’assistito, il quale può decidere se e quali dati relativi alla propria salute non devono essere inseriti nel fascicolo medesimo». In tal modo, al paziente era riconosciuta la possibilità di incidere su quali dati dovessero essere trattati. Chiare le conseguenze di tale disciplina: se, da un lato, garantiva al massimo la tutela della privacy, dall’altro, però, depotenziava enormemente le finalità del fascicolo stesso, rendendo parziale e incompleta la documentazione sanitaria ivi raccolta. Sennonché, poiché alla scadenza prevista per la sua adozione in tutte le Regioni l’obiettivo non è stato raggiunto, il legislatore, posto di fronte alle sfide della emergenza pandemica, ha inteso rilanciare questo strumento modificando la predetta disposizione con il d.l. 19 maggio 2020, n. 34 (c.d. decreto «Rilancio»). Due le novità da segnalare ai presenti fini. In primo luogo, il decreto «Rilancio» ha ampliato la platea dei soggetti autorizzati a inserire e gestire dati nel fascicolo, potendo trattarsi di dati di tipo sia sanitario sia socio-sanitario, relativi a eventi clinici presenti o passati, riferiti a prestazioni che possono essere state erogate «dai soggetti e dagli esercenti le professioni sanitarie che prendono in cura l’assistito sia nell’ambito del Servizio sanitario nazionale e dei servizi socio-sanitari regionali sia al di fuori degli stessi, nonché su iniziativa dell’assistito». Inoltre, nel fascicolo possono confluire anche i dati medici in possesso dello stesso assistito. Si tratta, indubbiamente, di una modifica di grande rilievo perché l’ampliamento del novero dei soggetti che alimentano il fascicolo, esteso a ricomprendere anche le prestazioni erogate da strutture private che non operino in convenzione con il SSN, consente di raccogliere una grande mole di informazioni idonee a rendere il più completa possibile la vita clinica di ogni singolo paziente. Tanto è coerente con l’obiettivo, alla base dello strumento in esame, di assicurare la interoperabilità dei dati ivi contenuti tra le strutture e i medici di tutto il Paese. In secondo luogo – e per ciò che qui più interessa – è stato eliminato il requisito del previo consenso all’alimentazione del fascicolo da relative alla salute di un individuo e a condividerle elettronicamente tra una pluralità di attori». ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Sanità digitale e tutela dei dati personali

359

parte del paziente mediante l’abrogazione del predetto art. 12, comma 3-bis, del decreto del 2012. Tale modifica trova la sua giustificazione nel già citato provvedimento n. 55 del 7 marzo 2019 del Garante per la privacy, il quale richiamava il legislatore sulla necessità di adeguare le regole sulla base consensuale alla disciplina del GDPR, che, come già ricordato, ha superato il principio del consenso, escludendo la necessità del consenso al trattamento dei dati connessi alle prestazioni con finalità di cura. Merita, comunque, chiarire che sebbene i dati relativi a prestazioni sanitarie prodotti da maggio 2020 in poi confluiscano nel FSE anche in assenza del consenso dell’interessato, quest’ultimo rimane, invece, necessario sia per l’attivazione del FSE sia per l’accesso da parte dei soggetti autorizzati a tali dati, come chiarito dal Garante per la privacy (intervenuto a seguito di comunicazioni non corrette da parte di alcune autorità regionali): «anche a seguito di tale alimentazione automatica del FSE, i dati sanitari dei cittadini non saranno accessibili al personale sanitario in assenza di uno specifico consenso del singolo cittadino» (cfr. comunicato stampa del 20 gennaio 2021). Non solo, ma il paziente ha diritto, altresì, di chiedere e di ottenere l’oscurazione dei dati che non intende rendere consultabili. Tanto significa che, fermo restando il nuovo principio enunciato dal GDPR, il paziente rimane libero di autodeterminarsi rispetto alle modalità di trattamento e raccolta dei propri dati sanitari. Per converso, a carico dei professionisti sanitari grava l’obbligo, in coerenza con un principio di proporzione, di prendere conoscenza delle sole informazioni necessarie ad esercitare le funzioni sanitarie a cui sono preposti. 4. Come si è accennato in apertura del lavoro, la digitalizzazione degli strumenti di documentazione sanitaria è fortemente suggerita dall’Unione europea nell’ottica di favorire l’assistenza sanitaria transfrontaliera, in applicazione del principio dello sviluppo sostenibile18. La realizzazione di quest’ultima, come emerge dalla ricordata Raccomandazione (UE) 2019/243, mira a ridurre il costo dell’assistenza sanitaria per i cittadini europei e a rendere più efficiente ed efficace 18   Cfr. R. Nania, Il diritto alla salute tra attuazione e sostenibilità, in M. Sesta (a cura di), L’erogazione della prestazione medica tra diritto alla salute, principio di autodeterminazione e gestione ottimale delle risorse sanitarie, Santarcangelo di Romagna 2014, p. 39 ss.; D. Morana (a cura di), L’assistenza sanitaria transfrontaliera. Verso un welfare state europeo?, Napoli 2018; G. Boggero, Gli ostacoli alla mobilità sanitaria transfrontaliera in Italia, in Corti supreme e salute, 2018, p. 2 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

360

Chiara Sartoris

la erogazione delle prestazioni sanitarie19. In tale contesto, tanto i legislatori quanto gli interpreti sono chiamati a fornire risposte adeguate a bilanciare le istanze della sanità digitale con l’esigenza di tutela dei dati inerenti la salute. Per le ragioni illustrate, strumenti fondamentali di tale politica sono proprio la cartella clinica elettronica, il dossier elettronico e, soprattutto, il fascicolo sanitario elettronico. Sotto il profilo della tutela dei dati personali, però, vi sono ancora vari passaggi che richiedono di essere compiuti dall’ordinamento italiano affinché la compliance alle regole del GDPR non sia meramente formale. In conclusione della presente indagine, preme, dunque, segnalare quali siano i profili di disciplina da implementare. È di immediata percezione, innanzitutto, che la costituzione di un fascicolo sanitario elettronico, permettendo di ricostruire la storia clinica di un paziente, offra un profilo completo, fornendo informazioni particolarmente delicate e importanti per la vita della persona che, se non adeguatamente tutelate, rischiano di compromettere la tutela del diritto alla privacy. Sotto questo profilo, la costituzione di un sistema di gestione digitale dei dati richiede la predisposizione sia di idonee misure di sicurezza informatica per evitare che i dati vengano intercettati da terzi estranei o manipolati; sia di regole chiare e trasparenti quanto alla individuazione dei soggetti autorizzati ad accedere a tali documentazioni. Quest’ultimo aspetto si lega a un’altra rilevante questione. Nell’attuale panorama normativo vi è un elemento di particolare interesse e novità. Il riferimento è al ruolo attivo riconosciuto allo stesso paziente non solo dal GDPR in termini generali, ma anche dal Decreto c.d. Rilancio in materia di fascicolo sanitario elettronico. Il paziente, invero, lungi dal costituire un mero soggetto passivo del trattamento dei dati relativi alla sua salute, è chiamato a tenere un atteggiamento pro-attivo, di collaborazione fattiva in tutte le fasi della relazione terapeutica e, dunque, anche nella alimentazione del fascicolo (c.d. patient empower19   Sotto questo profilo, non è possibile in questa sede approfondire la questione dei trattamenti discriminatori. Si ricorda, però, la necessità, per evitare questi ultimi, che gli Stati membri si dotino di standard omogenei non solo per quanto riguarda le procedure di digitalizzazione dei dati, ma anche per ciò che attiene alle modalità di acquisizione e di gestione dei medesimi. A riguardo si segnala una Raccomandazione della Commissione del 6 febbraio 2019 («on a European Electronic Health Record exchange») con cui viene suggerita la realizzazione di un formato digitale unico che possa consentire la circolazione dei dati contenuti nei fascicoli sanitari elettronici dei vari Stati membri, così da garantire la piena e sicura interoperabilità digitale.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Sanità digitale e tutela dei dati personali

361

ment)20. Al paziente spetta, infatti, di scegliere se attivare il FSE, chi può consultarlo, quali informazioni mostrare e quali oscurare, nonché verificare chi abbia visionato i suoi dati21. È evidente che la possibilità di avere un accesso diretto e immediato al proprio fascicolo consente a ciascuno di poter controllare regolarmente e con facilità il relativo contenuto, partecipando attivamente alla gestione della propria salute. Tutto ciò, però, è possibile sul presupposto che alla base della relazione terapeutica tra medico e paziente - che rimane il momento centrale della erogazione della prestazione sanitaria - vi sia un adeguato scambio di informazioni. Il paziente è chiamato a condividere con il medico tutti i dati necessari a impostare un corretto ed efficace approccio terapeutico; ma il professionista deve tenere un atteggiamento improntato alla massima trasparenza per quanto riguarda una serie rilevante di informazioni. Queste non riguardano solo, come è ovvio, lo stato di salute e i contenuti della prestazione sanitaria, ma debbono riguardare anche tutti gli strumenti accessori alla erogazione della prestazione sanitaria. Al professionista (e alla struttura sanitaria in cui è inserito, più in generale) è richiesto lo sforzo di rendere edotto il paziente circa il funzionamento e i vantaggi di strumenti come il fascicolo sanitario elettronico. In particolare, è necessario che il paziente riceva una informativa completa sulle modalità di alimentazione del fascicolo e di accesso allo stesso, in modo da garantire che la sua partecipazione sia cosciente e attiva e, dunque, responsabile. Il momento informativo, o meglio, il valore della relazione perso-

20   Sul concetto di c.d. patient empowerment v.: L. Buccoliero, E-Healt 2.0 – Tecnologie per il patient empowerment, in Mondo dig., 2010, p. 3 ss.; A. Helmer, M. Lipprandt, T. Franken, M. Eichelberg e A. Hein, Empowering patients through Personal health records: a survey of existing thirdparty web-based PHR products, in Electronical Journal of Health Informatics, 2011, p. 6 ss.; R. Ducato e P. Guarda, Profili giuridici dei “personal health records”: l’autogestione dei dati sanitari da parte del paziente tra “privacy” e tutela della salute, in Riv. crit. dir. priv., 2014, p. 389 ss.; D. Caccavella e A. Gammarota, Informatica forense sanitaria per l’eHealth, in C. Faralli, R. Brighi e M. Martoni (a cura di), Strumenti, diritti, regole e nuove relazioni di cura: il paziente europeo protagonista dell’eHealt, Torino 2015, p. 213 ss. 21   Cfr. G. Garofalo, Trattamento e protezione dei dati personali: spunti rimediali in ambito sanitario, cit., p. 1400, il quale osserva che le descritte facoltà di controllo riconosciute al paziente sono facoltà «dal notevole potenziale, che testimoniano una forte volontà di rendere, da un lato, edotto il singolo sulla propria condizione sanitaria e, dall’altro, di rispettarne la sua sensibilità, essendo l’interessato libero, ad esempio, di non mostrare ad uno specialista alcune informazioni riguardanti patologie pregresse».

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

362

Chiara Sartoris

nale - umana, prima ancora che professionale - tra medico e paziente, rimane un momento cruciale e ineludibile. E dal suo corretto e trasparente svolgimento dipende strettamente la corretta comprensione non solo della specifica questione sanitaria, ma anche degli aspetti complementari, primo fra tutti quello della tutela dei dati. Insomma il ricorso alla tecnologia che agevola lo svolgimento della prestazione sanitaria non può sostituire in toto la relazione personale con il paziente. La vicenda relativa alla tutela dei dati personali lo conferma, al fine di evitare i rischi connessi al formale adempimento burocratico dei moduli del consenso informato. In ultimo, un altro aspetto merita di essere evidenziato. Di là da possibili questioni legate al digital divide – su cui in questa sede non ci si può soffermare – si osserva che proprio l’informativa sottesa alla gestione degli strumenti di archiviazione dei dati sanitari costituisce un aspetto di particolare delicatezza. Non si può non notare, infatti, come l’apertura alla partecipazione degli utenti mostri delle criticità nella parte in cui il decreto esaminato non chiarisce né quali siano le modalità attraverso le quali questi possano intervenire sul fascicolo, né come prevenire o fronteggiare il rischio di inserimento di dati non pertinenti o, addirittura, errati o fuorvianti, ove difetti un previo vaglio da parte di un soggetto professionista. Sicché, sotto questo profilo, l’apprezzabile valorizzazione del c.d. patient empowerment richiederà un maggior sforzo di puntualizzazione da parte del legislatore e degli interpreti. Ma, sicuramente, la strada intrapresa è destinata a rivoluzionare il tradizionale rapporto medico-paziente – soprattutto nell’ottica dell’affermazione della c.d. medicina di precisione – sia pure nella consapevolezza della insopprimibile necessità di un costante dialogo interpersonale.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Benedetta Vivarelli*

Profilazione dei dati e aziende sanitarie

Sommario: 1. Introduzione. – 2. I dati sanitari: definizione, disciplina e trattamento. – 3. Il Fascicolo Sanitario Elettronico (FSE). – 4. L’utilizzo dei dati sanitari, con particolare riferimento alla profilazione. Cenni su reimpiego e pseudonimizzazione. – 5. Riflessioni conclusive.

1. La disciplina del trattamento dei dati personali di cui al Regolamento (UE) 2016/679 è finalizzata all’individuazione di un equilibrio1 tra la necessità di tutela e la libera circolazione dei dati2, sul presupposto che il diritto alla protezione dei dati personali non sia una prerogativa a carattere assoluto3. Obiettivo generale della nuova disciplina, dunque, è stato quello di sfruttare l’uso delle tecnologie informatiche per contemperare la protezione dei dati e il trattamento dei medesimi, in un processo evolutivo che ha ormai abbandonato «sia il modello culturale dell’esclusione degli altri dalle informazioni di carattere personale, sia i moduli concettuali dell’appartenenza di queste ultime al soggetto alle quali esse si riferiscono»4. * Dottoressa di ricerca in Diritto pubblico, Diritto urbanistico e dell’ambiente, nell’Università di Firenze 1   Si veda in tema di bilanciamento degli interessi in ambito di privacy e trattamento dei dati, S. Rodotà, Privacy e costruzione della sfera privata. Ipotesi e prospettive, in Pol. dir., 1991, p. 526 ss. 2   In tal senso art. 1, par. 1, Regolamento (UE) 2016/679: «Il presente regolamento stabilisce norme relative alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché norme relative alla libera circolazione di tali dati». 3   Si veda il considerando n. 4 del Regolamento (UE) 2016/679: «Il trattamento dei dati personali dovrebbe essere al servizio dell’uomo. Il diritto alla protezione dei dati di carattere personale non è una prerogativa assoluta, ma va considerato alla luce della sua funzione sociale e va contemperato con altri diritti fondamentali, in ossequio al principio di proporzionalità. Il presente regolamento rispetta tutti i diritti fondamentali e osserva le libertà e i principi riconosciuti dalla Carta, sanciti dai trattati, in particolare il rispetto della vita privata e familiare, del domicilio e delle comunicazioni, la protezione dei dati personali, la libertà di pensiero, di coscienza e di religione, la libertà di espressione e d’informazione, la libertà d’impresa, il diritto a un ricorso effettivo e a un giudice imparziale, nonché la diversità culturale, religiosa e linguistica». 4   In tal senso F. Piraino, Il regolamento generale sulla protezione dei dati personali e i diritti dell’interessato, in Nuove leggi civ. comm., 2017, p. 369 ss. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

364

Benedetta Vivarelli

La rapidità dell’evoluzione tecnologica e la globalizzazione hanno condotto a un considerevole aumento dei flussi transfrontalieri di dati personali. Tale fenomeno ha riguardato, in particolare, i dati sanitari5, la cui circolazione investe anche interessi comuni6 che talvolta prevalgono su quelli strettamente personali. Infatti, la trasmissione e l’elaborazione di dati sanitari, specie (ma non necessariamente) a fronte di situazioni emergenziali, acquista in molte ipotesi il carattere della necessità e ciò ha comportato l’affermazione di un modello in cui a prevalere sono – appunto – le ragioni solidaristico-pubblicistiche, in virtù di scelte fatte a monte dal legislatore e mediante un’erosione del potere di disposizione del privato. La proprietà dei dati sanitari, in altri termini, fuoriesce ormai dal regime privatistico, in cambio di una serie di garanzie e di adempimenti a carico del titolare del trattamento; e ciò ha subìto una forte accelerazione a seguito della recente emergenza sanitaria. Lo scritto propone quindi una sintesi che, muovendo dai principali profili definitori e di disciplina, insinua il dubbio sull’opportunità delle scelte legislative univocamente dirette alla funzionalizzazione dei dati sanitari a esigenze solidaristiche, a scapito della dimensione soggettivo-personalistica. Ciò che ormai appare evidente e inevitabile è il tramonto dell’idea della privacy come diritto a tutela della sfera esclusiva della persona. A sopraggiungere è un concetto di privacy moderno, caratterizzato da svariati gradi di protezione e intensità a seconda dei diversi dati personali e della tipologia di trattamento. 2. «La protezione delle persone fisiche con riguardo al trattamento dei dati di carattere personale è un diritto fondamentale»: con queste 5   S. Rodotà, Tra diritto e società. Informazioni genetiche e tecniche di tutela, in Riv. crit. dir. priv., 2000, p. 593 ss., che fa riferimento alla persona e al corpo, quale prezioso sistema di informazioni. 6   Si veda il considerando n. 46 del Regolamento (UE) 2016/679: «Il trattamento di dati personali dovrebbe essere altresì considerato lecito quando è necessario per proteggere un interesse essenziale per la vita dell’interessato o di un’altra persona fisica. Il trattamento di dati personali fondato sull’interesse vitale di un’altra persona fisica dovrebbe avere luogo in principio unicamente quando il trattamento non può essere manifestamente fondato su un’altra base giuridica. Alcuni tipi di trattamento dei dati personali possono rispondere sia a rilevanti motivi di interesse pubblico sia agli interessi vitali dell’interessato, per esempio se il trattamento è necessario a fini umanitari, tra l’altro per tenere sotto controllo l’evoluzione di epidemie e la loro diffusione o in casi di emergenze umanitarie, in particolare in casi di catastrofi di origine naturale e umana».

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilazione dei dati e aziende sanitarie

365

parole si apre il primo considerando del Regolamento (UE) 2016/6797, che disciplina un diritto già riconosciuto e garantito dalla Carta dei diritti fondamentali dell’Unione europea e dal Trattato sul funzionamento dell’Unione europea8. Siffatta tutela interessa anche i dati relativi alla salute9, che in virtù della loro natura sono assoggettati a una disciplina particolare: essi, infatti, rientrano tra le categorie particolari di dati personali di cui è vietato il trattamento10. La disciplina del Regolamento europeo prevede tuttavia una serie di deroghe al suddetto divieto11. 7   Regolamento (UE) 2016/679 del Parlamento Europeo e del Consiglio del 27 aprile 2016 relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati). 8   L’art. 8, par. 1, della Carta dei diritti fondamentali dell’Unione europea («Carta») e l’art. 16, par. 1, del Trattato sul funzionamento dell’Unione europea («TFUE») stabiliscono che ogni persona ha diritto alla protezione dei dati di carattere personale che la riguardano. 9   Ai sensi dell’art. 4, comma 1, n. 15), del Regolamento (UE) 2016/679 sono relativi alla salute quei «dati personali attinenti alla salute fisica o mentale di una persona fisica, compresa la prestazione di servizi di assistenza sanitaria, che rivelano informazioni relative al suo stato di salute». Il concetto è altresì specificato dal 35° considerando del Regolamento: «Nei dati personali relativi alla salute dovrebbero rientrare tutti i dati riguardanti lo stato di salute dell’interessato che rivelino informazioni connesse allo stato di salute fisica o mentale passata, presente o futura dello stesso. Questi comprendono informazioni sulla persona fisica raccolte nel corso della sua registrazione al fine di ricevere servizi di assistenza sanitaria o della relativa prestazione di cui alla direttiva 2011/24/UE del Parlamento europeo e del Consiglio un numero, un simbolo o un elemento specifico attribuito a una persona fisica per identificarla in modo univoco a fini sanitari; le informazioni risultanti da esami e controlli effettuati su una parte del corpo o una sostanza organica, compresi i dati genetici e i campioni biologici; e qualsiasi informazione riguardante, ad esempio, una malattia, una disabilità, il rischio di malattie, l’anamnesi medica, i trattamenti clinici o lo stato fisiologico o biomedico dell’interessato, indipendentemente dalla fonte, quale, ad esempio, un medico o altro operatore sanitario, un ospedale, un dispositivo medico o un test diagnostico in vitro». 10   Si veda il comma 1 dell’art. 9 (Trattamento di categorie particolari di dati personali) del Regolamento (UE) 2016/679: «È vietato trattare dati personali che rivelino l’origine razziale o etnica, le opinioni politiche, le convinzioni religiose o filosofiche, o l’appartenenza sindacale, nonché trattare dati genetici, dati biometrici intesi a identificare in modo univoco una persona fisica, dati relativi alla salute o alla vita sessuale o all’orientamento sessuale della persona». 11   Si veda in senso critico relativamente all’art. 9, M. Granieri, Il trattamento di categorie particolari di dati personali nel Reg. UE 2016, in Le nuove leggi civili commentate, 2017, p. 165 ss. e in particolare p. 170: «sembrerebbe che il legislatore europeo abbia inteso creare una altalena di regimi (senza peraltro decretare la prevalenza di uno o dell’altro), sancendo l’indisponibilità del diritto al primo paragrafo,

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

366

Benedetta Vivarelli

In particolare, in ambito sanitario, è consentito il trattamento nei seguenti casi: A. ove il trattamento sia necessario per «motivi di interesse pubblico rilevante sulla base del diritto dell’Unione o degli Stati membri»12. Si rileva sul punto che il d.lg. 30 giugno 2003, n. 196 (Codice della Privacy), oltre a indicare la necessità di una base normativa preposta all’individuazione dei motivi di interesse pubblico rilevante, ne ha enunciati alcuni, tipizzandoli13; B. ove il trattamento sia necessario per finalità «di medicina preventiva o di medicina del lavoro, valutazione della capacità lavorativa del dipendente, diagnosi, assistenza o terapia sanitaria o sociale ovvero gestione dei sistemi e servizi sanitari o sociali sulla base del diritto dell’Unione o degli Stati membri o conformemente al contratto con un professionista della sanità»14. Peraltro, a ulteriore garanzia si prevede che per le finalità di cura i dati sanitari possano essere trattati esclusivamente da un professionista soggetto al segreto professionale, ovvero sotto la sua responsabilità (o da persone in ogni caso soggette all’obbligo di segretezza)15; C. ove il trattamento sia necessario per motivi di interesse pubblico nel settore della sanità pubblica, «quali la protezione da gravi minacce per la salute a carattere transfrontaliero o la garanzia di parametri ele-

degradandolo a diritto di natura proprietaria nel secondo — soprattutto nella lett. a), dove si riespande significativamente il ruolo del consenso — e poi avallando tutta una serie di deroghe nelle quali la base giuridica del trattamento prescinde dal consenso». 12   In tal senso art. 9, comma 2, lett. g), Regolamento (UE) 2016/679, ove si aggiunge che il trattamento «deve essere proporzionato alla finalità perseguita, rispettare l’essenza del diritto alla protezione dei dati e prevedere misure appropriate e specifiche per tutelare i diritti fondamentali e gli interessi dell’interessato». 13   Si veda l’art. 2-sexies del d.lg. n. 196 del 2003: «1. I trattamenti delle categorie particolari di dati personali di cui all’art. 9, paragrafo 1, del Regolamento, necessari per motivi di interesse pubblico rilevante ai sensi del par. 2, lettera g), del medesimo articolo, sono ammessi qualora siano previsti dal diritto dell’Unione europea ovvero, nell’ordinamento interno, da disposizioni di legge o, nei casi previsti dalla legge, di regolamento che specifichino i tipi di dati che possono essere trattati, le operazioni eseguibili e il motivo di interesse pubblico rilevante, nonché le misure appropriate e specifiche per tutelare i diritti fondamentali e gli interessi dell’interessato. 2. Fermo quanto previsto dal comma 1, si considera rilevante l’interesse pubblico relativo a trattamenti effettuati da soggetti che svolgono compiti di interesse pubblico o connessi all’esercizio di pubblici poteri nelle seguenti materie (…)». 14   Così art. 9, par. 2, lett. h), Regolamento (UE) 2016/679. 15   Così art. 9, par. 3, Regolamento (UE) 2016/679. Si veda altresì la disciplina di cui all’art. 2-septies e all’art. 75 del d.lg. n. 196 del 2003. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilazione dei dati e aziende sanitarie

367

vati di qualità e sicurezza dell’assistenza sanitaria e dei medicinali e dei dispositivi medici, sulla base del diritto dell’Unione o degli Stati membri che prevede misure appropriate e specifiche per tutelare i diritti e le libertà dell’interessato, in particolare il segreto professionale»16. Allorché, quindi, si ricada in una delle predette ipotesi, il trattamento dei dati sanitari è ammesso, ma esso dovrà pur sempre rispettare le prescrizioni di cui al Regolamento europeo 2016/679. Sul punto, l’art. 5 del Regolamento17 si occupa di delineare i principi applicabili al trattamento dei dati e l’art. 6 del Regolamento circoscrive le basi giuridiche su cui si fonda la liceità del trattamento stesso: 16   In tal senso art. 9, comma 2, lett. i), Regolamento (UE) 2016/679. Si veda sul punto anche il considerando n. 54 del Regolamento europeo: «Il trattamento di categorie particolari di dati personali può essere necessario per motivi di interesse pubblico nei settori della sanità pubblica, senza il consenso dell’interessato. Tale trattamento dovrebbe essere soggetto a misure appropriate e specifiche a tutela dei diritti e delle libertà delle persone fisiche. In tale contesto, la nozione di “sanità pubblica” dovrebbe essere interpretata secondo la definizione del regolamento (CE) n. 1338/2008 del Parlamento europeo e del Consiglio: tutti gli elementi relativi alla salute, ossia lo stato di salute, morbilità e disabilità incluse, i determinanti aventi un effetto su tale stato di salute, le necessità in materia di assistenza sanitaria, le risorse destinate all’assistenza sanitaria, la prestazione di assistenza sanitaria e l’accesso universale a essa, la spesa sanitaria e il relativo finanziamento e le cause di mortalità. Il trattamento dei dati relativi alla salute effettuato per motivi di interesse pubblico non dovrebbe comportare il trattamento dei dati personali per altre finalità da parte di terzi, quali datori di lavoro, compagnie di assicurazione e istituti di credito». 17   Si veda art. 5 Regolamento (UE) 2016/679: «1. I dati personali sono: a) trattati in modo lecito, corretto e trasparente nei confronti dell’interessato («liceità, correttezza e trasparenza»); b) raccolti per finalità determinate, esplicite e legittime, e successivamente trattati in modo che non sia incompatibile con tali finalità; un ulteriore trattamento dei dati personali a fini di archiviazione nel pubblico interesse, di ricerca scientifica o storica o a fini statistici non è, conformemente all’art. 89, par. 1, considerato incompatibile con le finalità iniziali («limitazione della finalità»); c) adeguati, pertinenti e limitati a quanto necessario rispetto alle finalità per le quali sono trattati («minimizzazione dei dati»); d) esatti e, se necessario, aggiornati; devono essere adottate tutte le misure ragionevoli per cancellare o rettificare tempestivamente i dati inesatti rispetto alle finalità per le quali sono trattati («esattezza») e) conservati in una forma che consenta l’identificazione degli interessati per un arco di tempo non superiore al conseguimento delle finalità per le quali sono trattati; i dati personali possono essere conservati per periodi più lunghi a condizione che siano trattati esclusivamente a fini di archiviazione nel pubblico interesse, di ricerca scientifica o storica o a fini statistici, conformemente all’art. 89, par. 1, fatta salva l’attuazione di misure tecniche e organizzative adeguate richieste dal presente regolamento a tutela dei diritti e delle libertà dell’interessato («limitazione della conservazione»); f) trattati in maniera da garantire un’adeguata sicurezza dei dati personali, compresa la protezione, mediante misure tecniche e organizzative adeguate, da trattamenti non autorizzati o illeciti e dalla perdita, dalla distruzione o dal danno accidentali («integrità e riservatezza») […]».

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

368

Benedetta Vivarelli

il consenso dell’interessato o, alternativamente, la necessità del trattamento18. Quanto, poi, alla categoria dei trattamenti necessari per l’esecuzione di un compito di interesse pubblico o connesso all’esercizio di pubblici poteri di cui è investito il titolare del trattamento, il par. 3 dell’art. 6 del Regolamento precisa che la base giuridica del trattamento può essere il diritto dell’Unione europea o il diritto del singolo Stato Membro a cui è soggetto il titolare del trattamento. Lo Stato può a sua volta prevedere disposizioni di dettaglio di adeguamento alla disciplina del Regolamento19. Il medesimo principio è ribadito all’art. 9, par. 4, del Regolamento, laddove è espressamente prevista la possibilità per gli Stati membri di ulteriori condizioni e limitazioni in caso di trattamento di dati genetici, biometrici o relativi alla salute. Da quanto esposto deriva la residualità del consenso20: nell’ipote18   Si veda la disciplina dell’art. 6, par. 1, del Regolamento (UE) 2016/679, che specifica nel dettaglio quali situazioni di necessità liceizzano il trattamento di dati personali a prescindere dal consenso dell’interessato: «1. Il trattamento è lecito solo se e nella misura in cui ricorre almeno una delle seguenti condizioni: a) l’interessato ha espresso il consenso al trattamento dei propri dati personali per una o più specifiche finalità; b) il trattamento è necessario all’esecuzione di un contratto di cui l’interessato è parte o all’esecuzione di misure precontrattuali adottate su richiesta dello stesso; c) il trattamento è necessario per adempiere un obbligo legale al quale è soggetto il titolare del trattamento; d) il trattamento è necessario per la salvaguardia degli interessi vitali dell’interessato o di un’altra persona fisica; e) il trattamento è necessario per l’esecuzione di un compito di interesse pubblico o connesso all’esercizio di pubblici poteri di cui è investito il titolare del trattamento; f) il trattamento è necessario per il perseguimento del legittimo interesse del titolare del trattamento o di terzi, a condizione che non prevalgano gli interessi o i diritti e le libertà fondamentali dell’interessato che richiedono la protezione dei dati personali, in particolare se l’interessato è un minore». 19   In tal senso art. 6, par. 2, Regolamento (UE) 2016/679: «[…] Tale base giuridica potrebbe contenere disposizioni specifiche per adeguare l’applicazione delle norme del presente regolamento, tra cui: le condizioni generali relative alla liceità del trattamento da parte del titolare del trattamento; le tipologie di dati oggetto del trattamento; gli interessati; i soggetti cui possono essere comunicati i dati personali e le finalità per cui sono comunicati; le limitazioni della finalità, i periodi di conservazione e le operazioni e procedure di trattamento, comprese le misure atte a garantire un trattamento lecito e corretto, quali quelle per altre specifiche situazioni di trattamento di cui al capo IX. Il diritto dell’Unione o degli Stati membri persegue un obiettivo di interesse pubblico ed è proporzionato all’obiettivo legittimo perseguito». 20   Al di fuori delle ipotesi di cui all’art. 9 del Regolamento, vige quindi la regola del consenso anche per quel che attiene i dati relativi alla salute, come nel caso di trattamento per finalità commerciali slegate da quelle sanitarie. Sul punto, I. Rapisarda, Ricerca scientifica e circolazione dei dati personali: verso il definitivo superamento del paradigma privatistico?, in Europa e diritto privato, 2021, p.  301 ss.: «alla luce del combinato disposto di tali previsioni e della regola di cui all’art. 5, par. 2, lett. b), tanto

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilazione dei dati e aziende sanitarie

369

si di trattamenti di dati necessari il professionista sanitario non è più tenuto a raccogliere il consenso del paziente. Ciò vale, peraltro, anche per il trattamento a fini di archiviazione nel pubblico interesse, di ricerca scientifica o storica o a fini statistici21. A livello nazionale, il d.lg. n. 196 del 200322 ha ribadito le ipotesi derogatorie relative ai dati sanitari di cui all’art. 9 del Regolamento europeo, specificandone la portata. Quanto ai trattamenti necessari per motivi di interesse pubblico rilevante (art. 9, par. 2, lett. g), Regolamento (UE) 2016/679), vi rientrano: le «attività amministrative e certificatorie correlate a quelle di diagnosi, assistenza o terapia sanitaria o sociale, ivi incluse quelle correlate ai trapianti d’organo e di tessuti nonché alle trasfusioni di sangue umano»; i «compiti del servizio sanitario nazionale e dei soggetti operanti in ambito sanitario, nonché compiti di igiene e sicurezza sui luoghi di lavoro e sicurezza e salute della popolazione, protezione civile, salvaguardia della vita e incolumità fisica»; la «programmazione, gestione, controllo e valutazione dell’assistenza sanitaria, ivi incluse l’instaurazione, la gestione, la pianificazione e il controllo dei rapporti tra l’amministrazione ed i soggetti accreditati o convenzionati con il il trattamento primario quanto quello secondario potrebbero (lecitamente) prescindere dal consenso dell’interessato, sicché il legislatore europeo sembra aver allargato le maglie della circolazione “solidaristico-pubblicistica” (finanche dei dati genetici), privando, ab origine, l’interessato del potere di disporre dei propri dati». 21   Si veda l’art. 110 del d.lg. n. 196 del 2003: «1. Il consenso dell’interessato per il trattamento dei dati relativi alla salute, a fini di ricerca scientifica in campo medico, biomedico o epidemiologico, non è necessario quando la ricerca è effettuata in base a disposizioni di legge o di regolamento o al diritto dell’Unione europea in conformità all’art. 9, paragrafo 2, lettera j), del Regolamento, ivi incluso il caso in cui la ricerca rientra in un programma di ricerca biomedica o sanitaria previsto ai sensi dell’art. 12-bis del decreto legislativo 30 dicembre 1992, n. 502, ed è condotta e resa pubblica una valutazione d’impatto ai sensi degli articoli 35 e 36 del Regolamento. Il consenso non è inoltre necessario quando, a causa di particolari ragioni, informare gli interessati risulta impossibile o implica uno sforzo sproporzionato, oppure rischia di rendere impossibile o di pregiudicare gravemente il conseguimento delle finalità della ricerca. In tali casi, il titolare del trattamento adotta misure appropriate per tutelare i diritti, le libertà e i legittimi interessi dell’interessato, il programma di ricerca è oggetto di motivato parere favorevole del competente comitato etico a livello territoriale e deve essere sottoposto a preventiva consultazione del Garante ai sensi dell’art. 36 del Regolamento. 2. In caso di esercizio dei diritti dell’interessato ai sensi dell’art. 16 del regolamento nei riguardi dei trattamenti di cui al comma 1, la rettificazione e l’integrazione dei dati sono annotati senza modificare questi ultimi, quando il risultato di tali operazioni non produce effetti significativi sul risultato della ricerca». 22   D.lg. n. 196 del 2003, Codice della Privacy. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

370

Benedetta Vivarelli

servizio sanitario nazionale»; la «vigilanza sulle sperimentazioni, farmacovigilanza, autorizzazione all’immissione in commercio e all’importazione di medicinali e di altri prodotti di rilevanza sanitaria»; i «trattamenti effettuati a fini di archiviazione nel pubblico interesse o di ricerca storica, concernenti la conservazione, l’ordinamento e la comunicazione dei documenti detenuti negli archivi di Stato negli archivi storici degli enti pubblici, o in archivi privati dichiarati di interesse storico particolarmente importante, per fini di ricerca scientifica, nonché per fini statistici da parte di soggetti che fanno parte del sistema statistico nazionale (Sistan)»23. Il d.lg. n. 196 del 2003 ha altresì specificato apposite misure di garanzia per il trattamento dei dati genetici, biometrici e relativi alla salute24.   Si veda l’art. 2-sexies del d.lg. n. 196 del 2003.   Si veda l’art. 2-septies del d.lg. n. 196 del 2003: «1. In attuazione di quanto previsto dall’art. 9, par. 4, del regolamento, i dati genetici, biometrici e relativi alla salute, possono essere oggetto di trattamento in presenza di una delle condizioni di cui al par. 2 del medesimo articolo ed in conformità alle misure di garanzia disposte dal Garante, nel rispetto di quanto previsto dal presente articolo. 2. Il provvedimento che stabilisce le misure di garanzia di cui al comma 1 è adottato con cadenza almeno biennale e tenendo conto: a) delle linee guida, delle raccomandazioni e delle migliori prassi pubblicate dal Comitato europeo per la protezione dei dati e delle migliori prassi in materia di trattamento dei dati personali; b) dell’evoluzione scientifica e tecnologica nel settore oggetto delle misure; c) dell’interesse alla libera circolazione dei dati personali nel territorio dell’Unione europea. 3. Lo schema di provvedimento è sottoposto a consultazione pubblica per un periodo non inferiore a sessanta giorni. 4. Le misure di garanzia sono adottate nel rispetto di quanto previsto dall’art. 9, paragrafo 2, del Regolamento, e riguardano anche le cautele da adottare relativamente a: a) contrassegni sui veicoli e accessi a zone a traffico limitato; b) profili organizzativi e gestionali in ambito sanitario; c) modalità per la comunicazione diretta all’interessato delle diagnosi e dei dati relativi alla propria salute; d) prescrizioni di medicinali. 5. Le misure di garanzia sono adottate in relazione a ciascuna categoria dei dati personali di cui al comma 1, avendo riguardo alle specifiche finalità del trattamento e possono individuare, in conformità a quanto previsto al comma 2, ulteriori condizioni sulla base delle quali il trattamento di tali dati è consentito. In particolare, le misure di garanzia individuano le misure di sicurezza, ivi comprese quelle tecniche di cifratura e di pseudonomizzazione, le misure di minimizzazione, le specifiche modalità per l’accesso selettivo ai dati e per rendere le informazioni agli interessati, nonché le eventuali altre misure necessarie a garantire i diritti degli interessati. 6. Le misure di garanzia che riguardano i dati genetici e il trattamento dei dati relativi alla salute per finalità di prevenzione, diagnosi e cura nonché quelle di cui al comma 4, lettere b), c) e d), sono adottate sentito il Ministro della salute che, a tal fine, acquisisce il parere del Consiglio superiore di sanità. Limitatamente ai dati genetici, le misure di garanzia possono individuare, in caso di particolare ed elevato livello di rischio, il consenso come ulteriore misura di protezione dei diritti dell’interessato, a norma dell’art. 9, paragrafo 4, del regolamento, o altre cautele specifiche. 7. Nel rispetto dei principi in 23 24

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilazione dei dati e aziende sanitarie

371

Infine, il d.lg. 10 agosto 2018, n. 10125, ha previsto che il Garante per la protezione dei dati personali completi l’individuazione dei presupposti di liceità dei trattamenti relativi ai dati sanitari, adottando specifiche misure di garanzia e promuovendo l’adozione di regole deontologiche. In virtù di tale previsione, con il provvedimento n. 55 del 201926 il Garante per la protezione dei dati personali ha specificato che le disposizioni derogatorie di cui all’art. 9 del Regolamento europeo non possono essere applicate in via analogica: pertanto i trattamenti non strettamente necessari richiedono il consenso espresso dell’interessato. Ciò vale anche per altre ipotesi di utilizzo di dati sanitari che esulano da quelle del suddetto art. 9 del Regolamento: app mediche prive di finalità di telemedicina o che consentano l’accesso ai dati a soggetti non sanitari o non tenuti al segreto professionale, operazioni di fidelizzazione della clientela o di pubblicizzazione in campo sanitario, trattamenti con finalità commerciali, Fascicolo Sanitario Elettronico27. Una volta individuata la disciplina relativa al trattamento dei dati sanitari, occorre approfondire alcune specifiche modalità di tutela previste a favore dei medesimi dal Regolamento europeo 2016/679. Innanzitutto, rileva il diritto degli interessati a essere informati28 in forma concisa, trasparente, intelligibile e facilmente accessibile, con linguaggio semplice e chiaro. Alla base della disciplina sugli obblighi materia di protezione dei dati personali, con riferimento agli obblighi di cui all’art. 32 del Regolamento, è ammesso l’utilizzo dei dati biometrici con riguardo alle procedure di accesso fisico e logico ai dati da parte dei soggetti autorizzati, nel rispetto delle misure di garanzia di cui al presente art. 8. I dati personali di cui al comma 1 non possono essere diffusi». 25   D.lg. n. 101 del 2018, Disposizioni per l’adeguamento della normativa nazionale alle disposizioni del regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale sulla protezione dei dati). 26   Autorità garante per la Protezione dei dati personali, Trattamento dei dati personali in ambito sanitario: i chiarimenti del Garante, provv. n. 55 del 7 marzo 2019. 27   Il Garante ha pertanto ritenuto opportuno, a titolo esemplificativo, individuare alcune ipotesi che non rientrano in trattamenti basati su finalità necessarie e che di conseguenza richiedono il consenso dell’interessato. 28   Si veda la disciplina del Capo III (artt. 12 ss.) del Regolamento (UE) 2016/679, con la previsione: dei contenuti e delle modalità di informazione e comunicazione a carico del titolare del trattamento (art. 12); delle informazioni da fornire qualora i dati siano raccolti presso l’interessato (art. 13) e qualora non siano ottenuti presso l’interessato (art. 14); del diritto di accesso (art. 15); dei diritti di rettifica (art. 16), di cancellazione (art. 17), di limitazione di trattamento (art. 18), di portabilità (art. 20). Sul diritto di opposizione, si veda infra. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

372

Benedetta Vivarelli

informativi e sull’accesso dell’interessato si pone la trasparenza29 quale principio fondamentale del trattamento dei dati personali. Sul tema, il Garante ha fornito alcune indicazioni di dettaglio circa i contenuti e le modalità delle informazioni a cui sono tenuti i titolari dei trattamenti aventi a oggetto dati sanitari30. Un ulteriore strumento di tutela è il registro delle attività di trattamento, documento predisposto dal titolare e dal responsabile del trattamento e contenente le informazioni di cui all’art. 30 del Regolamento europeo 2016/67931.   Si veda art. 5, par. 1, lett. a) Regolamento (UE) 2016/679.   Si vedano i Chiarimenti sull’applicazione della disciplina per il trattamento dei dati relativi alla salute in ambito sanitario: «Il principio di trasparenza previsto dall’art. 5, par. 1, lett. a) del Regolamento impone ai titolari di informare l’interessato sui principali elementi del trattamento, al fine di renderli consapevoli sulle principali caratteristiche dello stesso. Al riguardo, si rappresenta che, pur nel rispetto dell’obbligo di comunicare gli elementi di cui agli artt. 13 e 14 del Regolamento, le informazioni da rendere all’interessato vanno rese in forma concisa, trasparente, intelligibile e facilmente accessibile, con linguaggio semplice e chiaro (cfr. art. 12, par. 1, del Regolamento, e art. 78 del Codice). Riguardo alle modalità con cui fornire l’informativa, alla luce del principio di responsabilizzazione di cui all’art. 5 del Regolamento, spetta al titolare scegliere le modalità più appropriate al caso di specie, tenendo conto di tutte le circostanze del trattamento e del contesto in cui viene effettuato (ad esempio, il dispositivo utilizzato, la natura dell’interazione con il titolare e le eventuali limitazioni che implicano tali fattori; cfr. considerando nn. 58 e 60). Relativamente al contenuto, il Regolamento non stravolge l’impianto delle informazioni da rendere all’interessato, ma prevede solo alcuni nuovi elementi informativi rispetto a quanto era previsto nell’art. 13 del Codice. Pertanto, l’informativa, predisposta in passato dai titolari dovrebbe essere aggiornata e integrata solo con riferimento agli elementi di novità previsti dagli artt. 13 e 14 del Regolamento. Con specifico riferimento all’attività posta in essere da titolari del trattamento operanti in ambito sanitario che effettuano una pluralità di operazioni connotate da particolare complessità (es. aziende sanitarie), si ritiene opportuno suggerire di fornire all’interessato le informazioni previste dal Regolamento in modo progressivo. Ciò significa che nei confronti della generalità dei pazienti afferenti a una struttura sanitaria potrebbero essere fornite solo le informazioni relative ai trattamenti che rientrano nell’ordinaria attività di erogazione delle prestazioni sanitarie (cfr. art. 79 del Codice). Gli elementi informativi relativi a particolari attività di trattamento (es. fornitura di presidi sanitari, modalità di consegna dei referti medici online, finalità di ricerca) potrebbero essere resi, infatti, in un secondo momento, solo ai pazienti effettivamente interessati da tali servizi e ulteriori trattamenti. Ciò andrebbe a beneficio di una maggiore attenzione alle informazioni veramente rilevanti, fornendo la piena consapevolezza circa gli aspetti più significativi del trattamento». 31   Si veda art. 30 Regolamento (UE) 2016/679: «1. Ogni titolare del trattamento e, ove applicabile, il suo rappresentante tengono un registro delle attività di trattamento svolte sotto la propria responsabilità. Tale registro contiene tutte le seguenti informazioni: a) il nome e i dati di contatto del titolare del trattamento e, ove applicabile, del contitolare del trattamento, del rappresentante del titolare del trattamento e del 29 30

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilazione dei dati e aziende sanitarie

373

Con riferimento all’ambito sanitario, e quindi alle categorie particolari di dati di cui all’art. 9 del Regolamento europeo, il Garante prevede la sussistenza dell’obbligo di tenuta del registro. Sono obbligati alla tenuta del registro delle attività di trattamento i singoli professionisti sanitari che agiscano in libera professione, i medici di medicina generale e i pediatri, gli ospedali privati, le case di cura, le RSA e le aziende sanitarie appartenenti al SSN, nonché le farmacie, le parafarmacie e le aziende ortopediche. Infine, a ulteriore garanzia degli interessati, l’art. 37, par. 1, del Regolamento europeo prevede la designazione di un Responsabile della Protezione dei dati in tre ipotesi: A. trattamento effettuato da un’autorità pubblica o da un organismo pubblico32; B. trattamenti che «per loro natura, ambito e/o finalità» richiedono il monitoraggio regolare e sistematico degli interessati su larga scala33;

responsabile della protezione dei dati; b) le finalità del trattamento; c) una descrizione delle categorie di interessati e delle categorie di dati personali; d) le categorie di destinatari a cui i dati personali sono stati o saranno comunicati, compresi i destinatari di paesi terzi od organizzazioni internazionali; e) ove applicabile, i trasferimenti di dati personali verso un paese terzo o un’organizzazione internazionale, compresa l’identificazione del paese terzo o dell’organizzazione internazionale e, per i trasferimenti di cui al secondo comma dell’art. 49, la documentazione delle garanzie adeguate; f) ove possibile, i termini ultimi previsti per la cancellazione delle diverse categorie di dati; g) ove possibile, una descrizione generale delle misure di sicurezza tecniche e organizzative di cui all’art. 32, par. 1. 2. Ogni responsabile del trattamento e, ove applicabile, il suo rappresentante tengono un registro di tutte le categorie di attività relative al trattamento svolte per conto di un titolare del trattamento, contenente: a) il nome e i dati di contatto del responsabile o dei responsabili del trattamento, di ogni titolare del trattamento per conto del quale agisce il responsabile del trattamento, del rappresentante del titolare del trattamento o del responsabile del trattamento e, ove applicabile, del responsabile della protezione dei dati; b) le categorie dei trattamenti effettuati per conto di ogni titolare del trattamento; c) ove applicabile, i trasferimenti di dati personali verso un paese terzo o un’organizzazione internazionale, compresa l’identificazione del paese terzo o dell’organizzazione internazionale e, per i trasferimenti di cui al secondo comma dell’art. 49, la documentazione delle garanzie adeguate; d) ove possibile, una descrizione generale delle misure di sicurezza tecniche e organizzative di cui all’art. 32, par. 1. 3. I registri di cui ai parr. 1 e 2 sono tenuti in forma scritta, anche in formato elettronico (…)». Si veda anche quanto previsto nei Chiarimenti sull’applicazione della disciplina per il trattamento dei dati relativi alla salute in ambito sanitario – 7 marzo 2019. 32   Si vedano sul punto le FAQ sul Responsabile della Protezione dei Dati (RPD) in ambito pubblico (in aggiunta a quelle adottate dal Gruppo art. 29, in Garanteprivacy.it. 33   Per la specificazione sugli adempimenti connessi alla nomina del Responsabile della Protezione dei dati personali, si vedano anche le Linee-guida del Gruppo art. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

374

Benedetta Vivarelli

C. attività che consistono nel trattamento, su larga scala34, di categorie particolari di dati personali (genetici, biometrici, relativi alla salute, ecc.). Pertanto un’azienda sanitaria appartenente al SSN deve obbligatoriamente designare un Responsabile della Protezione dei dati, sia per la natura giuridica dalla medesima rivestita, sia in quanto le attività principali del titolare consistono nel trattamento su larga scala di dati relativi alla salute35. La nomina del Responsabile della Protezione dei dati è funzionale a facilitare l’osservanza della disciplina del Regolamento europeo 2016/679 (e di tutte le altre normative ad esso connesse). Infine, si rileva che con il provvedimento n. 55 del 7 marzo 2019 il Garante per la protezione dei dati personali ha fornito «Chiarimenti sull’applicazione della disciplina per il trattamento dei dati relativi alla salute in ambito sanitario», con lo scopo di precisare in modo uniforme le principali disposizioni del Regolamento europeo in tale ambito e in relazione ai rischi, alle norme, alle garanzie e ai diritti dei trattamenti, nonché agli obblighi imposti ai titolari e ai responsabili del trattamento. 3. Una riflessione particolare meritano i trattamenti effettuati attraverso il Fascicolo Sanitario Elettronico36, disciplinato dalla Sezione 29 sui Responsabili della protezione dei dati del 13 dicembre 2016 aggiornate in data 5 aprile 2017. Il Gruppo di lavoro art. 29 ha precisato che occorre tenere presente il legame del core business con l’attività di trattamento dati. Anche se l’attività principale di un ospedale non è il trattamento dei dati ma la salute dei pazienti, essendo le due attività strettamente collegate, il trattamento dei dati rientrerà nell’alveo delle attività principali, per cui un ospedale dovrà nominare un DPO. 34   Il Regolamento (UE) 2016/679 non definisce univocamente cosa rappresenti un trattamento «su larga scala» e sul punto il Gruppo art. 29 fa riferimento ai seguenti fattori: il numero di soggetti interessati dal trattamento, in termini assoluti ovvero espressi in percentuale della popolazione di riferimento; il volume dei dati e/o le diverse tipologie di dati oggetto di trattamento; la durata, ovvero la persistenza, dell’attività di trattamento; la portata geografica dell’attività di trattamento. 35   L’orientamento manifestato dal Garante della Privacy comprende nel concetto di larga scala anche gli ospedali privati, le case di cura o le residenze sanitarie assistenziali (RSA), con conseguente obbligo di nomina di un Responsabile della Protezione dei dati. Si vedano le Nuove FAQ sul Responsabile della Protezione dei Dati (RPD) in ambito privato e in ambito pubblico 26 marzo 2018, in Garanteprivacy.it. 36   Si veda, tra i tanti contributi sul tema, G. Comandè, L. Nocco e V. Peigné, Il fascicolo sanitario elettronico: uno studio multidisciplinare, in Riv. it. med. leg., 2012, p. 105 ss.; si veda altresì N. Posterario, La digitalizzazione della sanità in Italia: sguardo al Fascicolo Sanitario Elettronico (anche alla luce del Piano Nazionale di Ripresa e Resilienza), in Federalismi.it. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilazione dei dati e aziende sanitarie

375

IV del d.l. 18 ottobre 2012, n. 17937. Il Fascicolo Sanitario Elettronico (FSE) è l’insieme dei dati e documenti digitali di tipo sanitario e sociosanitario generati da eventi clinici presenti e trascorsi, riguardanti l’assistito, riferiti anche alle prestazioni erogate al di fuori del Servizio Sanitario Nazionale. Con esso il cittadino può tracciare e consultare tutta la storia della propria vita sanitaria, condividendola con i professionisti sanitari per garantire un servizio più efficace ed efficiente38; le informazioni presenti nel Fascicolo del cittadino vengono fornite e gestite dalle singole Regioni39 che ne regolano le modalità di attivazione. Il FSE è stato definito la «carta di identità sanitaria digitale»40 di ogni cittadino: si tratta di uno strumento destinato a essere implementato sia dagli operatori sanitari, sia dallo stesso paziente41. Dalle minime caratteristiche delineate si deduce la stretta connessione tra il FSE e il trattamento dei dati sanitari42: ebbene, la disciplina normativa prevede che la consultazione dei dati e documenti presenti nel FSE, salvo i casi di emergenza sanitaria, possa essere realizzata solo con il consenso del paziente43, che potrà sempre modificare le indi37   D.l. n. 179 del 2012, Ulteriori misure urgenti per la crescita del Paese (in particolare si veda l’art. 12), convertito in l. 17 dicembre 2012, n. 221. Si veda altresì il d.P.C. n. 178/2015, Regolamento in materia di Fascicolo Sanitario Elettronico, in cui sono specificati i contenuti del FSE. 38   Simile finalità ha il Dossier Sanitario Elettronico (DSE), particolare tipo di documentazione digitale che registra gli eventi clinici occorsi all’interessato, ma esclusivamente con riguardo ad una singola struttura sanitaria. 39   Si veda Fascicolosanitario.gov.it. 40   Si veda in tal senso G. Polifrone, Sanità digitale. Prospettive e criticità di una rivoluzione necessaria, Milano 2019. 41   Si veda art. 12, comma 3, d.l. n. 179 del 2021: «Il FSE è alimentato con i dati degli eventi clinici presenti e trascorsi di cui al comma 1 in maniera continuativa e tempestiva, senza ulteriori oneri per la finanza pubblica, dai soggetti e dagli esercenti le professioni sanitarie che prendono in cura l’assistito sia nell’ambito del Servizio sanitario nazionale e dei servizi socio-sanitari regionali sia al di fuori degli stessi, nonché, su iniziativa dell’assistito, con i dati medici in possesso dello stesso». 42   Si veda sul punto G. Garofalo, Trattamento e protezione dei dati, cit., p. 1392: «Con specifico riferimento al profilo del trattamento dei dati, esso [il FSE] principalmente consente al cittadino di: scegliere chi può consultare il suo Fascicolo; aggiornare i propri dati identificativi; decidere quali informazioni mostrare o oscurare ai medici che debbano accedervi; verificare chi e quando lo abbiano esaminato. Sono queste delle facoltà di controllo dal notevole potenziale, che testimoniano una forte volontà di rendere, da un lato, edotto il singolo sulla propria condizione sanitaria e, dall’altro, di rispettarne la sua sensibilità, essendo l’interessato libero, ad esempio, di non mostrare ad uno specialista alcune informazioni riguardanti patologie pregresse». 43   Si veda art. 12, comma 5, d.l. n. 179 del 2012: «La consultazione dei dati e documenti presenti nel FSE di cui al comma 1, per le finalità di cui alle lettere a), a-bis)

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

376

Benedetta Vivarelli

cazioni in merito a chi possa consultare il proprio fascicolo e a quali parti di esso possano essere consultate. Pertanto i trattamenti effettuati attraverso il FSE per finalità di cura richiedono quale condizione di liceità l’acquisizione del consenso, in deroga all’art. 9 del Regolamento europeo 2016/679 che – come detto supra – prevede il valore meramente residuale del consenso in caso di trattamenti per finalità di tutela della salute e incolumità fisica dell’interessato o di terzi o della collettività. L’intreccio tra la normativa sul FSE e il GDPR segue infatti la regola di cui all’art. 75 del Codice Privacy: «Il trattamento dei dati personali effettuato per finalità di tutela della salute e incolumità fisica dell’interessato o di terzi o della collettività deve essere effettuato ai sensi dell’articolo 9, paragrafi 2, lettere h) ed i), e 3 del regolamento, dell’articolo 2-septies del presente codice, nonché nel rispetto delle specifiche disposizioni di settore». Il d.l. n. 179 del 2012 costituisce, appunto, normativa di settore. Il FSE è uno strumento strategico44 e in continua evoluzione, che assume un rilievo centrale non solo ai fini della cura del singolo, ma anche per favorire la ricerca e la prevenzione in un’ottica solidaristica45. Con il d.l. 29 maggio 2020, n. 3446, sono state introdotte modifiche volte a potenziare e valorizzare il FSE nell’ottica della digitalizzazione della sanità nazionale. Innanzitutto, è stata ampliata la base dati del FSE47 ed è stato disposto il collegamento al Sistema Informativo Trapianti, alle Anagrafi Vaccinali e ai CUP regionali. Oltre a ciò, è stata introdotta la modalità automatica e officiosa di implementazione del

e a-ter) del comma 2, può essere realizzata soltanto con il consenso dell’assistito e sempre nel rispetto del segreto professionale, salvo i casi di emergenza sanitaria secondo modalità individuate a riguardo. Il mancato consenso non pregiudica il diritto all’erogazione della prestazione sanitaria». 44   Si veda, anche per i richiami e le connessioni ai principi costituzionali e ai principi dell’attività amministrativa, M.A. Sandulli, Sanità, misure abilitanti sulla semplificazione e giustizia nel PNNR, Osservatorio di diritto sanitario, paper 28 luglio 2021, su Federalismi.it. 45  Si rinvia per una disamina dettagliata su contenuti, evoluzione normativa e modalità di funzionamento dell’istituto a N. Posteraro, La digitalizzazione della società italiana, cit. 46   D.l. n. 34 del 2020, Misure urgenti in materia di salute, sostegno al lavoro e all’economia, nonché di politiche sociali connesse all’emergenza epidemiologica da COVID-19, convertito con modificazioni nella l. 17 luglio 2020, n. 77. 47   Vi sono ricomprese le informazioni relative alle prestazioni private erogate al di fuori del SSN, prima lasciate all’inserimento spontaneo dell’assistito. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilazione dei dati e aziende sanitarie

377

fascicolo48, senza che rilevi il consenso dell’assistito, pur sempre necessario ai fini della consultazione da parte del personale sanitario. La valorizzazione del FSE emerge infine anche dal PNRR italia49 no , nell’ambito del progetto di potenziamento delle infrastrutture tecnologiche in ambito sanitario, sul presupposto che la recente emergenza sanitaria abbia reso evidente il valore universale della salute e la necessità di servizi sanitari pubblici adeguati. Il Piano, infatti, dedica alla salute la Missione n. 650, suddivisa in due componenti: quella relativa alle reti di prossimità, strutture e telemedicina per l’assistenza sanitaria territoriale e quella relativa a innovazione, ricerca e digitalizzazione del servizio sanitario nazionale51. L’obiettivo posto è quello di creare un nuovo FSE omogeneo e facilmente utilizzabile sull’intero territorio nazionale per dati, contenuti e servizi offerti52. 48   Il D.l. n. 34 del 2020 ha abrogato il comma 3-bis dell’art. 12 del d.l. n. 179 del 2012 secondo cui: «Il FSE può essere alimentato esclusivamente sulla base del consenso libero e informato da parte dell’assistito, il quale può decidere se e quali dati relativi alla propria salute non devono essere inseriti nel fascicolo medesimo». Già nel 2019 il Garante per la protezione dei dati personali, con parere del 7 marzo, aveva incoraggiato «un’eventuale opera di rimeditazione normativa in ordine all’eliminazione della necessità di acquisire il consenso dell’interessato all’alimentazione del Fascicolo sanitario elettronico». 49   Il PNRR è lo strumento che deve dare attuazione al NGEU (o Recovery fund), con la predisposizione di un pacchetto coerente di riforme e investimenti per il periodo 2021-2026 che è stato sottoposto alla Commissione Europea e approvato dalla stessa il 22 giugno 2021 e dal Consiglio Economia e Finanza (Ecofin) dell’UE in data 13 luglio 2021. 50   Sono stati destinati alla Missione n. 6 15,63 miliardi di euro. 51   Gli obiettivi della seconda componente sono i seguenti: sviluppare una sanità pubblica che valorizzi gli investimenti nel sistema salute in termini di risorse umane, digitali, strutturali, strumentali e tecnologici; rafforzare la ricerca scientifica in ambito biomedico e sanitario; potenziare e innovare la struttura tecnologica e digitale del SSN a livello Centrale e Regionale, al fine di garantire una evoluzione significativa delle modalità di assistenza sanitaria, migliorando la qualità e la tempestività delle cure, oltre che valorizzando il ruolo del paziente come parte attiva del processo clinico-assistenziale e garantendo una maggiore capacità di governance e programmazione sanitaria guidata dalla analisi dei dati, nel pieno rispetto della sicurezza e della tutela dei dati e delle informazioni. Per realizzare tale obiettivo, il Piano prevede la creazione di una Piattaforma Nazionale Dati che offrirà alle amministrazioni un catalogo centrale di «API» (Application Programming Interface) consultabili e accessibili. 52   Secondo quanto previsto dal Piano, il FSE svolgerà tre funzioni chiave: «1. costituirà un punto di accesso per le persone e pazienti per la fruizione di servizi essenziali forniti dal SSN; 2. costituirà una base dati per i professionisti sanitari contenente informazioni cliniche omogenee che includeranno l’intera storia clinica del paziente 3. si configurerà quale strumento per le ASL, che potranno utilizzare le informazioni

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

378

Benedetta Vivarelli

4. La normativa sinora citata indica l’attenzione del legislatore europeo per il rapporto tra privacy e trattamento dei dati sanitari, entrambi rafforzati e potenziati, in un’ottica di bilanciamento e coesistenza. L’incremento nell’utilizzo delle tecnologie digitali ha infatti contribuito al diffondersi di attività di raccolta e scambio di informazioni personali e quindi, parallelamente, ai rischi connessi al trattamento di tali dati. Il settore sanitario e quello della ricerca scientifica si inseriscono a pieno nel fenomeno evolutivo descritto, con un moltiplicarsi di infrastrutture scientifiche e una commistione di interessi pubblici e privati convergenti. Dal punto di vista del soggetto interessato, quindi, la sanità si presenta come uno dei settori nevralgici ai fini del mutamento di paradigma della privacy, dal diritto alla riservatezza al diritto al controllo sul flusso di informazioni quale declinazione dell’autodeterminazione informativa della persona53. Spostando, poi, la prospettiva oltre alla posizione del soggetto singolo, i dati sanitari possono acquisire un valore economico54 ove siano utilizzati per fini ulteriori rispetto a quello terapeutico, come in caso di profilazione del paziente per finalità di ricerca scientifica55 o a fini meramente commerciali56. Con il termine «profilazione» si indica il complesso di attività di raccolta ed elaborazione dei dati inerenti agli utenti di un servizio, al fine di suddividerli in gruppi a seconda dei loro comportamenti o delle loro caratteristiche57. Tale definizione è sufficiente a porre in evidenza la connessione tra il fenomeno suddetto e la tutela della privacy: la cliniche del FSE per effettuare analisi di dati clinici e migliorare la prestazione dei servizi sanitari», si veda sul punto N. Posteraro, La digitalizzazione della sanità, cit., p. 226. 53   In questi termini, si veda, anche per le citazioni dottrinali, I. Rapisarda, Ricerca scientifica, cit. 54   G. D’Ippolito, Commercializzazione dei dati personali: il dato personale tra approccio morale e negoziale, in Dir. inf., 2020, p. 635 ss. 55   In relazione all’attività di ricerca scientifica, occorre chiarire che essa riguarda ogni contesto in cui i dati personali di pazienti e donatori viventi siano trattati per tali scopi, sia nell’ambito delle attività compiute dalle banche dati, sia nell’ambito delle biobanche, in considerazione del fatto che tali infrastrutture scientifiche svolgono tipicamente «attività di trattamento», ai sensi dell’art. 4, par. 1, n. 2. 56   Si veda, anche per i riferimenti bibliografici, B. Parenzo, Sull’importanza del dire le cose come stanno: ovvero, sul perché della necessità di riconoscere la natura patrimoniale dei dati personali e l’esistenza di uno scambio sotteso ai c.d. servizi digitali “gratuiti”, in Diritto di Famiglia e delle Persone, 2021, III, p. 1457 ss. 57   Così inquadrato, il fenomeno della profilazione appare, nella sua accezione più generale, applicabile a un’ampia gamma di settori. Essa rileva, a titolo di esempio, in ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilazione dei dati e aziende sanitarie

379

profilazione in quanto tale, infatti, costituisce un vero e proprio trattamento di dati personali. La profilazione può avvenire utilizzando dati individuali o identificativi, oppure aggregati, i quali, ove incrociati con altri dati, consentono l’identificazione dei soggetti interessati. Tale attività può portare a vantaggi anche in termini di efficienza e di risparmio di risorse. Il Regolamento europeo si occupa di definire58 e disciplinare l’attività profilazione, che deve essere svolta utilizzando i soli dati strettamente necessari per la finalità indicata, in virtù dei principi di pertinenza e di proporzionalità. Secondo la normativa europea, tre sono gli elementi strutturali dell’attività di profilazione: un trattamento automatizzato; l’esecuzione del trattamento su dati personali; la finalità di valutare aspetti personali di una persona fisica. Con la profilazione, quindi, non ci si limita a un tracciamento sui dati di taluni soggetti, ma è determinante l’aspetto attivo e propulsivo di analisi e valutazione. Dal punto di vista della disciplina, il principio generale stabilito dal Regolamento europeo è quello secondo cui l’interessato ha diritto a non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti

ambito commerciale quale strumento prodromico alla fornitura di servizi personalizzati o all’invio di pubblicità comportamentale. 58   Si veda l’art. 4 del Regolamento (UE) n. 2016/679: «qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati personali per valutare determinati aspetti personali relativi a una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica». A sua volta, il Considerando n. 24 al Regolamento prevede: «È opportuno che anche il trattamento dei dati personali degli interessati che si trovano nell’Unione ad opera di un titolare del trattamento o di un responsabile del trattamento non stabilito nell’Unione sia soggetto al presente regolamento quando è riferito al monitoraggio del comportamento di detti interessati, nella misura in cui tale comportamento ha luogo all’interno dell’Unione. Per stabilire se un’attività di trattamento sia assimilabile al controllo del comportamento dell’interessato, è opportuno verificare se le persone fisiche sono tracciate su internet, compreso l’eventuale ricorso successivo a tecniche di trattamento dei dati personali che consistono nella profilazione della persona fisica, in particolare per adottare decisioni che la riguardano o analizzarne o prevederne le preferenze, i comportamenti e le posizioni personali». Si veda altresì il Considerando n. 72 al Regolamento: «la profilazione è soggetta alle norme del presente regolamento che disciplinano il trattamento dei dati personali, quali le basi giuridiche del trattamento o i principi di protezione dei dati». © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

380

Benedetta Vivarelli

giuridici che lo riguardano o che incida allo stesso modo significativamente sulla sua persona59. Il principio, tuttavia, conosce alcune deroghe60, non trovando applicazione nei seguenti casi: - quando la decisione sia necessaria per la conclusione o l’esecuzione di un contratto tra l’interessato e un titolare del trattamento; - quando la decisione sia autorizzata dal diritto dell’Unione o degli Stati membri cui è soggetto il titolare del trattamento, che precisa altresì misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato; - quando la decisione si basi sul consenso esplicito dell’interessato61. Peraltro, con specifico riguardo ai dati sanitari, l’art. 22, par. 4, del Regolamento europeo ne consente la profilazione solo ove ci sia consenso esplicito dell’interessato e il trattamento sia necessario per motivi di interesse pubblico rilevante sulla base del diritto dell’Unione o degli Stati Membri, purché tale base giuridica sia proporzionata alla finalità perseguita, rispetti l’essenza del diritto alla protezione dei dati e preveda misure appropriate e specifiche per tutelare i diritti fondamentali e gli interessi dell’interessato. In ogni caso, il titolare sarà onerato dell’obbligo di adottare idonee misure di sicurezza che garantiscano all’interessato la tutela dei propri diritti e delle libertà fondamentali; ove, poi, il titolare decidesse di utilizzare i dati sanitari dei pazienti per attività di profilazione, gli interessati potranno esercitare il diritto di rinunciare all’attività e di revocare il consenso. Il 13 febbraio 2018 il Gruppo Art. 29 (WP29)62 ha pubblicato le Linee-guida in materia di processi automatizzati e profilazione, per individuare le garanzie dei privati in siffatte situazioni e specificare le disposizioni del Regolamento europeo sulla tematica63.   Si veda art. 22, par. 1, Regolamento (UE) 2016/679.   Si veda art. 22, par. 2, Regolamento (UE) 2016/679. 61   Il consenso alla profilazione deve essere distinto rispetto al consenso relativo ad altri trattamenti. 62   Si tratta del Gruppo per la tutela delle persone con riguardo al trattamento dei dati personali istituito ai sensi della Direttiva 95/46/CE del Parlamento europeo e del Consiglio del 24 ottobre 1995. 63   Nell’introduzione delle Linee-Guida si legge infatti: «(…) la profilazione e il processo decisionale automatizzato possono comportare rischi significativi per i diritti e le libertà delle persone fisiche, che richiedono garanzie adeguate. Questi processi possono essere poco trasparenti. Le persone fisiche potrebbero non sapere di 59 60

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilazione dei dati e aziende sanitarie

381

Le Linee-guida ripercorrono i principi e le discipline in materia di protezione dei dati, applicabili a tutte le attività di profilazione in cui vengano in gioco dati personali: liceità, correttezza e trasparenza del trattamento64, adempimenti connessi a trattamenti per finalità diverse e ulteriori (altrimenti detto reimpiego, che può aversi a fini statistici, di ricerca o di archiviazione65), minimizzazione dei dati66, esattezza e aggiornamento67 in ogni singola fase del processo di profilazione (e ciò soprattutto perché dati non esatti possono condurre a profili e decisioni viziate e inappropriate), limitazioni alla conservazione dei dati per il periodo strettamente necessario e proporzionato alle finalità per le quali gli stessi vengono trattati68. In particolare per quanto attiene al reimpiego dei dati sanitari, esso è considerato lecito anche in assenza di consenso specifico69, ove ciò sia compatibile con l’uso per cui sono stati principalmente ceduti: emerge quindi il favor della normativa verso tale riutilizzo, di fatto riconducibile agli usi sanitari di cui all’art. 9 del Regolamento europeo. Un’altra ipotesi si ha in caso di reimpiego di tali dati con le intelligenze artificiali, che viene compreso nell’alveo della ricerca scientifica, ovvero della finalità di cura, a seconda della funzione concretamente perseguita dalla tecnologia. Quanto alla base giuridica di liceità, le Linee-guida riportano il conessere profilate o non comprenderne le conseguenze. La profilazione può perpetuare stereotipi e la segregazione sociale. Può anche confinare una persona in una categoria specifica e limitarla alle preferenze suggerite per tale categoria. Ciò può minare la libertà delle persone di scegliere, ad esempio, determinati prodotti o servizi quali libri, musica o newsfeed. In taluni casi, la profilazione può portare a previsioni imprecise, in altri al diniego di servizi e beni e a discriminazioni ingiustificate. Il regolamento introduce nuove disposizioni per far fronte ai rischi derivanti dalla profilazione e dal processo decisionale automatizzato, in particolare, ma non solo, in relazione alla tutela della vita privata. Le presenti linee guida mirano a chiarire tali disposizioni». 64   Art. 5, par. 1, lett. a) del Regolamento (UE) 2016/679. 65   Art. 5, par. 1, lett. b) del Regolamento (UE) 2016/679. 66   Art. 5, par. 1, lett. c) del Regolamento (UE) 2016/679. 67   Art. 5, par. 1, lett. d) del Regolamento (UE) 2016/679, secondo cui devono essere adottate tutte le misure ragionevoli per cancellare o rettificare tempestivamente i dati inesatti rispetto alle finalità per le quali sono trattati. 68   Art. 5, par. 1, lett. e) del Regolamento (UE) 2016/679, ove tuttavia si aggiunge che «i dati personali possono essere conservati per periodi più lunghi a condizione che siano trattati esclusivamente a fini di archiviazione nel pubblico interesse, di ricerca scientifica o storica o a fini statistici, conformemente all’art. 89, paragrafo 1, fatta salva l’attuazione di misure tecniche e organizzative adeguate richieste dal presente regolamento a tutela dei diritti e delle libertà dell’interessato». 69   Art. 5, par. 1, lett. b), e art. 6, par. 4, del Regolamento (UE) 2016/679. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

382

Benedetta Vivarelli

tenuto dell’art. 6 del Regolamento europeo, declinando il particolare atteggiarsi di ogni previsione rispetto alla problematica della profilazione70. La particolare attenzione al fenomeno della profilazione si riscontra anche nella predisposizione di diritti e poteri esercitabili dall’interessato, ulteriori rispetto a quelli generali di informativa71 e di accesso72, di rettifica, di cancellazione e di portabilità dei dati73. Infatti quanto allo specifico ambito della profilazione, il Regolamento prevede che l’interessato abbia diritto di opposizione, con immediato obbligo del titolare di interrompere il trattamento, a meno che non dimostri l’esistenza di motivi legittimi cogenti che prevalgono sugli interessi, sui diritti e sulle libertà dell’interessato74. Di siffatto diritto di opposizione 70   Per esempio, per quanto di interesse in questa sede, le Linee Guida citano l’art. 6, par. 1, lettera d) del Regolamento europeo, in merito al trattamento necessario per la salvaguardia di interessi vitali: «Tale base si applica nelle circostanze in cui il trattamento è necessario per la salvaguardia di un interesse essenziale per la vita dell’interessato o di un’altra persona fisica. Determinati tipi di trattamento possono essere necessari per importanti motivi di interesse pubblico e per proteggere gli interessi vitali dell’interessato, come la profilazione per sviluppare modelli che individuino in anticipo la diffusione di malattie potenzialmente letali o in situazioni di emergenza umanitaria. In questi casi, tuttavia, e in linea di principio, il titolare del trattamento può basarsi su motivi di interesse vitale unicamente se non sono disponibili altre basi giuridiche per il trattamento. Se il trattamento comprende dati personali appartenenti a categorie particolari, il titolare del trattamento deve altresì assicurarsi di soddisfare le prescrizioni di cui all’art. 9, paragrafo 2, lettera c)». E ancora, in merito alle categorie particolari di dati (tra le quali rientrano anche i dati sanitari): «Il titolare del trattamento può trattare dati personali appartenenti a categorie particolari soltanto se ricorrono una delle condizioni di cui all’art. 9, paragrafo 2, e una condizione di cui all’art. 6. Questo vale anche per i dati appartenenti a categorie particolari derivati o desunti da attività di profilazione. La profilazione può creare dati appartenenti a categorie particolari desumendoli da dati che di per sé non appartengono a categorie particolari ma che diventano tali se combinati con altri dati. Ad esempio, può essere possibile desumere lo stato di salute di una persona associando le registrazioni dei suoi acquisti di alimenti a dati sulla qualità e sul contenuto energetico di tali alimenti». 71   Il titolare del trattamento deve informare gli interessati dell’esistenza di una decisione basata sul trattamento di dati automatizzato comprendente profilazione. Nell’informativa devono essere esplicitate le modalità e le finalità della profilazione. Inoltre, deve essere chiarita la logica inerente il trattamento e le conseguenze previste per l’interessato a seguito di tale tipo di trattamento. 72   Si vedano gli artt. 13, 14 e 15 del Regolamento (UE) 2016/679. 73   Si vedano gli artt. 16, 17 e 20 del Regolamento (UE) 2016/679. 74   Cfr. art. 21 del Regolamento (UE) 2016/679: «L’interessato ha il diritto di opporsi in qualsiasi momento, per motivi connessi alla sua situazione particolare, al trattamento dei dati personali che lo riguardano ai sensi dell’art. 6, paragrafo 1, lettere e) o f), compresa la profilazione sulla base di tali disposizioni. Il titolare del trattamento si astiene dal trattare ulteriormente i dati personali salvo che egli dimostri l’esistenza di motivi legittimi cogenti per procedere al trattamento che prevalgono sugli interes-

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilazione dei dati e aziende sanitarie

383

l’interessato deve essere adeguatamente informato dal titolare del trattamento. Non vi è una delineazione concreta di quali possano essere gli interessi cogenti che prevalgono sulla tutela dell’interessato, ma le Linee-guida del 2018 fanno opportunamente riferimento al caso di «profilazione volta a individuare in anticipo la diffusione di malattie contagiose»75. Nel caso appena descritto, il diritto di opposizione viene assoggettato a un bilanciamento e può soccombere a fronte della concreta dimostrazione del titolare del trattamento circa l’esistenza di ragioni cogenti prevalenti su quelle del singolo interessato. Invece, il diritto di opposizione difetta in radice ove i dati personali siano trattati a fini di ricerca scientifica o storica o a fini statistici e qualora il trattamento sia necessario per l’esecuzione di un compito di interesse pubblico76. In tale ultima ipotesi, quindi, il legislatore europeo ha risolto ex ante il bilanciamento a favore della libera circolazione dei dati, confermandone la tendenza solidaristico-pubblicista a scapito della posizione del singolo, che perderebbe la «disponibilità» dei suoi dati, oltre che tutti i poteri connessi al proprio diritto alla privacy. Un’ulteriore forma di tutela per l’interessato consiste nella tecnica della pseudonimizzazione77, che consente di conservare i dati in una forma che impedisce il rischio di identificazione del soggetto, specie

si, sui diritti e sulle libertà dell’interessato oppure per l’accertamento, l’esercizio o la difesa di un diritto in sede giudiziaria». 75   Si veda Linee guida in materia di processi automatizzati e profilazione, punto 4, p. 20, ove si aggiunge: «Dalla formulazione dell’art. 21 risulta evidente che la ponderazione differisce da quella di cui all’art. 6, paragrafo 1, lettera f). In altre parole, non è sufficiente che il titolare del trattamento dimostri soltanto che la sua precedente analisi dell’interesse legittimo era corretta, occorre inoltre che detto interesse legittimo sia cogente, il che implica una soglia maggiore per prevalere rispetto alle opposizioni». 76   Cfr. art. 21, par. 6, del Regolamento (UE) 2016/679. 77   Cfr. art. 4, par. 1, punto n. 5 del Regolamento (UE) 2016/679: «il trattamento dei dati personali in modo tale che i dati personali non possano più essere attribuiti a un interessato specifico senza l’utilizzo di informazioni aggiuntive, a condizione che tali informazioni aggiuntive siano conservate separatamente e soggette a misure tecniche e organizzative intese a garantire che tali dati personali non siano attribuiti a una persona fisica identificata o identificabile». Si veda altresì il Considerando n. 28 al Regolamento: «L’applicazione della pseudonimizzazione ai dati personali può ridurre i rischi per gli interessati e aiutare i titolari del trattamento e i responsabili del trattamento a rispettare i loro obblighi di protezione dei dati. L’introduzione esplicita della “pseudonimizzazione” nel presente regolamento non è quindi intesa a precludere altre misure di protezione dei dati». © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

384

Benedetta Vivarelli

nel caso di utilizzo di sistemi tecnologici di raccolta e trattamento dei dati78. La pseudonimizzazione rappresenta una delle tecniche maggiormente utilizzate per garantire la privacy nell’elaborazione delle informazioni, dal momento che con essa si elimina l’associazione tra uno specifico paziente e le informazioni cliniche che lo riguardano. Il legislatore europeo inserisce siffatto strumento all’interno degli obblighi generali del titolare del trattamento79 e delle misure di sicurezza dei trattamenti80, in applicazione dei già richiamati principi di necessità, proporzionalità e indispensabilità nel trattamento dei dati personali, e sul presupposto che per finalità diverse da quella della cura della persona sia sufficiente utilizzare informazioni non identificative dei pazienti. Un ultimo profilo deve essere citato in merito all’utilizzo dei dati relativi alla salute. L’emergenza sanitaria dovuta alla diffusione del Covid-19, con le note esigenze di tracciamento dei contagi, ha messo in rilievo, da un lato l’importanza di un sistema efficiente di acquisizione ed elaborazione dei dati e, dall’altro lato, il necessario contemperamento tra la garanzia della riservatezza personale e quella della sicurezza pubblica81. 78   La pseudonimizzazione è, dunque, reversibile: il dato identificativo non viene cancellato, ma conservato separatamente rispetto all’informazione clinica. Ciò costituisce l’elemento distintivo con l’anonimizzazione, che invece comporta la cancellazione del dato. 79   Si veda l’art. 25 del Regolamento (UE) 2016/679: «Tenendo conto dello stato dell’arte e dei costi di attuazione, nonché della natura, dell’ambito di applicazione, del contesto e delle finalità del trattamento, come anche dei rischi aventi probabilità e gravità diverse per i diritti e le libertà delle persone fisiche costituiti dal trattamento, sia al momento di determinare i mezzi del trattamento sia all’atto del trattamento stesso il titolare del trattamento mette in atto misure tecniche e organizzative adeguate, quali la pseudonimizzazione, volte ad attuare in modo efficace i principi di protezione dei dati, quali la minimizzazione, e a integrare nel trattamento le necessarie garanzie al fine di soddisfare i requisiti del presente regolamento e tutelare i diritti degli interessati». 80   Si veda l’art. 32 del Regolamento (UE) 2016/679: «Tenendo conto dello stato dell’arte e dei costi di attuazione, nonché della natura, dell’oggetto, del contesto e delle finalità del trattamento, come anche del rischio di varia probabilità e gravità per i diritti e le libertà delle persone fisiche, il titolare del trattamento e il responsabile del trattamento mettono in atto misure tecniche e organizzative adeguate per garantire un livello di sicurezza adeguato al rischio, che comprendono, tra le altre, se del caso: a) la pseudonimizzazione e la cifratura dei dati personali». 81   Si veda P. Tozzo, A. Gabbin, C. Politi e L. Caenazzo, Emergenza da Covid-19: questioni di etica della salute pubblica da una prospettiva globale. Un’analisi preliminare in quattro step, in Riv. It. Med. Leg., 2020, p. 1053 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilazione dei dati e aziende sanitarie

385

Oltre a ciò, la pandemia ha svolto anche un importante ruolo propulsivo verso l’adozione sempre più diffusa della telematica, sia a fini diagnostico-terapeutici82, sia per il controllo della diffusione del virus83. A questo proposito va osservato che l’attività di ricerca in tale ambito emergenziale non è indirizzata solo alla mera conoscenza scientifica, ma può anche fornire le risposte per interventi concreti funzionali alla gestione della situazione contingente. Oltre a ciò, va notato che anche i dati raccolti con iniziali finalità diagnostiche e terapeutiche possono essere riutilizzati a scopo di ricerca per individuare risposte utili a contrastare il virus. In questo senso deve essere letta la disposizione dell’art. 14 del d.l. 9 marzo 2020, n. 1484, rubricato «Disposizioni sul trattamento dei dati 82   Si pensi ai consulti a distanza, alla ricetta dematerializzata, ai referti online e all’uso sempre più massivo del Fascicolo sanitario elettronico. 83   Si fa riferimento, tra le altre cose, alle applicazioni per il tracciamento dei contagi (Immuni), di cui al d.l. 30 aprile 2020, n. 28, convertito il l. 28 giugno 2020, n. 70, che fissa le linee guida per il funzionamento del sistema, istituendo il «Sistema di allerta Covid-19», una piattaforma unica nazionale per la gestione del sistema di allerta dei soggetti che, a tal fine, hanno installato, su base volontaria, un’apposita applicazione. Si veda altresì il d.P.C. del 18 ottobre 2020 che, a parere del Garante Privacy, ha previsto la costruzione dell’app in maniera tale da avere adeguate garanzie di sicurezza e di protezione dei dati personali. Immuni ha tuttavia mostrato tutti i suoi limiti dovuti all’assenza di interazione con i protocolli di tracciamento dei contatti. 84   D.l. 9 marzo 2020, n. 14, Disposizioni urgenti per il potenziamento del Servizio sanitario nazionale in relazione all’emergenza COVID-19, art. 14: «Fino al termine dello stato di emergenza (…), per motivi di interesse pubblico nel settore della sanità pubblica e, in particolare, per garantire la protezione dall’emergenza sanitaria a carattere transfrontaliero determinata dalla diffusione del COVID-19 mediante adeguate misure di profilassi, nonché per assicurare la diagnosi e l’assistenza sanitaria dei contagiati ovvero la gestione emergenziale del Servizio sanitario nazionale, nel rispetto dell’art. 9, paragrafo 2, lettere g), h) e i), e dell’art. 10 del regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016, nonché dell’art. 2-sexies, comma 2, lettere t) e u), del d.lg 30 giugno 2003, n. 196, i soggetti operanti applicazione, del contesto e delle finalità del trattamento, come anche dei rischi aventi probabilità e gravità diverse per i diritti e le libertà delle persone fisiche costituiti dal trattamento, sia al momento di determinare i mezzi del trattamento sia all’atto del trattamento stesso il titolare del trattamento mette in atto misure tecniche e organizzative adeguate, quali la pseudonimizzazione, volte ad attuare in modo efficace i principi di protezione dei dati, quali la minimizzazione, e a integrare nel trattamento le necessarie garanzie al fine di soddisfare i requisiti del presente regolamento e tutelare i diritti degli interessati». Si veda l’art. 32 del Regolamento (UE) 2016/679: «Tenendo conto dello stato dell’arte e dei costi di attuazione, nonché della natura, dell’oggetto, del contesto e delle finalità del trattamento, come anche del rischio di varia probabilità e gravità per i diritti e le libertà delle persone fisiche, il titolare del trattamento e il responsabile del

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

386

Benedetta Vivarelli

personali nel contesto emergenziale», che consente un più libero interscambio dei dati nell’ambito degli organismi sanitari e altri enti istituzionali e l’utilizzo di modalità semplificate di trattamento e di informativa. 5. La realtà quotidiana rende evidente come un modello «privatistico» – e quindi esclusivo – di proprietà dei dati sia ad oggi anacronistico e inadeguato: le nostre informazioni sono infatti costante-

trattamento mettono in atto misure tecniche e organizzative adeguate per garantire un livello di sicurezza adeguato al rischio, che comprendono, tra le altre, se del caso: a) la pseudonimizzazione e la cifratura dei dati personali». Si veda P. Tozzo, A. Gabbin, C. Politi e L. Caenazzo, Emergenza da Covid-19: questioni di etica della salute pubblica da una prospettiva globale. Un’analisi preliminare in quattro step, in Riv. It. Med. Leg., 2020, II, p. 1053 ss. Si fa riferimento, tra le altre cose, alle applicazioni per il tracciamento dei contagi (Immuni), di cui al d.l. 30 aprile 2020, n. 28, convertito il l. 28 giugno 2020, n. 70, che fissa le linee guida per il funzionamento del sistema, istituendo il «Sistema di allerta Covid-19», una piattaforma unica nazionale per la gestione del sistema di allerta dei soggetti che, a tal fine, hanno installato, su base volontaria, un’apposita applicazione. Si veda altresì il d.P.C. del 18 ottobre 2020 che, a parere del Garante Privacy, ha previsto nel Servizio nazionale di protezione civile, di cui agli articoli 4 e 13 del d.lg. 2 gennaio 2018, n. 1, e […], anche allo scopo di assicurare la più efficace gestione dei flussi e dell’interscambio di dati personali, possono effettuare trattamenti, ivi inclusa la comunicazione tra loro, dei dati personali, anche relativi agli articoli 9 e 10 del regolamento (UE) 2016/679, che risultino necessari all’espletamento delle funzioni attribuitegli nell’ambito dell’emergenza determinata dal diffondersi del COVID-19. 2. La comunicazione dei dati personali a soggetti pubblici e privati, diversi da quelli di cui al comma 1, nonché la diffusione dei dati personali diversi da quelli di cui agli articoli 9 e 10 del regolamento (UE) 2016/679, è effettuata, nei casi in cui risulti indispensabile ai fini dello svolgimento delle attività connesse alla gestione dell’emergenza sanitaria in atto. 3. I trattamenti di dati personali di cui ai commi 1 e 2 sono effettuati nel rispetto dei principi di cui all’art. 5 del citato regolamento (UE) 2016/679, adottando misure appropriate a tutela dei diritti e delle libertà degli interessati. 4. Avuto riguardo alla necessità di contemperare le esigenze di gestione dell’emergenza sanitaria in atto con quella afferente alla salvaguardia della riservatezza degli interessati, i soggetti di cui al comma 1 possono conferire le autorizzazioni di cui all’art. 2-quaterdecies del d.lg. 30 giugno 2003, n. 196, con modalità semplificate, anche oralmente. 5. Nel contesto emergenziale in atto, ai sensi dell’art. 23, par. 1, lettera e), del menzionato regolamento (UE) 2016/679, (…), i soggetti di cui al comma 1 possono omettere l’informativa di cui all’art. 13 del medesimo regolamento o fornire una informativa semplificata, previa comunicazione orale agli interessati della limitazione. 6. Al termine dello stato di emergenza di cui alla delibera del Consiglio dei ministri del 31 gennaio 2020, i soggetti di cui al comma 1 adottano misure idonee a ricondurre i trattamenti di dati personali effettuati nel contesto dell’emergenza, all’ambito delle ordinarie competenze e delle regole che disciplinano i trattamenti di dati personali». ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilazione dei dati e aziende sanitarie

387

mente impiegate tramite le moderne tecnologie85 e pertanto oggetto di trattamenti. Si è reso quindi necessario ammettere un nuovo paradigma, non solo per adattare la realtà giuridica a quella fattuale, ma anche per apprestare un sistema di tutela proporzionato alle reali esigenze dell’individuo, tenendo conto che l’equilibrio che emerge dall’assetto vigente potrebbe mutare nel breve periodo. Le discipline e gli istituti descritti nei paragrafi precedenti sono indicativi delle sfumature che assume la tematica della privacy rispetto ai dati sanitari. A ben vedere, è proprio in questo settore che appare percepibile con maggior grado di definizione la sottile differenza tra il diritto alla riservatezza e il diritto alla protezione dei dati personali86. Nonostante la contiguità fra le due situazioni giuridiche anzidette, a mutare è l’oggetto su cui ricade la tutela: la riservatezza, infatti, si configura in negativo, quale diritto di escludere i terzi, mentre la protezione dei dati implica la titolarità (e quindi anche l’esercizio) di poteri da parte dell’interessato, in un’ottica di controllo attivo87. L’evoluzione della privacy in protezione dei dati personali passa, pertanto, attraverso l’affievolimento del diritto alla riservatezza. In ambito sanitario, la suddetta trasformazione rispecchia la dimensio-

85  Così G. Garofalo, Trattamento e protezione, cit. p. 1393: «Il diritto alla protezione dei dati personali, così, acquisisce oggi un’indiscutibile centralità nella vita quotidiana: le nostre informazioni sono costantemente impiegate tramite le moderne tecnologie, che, in una certa misura, hanno cooperato all’emancipazione di tale diritto da quello alla privacy ed hanno consentito anche l’emersione della “funzione sociale” svolta dall’attività di data protection. Il diritto all’autodeterminazione informativa ex art. 8 Carta UE diviene — come l’autonomia negoziale lo è nei rapporti contrattuali — mezzo di con-formazione degli stessi soggetti di diritto: questi, infatti, sono messi in grado di acquisire consapevolezza giuridica ed esistenziale partecipando attivamente al trattamento dei propri dati personali tramite le facoltà che l’ordinamento riconosce loro». Si veda altresì P. Perlingieri, Privacy digitale e protezione dei dati personali tra persona e mercato, in Foro nap., 2018, p. 481 ss. 86   La distinzione tra riservatezza e protezione dei dati, invero, ha le sue radici normative nella Carta dei diritti fondamentali dell’Unione europea, che prevede tali diritti in due autonomi articoli (art. 7 e art. 8). Si veda anche G. Visintini, Dal diritto alla riservatezza alla protezione dei dati personali, in Dir. inf., 2019, p. 1 ss. 87  Cosi G. Garofalo, Trattamento e protezione, cit., p. 1393. Si veda altresì M. Gambini, Dati personali e internet, Napoli 2008, che parla proprio del diritto alla protezione dei dati personali come momento dinamico del diritto alla privacy.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

388

Benedetta Vivarelli

ne collettiva del diritto alla salute88, che legittima le aperture solidaristiche89 alla base delle numerose deroghe in tema di trattamento dei dati90. Il sistema di tutela risulta pertanto incentrato non sulla proprietà e sul controllo del soggetto «interessato», bensì, sulle garanzie dovute al medesimo all’interno di una condivisione intersoggettiva, con la configurazione di una serie di diritti e facoltà91. Da ciò si deduce la principale caratteristica dei trattamenti aventi a oggetto dati sanitari: essi sono «funzionalizzati» e non occorre il consenso del soggetto a cui gli stessi si riferiscono, poiché spesso prevalgono gli interessi superindividuali92. Sebbene siano comprensibili e in parte condivisibili le esigenze pubblicistiche connesse al settore sanitario e ai dati che ivi sono destinati a circolare, appare tuttavia opportuno non dimenticare che tali informazioni sono particolarmente delicate e attinenti a sfere di per sé esclusivamente individuali.

88   Ai sensi dell’art. 32 Cost., infatti, «La Repubblica tutela la salute come fondamentale diritto dell’individuo e interesse della collettività». 89   Si veda P. Tozzo, A. Gabbin, C. Politi e L. Caenazzo, Emergenza da Covid-19: questioni di etica della salute pubblica da una prospettiva globale. Un’analisi preliminare in quattro step, in Riv. It. Med. Leg., 2020, II, p. 1053 ss.: «Negli ultimi decenni si è assistito, e si sta tuttora assistendo, ad una progressiva diffusione e condivisione in ambito scientifico dei principi di collaborazione internazionale, di altruismo e solidarietà, nonché di condivisione dei dati in un’ottica di perseguimento del bene comune. Si ritiene, pertanto, che i tempi siano ormai maturi per aggiornare le tematiche del dialogo etico-normativo, spostando l’attenzione dalle esigenze del singolo alle più ampie e complesse richieste dell’intera collettività. A tale scopo, è fondamentale riuscire a far comprendere anche ai cittadini l’importanza di mettere a disposizione della ricerca i propri dati sanitari non solo per finalità cliniche ma anche epidemiologiche e di ricerca, al fine di garantire progressi nella lotta contro la pandemia». 90  Si veda S. Corso, Il fascicolo sanitario elettronico fra e-Health, privacy ed emergenza sanitaria, in Responsabilità Medica, 2020, p. 393 ss. 91   Tra cui: il diritto dell’interessato di accesso al trattamento; il diritto di rettifica e il diritto di cancellazione; il diritto di limitare il trattamento in corso sui propri dati al ricorrere di particolari esigenze, il diritto alla portabilità, il diritto di opporsi al trattamento dei propri dati ed alla profilazione sulla base di questi e di opporsi ad un processo decisionale automatizzato. 92   Si veda A. Ricci, Sulla «funzione sociale» del diritto alla protezione dei dati personali, in Contr. impr., 2017, p. 586 ss., e in particolare si veda p. 604: «[l]’assolutezza del diritto alla protezione dei dati personali trova nella “funzione sociale”, così come interpretata, un principio alla stregua del quale coordinare fra loro la pretesa dell’interessato, gli interessi dei titolari del trattamento, le esigenze avvertite dalla società nel suo insieme. Essa non può che riferirsi all’oggetto del diritto, sebbene letteralmente riferita al diritto in quanto tale, e non può che essere interpretata come criterio di temperamento fra pretese individuali ed interessi generali».

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Profilazione dei dati e aziende sanitarie

389

In altri termini, occorre valutare che sia mantenuto un giusto equilibrio tra interesse pubblico al progresso scientifico e tecnico e interessi privati di tipo personalistico: si tratta di un’operazione interpretativa da aggiornare costantemente alla luce delle evoluzioni legislative. A ben vedere, l’attuale disciplina, nell’assegnare valore residuale al consenso dell’interessato, favorisce una condizione di co-disponibilità dei dati sanitari; ciò, dal punto di vista del soggetto interessato, si traduce in quello che è stato efficacemente definitivo diritto all’autodeterminazione informativa93, a sua volta composto da tutti i diritti con cui viene modellata la circolazione dei propri dati. Ebbene, i rischi connessi al trattamento e alla circolazione delle informazioni sanitarie impongono di preservare con attenzione quantomeno la suddetta dimensione informativa – e quindi partecipativa – del privato e, più in generale, l’insieme delle facoltà e dei diritti allo stesso riconosciuti. Solo in tal modo le ragioni collettivo-solidaristiche risulterebbero bilanciate con quelle individuali, con la configurazione di un concetto di «disponibilità» del dato sanitario, intesa come effettiva autodeterminazione dell’interessato al trattamento. Diversamente opinando, si arriverebbe a una concreta indisponibilità dei dati sanitari da parte di coloro ai quali essi si riferiscono, realizzando un vero e proprio paradigma «espropriativo», che porrebbe seri dubbi di compatibilità con il diritto fondamentale alla protezione dei dati94.

93   Si veda G. Garofalo, Trattamento e protezione dei dati, cit., che parla proprio di «tutela dell’autodeterminazione informativa». 94  Così I. Rapisarda, Ricerca scientifica, cit., p. 312.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Nicolò Acquarelli*

La scuola digitale. Brevi considerazioni su servizi scolastici e nuove tecnologie

Sommario: 1. Introduzione. – 2. Digitalizzazione e attività didattica: quale sorte per la didattica digitale con il ritorno alla normalità? – 3. Didattica digitale e tutela dei dati personali. – 4. Postilla: il ruolo degli insegnanti nella scuola digitale.

1. Il rapporto tra tecnologie digitali e il mondo della scuola costituisce oggetto di dibattito ormai da più di un ventennio, da quando, con la c.d. «strategia di Lisbona»1, l’introduzione delle tecnologie dell’informazione e della comunicazione (TIC) in ambito educativo è diventata una priorità nell’agenda politica europea2.

* Dottorando in Diritto pubblico-Diritto urbanistico e dell’ambiente nell’Università di Firenze. 1   Varata dal Consiglio europeo di Lisbona del 23 e 24 marzo 2000. 2   Al punto n. 25 delle conclusioni della Presidenza del Consiglio europeo di Lisbona (disponibili presso: Europarl.europa.eu) si legge che «i sistemi europei di istruzione e formazione devono essere adeguati alle esigenze della società dei saperi e alla necessità di migliorare il livello e la qualità dell’occupazione. […] Questo nuovo approccio dovrebbe avere tre componenti principali: lo sviluppo di centri locali di apprendimento, la promozione di nuove competenze di base, in particolare nelle tecnologie dell’informazione, e qualifiche più trasparenti». A tal proposito il Consiglio europeo aveva individuato, tra gli obiettivi che Istituzioni europee e Stati membri avrebbero dovuto conseguire, la trasformazione delle scuole e dei centri di formazione «tutti collegati a Internet […] in centri locali di apprendimento plurifunzionali accessibili a tutti», nonché l’adozione di un quadro europeo che definisse «le nuove competenze di base da fornire lungo tutto l’arco della vita: competenze in materia di tecnologie dell’informazione, lingue straniere, cultura tecnologica, imprenditorialità e competenze sociali», sino a richiedere l’istituzione di «un diploma europeo per le competenze di base in materia di tecnologia dell’informazione, con procedure di certificazione decentrate, al fine di promuovere l’alfabetizzazione “digitale” in tutta l’Unione» (v. punto n. 26). Gli obiettivi fissati a Lisbona sono stati successivamente tradotti, in ambito nazionale, con il «Piano Nazionale Scuola Digitale» del 2007 (PNSD 2007) e con il successivo «Piano Nazionale Scuola Digitale» del 2015 (PNSD 2015). Sul rapporto tra ordinamento europeo e diritto all’istruzione v. M. Cocconi, Il diritto europeo dell’istruzione. Oltre l’integrazione dei mercati, Milano 2006. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

392

Nicolò Acquarelli

Si dividono il campo opinioni iperbolicamente ottimiste3 e altre più caute tese a sottolineare i possibili effetti negativi prodotti dalla digitalizzazione, a titolo esemplificativo, in termini di eccesso d’individualizzazione dell’esperienza educativa4, nonché di limitazione o (peggio) esclusione, a causa del digital divide5, nel godimento di un diritto sociale centrale nello sviluppo della persona umana quale l’istruzione6. Il processo di digitalizzazione della scuola ha subìto un’improvvisa accelerazione in conseguenza dell’emergenza pandemica da Covid-19, complice l’idoneità delle TIC a reggere la sfida «di tener in vita la scuola, pur nella chiusura delle scuole»7 e ad assicurare, così, la continuità dell’istruzione, nonostante le tante difficoltà che hanno caratterizzato la transizione verso un’offerta formativa resa esclusivamente a distanza8. Le misure adottate in risposta alla crisi pandemica confermano la necessità di innovare l’amministrazione scolastica per mezzo delle 3   A voler riprendere M. Gui, Il digitale a scuola. Rivoluzione o abbaglio?, Bologna 2019, p. 67. 4   Mentre l’attività formativa «ha bisogno […] di un ambiente, anzi di una comunità, in grado di promuovere lo sviluppo della personalità dell’alunno» (così U. Pototschnig, Un nuovo rapporto fra amministrazione e scuola, in Riv. giur. scuola, 1975, III, p. 252). 5   V. sul punto, con specifico riferimento all’emergenza pandemica da Covid-19, le riflessioni di P. Zuddas, Covid-19 e digital divide: tecnologie digitali e diritti sociali alla prova dell’emergenza sanitaria, in Osservatorio costituzionale, 2020, III, p. 285 ss. 6  Oltreché indispensabile per garantire un’effettiva realizzazione del principio democratico, perché è attraverso la piena e libera formazione del pensiero, resa possibile da un’istruzione erogata nelle forme costituzionalmente prescritte, che si può garantire la libera, totale e matura partecipazione dei cittadini alla vita dell’ordinamento. Cfr., al riguardo, le notazioni di E. Spagna Musso, Lo Stato di cultura nella Costituzione italiana, Napoli 1961, p. 49 ss., ora in Id., Scritti di diritto costituzionale, Milano, 2007, I, p. 425 ss., sulla scia di quanto sostenuto da P. Calamandrei, Contro il privilegio dell’istruzione, in Il Ponte, 1946, II, p. 3 ss. Osserva, più recentemente, E. Carloni, Il diritto all’istruzione come diritto di cittadinanza, in A. Bartolini e A. Pioggia (a cura di), Cittadinanze amministrative, in A 150 anni dall’unificazione amministrativa italiana – Studi (a cura di L. Ferrara e D. Sorace), Firenze 2016, Vol. VIII, p. 93 come la scuola sia «oltre che un fattore di sviluppo intimo dell’individuo, un formidabile (ed il principale) motore di mobilità sociale, ed un ineludibile canale di alimentazione dello stesso tessuto democratico». 7   G. Laneve, In attesa del ritorno nelle scuole, riflessioni (in ordine sparso) sulla scuola, tra senso del luogo e prospettive della tecnologia, in Osservatorio costituzionale, 2020, III, p. 412. 8   Emblematico di tali difficoltà il disposto dell’art. 2, comma 3, d.l. 8 aprile 2020, n. 22 ai sensi del quale «In corrispondenza della sospensione delle attività didattiche in presenza a seguito dell’emergenza epidemiologica, il personale docente assicura comunque le prestazioni didattiche nelle modalità a distanza, utilizzando strumenti informatici o tecnologici a disposizione».

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La scuola digitale

393

nuove tecnologie. Al riguardo, il riferimento va al «Piano Nazionale di Ripresa e Resilienza» (PNRR)9 che, oltre a ricomprendere digitalizzazione e innovazione tra i tre assi strategici (insieme alla transizione ecologica e all’inclusione sociale) per il rilancio dell’ordinamento italiano, dedica una specifica missione – la «Missione 4: Istruzione e ricerca» – alla riforma dell’intero ciclo dell’istruzione, stanziando buona parte degli investimenti su progetti diretti a stimolare l’innovazione e a rafforzare la relazione tra istruzione e lavoro, impresa e industria10. A fronte di un quadro del genere, connotato dalla progressiva centralità acquisita dalle TIC all’interno della scuola, il contributo intende operare una breve analisi degli effetti della digitalizzazione rispetto all’istruzione pubblica11, ossia quella pluralità coordinata di attività d’insegnamento fornite dai docenti alla platea degli utenti, gli allievi, con lo scopo complessivo di produrre un risultato di apprendimento12. Si verificherà, dunque, l’impatto delle nuove tecnologie sull’oggetto dell’istruzione, per come appena tratteggiato, nell’ottica della transizione dall’attività d’insegnamento erogata esclusivamente in presenza alla didattica resa per mezzo delle TIC. Dopo essersi interrogati sul futuro della didattica digitale con il definitivo superamento della pandemia, l’attenzione sarà concentrata sui profili legati al trattamento dei dati personali dei soggetti che, a vario titolo, sono coinvolti nell’e-learning. Sarebbe, però, riduttivo risolvere la digitalizzazione della scuola esclusivamente nel passaggio dall’attività d’insegnamento in presenza alla didattica resa per mezzo delle TIC. È, invece, necessario prendere atto che le nuove tecnologie, oltre a rilevare su un piano infrastrutturale – come stru-

9   Piano trasmesso dal Governo italiano alla Commissione europea il 30 aprile 2021 per avere accesso ai fondi stanziati dall’Unione europea nell’ambito del programma «Next Generation EU». Per una rassegna delle misure in materia d’istruzione contenute all’interno del PNRR v. M. Cocconi, Le riforme dell’istruzione nel Piano Nazionale di Ripresa e Resilienza, in Federalismi.it, 2022, XI, p. 63 ss. 10   Come notato da A. Sandulli, La scommessa del Pnrr per il rilancio degli Istituti tecnici superiori (Its), in Munus, 2021, II, p. 468. 11   Non verrà, pertanto, approfondito l’impatto delle TIC sui servizi amministrativi erogati all’interno delle scuole, pur comprendendosi anch’essi nell’ambito dei servizi scolastici. È lo stesso legislatore, del resto, a suggerire questa collocazione, inserendoli, per esempio, insieme all’attività didattica nello schema generale di riferimento della «Carta dei servizi scolastici» allegato al d.P.C. del 7 giugno 1995. 12  Cfr. U. Pototschnig, Insegnamento. Istruzione. Scuola, in Giur. cost., 1961, I-II, p. 466 ora in Id., Scritti scelti, Padova 1999, p. 711, anche per le differenze sussistenti tra il concetto di «istruzione» e i concetti di «insegnamento» e «scuola»; C. Marzuoli, Istruzione e «Stato sussidiario», in Dir. pubbl., 2002, I, p. 119.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

394

Nicolò Acquarelli

mento di supporto per l’attività didattica – hanno anche la valenza di autonomi ambienti di apprendimento che si affiancano a quello scolastico13. Nella parte finale dello scritto si cercherà, dunque, di operare una breve riflessione conclusiva sugli effetti che una simile moltiplicazione dei luoghi di apprendimento produce sui soggetti coinvolti nell’attività d’istruzione, in particolare sui docenti ai quali si prospetta un compito nevralgico: non soltanto educare con l’ausilio delle nuove tecnologie i propri allievi, ma anche instillare, in ognuno di essi, una cultura digitale tale da consentire un approccio critico al mondo dei nuovi media14. 2. L’esame del rapporto tra nuove tecnologie e attività d’insegnamento deve prendere le mosse da una questione pregiudiziale, relativa alla sorte dell’e-learning all’indomani dell’emergenza sanitaria. Se, allo scoppiare della pandemia, la necessità di ridurre al minimo i contatti personali ha imposto, agli istituti scolastici, una rapida conversione delle attività d’insegnamento in presenza nella didattica a distanza15, con il ritorno in condizioni di normalità è necessario interrogarsi se vi sia ancora spazio per la «scuola nella rete». Più di una ragione induce a rispondere positivamente. Anzitutto, non può essere negato che l’impiego delle TIC nella prestazione del servizio di istruzione sia astrattamente idoneo a rimuovere o, comunque, a mitigare le diseguaglianze nell’accesso all’attività didattica16. La relativizzazione della dimensione spaziale che caratterizza l’e-learning può, difatti, consentire la fruizione delle attività d’insegnamento anche agli studenti che non si trovino nelle condizioni di poter prendere parte fisicamente alle lezioni17. Vero è che l’impiego delle nuove tecno Cfr. G. Laneve, op. cit., p. 426.   V., sul punto, G. Gui e T. Gerosa, Strumenti per apprendere o oggetti di apprendimento? Una rilettura critica della digitalizzazione nella scuola italiana, in Scuola dem., 2019, III, pp. 495-496. 15   Per una rassegna dei primi provvedimenti adottati per garantire la continuità dell’istruzione scolastica e universitaria in tempo di pandemia cfr. S. Baroncelli, La didattica online al tempo del coronavirus: questioni giuridiche legate all’inclusione e alla privacy, in Osservatorio sulle fonti, 2020, fasc. speciale, p. 438 ss. 16  Nota L. Ferrara, Didattica a Distanza, in orizzontideldirittopub.com che la d.a.d. persegue «anche un fine di uguaglianza o di contrasto alle diseguaglianze nel godimento di un diritto eguale». 17  Osserva R. Calvano, L’istruzione, il Covid-19 e le diseguaglianze, in Costituzionalismo.it, 2020, III, p. 80, come «anche in tempi “normali” l’e-learning possa essere molto utile per l’apprendimento permanente, per gli studenti lavoratori, o per raggiungere chi vive in zone in cui vi è enorme difficoltà di spostamento, magari per 13 14

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La scuola digitale

395

logie, così come si presta a limitare le diseguaglianze sociali, rischia al contempo di accentuarle18, ma questa polivalenza, piuttosto che precludere aprioristicamente l’uso delle TIC, dovrebbe, semmai, rafforzare la consapevolezza che il loro impiego non può prescindere dalla garanzia di un accesso alle nuove tecnologie uguale per tutti19. Sono, poi, i recenti interventi normativi a far presagire che l’esperienza della didattica digitale non si concluderà con il prossimo venir meno dell’emergenza epidemiologica. È opportuno richiamare, a tal proposito, il d.m. 26 giugno 2020, n. 39 con cui il Ministero dell’Istruzione dell’Università e della Ricerca (MIUR) ha adottato il «Documento per la pianificazione delle attività scolastiche, educative e formative in tutte le Istituzioni del Sistema nazionale di Istruzione per l’anno scolastico 2020/2021» (c.d. «Piano Scuola»)20, al cui interno trova spazio anche il c.d. «Piano Scolastico per la Didattica digitale integrata» (D.D.I). Quest’ultimo è un ulteriore strumento da impiegare ove «l’andamento epidemiologico dovesse configurare nuove situazioni emergenziali a livello nazionale o locale» e si rendesse necessaria «nuovamente la sospensione della didattica in presenza e la ripresa dell’attività a distanza, attraverso la modalità di didattica digitale integrata»21. L’interesse verso il «Piano Scolastico per la D.D.I.» si giustifica per la sua natura vincolante: a differenza delle altre misure suggerite

motivi climatici in alcune stagioni», pur precisando come resti tuttavia ben chiaro che «i processi di apprendimento siano fortemente legati all’interazione che si instaura tra due individui, il docente e il discente, e quindi l’insegnamento in presenza sarà sempre da ritenere preferibile, oltre che fondamentale per lo sviluppo della personalità del bambino, a causa del rapporto con l’insegnante e con gli altri alunni, non sostituibile per la sua evoluzione psichica e cognitiva». 18   Finendo per compromettere la vocazione inclusiva dell’istruzione, affermatasi con l’avvento della Costituzione repubblicana e condensata nel principio per cui «la scuola è aperta a tutti» (art. 34, comma 1, Cost.). Sul punto, con specifico riferimento alla pandemia, v. le riflessioni di G. Matucci, La scuola nell’emergenza pandemica, fra inclusione e solidarietà, in Quad. cost., 2021, III, p. 623 ss. 19   In particolare, sul diritto di accesso a Internet e la necessità del suo riconoscimento in Costituzione v. le riflessioni di G. D’Ippolito, Il diritto di accesso ad Internet in Italia: dal 21 (-bis) al 34-bis, in Medialaws - Rivista di Diritto dei Media, 2021, I, p. 81 ss. 20   Per l’esame dei contenuti del piano si rinvia a F. Di Lascio, Il sistema nazionale di istruzione di fronte all’emergenza sanitaria, in federalismi.it, 2021, IV, p. 100 ss. Il piano è disponibile presso il sito del MIUR, link: www.miur.gov.it. 21   «Documento per la pianificazione delle attività scolastiche, educative e formative in tutte le Istituzioni del Sistema nazionale di Istruzione per l’anno scolastico 2020/2021», p. 15. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

396

Nicolò Acquarelli

dal «Piano Scuola», il documento in questione deve essere adottato da ogni istituto scolastico quale parte integrante del Piano Triennale dell’Offerta Formativa (P.T.O.F.). L’amministrazione statale pare, così, introdursi tra le trame dell’autonomia scolastica22 inserendo, all’interno del documento che ne costituisce la principale manifestazione23, uno strumento di transizione verso la «scuola digitale»24. Non solo, ma si è anche rilevato che la modifica nei contenuti del P.T.O.F. potrà richiedere agli istituti scolastici, anche in futuro, di integrare e adeguare la propria offerta formativa alle esigenze della didattica integrata digitale e, probabilmente, anche alla pretesa giuridicamente rilevante, di futura emersione, all’insegnamento erogato per mezzo delle TIC, per tutte quelle ipotesi in cui lo studente non possa seguire in presenza la lezione25. Uno sviluppo, del resto, coerente anche con le misure contenute all’interno del PNRR, già in parte richiamate, che tratteggiano la «scuola 4.0» come un insieme di «connected learning environments adattabili, flessibili e digitali, con laboratori tecnologicamente avanzati e un processo di apprendimento orientato al lavoro»26. In un archetipo di scuola, come quello prefigurato dal PNRR, che tende a prescindere

22   In controtendenza rispetto a quanto avvenuto nel corso della prima fase della pandemia che ha visto protagoniste le autonomie scolastiche, con l’amministrazione statale a far da spettatrice. Dinanzi alle limitazioni conseguenti all’emergenza epidemiologica, le scuole non hanno atteso indicazioni ministeriali, ma hanno agito in maniera indipendente, per mezzo di iniziative predisposte sulla base delle proprie capacità interne. Si è data, così, «una involontaria attuazione a quel (innovativo) rapporto tra PA e scuola creato fin dagli albori della Repubblica, che ha come punto di partenza l’assunto che non spetta allo Stato istruire, ma che è la scuola in quanto tale ad istruire» (così M. Troisi, Il Sistema Nazionale d’Istruzione di fronte alle restrizioni per la pandemia da COVID-19. Molte ombre e qualche luce (da cui ripartire), in Regioni, 2021, IV, pp. 793-794). Sull’autonomia scolastica la bibliografia è sterminata; v., ex multis: F. Gambardella, Autonomia scolastica e pluralismo nella costruzione dell’offerta formativa per la promozione culturale, in Munus, 2019, I, p. 289 ss.; M. Bombardelli e M. Cosulich (a cura di), L’autonomia scolastica nel sistema delle autonomie, Padova 2005; A. Poggi, L’autonomia scolastica nel sistema delle autonomie regionali, in Le Istituzioni del Federalismo, 2004, II-III, p. 229 ss. 23  Definisce il «Piano dell’Offerta Formativa» (P.O.F.), ora «Piano Triennale dell’Offerta Formativa», «la principale tra le modalità di espressione dell’autonomia scolastica», A. Sandulli, Il sistema nazionale di istruzione, Bologna 2003, p. 189. 24   É di questo avviso M. Palma, Il diritto della Didattica a Distanza (D.A.D.), in Federalismi.it, n. 2021, XXIII, p. 139. 25   M. Palma, Il diritto della Didattica a Distanza (D.A.D.), ivi, 2021, p. 139. Ciò si lega a quanto detto in precedenza sull’impiego delle TIC quali mezzi per rimuovere le diseguaglianze nell’accesso all’istruzione. 26   «Piano Nazionale di Ripresa e Resilienza» (PNRR), p. 190.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La scuola digitale

397

dalla spazialità dei luoghi, il «diritto alla D.A.D.» potrebbe verosimilmente farvi ingresso. 3. Chiarito che la didattica digitale sarà, con tutta probabilità, operativa anche dopo il definitivo superamento dell’emergenza pandemica, è possibile adesso esaminare la questione del trattamento dei dati personali dei soggetti che prendono parte all’e-learning. Si tratta di un tema che ha ricevuto particolare attenzione27 sin dal primo utilizzo della didattica digitale in risposta alla diffusione del coronavirus, un’attenzione giustificata dai rischi che possono conseguire all’impiego improprio e inconsapevole delle TIC28, aggravati dal fatto che i loro utilizzatori sono, principalmente, soggetti minori. L’utilizzo delle nuove tecnologie per l’erogazione dell’attività d’insegnamento coinvolge, difatti, i dati personali di studenti, famiglie e docenti non impiegati durante la didattica in presenza29 e la cui sicurezza diventa prioritaria, in quanto frammenti dell’identità di ogni soggetto che all’e-learning partecipa30. Alla luce di ciò sia il Garante per la protezione dei dati personali31 che il MIUR32 hanno fornito alle istituzioni scolastiche indicazioni sulla gestione 27   V., sul punto: F. Zanovello, Didattica a distanza: tra diritto all’istruzione e tutela della privacy, in Annali online della Didattica e della Formazione Docente, 2021, XXI, p. 235 ss.; S. Baroncelli, op. cit., p. 438 ss. 28   A distanza di pochi giorni dalla transizione alla d.a.d., è stato l’allora presidente dell’Autorità garante per la protezione dei dati personali, Antonello Soro, ad ammonire sui rischi che si celano dietro lo svolgimento dell’attività didattica per mezzo delle TIC. Nella «Nota istituzionale del Presidente del Garante, Antonello Soro, alla Signora Ministro dell’Istruzione, al Signor Ministro dell’Università e della ricerca e alla Signora Ministro per le pari opportunità e la famiglia in tema di didattica a distanza» (disponibile presso Garanteprivacy.it), il presidente ha sì riconosciuto che l’impiego delle nuove tecnologie ha consentito «di annullare, virtualmente, le distanze fisiche e di ricreare anche spazi immateriali in cui favorire l’incontro, il dibattito, il confronto e, appunto, persino la formazione» ma ha, parimenti, osservato che «le straordinarie potenzialità del digitale […] non devono, però, indur[re] a sottovalutare anche i rischi, suscettibili di derivare dal ricorso a un uso scorretto o poco consapevole degli strumenti telematici, spesso dovuto anche alla loro oggettiva complessità di funzionamento». 29  S. Baroncelli, op. cit., p. 445. 30   Sul legame sussistente tra dato e identità personale v. G. Finocchiaro, Identità personale su internet: il diritto alla contestualizzazione dell’informazione, in Dir. inf., 2012, III, p. 387 ss. 31   Con il Provvedimento n. 64 del 26 marzo 2020, «Didattica a distanza: prime indicazioni», disponibile presso Garanteprivacy.it. 32   Tramite numerose note pubblicate nel corso della prima fase dell’emergenza epidemiologica e, successivamente, per mezzo del d.m. n. 89 del 7 agosto 2020, con cui sono state adottate le «Linee guida per la Didattica digitale integrata».

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

398

Nicolò Acquarelli

dei dati e sul corretto impiego degli strumenti utilizzati per la didattica digitale, costituendo perfino un gruppo di lavoro congiunto che ha predisposto il documento «Didattica Digitale Integrata e tutela della privacy: indicazioni generali»33, il quale assurge al ruolo di guida per le scuole nell’implementazione della didattica digitale integrata, con particolare riguardo agli aspetti relativi alla sicurezza in rete e alla tutela dei dati personali34. Il documento precisa, anzitutto, compiti e responsabilità degli attori coinvolti nell’e-learning. In disparte i soggetti passivi del trattamento35, l’attenzione va focalizzata su chi riveste un ruolo attivo nella gestione dei dati personali: il Titolare del trattamento36, identificato nella persona del dirigente scolastico; il Responsabile della protezione dei dati personali (RPD)37, designato dal dirigente scolastico tra il personale interno all’istituto o individuato all’esterno; il Personale autorizzato al trattamento, comprensivo di tutti coloro – insegnanti e personale scolastico – che effettuano operazioni sui dati personali sotto l’autorità e in conformità alle indicazioni fornite dal Titolare; il Responsabile del trattamento38, identificato nei fornitori delle piattaforme o dei servizi per la didattica digitale integrata. Un ruolo nevralgico è rivestito, in particolare, dal RPD, il quale presta il proprio supporto tecnico-giuridico al Titolare del trattamento – il dirigente scolastico – nell’effettuare scelte di non secondaria importanza, dall’individuazione delle tecnologie più appropriate e delle misure di sicurezza più adeguate per lo svolgimento della didattica di-

33   Allegato alla nota del MIUR del 3 settembre 2020, prot. n. 11600, disponibile presso Miur.gov.it. 34   Per una puntuale esposizione dei contenuti del documento v. F. Zanovello, op. cit., p. 242 ss. 35   Intendendosi, per tali, studenti, insegnanti, genitori, ossia tutti coloro i cui dati possono essere oggetto di trattamento. 36   Ossia, ai sensi dell’art. 4, par. 1, n. 7, Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016, «la persona fisica o giuridica, l’autorità pubblica, il servizio o altro organismo che, singolarmente o insieme ad altri, determina le finalità e i mezzi del trattamento di dati personali…». 37   Figura, disciplinata all’interno del capo IV, sezione 4 del Reg. (UE) 2016/679, che assicura l’applicazione della normativa in materia di protezione dei dati personali in relazione ai trattamenti svolti dal titolare del trattamento. 38   Corrispondente, ai sensi dell’art. 4, par. 1, n. 8, Reg. (UE) 2016/679, a «la persona fisica o giuridica, l’autorità pubblica, il servizio o altro organismo che tratta dati personali per conto del titolare del trattamento».

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La scuola digitale

399

gitale, alla scelta del fornitore del servizio e alla gestione del rapporto che con quest’ultimo instaura l’istituto scolastico39. Sulla scia delle indicazioni già fornite dal Garante per la protezione dei dati personali e dal MIUR40 viene, poi, esclusa la necessità del consenso degli studenti (e dei loro genitori) al trattamento dei dati personali, in quanto necessario per lo svolgimento dell’attività istituzionale di didattica e, pertanto, preordinato all’esecuzione di un compito d’interesse pubblico che fa capo alla scuola. Nondimeno, in ossequio al principio di trasparenza e correttezza nella gestione dei dati41, l’istituto dovrà comunque rendere disponibile a tutte le categorie d’interessati un’informativa, redatta in forma sintetica e con un linguaggio facilmente comprensibile anche dai minori, che dia conto delle tipologie di dati e delle modalità di trattamento degli stessi, dei tempi di conservazione e delle altre operazioni di trattamento, precisando che i dati raccolti saranno trattati esclusivamente per l’erogazione di tale modalità di didattica, sulla base dei medesimi presupposti e con garanzie analoghe a quelle della didattica tradizionale. Viene, altresì, richiamato il principio di limitazione della conservazione dei dati42, in base al quale gli istituti scolastici devono assicurare che gli stessi non siano conservati più a lungo del necessario, definendo il limite temporale con riguardo alla finalità del trattamento per l’attività di didattica digitale, con la previsione, per esempio, della loro cancellazione al termine del progetto didattico43. Un ultimo aspetto su cui merita concentrare l’attenzione è la scelta del fornitore del servizio. All’istituto scolastico si prospettano due possibilità: la fornitura «in house», tramite il ricorso a strumenti e piattaforme per la didattica digitale gestiti in via autonoma, senza 39   Al riguardo, il documento evidenzia la necessità, in adesione a quanto richiesto dal Reg. (UE) 2016/679, che, nella scelta degli strumenti per lo svolgimento dell’e-learning, si privilegino quelli che si conformano ai princìpi di privacy by design e by default, e dunque le piattaforme che soddisfino in particolare i princìpi della protezione dei dati fin dalla progettazione e della protezione dei dati per impostazione predefinita. 40   Con i provvedimenti richiamati supra, nn. 30-31. 41   Il quale richiede che «le informazioni destinate all’interessato debbano essere concise, facilmente accessibili e di immediata comprensione, e che sia usato un linguaggio semplice e chiaro, oltre che, se del caso, una visualizzazione grafica» (v. F. Pompei, Diritto della privacy e protezione dei dati personali. Il GDPR alla prova della data driven economy, Roma 2021, p. 124). 42   Sancito all’art. 5, par. 1, lett. e) del Reg. (UE) 2016/679. 43   F. Zanovello, op.cit., p. 244.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

400

Nicolò Acquarelli

l’intervento di soggetti esterni44; il ricorso a un fornitore esterno, da nominare come responsabile del trattamento e con cui l’istituto instaurerà un rapporto con apposito contratto o altro atto giuridico45. In quest’ultimo caso, la scelta dovrà ricadere tra i soggetti che presentino garanzie sufficienti a mettere in atto misure tecniche e organizzative adeguate agli specifici trattamenti posti in essere per conto dell’istituzione scolastica. Le scuole dovranno, in particolare, assicurarsi che i dati trattati per loro conto non siano impiegati per finalità estranee all’attività didattica; pertanto, dovranno inserire, nell’atto che disciplina il rapporto con il responsabile del trattamento, specifiche istruzioni sulla conservazione dei dati, sulla loro cancellazione nonché sulla loro restituzione al termine dell’accordo tra scuola e fornitore, oltre a individuare le procedure di gestione di eventuali violazioni di dati personali, in accordo con quanto previsto dal Regolamento (UE) 2016/679. È in un tale contesto che dovrà essere calata la didattica digitale nel post-pandemia. Solo una particolare attenzione per la sorte dei dati dei soggetti coinvolti nell’e-learning, da tradursi nel rispetto delle regole appena sintetizzate, renderà possibile sfruttare le potenzialità sottese alle TIC senza, al contempo, pregiudicare i diritti di chi vi entra in contatto. 4. La relazione tra scuola e nuove tecnologie non si esaurisce, però, nel solo fenomeno della didattica digitale. Le TIC, difatti, oltre alle loro potenzialità infrastrutturali, producono effetti anche sul piano educativo, moltiplicando gli ambienti di apprendimento in virtù del loro carattere «aperto»46, che porta con sé la pluralizzazione delle fonti della conoscenza e una ridefinizione dei tempi e degli spazi dell’educazione47. Alla forma scolare tradizionale, imperniata sul rapporto tra insegnamento e apprendimento, si contrap44   In questo caso non vi sarà, naturalmente, la necessità di nominare il responsabile del trattamento. 45   Tramite l’atto istitutivo del rapporto giuridico con il fornitore esterno, l’istituto scolastico dovrà circoscrivere l’ambito, la durata del trattamento, la natura e la finalità del trattamento, il tipo di dati personali e le categorie di interessati, oltreché definire diritti e obblighi del titolare del trattamento. 46   «Le tecnologie aperte consentono a tutti di imparare, ovunque, in qualsiasi momento, su qualsiasi dispositivo, con il sostegno di chiunque» (parere «Aprire l’istruzione» (2014/C 126/06) del Comitato delle regioni disponibile presso Eur-lex.europa.eu). 47   O. Giancola, E. Grimaldi e M. Romito, La digitalizzazione della scuola, in Scuola dem., 2019, III, p. 462.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La scuola digitale

401

pone una nuova idea di educazione, conseguente al processo di digitalizzazione della scuola, fatta di una temporalità educativa altamente differenziata e di spazi educativi fluidi e dispersi48. V’è da chiedersi, allora, quale compito siano chiamati a ricoprire, in questo contesto, i docenti. Agli insegnanti si chiede di raccogliere una sfida impegnativa: svolgere il ruolo di mediatori nel rapporto tra studenti e nuove tecnologie49, conferendo ai primi gli strumenti necessari per un uso consapevole e critico delle TIC50. In altri termini, i docenti devono prendersi cura delle competenze digitali51 dei propri allievi, tanto di quelle necessarie, per esempio, per valutare consapevolmente l’attendibilità delle informazioni reperite online52 o per comunicare all’interno degli ambienti digitali (c.dd. «content-related skills»53), quanto delle competenze funzionali al «benessere digitale»54. Un compito tanto più importante se si pensa alla possibilità di innestarvi anche l’educazione verso la tutela dei diritti della persona all’interno della rete. Per questa via sarebbe, così, possibile operare il passaggio dalla stagione della tutela dei diritti «by design» e «by default» alla stagione della tutela «by education»55, intervenendo nel percorso formativo anche dei futuri programmatori per far sì che «il valore (dunque il senso) della tutela della dignità della persona e della

48   O. Giancola, E. Grimaldi e M. Romito, La digitalizzazione della scuola, ivi, p. 472. 49   G. Gui e T. Gerosa, op. cit., p. 497. Sullo stesso piano G. Laneve, op. cit., p. 426. 50  Osserva G. Laneve, op. cit., p.  427 come il punto centrale nel rapporto tra scuola e nuove tecnologie non sia rappresentato dall’utilizzo di strumenti digitali nell’insegnamento, quanto dalla costruzione «di un approccio critico sul mondo e sui paradigmi della tecnologia». 51  Il Consiglio europeo, nella propria raccomandazione del 22 maggio 2018 (2018/C 189/01, disponibile presso Eur-lex.europa.eu), ha definito la «competenza digitale» come «l’interesse per le tecnologie digitali e il loro utilizzo con dimestichezza e spirito critico e responsabile per apprendere, lavorare e partecipare alla società». 52   Aspetto che, ad oggi, appare indispensabile, vista la proliferazione delle c.dd. «fake news»; cfr., sul punto, S. Sassi, Disinformazione contro costituzionalismo, Napoli 2021, passim. 53   G. Gui, T. Gerosa, op. cit., p. 497. 54   Necessarie per gestire gli stimoli digitali provenienti dai nuovi media in funzione del benessere soggettivo; v., al riguardo, M. Gui (a cura di), Benessere digitale a scuola e a casa. Un percorso di educazione ai media nella connessione permanente, Milano 2019. 55   A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw Journal, 2019, I, p. 88.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

sua libertà, divengano parte integrante della formazione di coloro che poi elaboreranno le nuove tecnologie»56.

  Ibidem.

56

Profilazione e tutela della privacy nell’attività lavorativa

William Chiaromonte e Maria Luisa Vallauri* I controlli a distanza sul lavoro nell’era digitale1

Sommario: 1. Il fondamento del potere di controllo del datore di lavoro. –  2. I limiti al potere di controllo: la tutela della libertà e della riservatezza della persona come limiti esterni alla libertà di iniziativa economica in funzione antiautoritaria. – 3. I limiti al potere del datore di lavoro di controllare a distanza i lavoratori. La scelta condensata nell’art. 4 dello Statuto dei lavoratori. –  3.1. La giurisprudenza formatasi sul «vecchio» art. 4 dello Statuto dei lavoratori. – 4. Il «nuovo» potere di controllo a distanza: la riscrittura dell’art. 4 dello Statuto dei lavoratori ad opera del Jobs Act. – 5. I controlli a distanza di tipo difensivo dopo la riforma dell’art. 4 dello Statuto dei lavoratori: la posizione della Cassazione sulla sopravvivenza dei controlli difensivi «in senso stretto».

1. Il potere di controllo del datore di lavoro si colloca fra il potere direttivo e il potere disciplinare e scaturisce dal contratto di lavoro, su cui si fonda il rapporto di lavoro2. Il contratto di lavoro, la cui causa consiste nello scambio fra lavoro e retribuzione, determina l’esistenza dell’organizzazione del lavoro e * Professori associati di Diritto del lavoro nell’Università di Firenze.   Pur essendo il presente lavoro frutto di una comune riflessione, i parr. 1, 2 e 3 sono stati scritti da Maria Luisa Vallauri, i parr. 3.1, 4 e 5 da William Chiaromonte. 2   Per una ricostruzione delle origini del potere di controllo nel diritto di famiglia ottocentesco, che riconosceva un obbligo di vigilanza in capo ai padri di famiglia sopra i loro domestici, cfr. B. Veneziani, Contratto di lavoro, potere di controllo e subordinazione nell’opera di Ludovico Barassi, in Dir. lav. rel. ind., 2002, spec. p. 652 ss. Secondo l’A., impegnato in una riflessione sull’opera di Barassi, è proprio quest’ultimo a evidenziare come il potere di vigilanza rappresenti uno degli elementi che caratterizzano la posizione soggettiva del lavoratore nella relazione contrattuale, cioè uno dei poteri e delle funzioni del moderno datore di lavoro sempre più difficilmente assimilabile all’asettico creditore del rapporto locativo. Barassi raccoglie la lezione impartita dagli esegeti dell’Ottocento, per i quali l’elemento di discrimine fra i contratti che hanno a oggetto il lavoro non è tanto l’oggetto della prestazione, quanto le modalità con cui essa viene svolta e i poteri funzionali a tale svolgimento, ossia il potere di controllo e di sorveglianza affiancati al potere direttivo. Il fondamento di questo potere, e più in generale delle reciproche posizioni dei contraenti da cui scaturiscono le rispettive responsabilità, può essere rinvenuto nella «scoperta» compiuta dalla dottrina ottocentesca, secondo la quale al rapporto contrattuale che legava datori di lavoro e domestici si sovrapponeva un vincolo personale speciale in base al quale il domestico, in cambio del compenso per il suo lavoro, doveva al padrone ubbidienza, rispetto e fedeltà, mentre il padrone dal canto suo doveva e poteva sorvegliare il domestico e regolarne la condotta e correggerne i difetti (p. 650 ss.). 1

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

406

William Chiaromonte e Maria Luisa Vallauri

ne produce gli effetti costitutivi3. Tali effetti consistono nell’imputazione in capo al datore di lavoro/imprenditore di poteri funzionali all’esercizio della libertà di impresa, che si concretizzano nella possibilità di modificare la posizione giuridica altrui, nella specie del lavoratore. I poteri (direttivo, di controllo e disciplinare) si configurano, dunque, come effetti del contratto4. L’inserimento del lavoratore nell’organizzazione dell’impresa, derivante dal contratto di lavoro, comporta in particolare che questi non possa sottrarsi al controllo da parte del datore di lavoro, potere che attiene alla verifica della corretta esecuzione della prestazione lavorativa5 e all’accertamento della «conformità del risultato dovuto dal prestatore alle direttive impartite»6. Siffatti poteri sono, però, definiti dal legislatore, che stabilisce i limiti del loro esercizio7 in funzione della tutela della persona del lavoratore; la diretta implicazione della persona nel contratto di lavoro differenzia, infatti, questo vincolo da ogni altro rapporto contrattuale e la rilevanza attribuita dall’ordinamento ai valori coessenziali alla persona ne comporta la riconduzione al contratto ai fini del riconoscimento di una tutela specifica8. Questi limiti riguardano anche il potere di controllo, in funzione della tutela della dignità e delle libertà della persona. Esso, in primis, è funzionale al buon andamento dell’impresa; dunque, deve essere esercitato per il soddisfacimento delle esigenze tecnico-produttive e di sicurezza aziendale, tant’è che gli è succedaneo il potere disciplinare. Posto che questa è la funzione del potere di controllo attribuito al datore di lavoro, esso non può essere esercitato in modo da ledere la libertà Ma Barassi, ricorda l’A., non giunge – anche nell’opera più matura – a tracciare i confini di questo potere che tocca così da vicino la persona (B. Veneziani, Contratto di lavoro, potere di controllo e subordinazione nell’opera di Ludovico Barassi, ivi, 2002, p. 687). Dello stesso A. cfr. anche B. Veneziani, I controlli dell’imprenditore ed il contratto di lavoro, Bari 1975. 3   M. Persiani, Contratto di lavoro e organizzazione, Padova 1966, p. 45. 4   L. Mengoni, Diritto e valori, Bologna 1985, p. 392. 5   V. Ferrante, Controllo sui lavoratori, difesa della loro dignità e potere disciplinare, a quarant’anni dallo Statuto, in Riv. it. dir. lav., 2011, p. 74 ss. 6   B. Veneziani, L’art. 4, legge 20 maggio 1970, n. 300: una norma da riformare?, in Riv. giur. lav., 1991, I, p. 80. V. anche A. Bellavista, Il controllo sui lavoratori, Torino 1995, p. 2. 7   B. Veneziani, L’art. 4, cit., p. 81. 8   L. Mengoni, Diritto e valori, cit., p. 400. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

I controlli a distanza sul lavoro nell’era digitale

407

e la dignità del lavoratore invadendone la sfera personale; esso, cioè, non può sconfinare dal suo limite di carattere funzionale, consistente nella verifica della conformazione dell’attività lavorativa alle direttive impartite dal datore di lavoro. L’oggetto del controllo, pertanto, potrà essere solo l’attività solutoria, e non la persona del lavoratore, così che la subordinazione rimanga tecnico-funzionale e non sconfini in personale9. 2. I limiti al potere di controllo trovano fondamento nell’esigenza di tutelare la persona del lavoratore, in quanto direttamente implicata nel vincolo contrattuale. La portata di questi limiti dipende dalla esatta definizione dell’oggetto della tutela. Con riferimento, in particolare, ai controlli a distanza – vale a dire quelli realizzati mediante strumenti tecnologici che, interponendosi fra datore di lavoro e lavoratore, determinano una scissione temporale fra la raccolta, sia pure indiretta, delle informazioni sull’attività lavorativa del dipendente, la conservazione di tali informazioni e il loro utilizzo, eventuale, durante lo svolgimento del rapporto di lavoro, anzitutto per fini disciplinari10 –  l’individuazione del bene originariamente protetto dall’art. 4 dello Statuto dei lavoratori (l. 20 maggio 1970, n. 300) è decisiva per comprendere come deve atteggiarsi la disciplina di tutela anche all’indomani della modifica intervenuta a opera dell’art. 23 del d.lg. 14 settembre 2015, n. 151 (cfr. infra, par. 4). Tale modifica poggia sull’art. 1, comma 7, lett. f, della legge delega 10 dicembre 2014, n. 183, che chiamava il Governo a compiere una «revisione della disciplina dei controlli a distanza sugli impianti e sugli strumenti di lavoro, tenendo conto dell’evoluzione tecnologica e contemperando le esigenze produttive ed organizzative dell’impresa con la tutela della dignità e della riservatezza del lavoratore» (corsivo aggiunto). La disposizione, pertanto, individua nella dignità e nella riservatezza del lavoratore l’oggetto della tutela, ma non ne fornisce una (nuova) definizione, né sposta l’art. 4 dal Titolo I dello Statuto dei lavoratori, che rimane rubricato «Della libertà e dignità del lavoratore». Da queste considerazioni si ricava, ad avviso di chi scrive, che nulla è cambiato dal punto di vista dell’oggetto protetto dalla disposizione,

9   A. Bellavista, Il controllo, cit., p.  10, che parla di «spersonalizzazione» del rapporto d lavoro. 10   C. Ghitti, Sub art. 4, legge 20 maggio 1970, n. 300, in R. Del Punta e F. Scarpelli (a cura di), Codice commentato del lavoro, Milano 2020, p. 960.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

408

William Chiaromonte e Maria Luisa Vallauri

con la conseguenza che è possibile recuperare l’esito della riflessione compiuta nel corso degli anni da dottrina e giurisprudenza per fissare i limiti al potere datoriale di controllare a distanza i lavoratori. Tale riflessione ha preso le mosse dalla considerazione generale, in base alla quale il rispetto della dignità umana e della libertà dei lavoratori, insieme alla garanzia della loro sicurezza, costituisce il limite esterno fissato dall’art. 41 Cost. all’esercizio della libertà di iniziativa economica, e dunque anche all’esercizio del potere di controllo che di tale libertà è espressione11. La collocazione dell’art. 4 nel Titolo I dello Statuto, dedicato alla tutela della libertà e dignità del lavoratore, ha fatto unanimemente ritenere che quelli siano i beni protetti da tale disposizione, nonostante che ivi non siano espressamente menzionati12. Libertà e dignità umana, tuttavia, sono valori tanto alti, quanto caratterizzati da un notevole grado di indeterminatezza13. Per questo i giudici, laddove possibile, hanno declinato tali valori in interessi più particolari per radicarne la tutela in disposizioni di legge14. Proprio con riguardo all’art. 4, ma – in verità – anche con riferimento agli artt. 2 e 3 dello Statuto, giurisprudenza e dottrina hanno per lo più rinvenuto nella riservatezza del lavoratore la declinazione di libertà e dignità umana, individuando il bene protetto di volta in volta nella «autonomia volitiva e […] coscienza personali»15, nel diritto a 11   Si veda in questo senso Cass. Sez. pen., 8 ottobre 1985, n. 8687, in Riv. giur. lav., 1986, II, p. 404, secondo la quale le norme di cui agli artt. 2, 3 e 4 della l. 20 maggio 1970, n. 300, tendono a eliminare i sistemi di vigilanza e di controllo che, pur tenendo conto delle esigenze produttive, non sono compatibili con i principi costituzionali così come enunciati in specie dall’art. 41 Cost. 12   Per tutti v. G. Pera, Art. 4 (Impianti audiovisivi), in C. Assanti e G. Pera (a cura di), Commentario allo Statuto dei diritti dei lavoratori, Padova 1972, p. 27. Fra i commenti alla versione originaria dell’art. 4 si vedano – oltre a quello già citato di Pera – almeno quelli di A. Cataudella, Sub art. 4, in U. Prosperetti (diretto da), Commentario dello Statuto dei lavoratori, Milano 1975, p. 77 ss.; B. Veneziani, Sub art. 4, in G. Giugni (diretto da), Lo Statuto dei lavoratori. Commentario, Milano 1979, p. 18 ss.; U. Romagnoli, Art. 4, in A. Scialoja e G. Branca (a cura di), Statuto dei diritti dei lavoratori, Roma-Bologna 1979. 13   A. Bellavista, Il controllo, cit., p. 65. 14   Sul punto cfr. M.L. Vallauri, L’argomento della “dignità umana” nella giurisprudenza in materia di danno alla persona del lavoratore, in Dir. lav. rel. ind., 2010, p. 659 ss. 15   B. Veneziani, L’art. 4, cit., p. 82. Ma v. anche R. Romei, Orientamenti giurisprudenziali sugli artt. 3 e 4 dello Statuto dei lavoratori, e C. Pisani, Il computer e l’art. 4 dello Statuto dei lavoratori, entrambi in R. De Luca Tamajo, R. Imperiali D’Afflitto, C. Pisani e R. Romei, Nuove tecnologie e tutela della riservatezza dei

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

I controlli a distanza sul lavoro nell’era digitale

409

non patire l’intrusione di estranei nella propria sfera privata (costituita, ad esempio, dal corpo stesso o dalla corrispondenza) e a impedire la conoscenza da parte di estranei di vicende relative alla propria sfera personale16, nel diritto a porre una barriera che impedisca un passaggio di informazioni personali – o comunque possedute – senza il proprio consenso17, nel diritto alle c.d. licenze comportamentali e a mantenere anche nel luogo di lavoro zone e momenti non sorvegliati o sorvegliabili dal datore di lavoro18. Più in generale, con riservatezza si è inteso il diritto della persona a controllare l’uso che gli altri fanno delle informazioni che la riguardano, il diritto a poter effettuare scelte al riparo dalla stigmatizzazione sociale, il diritto a compiere scelte esistenziali, il diritto a non essere semplificato e valutato fuori dal contesto19. Lo sforzo compiuto da giudici e giuristi, tuttavia, è andato oltre l’individuazione dell’oggetto della tutela attraverso la definizione di quella dimensione personale del lavoratore che deve rimanere impenetrabile al datore di lavoro, per giungere ad attribuire rilevanza alle modalità con le quali il controllo, legittimo sotto il profilo dell’oggetto, deve essere svolto, affinché non sia lesa la dignità del lavoratore. Appare ancora efficace, da questo punto di vista, la ricostruzione compiuta dalla dottrina a metà degli anni Novanta e sono condivisibili le conclusioni cui esso giunge: la riservatezza del lavoratore non esaurisce il bene protetto (anche) dall’art. 4, altrimenti ogni controllo dovrebbe essere inibito; piuttosto, nel vietare certi tipi di controlli (come quelli a distanza) il legislatore statutario ha inteso proteggere anche la dignità del lavoratore che si ritiene lesa dall’esercizio del potere datoriale con modalità contrarie ai principi di buona fede e correttezza, ad esempio con sistemi subdoli, occulti, continui20. Il rispetto della dignità del lavoratore, infatti, è garantito dall’apprestamento di un luogo di lavoro a misura d’uomo. Premesse queste considerazioni sul fondamento dei limiti al potere di controllo, occorre a questo punto avvicinarsi di più al contenuto

lavoratori, Milano 1988, rispettivamente p. 43 ss. e p. 89 ss., e qui in particolare p. 44 e p. 98. 16   C. Pisani, Il computer, cit., pp. 44-45, che concorda sul punto con P. Ichino, Diritto alla riservatezza e diritto al segreto nel rapporto di lavoro, Milano 1979, p. 18. 17   Pret. Milano, 31 dicembre 1977, in Orient. giur. lav., 1978, p. 193. 18   A. Bellavista, Il controllo, cit., pp. 65-66. 19   S. Rodotà, La vita e le regole, Milano 2006, p. 100, anche per i relativi riferimenti. 20   A. Bellavista, Il controllo, cit., p. 68. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

410

William Chiaromonte e Maria Luisa Vallauri

dell’art. 4 dello Statuto per comprendere l’atteggiarsi di tali limiti rispetto al potere datoriale di controllare a distanza i lavoratori. 3. Se letto nella sua formulazione originaria, l’art. 4 pone un divieto assoluto di utilizzo di impianti audiovisivi e di altre apparecchiature per controllare a distanza l’attività dei lavoratori (primo comma). Tale divieto, tuttavia, subisce un’eccezione quando l’impiego di siffatte attrezzature sia richiesto dal ricorrere di esigenze «organizzative e produttive ovvero dalla sicurezza del lavoro»; in tal caso, il secondo comma della disposizione ammette la loro utilizzazione, a condizione che sia intercorso sul punto un accordo con le rappresentanze sindacale aziendali (o unitarie) o, in difetto di tale accordo, sia intervenuta un’autorizzazione da parte dell’Ispettorato territoriale del lavoro. La disposizione appena esposta presenta alcuni nodi problematici, la cui soluzione è necessaria per capire la portata del divieto ivi espresso: la definizione della sua ratio, la definizione dell’oggetto del controllo, la definizione delle modalità e delle finalità del controllo. Come vedremo (cfr. infra, par. 3.1), si tratta dei tre aspetti sui quali la giurisprudenza è ripetutamente intervenuta al fine di manutenere questa disposizione. Per quanto attiene alla ratio della norma, essa è esplicitata nella relazione di accompagnamento dello Statuto dei lavoratori ed è stata più volte ribadita dalla giurisprudenza. Essa consiste nella volontà di mantenere la vigilanza sul lavoro in una dimensione «umana», evitando che l’impiego di tecnologie possa rendere il controllo sul lavoratore continuo e anelastico ed eliminare ogni zona di riservatezza e di autonomia durante lo svolgimento del lavoro21. Un’efficace spiegazione della ratio dell’art. 4 è quella fornita da Veneziani, secondo il quale l’art. 4 è «teleologicamente orientato alla depersonalizzazione della prestazione di lavoro»22, ma anche quella che si ricava da alcune decisioni che sottolineano la volontà di privare la funzione di vigilanza dagli aspetti più «polizieschi»23, di evitare che con le innovazioni tecnologiche si introduca in azienda un tipo di controllo che il lavoratore, anche consapevole, non percepisce immediatamente e

21   Cass., 17 giugno 2000, n. 8250, in Orient. giur. lav., 2000, p. 613. In dottrina G. Pera, Art. 4, cit., p. 25. 22   B. Veneziani, L’art. 4, cit., p. 86. 23   Cass., 3 novembre 1997, n. 19761, in De Jure.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

I controlli a distanza sul lavoro nell’era digitale

411

al quale quindi è esposto in modo assillante, senza tregua e senza possibilità di difesa24, di ammettere il controllo dell’uomo sull’uomo ma non il controllo della macchina (elaboratore elettronico) sull’uomo25. Di fronte alla possibile invasività dei controlli effettuati a distanza, la disposizione vieta che le apparecchiature che consentono simili controlli possano essere impiegate con lo scopo di controllare l’«attività dei lavoratori». Un simile utilizzo comporterebbe, infatti, il rischio di un’intromissione nella vita del lavoratore e la lesione della libertà e della dignità della persona attraverso un’invasione di quello spazio del sé, fatto di pensieri, comportamenti, relazioni, abitudini, vizi e virtù. La disposizione, dunque, non intende negare il diritto del datore di lavoro di controllare l’adempimento da parte del lavoratore degli obblighi derivanti dal contratto di lavoro, ma vuole escludere che tale controllo possa avvenire con l’impiego di strumenti capaci di rilevare anche fatti estranei allo svolgimento dell’«attività lavorativa». Oggetto del controllo vietato, dunque, è proprio l’«attività dei lavoratori», un concetto più ampio di quello di «attività lavorativa», impiegato – invece – sia nell’art. 2 dello Statuto per vietare al datore di lavoro di impiegare le guardie giurate per la verifica dell’adempimento da parte dei lavoratori dell’obbligazione lavorativa derivante dal contratto di lavoro, sia nel successivo art. 3 per regolare il controllo – qui espressamente ammesso – dell’attività lavorativa da parte del personale di vigilanza. La locuzione «attività dei lavoratori» comprende, però, sia l’attività volta all’adempimento dell’obbligo di lavorare che scaturisce dal contratto, sia ogni altra attività del lavoratore che esorbiti tale adempimento e che, riguardando la sua persona, esuli dalla subordinazione intesa in senso tecnico-funzionale26.

  Trib. Milano, 29 settembre 1990, in Not. giur. lav., 1990, p. 805.   Pret. Milano, 21 dicembre 1984, in Orient. giur. lav., 1985, p. 688. 26   A. Bellavista, Il controllo, cit., p. 66 che richiama il concetto di «licenze comportamentali» già utilizzato da Sarasella, L’art. 4 St. Lav. e l’impiego di elaboratori elettronici, in Lav. ’80, 1986, p.  340 e da P. Ichino, Diritto alla riservatezza, cit., p.  120, ivi citati; v. anche P. Lambertucci, Potere di controllo del datore di lavoro e tutela della riservatezza del lavoratore: i controlli “a distanza” tra attualità della disciplina statutaria, promozione della contrattazione di prossimità e legge delega del 2014 (c.d. Jobs Act), in WP CSDLE “Massimo D’Antona”.IT n. 255/2015, 4. Di contrario avviso già R. De Luca Tamajo, Presentazione della ricerca, in R. De Luca Tamajo, R. Imperiali D’Afflitto, C. Pisani e R. Romei, Nuove tecnologie e tutela della riservatezza dei lavoratori, cit., p. 15. 24

25

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

412

William Chiaromonte e Maria Luisa Vallauri

Dalla lettura combinata degli artt. 2, 3 e 4 dello Statuto dei lavoratori emerge, perciò, un doppio livello di limiti al controllo datoriale. Mentre, infatti, a un primo livello si colloca il limite rappresentato dal divieto generale di controllare il lavoratore nello svolgimento di ogni attività che esuli dall’adempimento dell’obbligazione lavorativa, a un secondo livello acquista rilevanza il limite rappresentato dal divieto di effettuare controlli che, sebbene legittimi sotto il profilo dell’oggetto del controllo, in quanto rivolti all’accertamento del corretto svolgimento della prestazione lavorativa, siano svolti con modalità lesive della dignità e della libertà del lavoratore, ovverosia con l’impiego di personale che non faccia parte dell’organizzazione aziendale (art. 2), oppure che, pur facendone parte, non sia il datore di lavoro o un superiore gerarchico (in quanto tali titolari del potere direttivo ai sensi dell’art. 2104 c.c.)27 o non sia investito pubblicamente del potere di controllo (art. 3)28, oppure attraverso l’impiego di strumentazioni meccaniche o informatiche, in quanto – almeno nella visione dei redattori dello Statuto dei lavoratori – incapaci di distinguere l’attività lavorativa dall’attività dei lavoratori, e dunque potenzialmente atte a svolgere un controllo preterintenzionale sulla sfera riservata del sé del lavoratore (art. 4). Com’è noto, l’evoluzione tecnologica, soprattutto informatica, ha imposto alla giurisprudenza uno sforzo interpretativo considerevole per definire i confini della fattispecie vietata e decidere di volta in volta della legittima utilizzazione a fini disciplinari di informazioni raccolte tramite apparecchiature dimostratesi capaci di controllare a distanza i lavoratori, ma il cui utilizzo non fosse stato preventivamente autorizzato dai sindacati o dall’Ispettorato territoriale del lavoro. 27   Cass., 2 marzo 2002, n. 3039, in Riv. it. dir. lav., 2002, I, p. 873, nota Passerini; Cass., 14 luglio 2001, n. 9576, in Riv. giur. lav., 2002, II, p. 514, nota Scillieri; Cass., 3 luglio 2001, n. 8998, in Not. giur. lav., 2002, p. 35; Cass., 12 agosto 1998, n. 7933, in Not. giur. lav., 1998, p. 697. 28   Si v. però Cass., 18 novembre 2010, n. 23303, che ammette il controllo a fini difensivi da parte di personale esterno all’impresa che agisca in incognito per verificare la commissione di illeciti da parte dei dipendenti. La Cassazione ha ritenuto che, nonostante si tratti di un controllo occulto, un siffatto controllo non sia lesivo dei principi di buona fede e correttezza, prevalendo l’interesse datoriale a proteggere il patrimonio aziendale. Nello stesso senso, fra le altre, Cass., 10 luglio 2009, n. 16196, in De Jure; Cass., 12 giugno 2002, n. 8388, in De Jure; Cass., 23 giugno 1999, n. 6390, in Lav. giur., 2000, p.  137, nota D’Angelo; Cass., 3 novembre 1997, n. 10761; Cass., 18 febbraio 1997, n. 1455, in Giust. civ., 1997, I, p. 126, nota Pera; Trib. Napoli, 8 ottobre 1997, in Giur. it., 1999, p. 64, nota Santucci, e in Mass. giur. lav., 1999, p. 399, nota Calcaterra.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

I controlli a distanza sul lavoro nell’era digitale

413

Tale sforzo si è reso tanto più necessario, quanto più tali dispositivi capaci di controllare il lavoratore hanno finito per coincidere con gli stessi strumenti di lavoro, con la conseguenza che l’area dei controlli vietati, o consentiti solo se autorizzati, è andata progressivamente estendendosi ma senza un criterio certo. In quest’operazione ermeneutica i giudici hanno trovato un parziale aiuto nelle indicazioni fornite dall’Autorità garante per la protezione dei dati personali, il quale – sulla scorta del d.lg. 30 giugno 2003, n. 196, poi modificato dal d.lg. 10 agosto 2018, n. 101, con cui il Governo ha armonizzato la direttiva interna al Regolamento (UE) 2016/679 (c.d. GDPR), che conferma la piena applicabilità dell’art. 4 dello Statuto al caso di controlli a distanza – ha emanato nel corso del tempo svariati provvedimenti volti a chiarire alcuni aspetti delle modalità di controllo dei lavoratori attraverso l’impiego dei ritrovati tecnologici e informatici (cfr. infra, par. 4). Non è rimasta esente da difficoltà interpretative anche la previsione che riguarda i controlli autorizzati. Come si è detto, infatti, il secondo comma dell’art. 4 consente l’impiego di attrezzature da cui possa derivare un controllo a distanza dell’attività dei lavoratori, a condizione che tale impiego sia autorizzato dai sindacati, o in subordine dall’Ispettorato del lavoro, cui spetta di valutare il ricorre delle esigenze organizzative, produttive o legate alla sicurezza dei luoghi di lavoro che lo legittimano. Anche in quest’ipotesi, infatti, i giudici hanno dovuto decidere in merito all’utilizzabilità delle informazioni raccolte, dalle quali fosse emersa la commissione di un illecito da parte del lavoratore. Il nodo delle questioni affrontate, pertanto, si è progressivamente spostato dalla definizione della fattispecie vietata alla luce dei requisiti ricavabili dall’art. 4, alla definizione della fattispecie alla luce dell’illegittimità dei comportamenti rilevati, con l’effetto paradossale, almeno a giudizio di chi scrive, di consentire che la legittimità di un controllo a distanza potesse essere valutata ex post, in relazione all’esito prodotto. È utile approfondire, a questo punto, alcune questioni che la giurisprudenza si è trovata a dover affrontare nel corso degli anni che ci separano dall’approvazione dello Statuto dei lavoratori, per poter poi meglio apprezzare la portata della riforma intervenuta nel 2015. 3.1. Come si è detto, l’art. 4 dello Statuto, nella sua originaria versione, dettava anzitutto un limite di ordine sostanziale all’esercizio del potere di controllo datoriale, dal momento che vietava in maniera asso© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

414

William Chiaromonte e Maria Luisa Vallauri

luta «l’uso di impianti audiovisivi e di altre apparecchiature per finalità di controllo a distanza dell’attività dei lavoratori» (art. 4, comma 1). Il secondo comma della disposizione faceva seguire al divieto così formulato un’importante eccezione, consentendo l’installazione e l’utilizzo di tali impianti e apparecchiature qualora ciò fosse richiesto «da esigenze organizzative e produttive ovvero dalla sicurezza sul lavoro» (e non – vale la pena sottolinearlo – da finalità di controllo a distanza dei lavoratori), e ciò anche quando potesse derivarne «la possibilità di controllo a distanza dell’attività dei lavoratori». In altre parole, la disposizione, pur vietando il controllo intenzionale, consentiva il controllo definito preterintenzionale, ovvero quello effettuato per esigenze organizzative e produttive o per assicurare la sicurezza sul lavoro, ma dal quale poteva derivare, come conseguenza non direttamente voluta ma accidentale, la possibilità di controllare a distanza l’attività dei lavoratori. Affinché ciò fosse legittimo, tuttavia, da un punto di vista procedurale tali forme di controllo dovevano essere autorizzate da un accordo sindacale di livello aziendale, concluso con le rappresentanze sindacali aziendali, oppure, in difetto di tale accordo, da un provvedimento dell’Ispettorato territoriale del lavoro (il quale avrebbe potuto dettare, all’occorrenza, anche le modalità di utilizzo di tali impianti). L’accordo sindacale o l’autorizzazione amministrativa erano, quindi, funzionali a valutare e validare la sussistenza delle esigenze aziendali che giustificavano l’installazione degli impianti audiovisivi o delle altre apparecchiature di controllo. Le informazioni raccolte dal datore di lavoro attraverso il controllo a distanza così autorizzato dalle rappresentanze sindacali aziendali o dall’Ispettorato del lavoro non potevano, comunque, essere utilizzate sul piano del rapporto di lavoro e quindi, principalmente, a fini disciplinari. In circostanze particolari, tuttavia, la giurisprudenza aveva ammesso l’utilizzabilità delle informazioni così raccolte, specialmente a fini disciplinari. In particolare, i giudici avevano elaborato la categoria dei c.d. controlli difensivi29 allo scopo di legittimare l’adozione, da parte del datore di lavoro, di provvedimenti disciplinari basati sulle evidenze

29   Per una prima elaborazione della categoria dei controlli difensivi cfr. F. Liso, Computer e controllo dei lavoratori, in Dir. lav. rel. ind., 1986, p. 374.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

I controlli a distanza sul lavoro nell’era digitale

415

dei controlli attuati in modo occulto30, e dunque in violazione della disciplina statutaria, allo scopo di difendersi da condotte illecite dei dipendenti31. Un significativo filone interpretativo aveva ritenuto che esorbitassero dall’ambito di applicazione dell’art. 4 dello Statuto tutte le verifiche datoriali finalizzate ad accertare condotte del lavoratore illecite e lesive del patrimonio aziendale, presupponendo che oggetto del controllo fosse, in tali casi, un comportamento illecito del lavoratore, e non il corretto adempimento della prestazione di lavoro32. Di conseguenza, stando a tale ricostruzione, le informazioni raccolte attraverso un controllo a distanza sarebbero state utilizzabili a prescindere dal fatto che fosse previamente intervenuto l’accordo sindacale o l’autorizzazione amministrativa, finendo per dipendere la legittimità della verifica datoriale dall’effettiva commissione dell’illecito da parte del dipendente33. In tali ipotesi, in sostanza, la riservatezza del lavoratore veniva fatta soccombere, nell’ambito di una complicata operazione di bilanciamento dei contrapposti interessi, rispetto all’esigenza datoriale di prevenire la commissione di illeciti da parte del dipendente. L’operatività di tale deroga è stata, poi, delimitata ai soli controlli effettuati ex post, quindi in un momento successivo rispetto al verificarsi del comportamento illecito attribuito al dipendente34, per la tutela di   Cass., 18 settembre 1995, n. 9836.   Ad esempio, Cass., 17 luglio 2007, n. 15892, che individua i comportamenti rientranti nell’ambito di applicazione dell’art. 4 dello Statuto, in relazione alla quale si vedano A. Bellavista, Controlli a distanza e necessità del rispetto della procedura di cui al comma 2 dell’art. 4 Stat. Lav., in Riv. it. dir. lav., 2008, II, p. 794 ss.; M.L. Vallauri, È davvero incontenibile la vis expansiva dell’art. 4 dello Statuto dei lavoratori?, ivi, p. 718 ss. Più in generale, sui controlli difensivi si veda, fra gli altri, M. Marazza, I controlli a distanza del lavoratore di natura “difensiva”, in P. Tullini (a cura di), Controlli a distanza e tutela dei dati personali del lavoratore, Torino 2017, p. 27 ss. 32   Fra le altre, Cass., 3 aprile 2002, n. 4746, che è stata a ragione considerata il leading case in materia (così V. Nuzzo, La protezione del lavoratore dai controlli impersonali, Napoli 2018, p. 47, la quale ricorda come, con la pronuncia in oggetto, la Cassazione abbia «esteso la protezione dell’interesse alla tutela del patrimonio aziendale ben oltre quella assicurata dall’utilizzabilità a fini disciplinari delle informazioni acquisite preterintenzionalmente (e, per così dire, passivamente) mediante sistemi installati – a seguito di accordo collettivo o di autorizzazione amministrativa – per gli scopi consentiti dalla legge». Più di recente, nello stesso senso, Cass., 28 maggio 2018, n. 13266. 33   C. Zoli, Il controllo a distanza del datore di lavoro: l’art. 4, l. n. 300/1970 tra attualità ed esigenze di riforma, in Riv. it. dir. lav., 2009, p. 485 ss. 34   Cass., 5 ottobre 2016, n. 19922; cfr. A. Ingrao, Il controllo disciplinare e la privacy del lavoratore dopo il Jobs Act, in Riv. it. dir. lav., 2017, p. 46 ss. 30 31

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

416

William Chiaromonte e Maria Luisa Vallauri

beni estranei al rapporto di lavoro al fine di salvaguardare il patrimonio o l’immagine aziendale35, o – in modo ancor più restrittivo – alle sole ipotesi in cui il controllo avesse condotto ad acclarare la commissione, da parte del lavoratore, di un comportamento di rilevanza penale36. Distinguere, nella pratica, fra il comportamento del lavoratore qualificabile come illecito (e, quindi, osservabile a distanza) e quello qualificabile come inadempimento contrattuale (e, pertanto, non sorvegliabile, se non indirettamente) era, tuttavia, particolarmente arduo in relazione ai controlli impersonali, dal momento che molti dispositivi registravano una mole di informazioni tale da consentire di ricostruire per intero il comportamento del lavoratore, e non solo i dati necessari a far emergere esclusivamente quegli aspetti di esso qualificabili come illeciti. Tale difficoltà spiega l’emergere, prima, e il prevalere, poi, in giurisprudenza di una diversa linea interpretativa, che condizionava anche l’installazione dei sistemi di tutela del patrimonio aziendale all’espletamento delle procedure di cui all’art. 4, comma 2, dello Statuto. L’obiettivo di tale interpretazione era quello di prevenire un annullamento delle garanzie poste a tutela della dignità e della riservatezza del lavoratore a causa della prevalenza dell’esigenza datoriale, per quanto legittima, di prevenire condotte illecite da parte del dipendente37. La violazione delle disposizioni sui controlli a distanza rendeva illegittimo l’utilizzo delle informazioni raccolte attraverso il controllo, con la conseguente inutilizzabilità delle stesse anche ai fini disciplinari, oltre ad essere sanzionabile penalmente ex art. 38 dello Statuto. 4. Le tecnologie, specie quelle informatiche, intersecano oggi molto frequentemente l’espletamento dell’ordinaria attività di lavoro, anche in conseguenza del mutamento dei modelli organizzativi e produttivi, consentendo al contempo al datore possibilità di controllo sull’operato dei propri dipendenti non solo più ampie di quelle permesse dai controlli diretti, ma anche più penetranti e insidiose, e quindi potenzialmente lesive della loro dignità e riservatezza, rendendo più vulne35   Fra le altre: Cass., 23 febbraio 2010, n. 4375; Cass., 23 febbraio 2012, n. 2722; Cass., 1° ottobre 2012, n. 16622; Cass., 17 febbraio 2015, n. 3122; Cass., 25 maggio 2015, n. 10955; Cass., 13 maggio 2016, n. 9904. 36   Cass., 17 luglio 2007, n. 15892, cit. 37   V. Nuzzo, La protezione, cit., p. 48. Il riferimento, fra le altre, è a Cass., 17 luglio 2007, n. 15892, cit.; Cass., 23 febbraio 2010, n. 4375, cit.; Cass., 22 marzo 2011, n. 6498; Cass., 23 febbraio 2012, n. 2722, cit.; Cass., 18 aprile 2012, n. 16622, cit.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

I controlli a distanza sul lavoro nell’era digitale

417

rabile la sfera personale del lavoratore38. Si pensi, solo per fare qualche esempio, alla possibilità di controllare la posta elettronica – in entrata e in uscita – dei dipendenti, di monitorarne la navigazione sul web, di seguirne i movimenti e gli spostamenti tramite GPS, sino a osservarne la vita privata, quando questa viene esibita attraverso i social network39. Ne consegue che, con riferimento ai controlli a distanza, si rileva una non piena realizzazione del rispetto del principio di trasparenza, che invece rappresenta il presupposto essenziale affinché l’esercizio del potere di controllo datoriale sia lecito, in quanto in tali ipotesi il lavoratore può essere informato della sua attuazione in maniera decisamente più limitata di quanto avviene in merito ai controlli diretti40. L’evoluzione tecnologica ha, quindi, imposto la ricerca di un nuovo equilibrio fra le esigenze produttive e di controllo dell’impresa, da un lato, e la tutela della dignità e della riservatezza del lavoratore, dall’altro. É proprio in relazione al progredire della tecnologia che, col passare del tempo, sono emerse in tutta evidenza da un lato l’obsolescenza della disposizione statutaria, e dall’altro esigenze di aggiornamento e riforma della medesima41, che hanno infine trovato accoglimento nel d.lgs. 14 settembre 2015, n. 151, nell’ambito di quell’ampio disegno riformatore della disciplina giuslavoristica noto come Jobs Act, che ha dunque riscritto l’art. 4 dello Statuto. Si è cercato, quindi, di ridisegnare i confini della disciplina dei controlli a distanza anche per neutralizzare l’obsolescenza tecnologica 38   C. Colapietro, Tutela della dignità e riservatezza del lavoratore nell’uso delle tecnologie digitali per finalità di lavoro, in Dir. lav. rel. ind., 2017, p. 439 ss. Più in generale, cfr. P. Chieco, Privacy e lavoro, Bari 2000; M. Aimo, Privacy, libertà di espressione e rapporto di lavoro, Napoli 2003; A. Trojsi, Il diritto del lavoratore alla protezione dei dati personali, Torino 2013. Da ultimo, si vedano C. Pisani, G. Proia e A. Topo (a cura di), Privacy e lavoro. La circolazione dei dati personali e i controlli nel rapporto di lavoro, Milano 2022. 39   Si pensi all’ipotesi in cui il responsabile delle risorse umane di un’azienda crei un falso profilo su un social network al fine di intrattenersi con un dipendente e di verificare, in tal modo, l’utilizzo del dispositivo mobile personale da parte di quest’ultimo durante l’orario di lavoro, ipotesi peraltro considerata legittima – in quanto ricondotta nell’alveo dei c.d. controlli difensivi, sui quali si tornerà infra – da una discussa pronuncia della Suprema Corte: Cass., 27 maggio 2015, n. 10955 (cfr. E. Dagnino, Controlli social dei lavoratori: un’interessante pronuncia della Cassazione, in Dir. rel. ind., 2015, p.  833 ss.; M. Falsone, L’infelice giurisprudenza in materia di controlli occulti e le prospettive del suo superamento, in Riv. it. dir. lav., 2015, p. 984 ss.). 40   R. Del Punta, La nuova disciplina dei controlli a distanza sul lavoro (art. 23, d.lgs. n. 151/2015), in Riv. it. dir. lav., 2016, I, p. 79. 41   Fra i molti, B. Veneziani, L’art. 4, cit.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

418

William Chiaromonte e Maria Luisa Vallauri

dell’art. 4: la legge delega 10 dicembre 2014, n. 183, all’art. 1, comma 7, come si ricordava, ha previsto – come ulteriore criterio direttivo al quale avrebbe dovuto attenersi il legislatore delegato – la «revisione della disciplina dei controlli a distanza sugli impianti e sugli strumenti di lavoro»42. L’art. 23 del d.lg. 151/2015, di conseguenza, è intervenuto sostituendo il testo dell’art. 4 sin dalla sua rubrica, aggiungendo all’originario «Impianti audiovisivi» l’inciso «e altri strumenti di controllo»43. La nuova formulazione della disposizione conferma anzitutto il limite di natura sostanziale che già caratterizzava la precedente versione della norma, ribadendo – sia pure indirettamente, dal momento che si afferma la regola secondo la quale il controllo a distanza dell’attività dei lavoratori non è legittimo se non è sorretto dalle esigenze indicate dallo stesso art. 4, di cui si dirà a breve – il divieto di utilizzare impianti audiovisivi e altri strumenti al fine di controllare a distanza l’attività lavorativa, o comunque per finalità diverse da quelle che la norma consente44. L’installazione, e la conseguente utilizzazione, degli impianti audiovisivi (come videocamere e impianti di videosorveglianza) e degli altri strumenti tecnologici e informatici di controllo (si pensi, ad esempio, agli strumenti dell’information and communication technology (ICT), che possono implicare un controllo costante e pervasivo sulla vita del lavoratore)45 è consentita unicamente qualora sussista una delle esigenze 42   P. Lambertucci, Potere di controllo, cit.; cfr. pure M.T. Salimbeni, La riforma dell’art. 4 dello Statuto dei lavoratori: l’ambigua risolutezza del legislatore, in Riv. it. dir. lav., 2015, I, p. 591 ss.; A. Bellavista, Il nuovo art. 4 dello Statuto dei lavoratori, in G. Zilio Grandi e M. Biasi (a cura di), Commentario breve alla riforma “Jobs Act”, Padova 2016, p. 717 ss. 43   Sulla nuova formulazione dell’art. 4 dello Statuto si vedano almeno le opere monografiche di A. Ingrao, Il controllo a distanza sui lavoratori e la nuova disciplina privacy: una lettura integrata, Bari 2018; V. Nuzzo, La protezione, cit.; A. Sartori, Il controllo tecnologico sui lavoratori. La nuova disciplina italiana tra vincoli sovranazionali e modelli comparati, Torino 2020. 44   In questi termini, fra gli altri, I. Alvino, I nuovi limiti al controllo a distanza dell’attività dei lavoratori nell’intersezione fra regole dello Statuto dei lavoratori e quelle del Codice della privacy, in Lab. Law Iss., 2016, I, p. 16; R. Del Punta, La nuova disciplina, cit., p. 96; A. Maresca, Controlli tecnologici e tutele del lavoratore nel nuovo art. 4 St. lav., in P. Tullini (a cura di), Controlli a distanza, cit., p. 4 ss. 45   Solo per fare un paio di esempi, si pensi al controllo che può fare il datore di lavoro sui social network dei dipendenti (A. Ingrao, Il controllo a distanza realizzato mediante social network, in Lab. Law Iss., 2016, p. 105 ss.; M. Forlivesi, Il controllo della vita del lavoratore attraverso i social network, in P. Tullini (a cura di), Web e lavoro. Profili evolutivi e di tutela, Torino 2017, p. 37 ss.) o a quello realizzabile attra-

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

I controlli a distanza sul lavoro nell’era digitale

419

oggettive tassativamente richiamate dalla norma, vale a dire «per esigenze organizzative e produttive, per la sicurezza del lavoro» (e sin qui nulla di nuovo) «e per la tutela del patrimonio aziendale»46 (esigenza, quest’ultima, che ha trovato accoglimento all’interno della nuova disposizione dopo essere stata utilizzata dalla summenzionata giurisprudenza per legittimare i controlli difensivi)47, e ciò quando anche possa derivarne «la possibilità di controllo a distanza dell’attività dei lavoratori» (si tratta, quindi, di controlli preterintenzionali). Resta, come si accennava, vietata l’installazione di tali impianti e strumenti qualora essa sia direttamente finalizzata a controllare a distanza l’attività dei lavoratori (art. 4, comma 1). A tale limite di ordine formale se ne affianca, ancora una volta, uno di ordine procedurale, e anche in questo caso si conferma, sia pure con qualche specificazione ulteriore, quanto previsto dalla precedente formulazione della norma: è necessario che l’installazione sia preceduta da un accordo sindacale di livello aziendale, concluso con le rappresentanze sindacali unitarie o aziendali, o, nel caso di imprese con unità produttive ubicate in diverse province della stessa regione o in più regioni, da un accordo stipulato dalle associazioni sindacali comparativamente più rappresentative sul piano nazionale. In difetto di tale accordo, l’installazione può essere autorizzata da un provvedimento amministrativo della sede territoriale dell’Ispettorato del lavoro o, in alternativa, dalla sede centrale dell’Ispettorato, in caso di imprese con unità produttive dislocate negli ambiti di competenza di

verso il braccialetto elettronico che monitora l’attività dei lavoratori, come nel caso di Amazon (A. Ingrao, Il braccialetto elettronico tra privacy e sicurezza del lavoratore, in Dir. rel. ind., 2019, p. 895 ss.). 46   V. Maio, Il regime delle autorizzazioni del potere di controllo del datore di lavoro ed i rapporti con l’art. 8 della legge n. 148/2011, in P. Tullini (a cura di), Controlli a distanza, cit., p. 65 ss. 47   Secondo una prima ricostruzione, i controlli difensivi sarebbero stati assorbiti nel campo di applicazione del nuovo art. 4 dello Statuto: così, fra gli altri, I. Alvino, I nuovi limiti, cit., p. 18; R. Del Punta, La nuova disciplina, cit., p. 96; M. Ricci, I controlli a distanza dei lavoratori tra istanze di revisione e flessibilità “nel” lavoro, in Arg. dir. lav., 2016, I, p. 748. Per una diversa ricostruzione, che invece ritiene persistente un’autonoma, per quanto limitata, categoria di controlli a distanza di natura difensiva, cfr. V. Maio, La nuova disciplina dei controlli a distanza sull’attività dei lavoratori e la modernità post panottica, in Arg. dir. lav., 2015, I, p. 1200; G. Proia, Trattamento dei dati personali, rapporto di lavoro e l’“impatto” della nuova disciplina dei controlli a distanza, in Riv. it. dir. lav., 2016, p. 570. Per ulteriori approfondimenti su tali aspetti cfr. infra, par. 5. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

420

William Chiaromonte e Maria Luisa Vallauri

più sedi territoriali48. Tale provvedimento, che è ora espressamente qualificato come definitivo, e non è dunque soggetto a impugnazione (art. 4, comma 1), nel silenzio della disposizione sembra poter disciplinare anche le modalità di utilizzo degli impianti, fissando limiti e cautele49. La funzione dell’accordo sindacale o dell’autorizzazione amministrativa non muta rispetto all’assetto precedente, e consiste ancora nel valutare e validare la sussistenza di una delle esigenze aziendali, nel frattempo divenute tre, che giustificano l’installazione degli impianti audiovisivi o delle altre apparecchiature di controllo. Una novità di rilevo è rinvenibile nel nuovo comma 2 dell’art. 4: la disposizione di cui al primo comma «non si applica agli strumenti utilizzati dal lavoratore per rendere la prestazione lavorativa e agli strumenti di registrazione degli accessi e delle presenze». Il ricorso a tali strumenti – che sono spesso multifunzionali, poiché incorporano sia una funzione di lavoro, sia una di controllo50 –  viene dunque liberalizzato, dal momento che essi vengono sottratti dall’applicazione del comma 1 in ragione del fatto che sono ritenuti ex se strumentali al soddisfacimento delle specifiche esigenze enucleate dal primo comma51. Ciò significa che gli strumenti utilizzati dal lavoratore per rendere la sua prestazione (si pensi, ad esempio, ad un tablet o a uno smartphone), come pure quelli finalizzati a registrare gli ingressi e le uscite dei dipendenti (come i badge)52, possono ora essere utilizzati senza dover prima passare attraverso la conclusione di un accordo sindacale o l’ottenimento di un’autorizzazione amministrativa, e ciò anche quando possa derivarne la possibilità di un controllo a distanza sull’attività dei lavoratori53. L’effetto di controllo dell’attività lavorativa deve, in ogni caso, realizzarsi solo indirettamente: non potrebbe, ad esempio, considerarsi legittima l’installazione sul computer aziendale che consente al

  Si veda pure V. Maio, Il regime, cit., p. 86 ss.   R. Del Punta, La nuova disciplina, cit., p. 99; contra C. Colosimo, La moderna declinazione del potere di controllo, in Aa.Vv., Diritti e doveri nel rapporto di lavoro, Milano 2018, p. 76. 50   A. Levi, Il controllo informatico sull’attività del lavoratore, Torino 2013, p. 25. 51   C. Ghitti, Sub art. 4, cit., p. 966. Più in generale, cfr. P. Tullini, Il controllo a distanza attraverso gli strumenti per rendere la prestazione lavorativa. Tecnologie di controllo e tecnologie di lavoro: una distinzione possibile?, in Ead. (a cura di), Controlli a distanza, cit., p. 97 ss. 52   C. Zoli e E. Villa, Gli strumenti di registrazione degli accessi e delle presenze, in P. Tullini (a cura di), Controlli a distanza, cit., p. 125 ss. 53   Si veda pure V. Maio, Il regime, cit., p. 73 ss. 48 49

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

I controlli a distanza sul lavoro nell’era digitale

421

dipendente l’espletamento della prestazione di lavoro di un’applicazione al solo fine di monitorarne i comportamenti o di geolocalizzarlo. Come è facile intuire, la questione più rilevante attiene all’individuazione del perimetro entro cui opera l’esenzione dalla procedura autorizzativa disegnata dal nuovo secondo comma dell’art. 4, e quindi, in particolare, delle nozioni di «strumenti utilizzati dal lavoratore per rendere la prestazione lavorativa» e di «strumenti di registrazione degli accessi e delle presenze». In relazione alla prima categoria, si può trattare sia di hardware (computer, tablet, smartphone, etc.), sia di software in essi incorporati (si pensi, ad esempio, ai programmi di rilevamento degli accessi a internet). Lo strumento utilizzato deve essere attivato dal lavoratore ed essere immediatamente ed esclusivamente finalizzato all’espletamento del lavoro54, poiché qualora lo strumento abbia anche ulteriori finalità organizzative si ricadrebbe nuovamente nel regime di cui al primo comma, e sarebbe dunque necessario passare attraverso un accordo sindacale o un’autorizzazione amministrativa. In riferimento, invece, agli «strumenti di registrazione degli accessi e delle presenze», si tratta di quelli che sono funzionali a verificare, da un lato, la presenza del lavoratore all’interno dei locali aziendali e, dall’altro, il rispetto della disciplina in tema di orario di lavoro55. Una seconda novità, anch’essa di non poco conto, è recata dal terzo comma dell’art. 4, che, coprendo una fase successiva a quella dell’acquisizione delle informazioni mediante strumenti tecnologici, fissa le condizioni affinché il datore di lavoro possa accedere alle informazioni raccolte e, eventualmente, utilizzarle56. A mente del terzo comma, «Le 54   M.T. Carinci, Il controllo a distanza sull’adempimento della prestazione di lavoro, in P. Tullini (a cura di), Controlli a distanza, cit., p. 52; R. Del Punta, La nuova disciplina, cit., p. 101; contra, fra gli altri, A. Maresca, Controlli tecnologici e tutele del lavoratore nel nuovo art. 4 dello Statuto dei lavoratori, in Riv. it. dir. lav., 2016, p.  542, che invece considera sufficiente la mera accessorietà dello strumento rispetto alle mansioni espletate dal lavoratore. 55   Secondo alcuni, sarebbe legittimo il ricorso a tali strumenti solo per registrare l’entrata e l’uscita del dipendente dal luogo di lavoro (C. Colosimo, La moderna declinazione, cit., p. 87; A. Maresca, Controlli tecnologici, cit.); per altri, invece, ferma restando l’impossibilità di monitorare in maniera continuativa l’esatta ubicazione del lavoratore, sarebbe possibile fare un utilizzo più ampio degli strumenti di cui al comma 2 dell’art. 4 (I. Alvino, I nuovi limiti, cit., p. 22; M. Marazza, Dei poteri (del datore di lavoro), dei controlli (a distanza) e del trattamento dei dati (del lavoratore), in WP CSDLE “M. D’Antona”.IT, n. 300/2016, p. 24). 56   M. Barbieri, L’utilizzabilità delle informazioni raccolte: il Grande Fratello può

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

422

William Chiaromonte e Maria Luisa Vallauri

informazioni raccolte ai sensi dei commi 1 e 2» – e quindi tanto quelle raccolte tramite gli strumenti di controllo autorizzati, quanto quelle raccolte tramite gli strumenti che sono, invece, esenti dall’autorizzazione sindacale o amministrativa – «sono utilizzabili a tutti i fini connessi al rapporto di lavoro», ivi comprese le finalità di tipo disciplinare, «a condizione che sia data al lavoratore adeguata informazione delle modalità d’uso degli strumenti e di effettuazione dei controlli e nel rispetto di quanto disposto dal decreto legislativo 30 giugno 2003, n. 196». Rispetto a quanto accadeva in precedenza, le informazioni raccolte sono ora utilizzabili solo qualora: a) sussistano le condizioni previste dai primi due commi dell’art. 4 con riferimento, rispettivamente, agli strumenti di controllo (comma 1) e agli strumenti di lavoro (comma 2); b) il datore di lavoro abbia preventivamente e adeguatamente informato il lavoratore in relazione alle modalità di uso degli strumenti e alle modalità di effettuazione dei controlli; c) si rispettino – in relazione al trattamento dei dati del lavoratore oggetto di controllo –  le garanzie e delle cautele di cui alla normativa nazionale posta a protezione della privacy dei cittadini, e quindi anche dei lavoratori, di cui al d.lg. 196/2003 (come recentemente modificato dal d.lg. 101/2018, con cui il Governo ha armonizzato la direttiva interna al GDPR57). In questo modo, si mira ad assicurare la trasparenza dei controlli anche in virtù dell’integrazione della disciplina in materia di privacy nel rapporto di lavoro58. Si fa, così, un deciso passo in avanti rispetto alla vecchia formulazione dell’art. 4, che nulla disponeva sul punto e che, di conseguenza, aveva dato spazio alla già ricordata giurisprudenza che aveva tendenzialmente (e limitatamente) ammesso l’utilizzabilità a fini disciplinari delle informazioni raccolte attraverso i controlli difensivi, a condizione che il comportamento verificato presentasse gravi profili di illiceità, meglio ancora se di rilevanza penale (ma su questo aspetto si tornerà infra, par. 5). Anche il rispetto della normativa sulla privacy è diventato, quinattendere (forse), in P. Tullini (a cura di), Controlli a distanza, cit., p. 183 ss. 57   A. Maresca, S. Ciucciovino e I. Alvino, Regolamento UE 2016/679 e rapporto di lavoro, in C. Colapietro e L. Califano (a cura di), Innovazione tecnologica e valore della persona. Il diritto alla protezione dei dati personali nel Regolamento UE 2016/679, Napoli 2017. 58   A. Maresca, Controlli tecnologici, cit., p. 542. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

I controlli a distanza sul lavoro nell’era digitale

423

di, indispensabile al fine di utilizzare legittimamente, anzitutto per fini disciplinari, le informazioni raccolte tramite il controllo, posto che quest’ultimo comporta sempre l’acquisizione, in un primo momento, e la gestione, poi, di dati personali del lavoratore. La tutela di cui alla normativa in materia di privacy, dunque, finisce per aggiungersi a quella di cui all’art. 4 dello Statuto ogniqualvolta il datore di lavoro realizzi un trattamento dei dati personali del lavoratore59, fissando «i parametri di sindacabilità delle operazioni realizzate dal datore di lavoro sotto il profilo (ulteriore) del rispetto dei principi […] di necessità del trattamento e minimizzazione dei dati»60. I principi generali della normativa nazionale in materia di privacy, anche alla luce delle modifiche introdotte sulla base delle nuove previsioni del GDPR, in vigore dal settembre 2018, attengono alla necessità, tra le altre: che i dati personali siano acquisiti e utilizzati in modo lecito e trasparente, al solo fine di dare corretta esecuzione al rapporto di lavoro e limitatamente a quanto necessario per le finalità richieste; che degli stessi, nonché delle finalità del trattamento e dei destinatari dei dati, oltre che del periodo di conservazione e del diritto di accesso agli stessi, sia fornita un’informativa personalizzata, concisa e chiara, e sia ottenuto il previo libero, specifico e inequivocabile consenso da parte del lavoratore (tranne che per i dati utilizzati dal datore per la gestione quotidiana del rapporto) al loro trattamento, salvo il diritto di revoca successiva senza addurre alcuna motivazione; che dei dati sia verificata l’esattezza e che siano adottate le misure per aggiornarli o per cancellare e rettificare le eventuali inesattezze; che, salvo le finalità di archiviazione, i dati siano conservati per un periodo di tempo congruo al conseguimento delle finalità per le quali devono essere trattati e in maniera tale da garantire la sicurezza e la loro protezione da illeciti o interferenze estranee o, ancora, da perdite accidentali. Fra i dati personali, il cui ambito è stato ampliato anche in forza delle evoluzioni tecnologiche, un rilievo del tutto autonomo assumono

59   Il GDPR (art. 4, comma 1, n. 2) definisce trattamento «qualsiasi operazione o insieme di operazioni, compiute con o senza l’ausilio di processi automatizzati e applicate a dati personali o insiemi di dati personali, come la raccolta, la registrazione, l’organizzazione, la strutturazione, la conservazione, l’adattamento o la modifica, l’estrazione, la consultazione, l’uso, la comunicazione mediante trasmissione, diffusione o qualsiasi altra forma di messa a disposizione, il raffronto o l’interconnessione, la limitazione, la cancellazione o la distruzione». 60   V. Nuzzo, La protezione, cit., p. 218.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

424

William Chiaromonte e Maria Luisa Vallauri

i dati sensibili, vale a dire: quelli che rivelano l’origine razziale o etnica, le opinioni politiche, le convinzioni religiose o filosofiche, o l’appartenenza sindacale; quelli genetici e biometrici, che sono volti a identificare in modo univoco una persona fisica; nonché quelli relativi alla salute o alla vita sessuale o all’orientamento sessuale della persona. Per l’utilizzo di tali dati, occorre sempre il consenso esplicito preventivo del soggetto interessato ad eccezione, per quanto attiene al rapporto di lavoro, dei casi in cui il trattamento sia richiesto dall’adempimento di obblighi (o dall’esercizio di diritti) di legge o discendenti dal contratto collettivo, oppure per finalità di medicina preventiva o di medicina del lavoro e di valutazione della capacità lavorativa del dipendente (salvo, in questi casi, l’obbligo di previsione, quale titolare o responsabile del trattamento, di un professionista soggetto per legge al segreto professionale). Nel novero della normativa nazionale in materia di privacy vanno anche ricompresi i vari provvedimenti adottati dal Garante per la protezione dei dati personali in relazione alle diverse tipologie di strumenti utilizzati dal lavoratore61: si pensi, ad esempio, alla delibera del 1° marzo 2007, che contiene le linee guida per l’utilizzo di internet e della posta elettronica; al provvedimento dell’8 aprile 2010, in materia di videosorveglianza; alla delibera del 22 dicembre 2016, sugli accessi alla posta elettronica dei dipendenti; al provvedimento del 28 febbraio 2019, relativo all’impiego dei braccialetti GPS da parte degli operatori ecologici. Rilevanti sono pure: la delibera n. 467 dell’11 ottobre 2018, che richiama la dichiarazione d’impatto sulla protezione dei dati, posta a carico dei titolari del trattamento, di cui all’art. 35 del GDPR, in relazione ai trattamenti effettuati tramite strumenti tecnologici, anche con riferimento ai sistemi di videosorveglianza e di geolocalizzazione dai quali possa derivare la possibilità di effettuare un controllo a distanza sull’attività dei dipendenti; e, più in generale, la delibera n. 53 del 23 novembre 2006, contenente le linee guida di trattamento dei dati personali applicabili per le finalità di gestione del rapporto di lavoro alle dipendenze da datori di lavoro privati. Per quanto attiene, invece, all’informativa sulle «modalità di uso degli strumenti» e le «modalità di effettuazione dei controlli», che è funzionale a consentire al lavoratore di conoscere a priori i confini del

61   L. Califano, Tecnologie di controllo del lavoro, diritto alla riservatezza e orientamenti del Garante per la protezione dei dati personali, in P. Tullini (a cura di), Controlli a distanza, cit., p. 165 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

I controlli a distanza sul lavoro nell’era digitale

425

possibile controllo datoriale, e in particolare le modalità di utilizzo degli strumenti che gli sono affidati, di acquisizione a distanza dei dati e di effettuazione dei controlli, essa deve essere normalmente consegnata dal datore al lavoratore in relazione agli strumenti da esso impiegati. Anche la violazione della nuova disciplina dei controlli a distanza, come nel previgente regime, non solo rende illegittimo l’utilizzo delle informazioni acquisite attraverso il controllo, specie a fini disciplinari, ma è anche sanzionabile penalmente, come dispone l’art. 38 dello Statuto, oltre che con una sanzione amministrativa in caso di omessa o errata effettuazione della summenzionata valutazione d’impatto sulla protezione dei dati62. 5. Come si accennava, la riforma dell’art. 4 dello Statuto ha, fra l’altro, lasciato aperto l’interrogativo circa la possibilità di continuare a ricorrere legittimamente ai controlli a distanza di tipo difensivo in deroga alle condizioni previste dalla disposizione statutaria. Anzi, si può dire che l’intervento legislativo abbia «solamente ampliato le divisioni dottrinarie e giurisprudenziali in tema di controlli difensivi»63: «Da un lato c’è chi ritiene che i controlli difensivi siano stati pienamente assorbiti nella nuova regolamentazione legale, con la conseguenza che gli stessi sono consentiti solo tramite impianti debitamente autorizzati, quando necessario, e comunque nel rispetto dei conseguenti obblighi informativi. Dall’altro chi, invece, propone un aggiornamento del concetto di controllo a distanza al fine di sostenerne la sopravvivenza, in deroga all’art. 4 dello Statuto, in una prospettiva di ineliminabile bilanciamento dei contrapposti interessi»64. Particolarmente significativa, a tale proposito, è una recente pronuncia della Cassazione che, intervenendo per la prima volta sui controlli difensivi nella prospettiva della nuova disciplina dei controlli a distanza 62   F. Curi, Profili penali dei controlli a distanza, in P. Tullini (a cura di), Controlli a distanza, cit., p. 209 ss. 63   C. Colapietro e A. Giubilei, Controlli difensivi e tutela dei dati del lavoratore: il nuovo punto della Cassazione, in Lab. Law Iss., 2021, p. R.202. 64   M. Marazza, I controlli a distanza, cit., p. 30, il quale opta per la sopravvivenza dei controlli difensivi «a condizione che il comportamento controllato abbia una rilevanza penale, giacché in tal caso l’interesse del datore di lavoro tutelato è diverso dall’interesse che lo contraddistingue come creditore della prestazione di lavoro, ed il controllo sia effettuato nel rispetto del criterio di proporzionalità» (ibidem). Si veda pure V. Pinto, I controlli “difensivi” del datore di lavoro sulle attività informatiche e telematiche del lavoratore, in P. Tullini (a cura di), Controlli a distanza, cit., p. 139 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

426

William Chiaromonte e Maria Luisa Vallauri

dei lavoratori, ha preso posizione in relazione alla questione in discorso. Diversi sono i profili di interesse della sentenza, che da un lato ha precisato quali sono le forme di controllo che possono ancora collocarsi al di fuori dell’ambito di applicazione dell’art. 4 dello Statuto, e dall’altro ha individuato le condizioni in presenza delle quali le informazioni raccolte possono essere legittimamente utilizzate a fini disciplinari65. Nel caso di specie, si trattava di una lavoratrice che, interrompendo l’esercizio dell’attività lavorativa, aveva navigato su alcuni siti web, visitati per ragioni private e per lungo tempo, scaricando da questi alcuni files; in tal modo, essa aveva contratto un virus che si era poi diffuso attraverso la rete aziendale, criptando e rendendo illeggibili e inutilizzabili una serie di files collocati all’interno di vari dischi di rete. Di conseguenza, essendo il datore venuto a conoscenza di tali circostanze attraverso un controllo a distanza ritenuto funzionale a bonificare il sistema informatico dal virus, e non anche a sorvegliare l’adempimento della prestazione lavorativa da parte della dipendente, quest’ultima era stata licenziata per giusta causa, ex art. 2119 c.c. Essa aveva, poi, contestato in giudizio l’illegittimità del licenziamento intimatole, facendo valere anzitutto l’illegittimità dell’utilizzo a fini disciplinari delle informazioni così raccolte, oltre alla mancanza di un’adeguata informazione circa le modalità di effettuazione dei controlli. È evidente che, in casi come questo, vi sia il rischio concreto che il controllo datoriale possa incappare non solo in dati attinenti all’esercizio dell’attività lavorativa, ma anche in dati privati del lavoratore66. Come si ricordava, una parte della giurisprudenza formatasi prima della riforma dell’art. 4 riteneva esulanti dall’ambito applicativo della norma, e ciononostante leciti, i controlli difensivi a condizione che da una parte questi fossero effettivamente motivati dallo scopo di accertare illeciti lesivi del patrimonio e dell’immagine aziendale, e che dall’altra fossero disposti ex post rispetto all’attuazione del comportamento illecito da parte del lavoratore, dovendo comunque essere assicurato un adeguato bilanciamento tra le esigenze del datore e la dignità e la riservatezza del lavoratore (cfr. supra, par. 3.1). 

65   Cass., 22 settembre 2021, n. 25732, in relazione alla quale si vedano C. Colapietro e A. Giubilei, Controlli difensivi, cit., p. 198 ss. 66   Per una panoramica sulla giurisprudenza in tema cfr. A. Sitzia, Personal computer e controlli “tecnologici” del datore di lavoro nella giurisprudenza, in Arg. dir. lav., 2017, III, p. 804 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

I controlli a distanza sul lavoro nell’era digitale

427

Ed è proprio sulla scia di tali assunti che si colloca la pronuncia n. 25732/2021. Per poter valutare se il controllo possa legittimamente collocarsi al di fuori dall’ambito di applicazione dell’art. 4 dello Statuto, come riformulato dall’art. 23 del d.lg. 151/2015, la Cassazione propone un’ulteriore distinzione (a dire il vero solo in parte nuova): quella fra «controlli a difesa del patrimonio aziendale che riguardano tutti i dipendenti (o gruppi di dipendenti) nello svolgimento della loro prestazione di lavoro che li pone a contatto con tale patrimonio, controlli che dovranno necessariamente essere realizzati nel rispetto delle previsioni dell’art. 4 novellato in tutti i suoi aspetti»; e «controlli difensivi in senso stretto, diretti ad accertare specificamente condotte illecite ascrivibili – in base a concreti indizi – a singoli dipendenti, anche se questo si verifica durante la prestazione di lavoro» (par. 31, corsivo aggiunto)67. In relazione ai «controlli difensivi in senso stretto», anche se effettuati con strumenti tecnologici, la Cassazione ritiene che essi, «non avendo ad oggetto la normale attività del lavoratore, si situino, anche oggi, all’esterno del perimetro applicativo dell’art. 4» (par. 32); il che si giustifica – secondo la lettura della Suprema Corte –  dal momento che «l’istituzionalizzazione della procedura richiesta dall’art. 4 per l’installazione dell’impianto di controllo sarebbe coerente con la necessità di consentire un controllo sindacale, e, nel caso, amministrativo, su scelte che riguardano l’organizzazione dell’impresa; meno senso avrebbe l’applicazione della stessa procedura anche nel caso di eventi straordinari ed eccezionali costituiti dalla necessità di accertare e sanzionare gravi illeciti di un singolo lavoratore» (par. 33). Si tratta, quindi, di un’affermazione di sicuro rilievo, che sposa la tesi secondo cui continuerebbero a sopravvivere, in deroga all’art. 4 dello Statuto, ipotesi di legittimo ricorso ai controlli difensivi finalizzati alla tutela di beni estranei al rapporto di lavoro o ad evitare comportamenti illeciti dei dipendenti68. 67   La giurisprudenza aveva già utilizzato in precedenza la sottocategoria dei controlli difensivi in senso stretto, individuandoli tuttavia in quelli destinati a contrastare un illecito extracontrattuale o penale: cfr. Cass., 23 febbraio 2012, n. 2722, cit. 68   In senso analogo, Trib. Roma, 24 marzo 2017, in Dir. rel. ind., 2018, II, p. 265 ss. Ricorda la Cassazione, inoltre, che «la tesi della sopravvivenza dei “controlli difensivi”, sotto il profilo della sua compatibilità con la tutela della riservatezza di cui all’art. 8 della Convenzione europea dei diritti dell’uomo, trova conforto nella giurisprudenza della Corte europea dei diritti dell’uomo che, in particolare nella sentenza di Grande Camera del 17 ottobre 2019, nel caso Lòpez Ribalda e altri c. Spagna» (par. 35). Sulla pronuncia

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

428

William Chiaromonte e Maria Luisa Vallauri

La portata di tale affermazione, peraltro, è circoscritta mediante il riferimento a principi e condizioni che, secondo la Cassazione, devono necessariamente caratterizzare i singoli controlli difensivi concreti affinché essi possano essere considerati legittimi69. Anzitutto, la Corte richiama il consolidato principio, espresso dalla propria giurisprudenza formatasi nel vigore della precedente formulazione dell’art. 4, «secondo cui in nessun caso può essere giustificato un sostanziale annullamento di ogni forma di garanzia della dignità e riservatezza del lavoratore» (par. 37)70, dovendosi «assicurare un corretto bilanciamento tra le esigenze di protezione di interessi e beni aziendali, correlate alla libertà di iniziativa economica, rispetto alle imprescindibili tutele della dignità e della riservatezza del lavoratore, con un contemperamento che non può prescindere dalle circostanze del caso concreto» (par. 38)71. Il rispetto di tale principio, tuttavia, non è considerato sufficiente a legittimare il ricorso ai «controlli difensivi in senso stretto», dovendo questo essere affiancato dalla circostanza che si tratti di un controllo necessariamente mirato ed effettuato ex post, «ossia a seguito del comportamento illecito di uno o più lavoratori del cui avvenuto compimento il datore abbia avuto il fondato sospetto, sicché non avrebbe ad oggetto l’attività – in senso tecnico – del lavoratore medesimo» (par. 40). Anche in questo caso si tratta di una precisazione importante, per quanto in linea con la giurisprudenza intervenuta sulla precedente formulazione della norma72. della Corte di Strasburgo cfr. V. Nuzzo, Il ragionevole sospetto di illecito e la possibilità di controlli difensivi occulti all’esame della Grande Camera della Corte Europea dei diritti dell’uomo, in Labor, 2020, II, p. 208 ss.; L. Tebano, I confini dei controlli difensivi e gli equilibrismi della Corte edu, in Riv. it. dir. lav., 2020, II, p. 211 ss.; M. D’Aponte, I controlli a distanza e la videosorveglianza nei luoghi di lavoro tra diritto nazionale e giurisprudenza della Cedu, in Riv. giur. lav., 2020, II, p. 238 ss. 69   C. Colapietro e A. Giubilei, Controlli difensivi, cit., p. R.203 ss. 70   Si vedano, in tal senso, Cass., 17 luglio 2007, n. 15892, cit.; Cass., 23 febbraio 2010, n. 4375, cit.; Cass., 1° ottobre 2012, n. 16622, cit.; Cass., 13 maggio 2016, n. 9904, cit.; Cass., 19 settembre 2016, n. 18302. 71   La Corte richiama, a tale proposito, le considerazioni emerse nell’ambito della giurisprudenza della Corte EDU a proposito dell’art. 8 CEDU, che afferma il diritto al rispetto della vita privata e familiare, nella quale va inclusa anche la dimensione della vita professionale: il riferimento, fra le altre, è alla pronuncia del 5 settembre 2017 sul caso Barbulescu c. Romania (ricorso n. 61496/08), in relazione alla quale cfr. F. Perrone, La tutela della “privacy” sul luogo di lavoro: il rinnovato dialogo tra Corte Europea dei Diritti dell’Uomo e giurisdizione nazionale dopo la sentenza “Barbulescu 2”, in Labor, 2018, p. 283 ss. 72   Cass., 18 luglio 2017, n. 17723, ad esempio, aveva ritenuto invasivi, sotto l’aspetto temporale, i controlli difensivi eccedenti i limiti dell’adeguatezza e della proISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

I controlli a distanza sul lavoro nell’era digitale

429

Il controllo è, quindi, legittimo – secondo la Suprema Corte – purché esso riguardi dati acquisiti successivamente all’insorgere del fondato sospetto circa la commissione di un illecito da parte del lavoratore, vale a dire purché esso abbia a oggetto informazioni riferite a fatti che siano accaduti in un momento posteriore rispetto a quando il datore di lavoro abbia avuto il fondato sospetto della commissione di un illecito per mano del proprio dipendente. «Può, quindi, in buona sostanza, parlarsi di controllo ex post solo ove, a seguito del fondato sospetto del datore circa la commissione di illeciti ad opera del lavoratore, il datore stesso provveda, da quel momento, alla raccolta delle informazioni» (par. 44)73. Ne consegue che, laddove le informazioni raccolte si riferiscano ad un periodo precedente, i dati raccolti sarebbero inutilizzabili in quanto acquisiti in violazione di quanto previsto dall’art. 4 dello Statuto. Se si condivide l’assunto da cui muove la Cassazione, vale a dire quello della sopravvivenza di una categoria, per quanto ristretta, di controlli difensivi che possono a tutt’oggi operare in deroga all’art. 4 dello Statuto –  e vi sono, a dire il vero, e nonostante la posizione da ultimo confermata dalla Suprema Corte, diverse ragioni che potrebbero spingere ad accogliere una diversa lettura del nuovo art. 474 –, allora la riservatezza del lavoratore, come è stato sottolineato, potrebbe uscire rafforzata dai principi affermati dalla Cassazione. I margini di manovra datoriali, difatti, risulterebbero circoscritti attraverso il richiamo all’individuazione delle condotte che possono legittimare il ricorso ai «controlli difensivi in senso stretto» (che, come tali, ricadono fuori dalle garanzie di cui all’art. 4 dello

porzionalità: cfr. A. Federici, I controlli investigativi tra libertà (d’impresa) e diritti (del lavoratore), in Riv. giur. lav., 2018, p. 22. 73   Nel caso di specie, «Facendo il classico esempio dei dati di traffico contenuti nel browser del pc in uso al dipendente, potrà parlarsi di controllo ex post solo in relazione a quelli raccolti dopo l’insorgenza del sospetto di avvenuta commissione di illeciti ad opera del dipendente, non in relazione a quelli già registrati» (par. 45). 74   V. Nuzzo, La protezione, cit., p. 50 ss., ad esempio, ritiene che non sia possibile lasciare fuori dal campo di applicazione dell’art. 4 nemmeno quei controlli diretti ad accertare comportamenti illeciti, se effettuati attraverso uno strumento tecnologico. Secondo l’Autrice, la sopravvivenza di una nozione, per quanto aggiornata e ristretta, di controlli difensivi si porrebbe in contrasto al disposto normativo dell’art. 4, comma 1, che continua a vietare il controllo a distanza sui dipendenti, se specificamente rivolto a verificare la loro attività, anche quando sia volto a palesare un illecito; e, per di più, condurrebbe al paradosso di giustificare una condotta penalmente illecita del datore per il solo timore – fondato sul mero sospetto, per quanto fondato e plausibile – di un comportamento illecito del lavoratore. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

William Chiaromonte e Maria Luisa Vallauri

430

Statuto), da un lato, e ai principi e alle condizioni che devono necessariamente contraddistinguere tali controlli, dall’altro75. La Corte, in altre parole, sembra aver voluto tracciare la via per consentire di verificare, in concreto, se i controlli difensivi si siano realizzati attraverso un corretto ed efficace bilanciamento, che sia anzitutto costituzionalmente orientato, fra la libertà di iniziativa economica datoriale e le imprescindibili tutele della dignità e della riservatezza del dipendente; tutto ciò sul presupposto della legittima sopravvivenza di una tipologia controlli che tuttavia,  è bene ribadirlo, sono insidiosi poiché  possono astrattamente essere particolarmente lesivi della sfera personale del lavoratore. Trattandosi – come si ricordava – della prima pronuncia con cui la Cassazione si è confrontata con la nuova disciplina dei controlli a distanza, e in particolare con la questione della sopravvivenza dei controlli di tipo difensivo, resta da vedere se questa posizione verrà confermata dai successivi provvedimenti giudiziari in materia. Se, invece, si pone in dubbio la tesi della sopravvivenza dei controlli difensivi «in deroga», la posizione assunta dalla Cassazione appare meno tranquillizzante nell’ottica di assicurare – come peraltro essa stessa invita a fare – «un corretto bilanciamento tra le esigenze di protezione di interessi e beni aziendali […] rispetto alle imprescindibili tutele della dignità e della riservatezza del lavoratore». Come è stato sottolineato, aprire «varchi nell’applicazione dell’art. 4, e dunque legittimare ex post controlli a distanza in violazione dei vincoli previsti dalla norma statutaria, sembra una strada pericolosa, che non può che contribuire ad alimentare l’incertezza che pure ha caratterizzato la giurisprudenza in materia e a cui il legislatore, proprio con l’inclusione della tutela del patrimonio aziendale tra le esigenze considerate dal primo comma della disposizione statutaria, ha inteso porre fine»76. Pur essendo allora apprezzabile lo sforzo compiuto dalla Cassazione nel senso di circoscrivere l’operatività dei controlli difensivi in senso stretto, sta di fatto che tali controlli, nonostante tutte le precisazioni del caso, restano almeno in parte ancora ammantati d’incertezza, e anche per questo continuano, nonostante la riformulazione dell’art. 4, a prestare il fianco a utilizzi potenzialmente idonei a ledere la sfera personale del lavoratore.

  C. Colapietro e A. Giubilei, Controlli difensivi, cit., p. R.206.   V. Nuzzo, La protezione, cit., p. 54.

75 76

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Samuele Renzi*

Decisioni e processi automatizzati, profilazione dei dati personali e tutela dei diritti dei lavoratori

Sommario: 1. Introduzione. – 2. La profilazione dei lavoratori: inquadramento del fenomeno. – 3. L’applicazione delle tecniche di automated decision making nel contesto lavorativo. Rischi connessi. - 3.1. La selezione del personale. - 3.2. Direzione e organizzazione a mezzo di sistemi (anche algoritmici) di decisione automatizzata. - 3.3. Il controllo per tramite dei sistemi algoritmici di registrazione e di rating. - 3.4. Sanzioni e attribuzioni premiali. – 4. I meccanismi di correlazione e di inferenza e la loro possibile inattendibilità. – 5. Il quadro regolativo. - 5.1. I dispositivi di tutela della privacy previsti dal diritto eurounitario. - 5.2. Segue. Le linee guida del 3 ottobre 2017. - 5.3. Il codice della privacy. - 5.4. Le garanzie previste dallo Statuto dei lavoratori. – 6. Osservazioni conclusive.

1. Gli incroci tra il diritto del lavoro e il diritto della riservatezza, in una società ormai digitalizzata, nella quale la diffusione delle tecnologie ha subìto un’ulteriore e improvvisa accelerazione durante il periodo pandemico, sono sempre più numerosi. Molti dei processi e dei sistemi in uso alle aziende, alle amministrazioni pubbliche e, più in generale, a ogni operatore del mercato1 vengono definiti smart, attributo che, oltre a evocare una vaga idea di efficienza e di speditezza, il più delle volte viene adoperato con il fine di porre in evidenza uno iato rispetto al precedente stadio evolutivo della tecnologia, il quale – in adesione al lessico invalso nell’uso – dovrebbe essere qualificato come dumb («stupido»)2. Ogni strumento e ogni processo che possa dirsi smart è caratterizzato da una serie di proprietà, fra le quali si distingue l’automazione, intesa come l’attitudine a ridurre o finanche eliminare l’intervento dell’uomo per il raggiungimento di un determinato esito. Sinché il risultato che i dispositivi intelligenti riescono a conseguire in assenza di supporto umano si risolve in un facere, le questioni di marca lavoristica che sorgono possono interessare, ad esempio, la tutela della * Assegnista di ricerca in Diritto del lavoro nell’Università di Firenze. 1   A. Rota, Rapporto di lavoro e big data analytics: profili critici e risposte possibili, in Labour & Law Issues, 2017, I, pp. 34-35. 2   A. Ingrao, Il braccialetto elettronico tra privacy e sicurezza del lavoratore, in Dir. rel. ind., 2019, p. 895 ss. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

432

Samuele Renzi

professionalità dei prestatori, la meccanizzazione di alcuni processi con conseguente perdita di impiego o, ancora, l’occupabilità di categorie di lavoratori che, anche per le ragioni anzidette, non siano in grado di ricollocarsi con facilità sul mercato del lavoro. Si tratta di temi di indubbia rilevanza che meritano di essere discussi con la consapevolezza che le moderne tecnologie sono anche portatrici di nuova occupazione e che il mercato, pur non riuscendo ad assorbire tutte le «vecchie» professionalità, ne richiederà di «nuove», per cui non sembra possa esservi spazio per alcuna forma di critica dal sapore neoluddista3. Con il progredire della tecnologia, d’altra parte, va sviluppandosi l’impiego di macchine intelligenti che non risolvono il proprio intervento in un facere, ma che, anzi, sono investite del compito di assumere una decisione, effettuare una scelta o impartire un comando. Al fine di disimpegnare tali funzioni, è necessario che la macchina, non dotata di risorse cognitive ex natura, sia alimentata da dati, ossia elementi bruti, che contengono in sé soltanto informazioni grezze, le quali, una volta combinate assieme, possono consegnare all’operatore (ovvero all’interprete) una conoscenza più raffinata e approfondita, che può costituire la base per l’attivazione di un processo decisionale automatizzato4. L’indagine intorno all’applicazione dei processi decisionali automatizzati (quindi di tipo algoritmico5) in ambito lavorativo impone di approfondire in maniera congiunta lo studio delle tecniche di profi3   R. Bennati, Industria 4.0 e WCM. Appunti sul lavoro umano: digitalizzazione globale e partecipazione, in A. Cipriani, A. Gramolati e G. Mari, Il lavoro 4.0. La Quarta Rivoluzione industriale e le trasformazioni delle attività lavorative, Firenze 2018, pp. 23-24. 4   Si v., ex plurimis: A. Aloisi e V. De Stefano, Il tuo capo è un algoritmo. Contro il lavoro disumano, Bari 2020; E. Dagnino, People analytics: lavoro e tutele al tempo del management tramite big data, in Labour & Law Issues, 2017, p. 1 ss.; G. Gaudio, Algorithmic management, poteri datoriali e oneri della prova: alla ricerca della verità materiale che si cela dietro l’algoritmo, in Labour & Law Issues, 2020, p. 21 ss.; A. Ingrao, “Data-Driven management” e strategie collettive di coinvolgimento dei lavoratori per la tutela della “privacy”, in Labour & Law Issues, 2019, p. 127 ss. 5   In letteratura sovente il fenomeno viene definito algorithmic management. A tal proposito risultano assai utili le precisazioni offerte dalla giurisprudenza amministrativa con una recente pronuncia: Cons. St., 25 novembre 2021, n. 7891, in Dir. di internet, 2022, I, p. 157 ss., nota G. Gallone, il quale, ricostruendo il fenomeno da un punto di vista anche fattuale, indica come «sia automatizzabile (e, quindi, eseguibile da una macchina prescindendo, in tutto o in parte, dall’intervento umano) solo una funzione che sia calcolabile e che, quindi, come tale, sia risolvibile mediante un algoritmo». Per approfondimenti sul funzionamento dei processi algoritmici si v.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Decisioni, processi, profilazione e tutela dei diritti dei lavoratori

433

lazione, dal momento che i due fenomeni, se talora procedono per vie separate, sovente viaggiano abbinati. Una decisione automatizzata, difatti, può essere assunta senza che prima siano stati elaborati i profili degli individui destinatari, ossia dei soggetti che subiscono gli effetti della scelta operata, oppure, al contrario, una volta effettuata la profilazione di un determinato gruppo di soggetti, è possibile che le informazioni ottenute vengano utilizzate da un decisore umano, o, ancora, si può presentare il caso in cui un processo decisionale automatizzato possa dar luogo esso stesso alla profilazione di un certo insieme di individui, a seconda del modo in cui i dati vengano utilizzati. Il piano delle decisioni automatizzate e quello della profilazione intersecano, non solo quando le due tecniche vengono combinate, il tema della tutela della riservatezza degli individui – e, quindi, dei lavoratori – cui si riferiscono i dati sottoposti a trattamento, dando luogo a uno di quegli incontri tra il diritto del lavoro e il diritto della privacy, già dianzi evocati, che rappresenterà l’oggetto di studio del presente scritto. 2. La profilazione può essere definita come la «raccolta di informazioni su una persona (o un gruppo di persone) e nella valutazione delle loro caratteristiche o dei loro modelli di comportamento al fine di includerli in una determinata categoria o gruppo, in particolare per analizzare e/o fare previsioni»6 o, a mente dell’art. 4 del GDPR7, come «qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati personali per valutare determinati aspetti personali relativi a una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica». Entrambi gli enunciati, fra i vari aspetti comuni che deducono, pongono l’accento sul versante teleologico8, specificando che l’attività anche: E. Garzonio, L’algoritmo trasparente: obiettivi ed implicazioni della riforma dello Spazio digitale europeo, in Riv. it. inf. dir., 2021, p. 25 ss. 6   Così secondo le «Linee guida sul processo decisionale automatizzato relativo alle persone fisiche e sulla profilazione ai fini del Regolamento 2016/679». 7   Si tratta, com’è noto, del Regolamento (UE) 2016/679 che, nella presente disamina, verrà per lo più richiamato con l’acronimo GDPR. 8   F. Costantini, Profilazione e “automated decision making” in ambito lavorati© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

434

Samuele Renzi

di profilazione può essere finalizzata alla «previsione» di comportamenti futuri riguardanti, secondo il GDPR, una ricca serie di ambiti, ivi compreso il «rendimento professionale», anche se, come verrà osservato nel corso della disamina, le applicazioni nel contesto lavorativo non si limitano a valutazioni riguardanti la produttività dei prestatori. Le caratteristiche prese in considerazione dai sistemi preordinati a svolgere attività di profilazione possono essere «immutabili» (come l’altezza o la data di nascita) o «modificabili» (si pensi alle abitudini, alle preferenze e ad altri elementi del comportamento). Dalla loro analisi possono essere estratte informazioni al fine di classificare le persone e inferire «sulla base di alcune loro caratteristiche osservabili (…), con un certo margine di errore, altre che osservabili non sono»9. I risultati di questo particolare trattamento dei dati sono utilizzati in ambito lavorativo, come già si accennava, per generare nuove conoscenze e per formulare ipotesi sui comportamenti futuri di un lavoratore10, considerato singolarmente o all’interno di un gruppo. Inoltre, i profili creati e opportunamente categorizzati fungono quale base cognitiva per sostenere e alimentare i processi decisionali automatizzati, i quali, per generare nuove informazioni, necessitano essi stessi di un “carburante”11 di avviamento. 3. L’impiego delle tecniche di decisione automatizzata in ambito lavorativo persegue, almeno di regola, l’ambizione di assumere scelte organizzative e gestionali che tendano verso l’oggettività e l’economicità, nel convincimento che la macchina possa erodere i margini di errore che caratterizzano l’intelligenza umana, riuscendo tra l’altro ad elaborare grandi quantità di dati in maniera notevolmente più rapida12. vo nella giurisprudenza italiana, in Lav. giur., 2019, p. 984 ss. 9   J.M. Dinant, C. Lazaro, Y. Poullet, N. Lefever e A. Rouvroy, Application of Convention 108 to the profiling mechanism, Strasbourg 2008, p. 3. 10   I sistemi di profilazione, con lo specifico fine di realizzare analisi predittive, sono altresì utilizzati nel campo delle politiche attive del lavoro. Sul punto si v.: K. De Bortoli e S. Campostrini, Occupabilità e sistemi di profilazione: alcune riflessioni scaturite da un’analisi della letteratura e un’indagine con testimoni privilegiati in Veneto, in Econ. lav., 2016, p. 149 ss.; D. Gambardella, R. Lumino e G. Orientale Caputo, Uniformare i trattamenti e gestire le diseguaglianze: la profilazione e le politiche attive del lavoro, in Pol. soc., 2017, p. 387 ss. 11   Per richiamare una metafora sovente utilizzata, fra gli altri anche da: G. Gaudio, op. cit., p. 23; A. Ingrao, Data-Driven management, cit., p. 130. 12  E. Dagnino, op. cit., p. 4; P. Galison, Algorists dream of objectivity, in J. Brockman, Possible minds: Twenty-five ways of looking at AI, London 2019, p. 232 ss. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Decisioni, processi, profilazione e tutela dei diritti dei lavoratori

435

Il trattamento automatizzato (o algoritmico) conosce una serie abbastanza nutrita di applicazioni nel contesto lavorativo13, soprattutto per quelle attività che, nel dizionario aziendalistico, verrebbero definite di gestione delle risorse umane e che, a ben vedere, fanno capo ai poteri tipici del datore di lavoro. Può essere utile, al fine di offrire un quadro più preciso, passare in rassegna alcuni dei diversi procedimenti decisionali nei quali è diffuso il ricorso a sistemi automatizzati che elaborano ed associano dati o che gestiscono profili di lavoratori; questi ultimi, peraltro, possono risultare creati ad hoc da una precedente attività di profilazione eventualmente svolta a monte rispetto al processo di output decisionale. 3.1 In primo luogo, occorre riferirsi alla fase di selezione e ricerca del personale, nella quale è divenuto abbastanza frequente l’utilizzo di sistemi automatizzati deputati allo scrutinio dei curricula14 dei candidati, soprattutto quando vengono approntati moduli preimpostati attraverso cui inoltrare le domande, congeniali all’ottimizzazione delle prestazioni di lettura e analisi dei dati da parte di una macchina intelligente o di un software all’uopo ideato15. Pare utile segnalare fin da subito quali sono i rischi che si annidano in tali sistemi di automated recruiting, in particolare quando questi vengano interconnessi con la rete e riescano, così, a estrapolare dati ulteriori presso altre fonti, come ad esempio i social network. È possibile, infatti, che l’esame dei profili curricolari dei candidati sia tutt’altro che neutro e imparziale e che la macchina replichi l’inclinazione discriminatoria o escludente del suo programmatore, riuscendo a pervenire ad esiti addirittura più pregiudizievoli rispetto a un decisore umano, dal momento che un sistema automatico riesce ad applicare un criterio discretivo con esattezza matematica. Su tale punto, è stato inoltre rilevato16 che, quand’anche nella fase di messa a punto non siano immessi tutti i parametri e gli indici utili per ottenere una classificazione dal 13   K.C. Kellogg, M.A. Valentine e A. Christin, Algorithms at work: the new contested terrain of control, in Academy of Management Annals, 2020, p. 366 ss. 14   F. Costantini, op. cit., p. 984 ss. 15   Per una disamina più approfondita sulle modalità di funzionamento degli algoritmi utilizzati nelle pratiche di recruitment, si v A. Kochling e M. Claus Wehner, Discriminated by an algorithm: a systematic review of discrimination and fairness by algorithmic decisionmaking in the context of HR recruitment and HR development, in Business Research, 2020, p. 795 ss. 16   G. Gaudio, op. cit., pp. 45-46.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

436

Samuele Renzi

carattere discriminatorio, alcuni sistemi intelligenti sono in grado di apprenderne di nuovi. Il fenomeno, noto come machine learning17, in assenza di un intervento umano correttivo, potrebbe infirmare la legittimità delle decisioni assunte da un sistema automatizzato, in quanto esse, oltreché contrarie alla normativa a tutela della privacy, potrebbero contrastare con il diritto antidiscriminatorio, ove, come emerso in letteratura18, la macchina riuscisse a desumere – sulla base delle informazioni fornite, pur in apparenza neutre – alcune caratteristiche personali e, in virtù di esse, giungesse ad assumere scelte escludenti. I rischi segnalati non appaiono unicamente riferibili al trattamento automatizzato, ma, a ben vedere, la traduzione di essi in pregiudizio concreto appare potenziata allorché il datore di lavoro decida di avvalersi di tali strumenti, i cui meccanismi di funzionamento – come si osserverà più in dettaglio infra – spesso risultano oscuri, con evidenti ricadute sul piano dell’effettività delle tutele. 3.2. Passando all’esercizio delle facoltà organizzative, meritano di essere segnalati i c.d. strumenti di direzione e di restrizione (recommending e restricting)19, a mezzo dei quali un sistema dotato di intelligenza artificiale può essere abilitato ad impartire comandi ai prestatori sotto forma di messaggi di testo o grazie a sistemi di comunicazione non verbale20. Nella maggior parte dei casi tali indicazioni o restrizioni (dunque, imposizioni di divieti e di limiti) consistono in messaggi standardizzati, pensati per cluster omogenei di lavoratori, che – come si è dianzi osservato – vengono strutturati in forza di una precedente attività di profilazione e segmentazione del personale in gruppi, effettuata o sulla di base caratteristiche, esigenze e necessità comuni (in realtà sovente presunte tali) o in virtù del riconoscimento di correlazioni tra i dati personali raccolti. Quanto alle conseguenze che tale esercizio spersonalizzato delle 17   D. Garofalo, Blockchain, smart contract e machine learning: alla prova del diritto del lavoro, in Lav. giur., 2019, X, p. 869 ss. Sul punto si v. anche: T. Numerico, Social network e algoritmi di machine learning: problemi cognitivi e propagazione dei pregiudizi, in Sistemi intelligenti, 2019, pp. 477-478. 18   G. Gaudio, op. cit., pp. 45-46, il quale ben inquadra il fenomeno, indicando casi di algoritmi capaci di «replicare scientemente e su larga scala discriminazioni latenti nei dati da esso processati». 19   K.C. Kellogg, M.A. Valentine e A. Christin, op. cit., p. 366 ss. 20   Si pensi, a tal proposito, a strumenti wearable, come il braccialetto elettronico, che guidano il prestatore attraverso impulsi o suoni.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Decisioni, processi, profilazione e tutela dei diritti dei lavoratori

437

prerogative organizzative e gestionali proprie del datore di lavoro può ingenerare, la letteratura avverte circa varie tipologie di rischio che minacciano, oltre alla riservatezza, altri diritti fondamentali, quali la dignità, la salute e il benessere dei prestatori. In primo luogo, i messaggi (verbali o non verbali) che la macchina intelligente indirizza ai lavoratori possono non essere facilmente comprensibili21, o per l’opacità dell’informazione che la macchina tenta di trasmettere o perché risulta errato il target di riferimento. In tal senso, si apprezza quanto eventuali storture occorse nella fase della profilazione e della categorizzazione del personale possano riverberarsi sulla successiva attività decisionale automatizzata, che potrebbe rivolgersi – con comandi di carattere sia positivo che limitativo – nei confronti di lavoratori (singoli o in gruppi) che, essendo stati inseriti impropriamente in un determinato cluster, ricevono un’indicazione non intellegibile o addirittura insensata. Ciò potrebbe dare luogo a stati di frustrazione e di estraniamento, con pregiudizio per la salute psico-fisica e per il benessere di quel gruppo di dipendenti reso destinatario di indicazioni errate e, magari, del tutto irrazionali. A tal proposito, alcune voci hanno altresì sottolineato che, quando i dipendenti vengono diretti da algoritmi che assumono decisioni da essi percepite come ingiuste, potrebbe risultare disorientata la loro «bussola morale»22 e, di conseguenza, potrebbero presentarsi con maggiore probabilità episodi di comportamenti non etici o disciplinarmente rilevanti. Inoltre, l’applicazione di sistemi di automated decision making nell’ambito dell’attività direttiva – ma tale rischio appare comune anche ad altre tipologie di sfruttamento delle tecniche automatizzate, sulle quali la disamina si arresterà nel prosieguo – potrebbe aumentare le discriminazioni e le disuguaglianze. Qualora, infatti, i lavoratori siano stati (illecitamente) profilati e categorizzati anche sulla base di fattori protetti, la macchina intelligente (ovvero l’algoritmo) potrebbe sistematicamente riservare trattamenti sfavorevoli verso una determinata classe di soggetti, ai quali, magari, potrebbero essere imposti comandi

21   J. Danaher, The threat of algocracy: Reality, resistance and accommodation, in Philosophy & Technology, 2016, p.  245 ss.; S. Lebovitz, H. Lifshitz-Assaf e N. Levina, Doubting the diagnosis: How artificial intelligence increases ambiguity during professional decision making, New York 2019. 22   D. Beunza, Taking the floor: Models, morals, and management in a Wall Street trading room, Princeton 2019.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

438

Samuele Renzi

o divieti in ragione del genere, dell’orientamento sessuale, dell’appartenenza a una determinata etnia, etc. 3.3. Tenendo in disparte il tema dei controlli realizzati a mezzo di impianti audiovisivi, che pure potrebbero costituire fonte di informazioni attraverso cui profilare il personale, preme concentrare il fuoco dell’analisi sui sistemi nei quali la lente di osservazione dell’attività dei prestatori di lavoro sia costituita da macchine intelligenti che, anche grazie al trattamento algoritmico, siano preordinate alla raccolta e all’analisi di dati. Le tecniche di controllo algoritmico sui dati importano l’uso di procedure computazionali volte ad acquisire e aggregare un’ampia gamma di informazioni, provenienti da fonti interne o esterne rispetto alla realtà aziendale, che vengono utilizzate dai datori di lavoro per quantificare, confrontare e valutare, ad esempio, la produttività dei dipendenti, verificando i tempi di esecuzione di una determinata mansione. È stato rilevato, inoltre, che i datori di lavoro utilizzano spesso la c.d. registrazione algoritmica per monitorare una gamma più ampia di comportamenti dei lavoratori. Per esempio, viene riferito come alcune imprese statunitensi abbiano sviluppato algoritmi per vigilare il linguaggio collettivo e analizzare gli stati d’animo dei dipendenti nell’ambito di chat aziendali o di un determinato team23. Altri autori segnalano come alcune imprese siano solite utilizzare algoritmi di registrazione per analizzare le comunicazioni dei dipendenti e che, aggregando i dati, riescano ad individuare insiemi di lavoratori che interagiscono frequentemente, collegando i gruppi di comunicazione dei dipendenti al loro rendimento, anche al fine di ridurre le interazioni che potrebbero minacciare la produttività aziendale24. Tali sistemi di registrazione, per la loro pervasività, rischiano di dare luogo a forme di controllo costante e occhiuto, in spregio ai principi di tutela della riservatezza fissati dalla normativa (sia interna, sia sovranazionale) posta a salvaguardia della privacy, in ossequio alla quale il trattamento dei dati dovrebbe essere ispirato a un canone di essenzialità (c.d. minimizzazione).

23   K. Lix, A. Goldberg, S. Srivastava e M. Valentine, Expressly different: Interpretive diversity and team performance, Redwood City 2019. 24   P. Leonardi e N. Contractor, Better people analytics measure who they know, not just who they are, in Harvard Business Rev., 2018, p. 70 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Decisioni, processi, profilazione e tutela dei diritti dei lavoratori

439

Quanto ai sistemi di rating (o di ranking)25, probabilmente i più conosciuti in quanto adottati e diffusi anche nel panorama europeo e nazionale26, sembra utile ricordare che il relativo utilizzo al fine di tracciare un profilo reputazionale dei prestatori produce rilevanti conseguenze sia in ordine alle maggiori o minori occasioni di lavoro sulle quali i soggetti così «valutati» possono contare, sia con riferimento alla privacy degli stessi prestatori. I giudizi espressi da un’amplissima platea di attori – ivi compresi i clienti o i fruitori di un servizio27, le cui valutazioni sovente vengono inficiate da apprezzamenti soggettivi e arbitrari o da preconcetti – sono, infatti, spesso pubblici o non adeguatamente protetti dai datori di lavoro28, con evidente pregiudizio per la reputazione dei lavoratori. Tali processi utilizzano di frequente (o essi stessi si sostanziano in) tecniche di profilazione, dacché sulla base dei dati registrati o dei giudizi espressi possono essere ricostruiti profili – più o meno precisi e corretti – dei lavoratori, le quali possono essere combinate con meccanismi decisionali automatizzati, cosicché i contorni tra l’attività di controllo e l’esercizio del potere direttivo (ma, in effetti, anche disciplinare) possono risultare sfumati e confusi tra loro. 3.4. Sulla base delle evidenze raccolte anche tramite i sistemi automatizzati descritti nei paragrafi precedenti, segnatamente quelli di controllo algoritmico sui dati, possono attivarsi processi volti a sanzionare comportamenti ritenuti sgraditi, aventi rilievo disciplinare o giudicati poco performanti. Tali sanzioni, spesso dal carattere atipico, possono essere diretta25   O. Razzolini, I confini tra subordinazione, collaborazioni etero-organizzate e lavoro autonomo coordinato: una rilettura, in Dir. rel. ind., 2020, II, p. 345 ss.; G. Santoro Passarelli, La subordinazione in trasformazione, in Dir. rel. ind., 2021, p. 1125 ss. 26   In giurisprudenza, fra le pronunce intervenute con riferimento alle note vicende che hanno riguardato i ciclofattorini e le piattaforme di food delivery, si ricordano: App. Torino, 4 febbraio, 2019, n. 26, in Riv. it. dir. lav., 2019, II, p. 350 ss., nota M.T. Carinci; Trib. Bologna, 31 dicembre 2020, in Riv. it. dir. lav., 2021, p. 188 ss., nota G. Gaudio. 27   A. Topo, “Automatic management”, reputazione del lavoratore e tutela della riservatezza, in Lav. dir., 2018, III, p. 455. 28   Non sembra costituire un’adeguata forma di protezione l’eventuale richiesta di login, quale condizione per visualizzare le recensioni o i giudizi espressi, dal momento che spesso i meccanismi di registrazione ai portali sono abbastanza semplici e immediati.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Samuele Renzi

440

mente irrogate, in spregio a qualsiasi garanzia sostanziale e procedimentale, dallo stesso sistema dotato di intelligenza artificiale, il cui intervento può risolversi nell’invio di messaggi di biasimo o anche nella predisposizione di turni di lavoro più gravosi o nella diminuzione delle occasioni di lavoro (in specie quando si tratti di piattaforme), fino a pervenire al licenziamento. Questi ultimi, com’è intuibile, sono fenomeni osservati per lo più nella realtà nordamericana, dove la letteratura ha inquadrato il fenomeno come algorithmic replacing29, riferendosi con tale locuzione a ipotesi di sostituzione di lavoratori poco produttivi con altri soggetti, precedentemente candidatisi per una posizione d’impiego, mantenuti quiescenti. In altri termini, l’algoritmo, da un lato, controlla l’efficienza dei lavoratori in forza all’impresa e – una volta rilevate delle prestazioni non ottimali – procede al licenziamento istantaneo del soggetto improduttivo mentre, da altro lato, accede a un database nel quale sono contenuti nominativi di riserva, pronti a «rimpiazzare» chi eventualmente venisse punito con la sanzione espulsiva. Non pare utile spendere molte parole in merito alla disciplina che potrebbe applicarsi nell’ordinamento interno a tali atti di licenziamento, i quali verrebbero considerati radicalmente nulli. Si tratta, come si anticipava, di sistemi il cui uso è stato registrato in imprese estere, segnatamente statunitensi, ma che mette in luce una generale tendenza a demandare alle macchine e ai sistemi algoritmici l’assunzione di decisioni organizzative e disciplinari sempre più significative e strategiche. Peraltro, non è escluso che la sanzione, conseguente all’accertata violazione o al calo di rendimento registrato dalla macchina intelligente deputata alla raccolta dei dati e al controllo delle informazioni da essi ricavabili, venga adottata da un soggetto umano30, più o meno consapevole a seconda del grado di discernimento esercitato nella materiale attività di rimprovero del prestatore: altro è, infatti, valutare i dati dai quali si possa arguire l’esistenza di una condotta passibile di sanzione e scegliere, con facoltà di giudizio, se assumere una qualche iniziativa nei confronti del lavoratore, altro è limitare l’intervento umano a un’esecuzione passiva di quanto suggerito dalla macchina. In una prospettiva conversa, i sistemi di automated decision making conoscono applicazioni volte a premiare i lavoratori particolarmente produttivi e, in quanto tali, ritenuti meritevoli di benefici di varia   K.C. Kellogg, M.A. Valentine e A. Christin, op. cit., p. 380 ss.   A. Ingrao, “Data-Driven management”, cit., p. 127 ss.

29 30

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Decisioni, processi, profilazione e tutela dei diritti dei lavoratori

441

natura (riconoscimenti monetari aggiuntivi, fringe benefits, soluzioni organizzative più favorevoli, ecc.). Se, in tali casi, l’esito appare più soddisfacente, in quanto l’intervento della macchina si risolve nell’attribuzione di un quid pluris, non è escluso che la decisione venga assunta sulla scorta di dati personali raccolti o trattatati illecitamente. 4. Esaminate alcune tra le più diffuse applicazioni dei sistemi di profilazione e di trattamento automatizzato nel mondo del lavoro, occorre fermare l’attenzione sulle modalità di funzionamento delle tecniche di profilazione e, più nello specifico, sui meccanismi di inferenza e di correlazione. Come si è visto, difatti, l’attivazione di processi automatizzati di output decisionale sovente si rivolge a gruppi di lavoratori precedentemente (o, anche, contestualmente) profilati e clusterizzati in insiemi che la macchina presume siano omogenei in virtù del riconoscimento di caratteristiche comuni. La profilazione degli individui (e, quindi, dei lavoratori) avviene non solo in base a dati certi, forniti dai titolari od osservati e registrati da un’entità terza (umana o digitale), ma anche sulla base di dati inferiti, ossia tratti da altri dati precedentemente raccolti che vengono analizzati al fine di individuare correlazioni e affinità31. Il prodotto finale di tale processo, qui solo tratteggiato nelle sue caratteristiche essenziali, è rappresentato dalla classificazione degli individui in gruppi. L’evidente criticità di tali sistemi risiede nella loro frequente inattendibilità e nel sensibile margine di errore32 con il quale vengono elaborati i profili degli individui, dal momento che solo «alcune» caratteristiche personali sono prese in considerazione33. Tali errori si proiettano sulla successiva segmentazione in cluster che la macchina giudica omogenei, ma che in realtà potrebbero essere composti da individui che hanno ben poco in comune. Inoltre, i sistemi di profilazione presumono l’immanenza dei dati inferiti e delle caratteristiche osservate, quando queste potrebbero mutare anche in modo radicale e repentino, contribuendo a determinare esiti imprecisi e inaffidabili. I sistemi decisionali automatizzati e le loro particolari applicazioni al mondo del lavoro (recruiting, replacing, rewarding, ecc.) minacciano

  T. Numerico, Big Data e algoritmi. Prospettive critiche, Roma 2021.   Come anche messo in luce da una delle definizioni trascritte nel par. 2. 33   B. Custers e H. Ursic, Worker privacy in a digitalized world under European law, in Comparative Labor Law and Policy Journal, 2018, p. 323 ss. 31 32

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

442

Samuele Renzi

di mettere in parentesi la dignità della persona, fondando le scelte cui pervengono su correlazioni sovente improprie, e di svilire le facoltà che l’intelligenza umana possiede, a partire dalla capacità di affrontare le questioni che si presentano in ogni contesto sociale, dunque anche in ambito lavorativo, in maniera evolutiva, svincolata rispetto a precedenti scelte. Le macchine, difatti, associando dati – cioè elementi passati, come suggerisce anche la semantica del termine, che è un participio sostantivato – vorrebbero presumere e anticipare comportamenti futuri degli individui, senza tuttavia tenere in debita considerazione la più significativa differenza tra intelligenza umana e intelligenza artificiale, ossia la capacità di assumere decisioni libere, anche rispetto a proprie precedenti tendenze e impostazioni34. È, infatti, vero che ciascun individuo possiede una peculiare forma mentis, che ne condiziona i comportamenti, anche sul luogo di lavoro; tuttavia, essa non è una caratteristica data e immutabile. Da ciò deriva che la tendenza a fondare l’assunzione di decisioni, di carattere organizzativo e/o disciplinare, su modelli di elaborazione dei dati che hanno alla propria base meccanismi di profilazione rischia di non considerare in maniera adeguata l’interezza delle capacità (professionali, relazionali, ecc.) del lavoratore, ivi compresa l’umana propensione al cambiamento e all’adattamento. Le applicazioni dei sistemi fin qui descritti nel mondo del lavoro, com’è stato più volte segnalato, non costituiscono minaccia solo per la privacy dei prestatori, ed infatti anche in giurisprudenza sono emersi casi di trattamenti discriminatori35 perpetrati da sistemi decisionali automatizzati36. A ben vedere, tuttavia, il più delle volte lo snodo critico risiede nel trattamento potenzialmente distorsivo dei dati personali in cui si sostanzia la stessa attività di profilazione o, comunque, di acquisizione delle informazioni. Per questo, la tutela della riservatezza potrebbe atteggiarsi come l’argine più efficace per contenere l’insorgenza di «tutti» i rischi finora evocati: ove nel processo di profilazione e di suddivisione in cluster dei lavoratori fosse consentito trattare solo quei dati che risultassero certi, attinenti con la prestazione dell’attività lavorativa e/o la valutazione della produttività del prestatore, e non frutto di inferenze improprie, potrebbero essere creati gruppi di soggetti

  T. Numerico, Social network e algoritmi di machine learning, cit., p. 483.   Si veda nota 24. 36   A volte nel dibattito i richiami si riducono agli «algoritmi». 34 35

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Decisioni, processi, profilazione e tutela dei diritti dei lavoratori

443

effettivamente omogenei e, conseguentemente, i processi decisionali automatizzati si avvantaggerebbero di basi cognitive più solide e non inficiate da presunzioni arbitrarie o frutto di mere ipotesi. 5. Le riflessioni sinora sviluppate conducono ad esaminare più in dettaglio i presidi normativi esistenti (non necessariamente appartenenti al sistema di diritto del lavoro), fermando l’attenzione dapprima sul diritto sovranazionale, per passare in un secondo momento alle fonti interne. Occorre premettere che i fenomeni oggetto del presente studio vengono precipuamente considerati soltanto dalle fonti eurounitarie, mentre la legislazione nazionale conosce disposizioni che risultano, sì, applicabili ai processi decisionali automatizzati, inclusa la profilazione, ma limitatamente a taluni aspetti e a certe specifiche condizioni. 5.1. Nei passaggi introduttivi, è stato ricordato che l’art. 4 del GDPR contempla un ampio enunciato definitorio dell’attività di profilazione, che viene poi disciplinata da alcune norme contenute nel corpo del Regolamento37. In particolare, l’art. 22, sulla scorta dei considerando nn. 71-72, dispone che «l’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione», il che rappresenterebbe un’indicazione assai rilevante se, appena dopo averne esaminato il contenuto con attenzione, non se ne riconoscesse l’estrema vaghezza. Il diritto a essere sottoposto a una decisione alla cui formazione abbia contribuito un umano38, per come scolpito dall’art. 22, non offre indicazioni circa la portata che dovrebbe presentare tale intervento nell’ambito del trattamento automatizzato. Inoltre, la disposizione soffre le varie eccezioni previste al par. 2, delle quali la prima, disciplinata alla lett. a), parrebbe mostrare un raggio di operatività assai esteso, capace di marginalizzare in maniera significativa la «regola», lì dove si prevede che la disciplina di cui al par. 1 non debba essere applicata quando la decisione «sia necessaria per la

37   In generale, sul tema si v. C. Ogriseg, GDPR and Personal Data Protection in the Employment Context, in Labour & Law Issues, 2017, p. 3 ss.; V. Turco, Il trattamento dei dati personali nell’ambito del rapporto di lavoro, in V. Cuffaro, R. D’Orazio e V. Ricciuto (a cura di), I dati personali nel diritto europeo, Torino 2019, p. 517 ss. 38   C. Tabarrini, Comprendere la “Big Mind”: il GDPR sana il divario di intelligibilità uomo-macchina?, in Dir. inf., 2019, p. 555 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

444

Samuele Renzi

conclusione o l’esecuzione di un contratto tra l’interessato e un titolare del trattamento». L’efficacia della norma, che prima facie sembrerebbe atteggiarsi quale strumento idoneo a «evitare che le analisi o le previsioni […] siano conseguenza esclusiva delle approssimazioni e delle correlazioni derivanti dalle tecniche di analisi dei dati»39, è in realtà minorata dai due limiti appena evidenziati, ossia l’indeterminatezza del precetto e le ampie possibilità di deroga ex par. 2, sulle quali torneremo nel prosieguo. In seno al GDPR, la profilazione viene altresì contemplata dagli artt. 13, par. 2, lett. f) e 14, par. 2, lett. g), in materia di diritti di informazione e dall’art. 15, par. 1, lett. h), rubricato «diritto di accesso dell’interessato», i quali, con formule pressoché identiche, impongono, da un lato, che il soggetto passivo del trattamento abbia il diritto di essere informato sull’attivazione di un processo decisionale automatizzato, compresa la profilazione, e sulle relative modalità di funzionamento, e, da altro lato, che sia assicurato il diritto di accedere alle relative informazioni e ai dati connessi. Ciò implica che il soggetto coinvolto in un sistema di automated decision making debba poter sapere dell’eventualità di essere sottoposto a decisioni automatizzate e a sistemi di profilazione e debba altresì essere informato sulle modalità di funzionamento del sistema (quindi, dell’algoritmo) utilizzato. Come segnalato40, ciò che invece non sembra essere previsto è il diritto a ottenere una spiegazione specifica in merito all’assunzione, grazie a un processo automatizzato, di una decisione concreta e determinata. In altre parole, il GDPR non prevede che il singolo vanti il diritto a conoscere attraverso quali meccanismi il sistema automatizzato sia pervenuto a un determinato esito, circostanza da cui non può che derivare una significativa compressione delle tutele. Ove, infatti, il sistema di funzionamento dell’algoritmo si presenti chiaro e lineare, sarà piuttosto semplice comprendere quali variabili e quali informazioni abbiano concorso a determinare una decisione specifica; per converso, in presenza di algoritmi complessi, in grado di apprendere funzioni ulteriori e di amplificare le proprie facoltà anche senza l’intervento umano, le ragioni in forza delle quali sia stato raggiunto un determinato esito possono sfuggire persino al datore di lavoro e ai programmatori.

39   A. Donini, Profilazione reputazionale e tutela del lavoratore: la parola al Garante della Privacy, in Labour & Law Issues, 2017, pp. 43-44. 40   Sul punto è ampia la ricostruzione di G. Gaudio, op. cit., p. 32

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Decisioni, processi, profilazione e tutela dei diritti dei lavoratori

445

L’art. 25 del GDPR ha, inoltre, positivizzato i principi di salvaguardia della privacy «by design» e «by default», in un’ottica di anticipazione della tutela fin dalla creazione dei dispositivi di trattamento ed elaborazione dei dati. La norma, che ha un campo di applicazione ampio, dovrebbe incidere anche sull’attività di profilazione o sui processi decisionali automatizzati che un datore di lavoro si determini ad attivare, imponendo di osservare in tutte le fasi del trattamento le cautele utili a garantire un impatto minimale sulla privacy del prestatore, il che costituisce un ulteriore e significativo presidio, per quanto generico e debole sotto il profilo dell’effettività. In ultimo, non può essere dimenticato l’art. 88 del GDPR, che abilita gli Stati membri a dettare una regolamentazione più specifica in materia di trattamento dei dati personali dei prestatori nell’ambito dei rapporti di lavoro, facendo riferimento a una gamma molto ampia di applicazioni41, cioè a dire «finalità di assunzione, esecuzione del contratto di lavoro, (…), parità e diversità sul posto di lavoro, salute e sicurezza sul lavoro, (…), nonché per finalità di cessazione del rapporto di lavoro». La norma, peraltro, prevede che anche la contrattazione collettiva possa giocare un ruolo da protagonista nella predisposizione di discipline più specifiche, potendo sfruttare, soprattutto nel caso della contrattazione di livello aziendale, il vantaggio della prossimità rispetto al luogo nel quale viene svolto il trattamento dei dati42. Oltre a ciò, al par. 2, vengono indicati gli obiettivi che dovrebbero essere perseguiti dalle normative nazionali al fine di potenziare le misure di tutela tratteggiate dal GDPR e, tra essi, risaltano la «salvaguardia della dignità umana» e la «trasparenza del trattamento», che, a ben vedere, dovrebbero rappresentare due punti cardinali della materia, uno con riferimento ai valori e l’altro alle tecniche regolative. 5.2. Le «Linee guida sul processo decisionale automatizzato relativo alle persone fisiche e sulla profilazione ai fini del Regolamento 2016/679», adottate il 3 ottobre 2017 e poi successivamente emendate, rappresentano un utile strumento43 per arricchire di contenuti alcune delle prescrizioni, che invero difettano di specificità come si è indi  E. Dagnino, op. cit., p. 16.   V. Turco, op. cit., p. 541. 43   F. Pizzetti, GDPR, Codice novellato e Garante nell’epoca dei Big Data e dell’Intelligenza Artificiale, in F. Pizzetti (a cura di), Protezione dei dati personali in Italia tra GDPR e Codice novellato, Torino 2021, p. 292. 41 42

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

446

Samuele Renzi

cato nel precedente paragrafo, previste dal Regolamento europeo. È evidente che si tratta di un documento che fornisce un mero ausilio esegetico e che non pone alcun obbligo ulteriore; tuttavia, l’esame di alcune previsioni può soccorrere l’interprete al fine di meglio regolare la messa a fuoco su alcune delle norme del GDPR dianzi richiamate. Con riferimento ai diritti di informazione, le Linee-guida confermano la ricostruzione poc’anzi operata, ponendo in capo al titolare del trattamento il mero dovere di «spiegare in maniera chiara e semplice alle persone interessate come funziona la profilazione o il processo decisionale automatizzato», sebbene riguardo al diritto di accesso venga indicato che «l’art. 15 conferisce all’interessato il diritto di ottenere informazioni dettagliate sui dati personali utilizzati per la profilazione, ivi comprese le categorie di dati impiegati per creare un profilo». Tali affermazioni parrebbero ampliare il perimetro del diritto di accesso, soprattutto alla luce della successiva precisazione contenuta nelle stesse Linee-guida, a mente della quale «oltre alle informazioni generali sul trattamento, ai sensi dell’art. 15, par. 3, il titolare del trattamento deve rendere disponibili i dati utilizzati come input per creare il profilo, e consentire l’accesso alle informazioni sul profilo e ai dettagli dei segmenti nei quali l’interessato è stato inserito». Per quanto non sia precisato il diritto a conoscere le ragioni e le modalità attraverso le quali il trattamento automatizzato abbia prodotto una decisione ben specifica, le Linee-guida paiono aggravare in maniera significativa gli obblighi del titolare del trattamento, a tutto beneficio del soggetto al quale appartengono i dati utilizzati, che vedrebbe estese le proprie possibilità di tutela. Il par. IV delle Linee-guida in commento si occupa in maniera esclusiva del contenuto di cui all’art. 22 del GDPR, nel tentativo di meglio definirne i contorni e la portata applicativa. Il documento conferma che il diritto a non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato conosce una vasta serie di eccezioni, tra le quali la più rilevante a fini lavoristici potrebbe essere quella ex lett. a). Dalle Linee-guida, tuttavia, parrebbe emergere una lettura restrittiva dell’ipotesi derogatoria, lì dove viene chiarito che il titolare del trattamento deve essere in grado di dimostrare che il tipo di trattamento automatizzato è realmente necessario, «tenendo conto della possibilità di adottare un metodo più rispettoso della vita privata». Viene, dunque, immaginata un’operatività residuale dell’eccezione, tale per cui «se esistono altri mezzi efficaci e meno invasivi per ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Decisioni, processi, profilazione e tutela dei diritti dei lavoratori

447

il conseguimento del medesimo obiettivo», il trattamento non può essere considerato «necessario», con applicazione dell’art. 22, par. 1, che obbliga il titolare del trattamento – ai fini, il datore di lavoro – ad assumere decisioni nelle quali sia coinvolto anche un decisore umano. A tale ultimo proposito, le Linee guida precisano opportunamente che le disposizioni di cui all’art. 22 non possono essere eluse attraverso la creazione di coinvolgimenti umani fittizi44. Il soggetto coinvolto nel processo deve influire in maniera effettiva sul risultato, magari anche confermando gli esiti cui sia pervenuta la macchina, ma dopo un attento scrutinio valutativo di essi, altrimenti la decisione dovrebbe dirsi comunque basata unicamente sul trattamento automatizzato. In generale, l’apporto interpretativo fornito dalle Linee-guida appare valido per meglio specificare alcune delle enunciazioni contenute nel testo del Regolamento, le cui disposizioni spesse volte si presentano ampie e sfuggenti, potendo dar luogo a incertezze applicative, non del tutto risolte ma sensibilmente diminuite alla luce delle indicazioni appena passate in rassegna. 5.3. Il d.lg. 30 giugno 2003, n. 196, meglio noto come «Codice in materia di protezione dei dati personali» o – più sinteticamente – «Codice della privacy», non si occupa in modo specifico di profilazione né di decisioni automatizzate, con riferimento alla loro rilevanza in ambito lavoristico. Non dovrebbe, tuttavia, sfuggire che le predette tipologie di trattamento non possono ritenersi estranee ai divieti posti dal sistema vigente di diritto del lavoro, dacché esse costituiscono soltanto dei meri strumenti attraverso i quali il datore di lavoro può esercitare le proprie facoltà e i poteri tipici a esso riconosciuti. A conferma di ciò, in materia di tutela della riservatezza dei prestatori di lavoro, il Codice, pur dopo le modifiche intervenute per adeguarne i contenuti alle innovazioni di cui al Regolamento n. 679, continua a richiamare, agli artt. 113 e 114, alcune norme appartenenti al sistema lavoristico, che meritano, dunque, di essere esaminate più in dettaglio. 5.4. Sulla scorta dei riferimenti appena menzionati, e non potendo approfondire la disamina, nell’economia del presente scritto, sul ruolo

44

  C. Tabarrini, op. cit., p. 555 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

448

Samuele Renzi

del diritto antidiscriminatorio45, preme concentrare l’attenzione sulle garanzie previste dallo Statuto dei lavoratori46, in specie agli artt. 4 e 8. Quanto ai controlli a distanza, disciplinati dall’art. 4 della l. 20 maggio 1970, n. 300 (St. Lav.)47, merita ricordare che l’art. 23, d.lg. 14 settembre 2015, n. 151, nell’ambito del più ampio intervento di riforma del mercato del lavoro noto come Jobs Act, ha tentato di adeguare al progresso tecnologico e informatico il testo della norma statutaria. Se, infatti, negli anni ’70, il controllo a distanza poteva essere concretamente espletato solo tramite l’installazione di appositi dispositivi, e pertanto il legislatore si era dedicato a regolare tale possibilità, nell’epoca attuale (ma, in effetti, già dalla fine degli anni ’80)48 sono ormai diffuse svariate possibilità di esercitare il controllo sui lavoratori non solo tramite appositi sistemi di sorveglianza ma anche per mezzo di strumenti di uso comune, indispensabili al fine di rendere la prestazione lavorativa (computer, palmari, telefoni c.d. smart, ecc.). Emersa, dunque, la necessità di disciplinare il potere di controllo da remoto anche con riferimento a tali dispositivi, il legislatore ha previsto, al comma 2 del riformato art. 4 St. Lav., che il regime autorizzativo di cui al comma 1 non si applichi agli strumenti utilizzati dal lavoratore per rendere la prestazione né ai dispositivi utilizzati per attestare la presenza sul luogo di lavoro, liberalizzando il potere di controllo esercitato per mezzo di tali dotazioni e dispositivi. Contemporaneamente, al fine di prevenire abusi, l’art. 4, per come riformato nel 2015, ha stabilito che le informazioni raccolte, sia con i dispo-

  Per cui si rimanda a: A. Rota, op. cit., p. 41 ss.; E. Dagnino, op. cit., p. 22 ss.   L. 20 maggio 1970, n. 300, di seguito, per brevità, menzionata anche come Statuto o St. Lav. 47   Per riferimenti più ampi si v. R. Del Punta, La nuova disciplina dei controlli a distanza sul lavoro, in Riv. it. dir. lav., 2016, p. 77 ss.; A. Ingrao, Il controllo a distanza sui lavoratori e la nuova disciplina privacy: una lettura integrata, Bari 2018; A. Maresca, Controlli tecnologici e tutele del lavoratore nel nuovo art. 4 dello Statuto dei lavoratori, in Riv. it. dir. lav., 2016, p. 512 ss.; V. Nuzzo, La protezione del lavoratore dai controlli impersonali, Napoli 2018; G. Proia, Trattamento dei dati personali, rapporto di lavoro e l’«impatto» della nuova disciplina dei controlli a distanza, in Riv. it. dir. lav., 2016, p. 547 ss.; L. Tebano, La nuova disciplina dei controlli a distanza: quali ricadute sui controlli conoscitivi?, in Riv. it. dir. lav., 2016, p. 345 ss. Sul punto si rinvia anche a W. Chiaromonte e M.L. Vallauri, I controlli a distanza sul lavoro nell’era digitale, contenuto nel presente volume. 48   M.T. Salimbeni, Nuove tecnologie e rapporti di lavoro: il quadro generale, in R. De Luca Tamajo, R. Imperiali d’Afflitto, C. Pisani e R. Romei, Nuove tecnologie e tutela della riservatezza dei lavoratori, Milano 1988, p. 22 ss. 45 46

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Decisioni, processi, profilazione e tutela dei diritti dei lavoratori

449

sitivi di cui al comma 1 sia con quelli di cui al comma 2, possono essere utilizzate «a tutti i fini connessi al rapporto di lavoro»49 purché venga data informazione ai lavoratori circa le modalità di controllo e, comunque, nel rispetto della disciplina posta a tutela della privacy, ampliando il campo di interazione fra il diritto del lavoro e il diritto della riservatezza. Premessi tali brevi richiami alla disciplina ex art. 4 St. Lav., occorre valutare se tale norma possa essere applicabile ai processi di trattamento automatizzato, segnatamente a quelli, anche descritti nei precedenti passaggi50, deputati al controllo dei lavoratori. La riflessione dovrebbe condurre a una risposta affermativa ove i processi automatizzati venissero effettivamente utilizzati per estrarre informazioni in forza delle quali controllare l’attività dei lavoratori e non come dispositivi attraverso cui trattare i dati raccolti per mezzo di altri strumenti di controllo, magari anche tradizionali. In questo secondo caso, infatti, il divieto ex art. 4 potrebbe, al più, operare nella fase svolta a monte, giacché il sistema automatizzato fungerebbe da mero ausilio per la lettura e l’analisi delle informazioni in esso convogliate. Viceversa, ove lo stesso sistema di trattamento algoritmico fosse utilizzato per controllare le «tracce digitali» che un lavoratore lasciasse impresse durante lo svolgimento della propria attività, soprattutto sulla rete, la norma statutaria vanterebbe pieno titolo per essere applicata. In tal caso, infatti, il datore di lavoro porrebbe in essere veri e propri controlli a distanza, per quanto realizzati attraverso algoritmi, i quali, quand’anche dovessero raccogliere e vagliare dati reperiti presso gli strumenti utilizzati dal lavoratore per rendere la prestazione lavorativa, dovrebbero almeno soggiacere ai limiti di cui al comma 3. Se tali premesse sono corrette, l’art. 4 St. Lav., da un lato, vieta in maniera secca l’installazione di sistemi di analisi dei dati che siano precipuamente deputati a realizzare il controllo dei lavoratori, poiché in tale caso verrebbe integrata la fattispecie di cui al comma 1, e, da altro lato, impone l’osservanza dei limiti di cui al comma 3 – quindi la necessaria informativa e, ancora una volta, il rispetto della disciplina in materia di privacy – allorché il controllo si risolva nell’esame di dati ricavabili dall’utilizzo degli strumenti di lavoro da parte del prestatore.

49   Dunque, anche per finalità di natura disciplinare, che, almeno di regola, costituisce il movente per cui il datore di lavoro si determina a effettuare operazioni di controllo. 50   Cfr. par. 3.3.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

450

Samuele Renzi

Passando all’esame dell’art. 8 St. Lav., è stato rilevato51 che la norma, nonostante la sua genesi risalente, continui a rappresentare un «punto fermo» nel sistema, dal momento che anche le macchine, nella loro attività di trattamento dei dati, dovrebbero rispettare i divieti che sono stati pensati, al tempo dell’emanazione dello Statuto, per contenere attività umane potenzialmente lesive della dignità e dei diritti fondamentali del lavoratore. Il divieto ex art. 8, spesso definito sinteticamente «divieto di indagini», prescrive, infatti, che sia precluso al datore di lavoro di acquisire e scrutinare una serie di informazioni personali del prestatore che non risultino rilevanti ai fini della valutazione dell’attitudine professionale52. L’eventualità che il potenziale conflitto tra l’attività di profilazione e il divieto di indagini si slatentizzi dando luogo a forme illegittime di trattamento dei dati è tutt’altro che remota. La creazione di descrizioni sintetiche dei lavoratori, come si è posto in evidenza in più di un passaggio, sovente avviene grazie all’analisi e all’aggregazione di informazioni che niente hanno a che fare con la professionalità dei prestatori, per tacere dei casi nei quali i dati che contribuiscono al processo di profilazione risultino reperiti presso fonti ignote persino al datore di lavoro o, ancora, frutto di inferenze governate dalla macchina. Le tutele previste dalla norma statutaria vantano il pregio di impedire alla radice la raccolta dei dati non inerenti allo svolgimento della prestazione lavorativa e, dunque, ove rispettate, costituirebbero un argine solido contro l’utilizzo illegittimo della profilazione e dei sistemi automatizzati. La possibile copertura offerta dall’art. 8 St. Lav. non vale, comunque, a risolvere le questioni che vengono poste dall’applicazione delle tecniche di decisione automatizzata nella gestione dei rapporti di lavoro. Il divieto di indagini è, difatti, un istituto congegnato in un’epoca nella quale non esistevano gli strumenti tecnologici odierni e sarebbe perciò ingenuo pensare di poter fare affidamento solo su di esso per disciplinare fenomeni assai complessi come quelli sottoposti a disamina.

51   M. Aimo, Dalle schedature dei lavoratori alla profilazione tramite algoritmi: serve ancora l’art. 8 dello Statuto dei lavoratori?, in Lav. dir., 2021, p. 585 ss. 52   Sul divieto ex art. 8 St. Lav., si rimanda a: S. Sciarra, Sub art. 8, in G. Giugni (diretto da), Lo Statuto dei lavoratori, Commentario, Milano 1979, p. 88 ss.; A. Ingrao, Sub art. 8, in R. Del Punta e F. Scarpelli (a cura di), Codice commentato del lavoro, Milano 2020, p. 1002 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Decisioni, processi, profilazione e tutela dei diritti dei lavoratori

451

Sembra perciò condivisibile l’autorevole opinione53 secondo cui l’art. 8 St. Lav. non possa più essere ritenuto «sufficiente» per regolare i fenomeni di cui si è tentato di offrire una descrizione nelle pagine precedenti. Ciò per almeno due ordini di ragioni. In primo luogo, non risulta sempre agevole comprendere quali dati siano stati utilizzati nell’ambito dell’attività di profilazione o nei processi decisionali automatizzati, per cui, allo stesso modo, non dovrebbe risultare automatica o scontata l’applicazione dell’art. 8. Inoltre, sul piano della tecnica normativa, i fenomeni in esame sembrano difficilmente correggibili attraverso l’imposizione di meri divieti ed è per questo che il GDPR ha tentato di offrire maggiore salvaguardia alla riservatezza dei dati personali dei dipendenti facendo leva sulla c.d. responsabilizzazione del titolare del trattamento (accountability). In forza di tale approccio, il soggetto che raccolga e utilizzi dati, ossia il datore di lavoro, dovrebbe dimostrare di aver adottato e attuato un peculiare modello organizzativo tale da garantire e un’adeguata tutela della riservatezza, anche in relazione alle specifiche caratteristiche di ciascun contesto lavorativo, e di osservare i principi di cui al medesimo Regolamento europeo, fra i quali appaiono particolarmente significativi quelli posti dall’art. 25. 6. La ricognizione intorno ai diversi istituti applicabili al fenomeno delle decisioni automatizzate in ambito lavorativo ha mostrato un andamento circolare: esaurita, infatti, la disamina delle norme statutarie e rilevatane l’insufficienza, si è reso opportuno richiamare il Regolamento n. 679, con qualche accenno alla tecnica normativa di cui esso costituisce predicato. Non pare, difatti, rivisitabile l’approccio coltivato dal diritto eurounitario circa la valorizzazione del principio di accountability nella gestione dei dati personali, anche dei lavoratori, capace di meglio rispondere alle esigenze regolative poste dalle più moderne tecnologie. Altrettanto meritevole di interesse si mostra l’impostazione di tipo partecipativo suggerita in dottrina54, la quale potrebbe favorire la predisposizione di strumenti collettivi di protezione della riservatezza dei prestatori e accrescere le cognizioni dei singoli intorno all’esistenza e al peculiare funzionamento dei sistemi di decisione automatizzata, ivi 53 54

  M. Aimo, op. cit., p. 585 ss.   A. Ingrao, “Data-Driven management”, cit., p. 138 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

452

Samuele Renzi

compresa la profilazione, adottati nelle diverse realtà aziendali. Ciò, per altro verso, imporrebbe agli attori collettivi, che davvero volessero occuparsi di un tema ad oggi ancora poco dibattuto in ambito sindacale, di creare i presupposti, anche mediante la formazione interna dei propri dirigenti e dei rappresentanti, per trattare dei fenomeni descritti in maniera informata e consapevole. Non vi sono, in conclusione, molti punti fermi nel dibattito, che anzi pare arricchirsi di giorno in giorno di nuove suggestioni, anche a causa della mutevolezza dei fenomeni osservati, sebbene possano individuarsi almeno due temi guida, la cui rilevanza è condivisa e dai quali non pare possibile prescindere. In primo luogo, l’utilizzo dei sistemi decisionali automatizzati in ambito lavorativo non impatta soltanto sulla privacy dei prestatori, ma anche su altri diritti fondamentali, segnatamente sulla dignità umana. Inoltre, si è rilevato come il principale snodo critico sia costituito dalla mancanza di trasparenza circa il funzionamento di tali sistemi, il che dovrebbe sollecitare l’introduzione di normative volte a porre rimedio a tali carenze informative e, nell’attesa, suscitare ulteriori riflessioni.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La tutela dei dati nella sfera del diritto privato

Sara Landini* Transizione digitale e mercato assicurativo**

Sommario: 1. Dalla Digital Transformation alla Smart Transformation: smart contract, smart governance, vigilanza smart, regolazione smart. – 2. Blockchain nella distribuzione, verifica della correttezza della documentazione e vigilanza. – 3. Assicurazione e liquidazione in blockchain. – 4. Assicurazione e aggiornamento delle condizioni di contratto in blockchain. – 5. Governance assicurativa e blockchain. – 6. Conclusioni.

1. La transizione digitale viene spesso definita come quella trasformazione che investe il tessuto sociale ed economico e che trova il proprio motore nelle tecnologie digitali secondo un progredire dalla digitization, alla digitalization, infine alla digital transformation1. Sembra limitativo vedere nella transizione digitale una modifica solo nei mezzi, delle tecniche. A ben vedere le tecnologie hanno rappresentato in parte la causa e in parte le conseguenze di un tessuto socio-economico sempre più connesso e condiviso. Si tratta di una transizione «smart» dove l’uso dell’inglese nasce non da spinte anglofile, ma dalla necessità che di usare un termine diffuso che unisce agilità e velocità. Non mutano solo i mezzi, la trasformazione è ben più profonda e generata non solo dai nuovi strumenti bensì dalla esigenza di trovare soluzioni a problemi nuovi. Le innovazioni tecnologiche hanno nel tempo portato a riflettere sulla necessità di innovare le regole e le categorie giuridiche. È stato così per il telegrafo, per il contratto concluso via internet dove al verbo o allo scritto si sostituisce l’azione della pressione del tasto invio, il «point and click»2. * Professoressa di Diritto dell’economia nell’Università di Firenze. ** Il presente saggio è stato pubblicato anche nella rivista Le Corti Fiorentine, 2021, III. 1   P.C. Verhoef, T. Broekhuizen, Y. Bart, A. Bhattacharya, J. Qi Dong, N. Fabian e M. Haenlein, Digital transformation: A multidisciplinary reflection and research agenda, in Journal of Business Research, Volume 122, 2021, pp. 889-901. Si veda anche J. Reis, M. Amorim, N. Melão e P. Matos, Digital Transformation: A Literature Review and Guidelines for Future Research, in Á. Rocha, H. Adeli, L.P Reis e S. Costanzo (a cura di), Trends and Advances in Information Systems and Technologies. WorldCIST’18 2018. Advances in Intelligent Systems and Computing, Berlin, 2018; C. Matt, T. Hess e A. Benlian, Digital transformation strategies, in Bus. Inf. Syst. Eng., 2015, pp. 339-343. 2  Cfr. G. Benedetti, Parola scritta e parola telematica nella conclusione dei contratti, in Aa.Vv., Scrittura e diritto, Milano 2000, p.  84 in particolare quest’ultimo © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

456

Sara Landini

Lo è oggi in caso di smart contract ovvero di contratto che vede nella sua conclusione e nella sua esecuzione l’impiego di tecniche di intelligenza artificiale; ci si chiede se la fattispecie contrattuale presenti delle particolarità che necessitano interventi normativi e/o di ricostruzione concettuale del fenomeno. In vero, ciò che caratterizza gli smart contracts è che la tecnologia non rappresenta solo un mezzo nuovo di comunicazione e/o azione per il diritto, ma si inserisce nel processo decisionale adiuvando la decisione umana o sostituendovisi o impedendo l’azione umana. Anche ritenendo superato l’approccio consensualista al contratto e ritenendo che il diritto «dia rilevanza giuridica non tanto al fatto psichico quanto al fatto sociale»3, abbiamo un quid novi rappresentato dall’uso degli algoritmi generati dall’umano pensiero ma dotati di capacità di apprendimento4 e in grado di intervenire nell’agere per il diritto. Con il termine smart contract si indica la procedura nella conclusione, esecuzione, gestione dei reclami nella fase post contrattuale dove le decisioni umane sono prese con l’intervento di applicazioni di intelligenza artificiale. Si è parlato al riguardo in altri settori di «decisione algoritmica»5, che va ad incidere su uno dei fondamenti del pensiero giuridico moderno ovvero la possibilità di imputare una condotta ad un soggetto in base alla autonomia del processo decisionale che ne è alla base6. Il

rileva come la novità delle procedure telematiche incide sotto il profilo del modo di comunicazione della dichiarazione. Non solo, ma anche la conclusione del contratto online richiede necessariamente il compimento di alcuni passaggi lato sensu documentali: inserimento dei dati della propria carta di credito e degli altri dati richiesti nel modulo di accettazione trasmesso per point&click. Sul punto R. Clarizia, Informatica e conclusione del contratto, Milano 1985, p. 19; E. Tosi, La conclusione dei contratti «on line», in I problemi giuridici di internet, Milano 2001, p. 32; C.M. Bianca, I contratti digitali, in Studium Juris, 1998, p. 1037; A. Gentili, L’inefficacia del contratto telematico, in Riv. dir. civ., 2000, p. 766; A.M. Gambino, L’accordo telematico, Milano 1997, p. 240; G. De Nova, Un contratto di consumo in Internet, in Contratti, 1999, p. 113. Da ultimo sul punto P. D’Elia, Il procedimento atipico di formazione del consenso nella contrattazione, in DMT, 2021, p. 1 ss. 3   A. Gentili, Senso e consenso. Storia, teoria e tecnica dell’interpretazione dei contratti, Torino 2015, p. 293. 4   Tra gli autori che si sono dedicati al tema dell’autoapprendimento della macchina in chiave positiva, come opportunità si veda P. Lin, K. Abney e R. Jenkins, Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence, Oxford 2017. 5   A. Cardone, Decisione algoritmica vs decisione politica? A.I. Legge Democrazia, Napoli 2021. 6  V.E. Calzolaio, Intelligenza artificiale ed autonomia della decisione: problemi ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Transizione digitale e mercato assicurativo

457

termine smart contract è poi associato a blockchain in quanto lo sviluppo della relazione contrattuale è automatico, grazie a codici informatici che validano la formula contrattuale automaticamente, al verificarsi di determinate condizioni prestabilite dai contraenti stessi. In sintesi, come noto, gli smart contract sono programmi software eseguiti in maniera distribuita dai miner (chi mette a disposizione i suoi computer per il processo di mining) di una rete basata su blockchain, definibile in maniera estremamente semplificata come un registro digitale, completamente aperto a chiunque, in cui le informazioni diventano praticamente immodificabili, ineliminabili e garantite da un sistema di codici crittografati. In questo modo si consente il processo di registrazione degli scambi (valori, denaro, informazioni, ecc.) e di tracciare in modo sicuro gli asset7. Dobbiamo ricordare che l’interazione tra l’essere umano e l’I.A. vede diversi livelli che dovranno essere tenuti in considerazione nel parlare di «decisione algoritmica», che potrà dirsi assoluta solo negli ultimi livelli che vedono una mera informazione dell’operatore umano. In generale e non solo per quanto riguarda i veicoli possiamo distinguere i livelli di automazione come segue: - al livello 1 l’operatore umano agisce e si rivolge al computer per attuare le sue azioni; - al livello 2 il computer aiuta l’operatore umano determinando le opzioni; - al livello 3 il computer suggerisce delle opzioni e l’operatore umano può scegliere di seguire la raccomandazione; - al livello 4 il computer seleziona l’azione e l’operatore umano decide se deve essere eseguita o meno; - al livello 5 il computer seleziona l’azione e la implementa se l’operatore umano approva l’azione selezionata; - al livello 6 il computer seleziona l’azione e informa l’operatore umano che può annullare l’azione; - al livello 7 il computer esegue l’azione e informa l’operatore umano;

e sfide, in E. Calzolaio (a cura di), La decisione nel prisma dell’intelligenza artificiale, Padova 2020, pp. 5-7. 7   Si veda A. Visconti e A Frisoni, Consenso e mining nella blockchain, in L. Ammannati e A. Canepa (a cura di), Tech law. Il diritto di fronte alle nuove tecnologie, Napoli 2020, p. 181 ss. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

458

Sara Landini

- al livello 8 il computer esegue l’azione e informa l’essere umano solo se l’operatore umano lo richiede; - al livello 9 il computer esegue l’azione e informa l’operatore umano solo se il computer decide che l’operatore deve essere informato; - al livello 10 il computer esegue l’azione se decide che deve essere eseguita. Il computer informa l’operatore umano solo se decide che l’operatore deve essere informato8. Nell’assicurazione, e in particolare nell’assicurazione auto (sia per la responsabilità civile sia property), vediamo diverse prospettive di intervento della «decisione algoritmica». 1. In distribuzione È possibile valutare meglio il rischio ed è possibile dare consigli agli assicurati su come ridurre il rischio e, di conseguenza, il premio (ad es. con la installazione di dispositivi di assistenza alla guida). 2. Durante la vita del contratto È possibile monitorare la circolazione dell’auto e regolare il premio. Vedi l’assicurazione PAYD (pay as you drive, paghi come guidi) e PHD (pay how you drive, paghi come guidi). Quindi i conducenti pagano un premio in base al loro comportamento di guida e al grado di esposizione al rischio. 3. Nell’esecuzione ed in particolare per quanto riguarda l’indennizzo e la valutazione del sinistro, grazie alle scatole nere è possibile monitorare i sinistri, ricostruirne la dinamica e quantificare l’entità dei danni cagionati. Da queste prime considerazioni si può dire che il c.d. smart contract, ovvero quelle ipotesi in cui l’intelligenza artificiale entra nel procedimento contrattuale9, vede delle caratteristiche che vanno ad impattare sulla 8   Vedi anche SAE J3016™ Recommended Practice: Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles, commonly referenced as the SAE Levels of Driving Automation™, Sae.org. Qui sono in realtà distinti 5 livelli. 0 (no automation), 1 (driver assistance), 2 (partial automation), 3 (conditional automation), 4 (high automation), and 5 (full automation). 9   Lo schema che vede l’inserimento della intelligenza artificiale trova migliore collocazione nella teoria del procedimento che non in quella della fattispecie anche a formazione progressiva. Sull’idea di procedimento nel diritto privato S. Romano, Autonomia privata, Milano 1957, p. 100 (ristampa autonoma del saggio pubblicato in Riv. trim. dir. pubbl., 1955, p.  501 ss.); Id., «Agere» (contributo allo studio del procedimento giuridico nel diritto privato), in Studi in onore di G. Zanobini, Milano 1962, p. 513 ss. ora in Scritti minori, Milano 1980, p. 945 ss.; G. Furgiuele, Il contratto con effetti reali tra procedimento e fattispecie complessa: prime osservazioni, in

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Transizione digitale e mercato assicurativo

459

produzione degli effetti giuridici ponendo nuovi elementi da ricondurre all’interno della cornice costituzionale10, si pensi a scelte algoritmiche che, sulla base di correlazioni e profilazioni, portano a discriminazioni, a svantaggi per i soggetti più deboli, a soluzioni non ecosostenibili. Sul punto con riguardo al settore assicurativo vengono in mente le parole dell’attuale segretario generale di IVASS Stefano De Polis secondo il quale «particolare rilevanza assumono taluni temi etici, da ricondurre per lo più a rischi di inaccettabile discriminazione in fase di offerta, laddove ci si basi su algoritmi non trasparenti o supportati da tecniche non radicate in solidi principi e prassi attuariali. Anche l’uso di dati genetici, in genere per ora non consentito dalle norme europee e nazionali, andrà presidiato per evitare aggiramenti sostanziali tramite proxy digitali. Un ulteriore tema eticamente sensibile riguarda quelle pratiche che ottimizzano i premi delle polizze, e in generale i prezzi dei prodotti finanziari, non solo in relazione ai rischi sottostanti ma anche avendo riguardo a caratteristiche come il tenore di vita, le abitudini o lo stato emozionale dei clienti. La personalizzazione spinta di prodotti e tariffe può accrescere l’esclusione di alcune fasce di popolazione dal mercato assicurativo e, in ogni caso, rendere difficile il confronto tra prodotti simili ma specifici per singoli consumatori. Può essere messo a rischio il principio di mutualità che fonda il metodo assicurativo di gestione dei rischi, che invece va preservato. Lo sfruttamento delle basi dati deve poi confrontarsi con le disposizioni sulla protezione dei dati (GDPR), che possono porre limiti di utilizzo non solo per il settore assicurativo in cui gli strumenti di data analytics sono da sempre una componente fondamentale del business»11. Occorre quindi considerare che l’intervento dell’intelligenza artificiale nei processi decisionali che portano alla conclusione del contratto vede differenti livelli. Diritto privato, Il trasferimento di proprietà, 1995, p. 101 ss. Si tratta della “necessita` di dare più preciso significato a espressioni quali “svolgimento”, “esercizio” dei poteri” in chiave non individualistica come diceva S. Romano in «Agere» (contributo allo studio del procedimento giuridico nel diritto privato), in Studi in onore di G. Zanobini, Milano 1962, p. 513 ss. ora in Scritti minori, Milano 1980, p. 945 ss. 10   Da tempo la dottrina ha posto attenzione sul contesto costituzionale del potere di autonomia privata (v. tra i contributi più recenti di uno dei Maestri fondatori del tema P. Perlingieri, Stagioni del diritto civile, 2021, p. 126). 11   S. De Polis, Le nuove tecnologie digitali applicate alla finanza: il punto di vista del regolatore, intervento alla 51 giornata del credito, in Ivass.it. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

460

Sara Landini

Come vedremo nel mercato assicurativo queste stesse logiche si ripetono anche nella governance dell’impresa, nella vigilanza e nella regolazione, aspetti questi che non possono essere considerati separatamente rispetto al momento contrattuale se si vogliono evitare incongruenze argomentative. 2. La distribuzione assicurativa vede un incedere di passaggi procedimentali scanditi da obblighi di documentazione, di informazione, di registrazione, di comunicazione12. L’intera disciplina è stata sottoposta a revisione a seguito della Direttiva 97/2016 nota come IDD che ha portato ad una novellazione del codice delle assicurazioni private (d.lg. 209/2005, da ora in poi CAP) e poi ai regolamenti IVASS nn. 40 e 41 del 2018. L’adempimento di tali obblighi potrebbe essere guidato e registrato, anche ai fini della conservazione e della prova della corretta esecuzione, attraverso l’uso di blockchain. Il dlgs. approvato il 15 maggio 2018 ha modificato il CAP introducendo gli artt. 119-bis ss. contenenti obblighi comportamentali dei distributori che sono informati a nuovi principi. In particolare si segnala come alla diligenza, canone di «misurazione» del corretto adempimento alle obbligazioni di cui all’art. 1176 c.c., si sostituisce il concetto di equità, introducendo così un’idea di equo bilanciamento di diritti e obblighi nei contratti che si vanno concludendo per il tramite della distribuzione assicurativa. L’art. 119-bis prevede infatti che «I distribu-

12   Questa parte riprende in sintesi quanto da noi esposto in Attività di distribuzione assicurativa e riassicurativa, in La Torre (a cura di), Le assicurazioni, Milano 2000, pp. 1657-1772. Sul punto si veda Aa.Vv., Commento artt. 106-121 cod.ass., in F. Capriglione (a cura di), Il codice delle assicurazioni private, Padova 2007, p. 3 ss.; D. Balducci, Il broker e l’agente assicurativo, Milano 2000; P. Bilancia (a cura di), La regolazione dei mercati di settore tra autorità indipendenti nazionali e organismi europei, Milano 2012; M. Bin, Commentario al codice delle assicurazioni private, Padova, 2002; G. Bonilini, Il broker di assicurazioni, in Aa.Vv., I collaboratori dell’assicuratore, Torino 1991; A. Candian e G. Carriero, Diritto delle assicurazioni, Milano 2004; A. Candian e G. Carriero, Commentario al codice delle Assicurazioni private, Napoli 2019, art. 106 ss.; R. Franceschelli, Agenzia (contratto di), EdD, Milano 1999, p. 86 ss.; M. Franzoni, Diritto delle Assicurazioni, Bologna 2016; D. Imbruglia, La regola di adeguatezza e il contratto, Milano 2017; A. La Torre, La disciplina giuridica dell’attività assicurativa, Milano 1987; P. Marano, Intermediari di assicurazione e di riassicurazione, in S. Amorosino e L. Desiderio (a cura di), Il nuovo codice delle assicurazioni, Milano 2006; Id., L’intermediazione assicurativa. Mercato concorrenziale e disciplina dell’attività, Torino 2013; F. Santi, Intermediazione e distribuzione assicurativa, Milano 2009; G. Volpe Putzolu, Le assicurazioni. Produzione e distribuzione. Problemi giuridici, Bologna 1992.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Transizione digitale e mercato assicurativo

461

tori di prodotti assicurativi operano con equità, onestà, professionalità, correttezza e trasparenza nel miglior interesse dei contraenti». L’informativa è ordinata a criteri di semplificazione. Sul punto si ricorda come da ultimo la comunità Europea sembra aver preso atto che la eccessiva quantità di informazioni (information overload) può distogliere l’attenzione dei clienti, scoraggiare la lettura della abbondante documentazione informativa e impedire di focalizzare l’attenzione sugli elementi essenziali ai fini della formulazione di una scelta consapevole. Inoltre la mancanza di standardizzazione dei documenti informativi è di ostacolo ad una corretta comparazione dei prodotti presenti sul mercato. Queste le linee che rispondono all’art. 20 di IDD e al Regolamento UE 11 agosto 2017, n. 1469. L’art. 20 di IDD in particolare prevede che, in relazione alla distribuzione di prodotti assicurativi non vita, le informazioni sono fornite per mezzo di un documento informativo standardizzato relativo al prodotto assicurativo, disponibile su supporto cartaceo o altro supporto durevole. L’art. 120-quater, comma 7 rinvia ad un regolamento di IVASS per la disciplina della struttura del documento da consegnare ai contraenti. Sul punto si ricorda, come IVASS, su impulso del Regolamento 1469 è intervenuta con il già richiamato regolamento 40/2018 a proporre modifiche del regolamento 35/2010. Il Regolamento reca una nuova disciplina volta a semplificare l’informativa precontrattuale delle polizze danni al fine di «soddisfare la perdurante esigenza di semplificazione dell’informativa precontrattuale dei prodotti danni tenuto conto del nuovo quadro normativo prodotto dal consolidamento della disciplina europea in tema di IPID (Insurance Product Information Document)», il cui schema definitivo è stato pubblicato nella Gazzetta Ufficiale dell’Unione europea del 12 agosto 2017 appunto secondo il già richiamato Regolamento della Commissione n. 2017/1469 dell’11 agosto 2017. A livello europeo per i prodotti di investimento assicurativi (IBIPs, Insurance Based Investment Product) le imprese d’assicurazione sono obbligate a redigere dal 1° gennaio 2018, il documento standardizzato base “KID” (Key Information Document) previsto dal Regolamento UE n. 1286/2014, adottato in Italia con il d.l. n. 224 del 14 novembre 2016 che ha introdotto alcune modifiche al d.lg n. 58 del 24 febbraio 1998 (Testo Unico dell’intermediazione finanziaria, “TUF”). Nei prodotti di investimento assicurativi il capitale e la rendita presentano possibilità di fluttuazioni in base all’andamento dei mercati finanziari. Si tratta di prodotti assicurativi sulla vita di cui al ramo I (polizze rivalutabili e a gestione separata), al ramo III (polizze unit e index linked), al ramo V (operazioni di capitalizzazione), nonché dei © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

462

Sara Landini

prodotti cosiddetti multiramo, che combinano due rami vita (ad esempio ramo I e ramo III, quale componente di investimento). La complessità di questi prodotti ha richiesto un intervento ad hoc a tutela dell’investitore soprattutto nella fase precontrattuale. Cercando di sintetizzare la complessa normativa possiamo dire che è predisposto un sistema informativo precontrattuale omogeneo per i rami vita e danni imperniato sulla redazione di tre documenti precontrattuali standard di base: a) l’IPID per i prodotti danni (previsto dalla normativa UE); b) il DIP Vita per i prodotti vita di “puro rischio” (previsto dal CAP come specificità nazionale); c) il KID per i prodotti d’investimento assicurativi (previsto dalla normativa UE e in particolare). I documenti di base sono affiancati, secondo le indicazioni dell’art. 185 CAP, da uno specifico «DIP aggiuntivo». Si rende centrale nella attività di distribuzione la consulenza al cliente ordinata alla regola del «know your customer» al fine di realizzare nel modo più «adeguato» il suo interesse. Si introduce un articolo nel CAP (119 ter) ordinato a disciplinare la consulenza e la distribuzione in assenza di consulenza. Prima della conclusione del contratto il distributore è tenuto a: a) acquisire dal contraente ogni informazione utile a identificare le richieste ed esigenze del contraente medesimo, al fine di valutare l’adeguatezza del contratto offerto; e b) fornire allo stesso informazioni oggettive sul prodotto assicurativo in una forma comprensibile al fine di consentirgli di prendere una decisione informata. In particolare al 4° comma dell’art. 119-ter si dice che «Se viene offerta una consulenza prima della conclusione del contratto, il distributore di prodotti assicurativi fornisce al contraente una raccomandazione personalizzata contenente i motivi per cui un particolare contratto è ritenuto più indicato a soddisfare le richieste e le esigenze del contraente medesimo». La norma è strettamente collegata alla disciplina in materia di Governo del prodotto, che esamineremo a breve, e che vede una interazione tra intermediari e imprese nell’interesse del cliente, tema che affronteremo nelle pagine a seguire con riferimento agli obblighi alle imprese. Uno dei più importanti mutamenti di prospettiva introdotti da IDD nella distribuzione dei prodotti assicurativi riguarda il passaggio dai fiduciary duties alla suitability rule, ovvero il passaggio dagli obblighi di informativa, che nascono dal rapporto fiduciario tra l’intermediario e/o l’assicuratore e il cliente nella distribuzione del prodotto, ad un obbligo di fornire al cliente il prodotto più adeguato alle sue ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Transizione digitale e mercato assicurativo

463

richieste e esigenze. Al fine di eliminare i prodotti non rispondenti o non più rispondenti al mercato di riferimento l’art. 25 di IDD prevede che sia le imprese sia gli intermediari adottino e gestiscano specifiche procedure volte alla preventiva approvazione e definizione dei relativi contenuti così come di ogni modifica significativa prima della commercializzazione. Tali procedure dovranno includere: analisi del mercato di riferimento, della strategia di distribuzione; adozione di misure di verifica; adozione di criteri di revisione periodica, tanto dei prodotti che della procedura stessa, per garantire la costante adeguatezza del prodotto alle esigenze del mercato. Il concetto di Product Governance viene introdotto nel mercato finanziario dalla direttiva 65/2014 Mifid 2 e può dirsi costituito da quell’ insieme di previsioni tese ad imporre agli intermediari un assetto organizzativo e regole di comportamento relative alla creazione, offerta e distribuzione dei prodotti finanziari agli investitori. Si assiste così ad una modifica delle modalità apprestate dall’ordinamento per la tutela dell’investitore: non più una tutela esclusivamente attraverso la disciplina della trasparenza e dell’informativa nella commercializzazione dei prodotti e nel contenuto dei contratti; con la Mifid si introduce un nuovo principio generale in base al quale, nella prestazione dei servizi, gli intermediari sono tenuti ad agire sempre in modo da servire al meglio gli interessi dei loro clienti. La tutela dell’investitore non è più limitata all’imposizione di una regolamentazione del rapporto intermediario-investitore in termini di informativa e trasparenza, ma viene portata all’interno dell’assetto organizzativo dell’intermediario imponendo a questi una serie di vincoli volti ad assicurare che la tutela dell’investitore divenga parte del modello di compliance dell’intermediario stesso. Questa dinamica propria dei prodotti finanziari finisce con IDD per riproporsi anche per la distribuzione assicurativa nel momento in cui si parla di obbligo di adeguatezza e attuazione del «best interest of the customer». La governance del prodotto, che nel mercato assicurativo era più propriamente a carico dell’assicuratore, si sposta anche a carico dell’intermediario, imponendo alle imprese, però, nuovi obblighi di governance nella gestione dei loro rapporti con i distributori in termini soprattutto di flussi informativi secondo nuove sinergie tra imprese e intermediari e con un chiaro indirizzo di customer care; il che porta e a riflettere sugli stessi confini della responsabilità e corresponsabilità delle imprese di assicurazione rispetto ad atti o fatti dei propri mandatari o collaboratori. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

464

Sara Landini

La product governance non elimina i passati strumenti di tutela dell’investitore e in primis la trasparenza, che però diviene complessa e articolata in una logica che non si esplica solo nella chiarezza e comprensibilità, negli obblighi di informativa, nella consulenza, ma anche nella conclusione di contratti che rispondano alle esigenze del cliente attraverso una serie di obblighi, nella redazione della documentazione e nella proposizione della stessa, ordinati ad accertare che il cliente abbia realmente compreso le proprie esigenze e cosa il prodotto possa offrirgli in concreto13. 13  Quanto all’acquisizione di informazioni dal cliente finalizzata all’offerta di prodotti adeguati, la nostra giurisprudenza da tempo prima della modifica del CAP a seguito di IDD, pur non riconoscendo un obbligo per i clienti a rilasciare informazioni e un obbligo per l’intermediario, in caso di mancata disclosure, di astenersi da portare a conclusione il contratto, afferma che l’obbligo di valutare l’idoneità e la adeguatezza non viene meno in caso di mancata risposta del cliente. Si dice infatti che «In tema di intermediazione finanziaria, la mancata offerta di informazioni da parte del cliente certo non esime la banca dal dovere di capire l’atteggiamento e i bisogni di investimento del cliente, né dal fornire tutte le informazioni idonee a consentire al cliente di addivenire ad impartire consapevolmente l’ordine di acquisto, essendogli note caratteristiche, tipologie e rischi connessi all’investimento. La banca è anche tenuta a valutare comunque l’adeguatezza dell’operazione, nel qual caso quella valutazione va condotta in base ai principi generali di correttezza e trasparenza, tenendo conto di tutte le notizie di cui l’intermediario sia in possesso come, ad esempio, l’età, la professione, la presumibile propensione al rischio alla luce delle operazioni pregresse e abituali, la situazione di mercato». In tal senso si è pronunciato il Tribunale Prato, 18 maggio 2016, n. 490 in Banca dati De Jure. Precisa inoltre il Tribunale «Nè prova l’assolvimento dei doveri informativi da parte della banca l’indicazione riportata nell’ordine di acquisto e sottoscritta dal cliente nella quale il cliente “dichiara di avere ricevuto informazioni adeguate sulla natura, sui rischi e sulle implicazioni del presente ordine e di avere preso nota delle clausole che lo contraddistinguono»: questa dichiarazione di per sè non vale ad assolvere la banca dagli obblighi informativi prescritti dagli art. 21 d.lg. n. 58 del 1998 e 28 del reg. Consob n. 11522 del 1998, ed inoltre costituisce una dichiarazione riassuntiva e generica che nulla dice circa la completezza dell’informazione (Cass., Sez. I, 06-07-2012, n. 11412). Tale è l’unanime, e condivisibile posizione della Suprema Corte, pienamente confermativa della giurisprudenza di merito (per tutte: C.d.A Milano, 28-02-2011), che, in tema di intermediazione finanziaria e di obblighi di informazione a carico dell’intermediario ex art. 21, 1 comma, lett. b), D.Lgs. 58/98 e art. 28 reg. Consob 11522/98, ribadisce che vi è un vero e proprio obbligo della banca intermediaria, prima di effettuare operazioni, di fornire all’investitore un’informazione che sia adeguata in concreto, e cioè tale da soddisfare le specifiche esigenze del singolo rapporto, in relazione alle caratteristiche personali e alla situazione finanziaria del cliente: la banca quindi, anche a fronte della barratura delle caselle relative alla c.d. informazione attiva, dovrebbe comunque fornire la prova di avere, in concreto, dato le informazioni adeguate «in concreto» a colmare la c.d. asimmetria informativa che contraddistingue il rapporto tra intermediario e investitore non qualificato.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Transizione digitale e mercato assicurativo

465

Questo complesso di procedure potrebbe trovare semplificazione con riduzione di errori umani se automatizzato. Come noto blockchain funziona come un registro decentralizzato e crittografato, nel quale, in tempo reale, vengono annotate innumerevoli operazioni senza che nessuno possa modificare quello che c’è scritto a livello centrale, ma ogni modifica o aggiornamento può avvenire solo dopo aver ricevuto il consenso da parte di tutte le parti interessate nell’operazione da registrare o modificare. Blockchain consente così di raccogliere, verificare e condividere dati di vario genere in modo sicuro e trasparente. Secondo l’Osservatorio europeo sulla blockchain, organo creato dalla Commissione Europea al fine di monitorare le iniziative di blockchain in Europa e creare conoscenza in materia accessibile a tutti, l’applicazione di tale tecnologia è utile per risolvere alcuni problemi cruciali nei rapporti con le pubbliche amministrazioni come la fiducia, la trasparenza e la sicurezza14. Lo stesso potrebbe dirsi nella distribuzione assicurativa in cui fiducia, trasparenza e sicurezza sono di centrale rilevanza nelle interazioni tra i vari attori del mercato (clienti, imprese di assicurazione e intermediari). L’impiego di blockchain nelle pubbliche amministrazioni finisce per avere affinità con i mercati regolamentati anche per come potrebbe inserirsi in questa catena di adempimenti il controllo delle Authorities, in quanto ogni operazione sarà tracciabile. Inoltre, un’operazione sul registro, scritta nel blocco, non può essere cancellata, e ciò rende sicura anche la funzione di revisione delle operazioni per la potenziale riduzione di frodi, aspetto molto importante

Nel caso in esame la banca, a fronte dell’eccepito inadempimento da parte sua, non ha, invero, fornito la prova di avere adempiuto alle specifiche obbligazioni poste a suo carico e allegate come inadempiute dalla controparte e, sotto il profilo soggettivo, di avere agito “con la specifica diligenza richiesta” (Cass., n. 18039/2012 che conferma - tra le altre – sent. 3773 del 2009, n. 22147 del 2010)». Si tratta di una sentenza che riguarda un caso di intermediazione finanziaria ma che per le ragioni sopraesposte deve essere tenuta in considerazione anche in caso di distribuzione di prodotti assicurativi. Analoghe conclusioni possono essere proposte nel caso in cui dalle risposte dell’assicurato emerga un quadro di inadeguatezza e di inappropriatezza dei prodotti assicurativi offerti. Anche ove l’assicurato manifesti la cosciente intenzione di portare a conclusione il contratto questo non sarà possibile in quanto l’intermediario e l’assicuratore debbono offrire prodotti adeguati come sancito all’art. 20 di IDD. 14  European Commission, Blockchain for Government and Public Services, Bruxelles, 2018 in Eublockchainforum.eu: «One of the most important set of use cases for blockchain in government is around the verification of records and sharing of data of various kinds». © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

466

Sara Landini

per le applicazioni di blockchain nel mercato assicurativo. Per imprese e intermediari avere un database condiviso può aiutare nei rapporti con le Autorità di controllo, per quanto riguarda la semplificazione degli adempimenti formali, e con i clienti, per quanto riguarda la gestione dei database informativi, la loro condivisione con parti interessate, previa autorizzazione dei clienti, e la più precisa pianificazione delle attività di business. Dal lato della vigilanza un efficiente sistema di e-government porterebbe ad una riduzione dei costi economici e degli sprechi di tempo. Data la condivisione di dati, sia nei rapporti intra-governativi che fra il pubblico e i privati, ci sarebbe una riduzione della complessità burocratica e del potere di discrezione dei pubblici dipendenti. La distribuzione assicurativa vede una progressione di passaggi procedurali scanditi da obblighi di documentazione, informazione, registrazione e comunicazione condizionati all’adeguatezza dei contratti assicurativi rispetto alla richiesta e alle esigenze dell’assicurato. L’adempimento di tali obblighi potrà essere guidato e registrato, anche ai fini della conservazione e della prova della corretta esecuzione, mediante l’utilizzo di «catene di blocchi». Blockchain permette di raccogliere, verificare e condividere dati di vario genere in modo sicuro e trasparente e potrebbe anche facilitare al fine di trovare i prodotti più adeguati sul mercato. Questi dati possono infatti includere le richieste e le esigenze dei clienti, i risultati della loro profilazione e i dati sui prodotti15. A nostro avviso, per quanto quella che è stata da più parti definita come una «mifidizzazione» del mercato assicurativo abbia portato ad un appiattimento del concetto di adeguatezza indipendentemente dal tipo di prodotto assicurativo (danni, vita, vita-finanziario), non si deve dimenticare come la misurazione dell’adeguatezza risulti diversa nel ramo vita e nel ramo danni. Nelle polizze vita le esigenze del cliente previdenziali e di investimento, diversamente dosate nei prodotti vita non IBIPs e IBIPs16, sono parametrabili al suo patrimonio, alle aspettative di durata della vita in base alle tabelle di sopravvivenza e di mortalità, alle sue concrete aspettative di entrate. Nel ramo danni la pluralità 15   Sulla profilazione dei clienti in ambito assicurativo si veda A. Nazzaro, in A.C. Nazzaro e S. Landini, Blockchain e assicurazioni, Dei singoli Contratti, D. Valentino, Leggi collegate, codice civile commentato Gabrielli, Torino 2020, pp. 418-424. 16   P. Corrias, La causa del contratto di assicurazione: tipo assicurativo o tipi assicurativi?, in Riv. dir. civ., 2013, p. 70.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Transizione digitale e mercato assicurativo

467

di variabili contrattuali attraverso cui valutare le esigenze dei clienti (premio, massimale, franchigia, esclusioni ecc.) rende difficile misurare l’adeguatezza del prodotto. Riteniamo quindi che, anche per quando riguarda la profilazione del cliente e l’adeguatezza del prodotto determinata attraverso processi algoritmici, sia necessario distinguere: nel ramo vita l’adeguatezza è più misurabile. Nel mercato finanziario sono già in essere metriche che consentono di quantificare l’aderenza del prodotto ai profili di adeguatezza ed adeguatezza rispetto al profilo del cliente; nel ramo danni non sono ancora presenti metriche, l’adeguatezza trova ancora una determinazione non quantitativa. Si tratta di pensare a possibili misurazioni anche in questo settore, ma l’adeguatezza rimane solo tendenziale. Blockchain diventa anche uno strumento di vigilanza efficace che consente di fare ispezioni mirate e non solo agli intermediari ma anche alle compagnie tenuto conto di determinati indici evidenziati dal sistema. Sempre sul fronte dell’uso della digitalizzazione in funzione ispettiva si ricorda il mystery surfing digitale, di derivazione dal mistery shopping (servizio volto, attraverso acquirenti ispettori in incognito, a rilevare irregolarità o illeceità nel mercato). Inoltre dallo scorso anno IVASS partecipa, come membro del Comitato Scientifico, alla sperimentazione condotta dalla Insurance Blockchain Sandbox (IBS), che sta testando tale tecnologia in alcuni ambiti del mercato assicurativo. 3. A differenza dell’assicurazione sulla vita dove è previsto un determinato capitale o rendita al verificarsi dell’evento in copertura, nelle assicurazioni contro i danni, ex art. 1905 c.c., l’assicuratore è tenuto ad una prestazione pecuniaria commisurata alla perdita che potrà essere determinata in concreto oppure su base tabellare nelle assicurazioni malattie infortuni dove però la fase liquidatoria sussiste e importa di compiere accertamenti sul sinistro per verificarne la copertura e il livello di invalidità lasciati dalla malattia o dall’infortunio. La dottrina ritiene comunque che le disposizioni contenute nel codice civile lascino aperta all’autonomia contrattuale la determinazione dei modi di adempimento dell’assicuratore che potrebbe adempiere anche in natura con determinate prestazioni, ad esempio di servizi, che vanno a rilevare il danno patito dall’assicurato17. 17   Cfr. E. Bottiglieri, Dell’assicurazione contro i danni, in Comm. c. c. Schlesinger, Milano 2010, pp. 92-93.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

468

Sara Landini

La prestazione indennitaria dell’assicuratore è, quindi, commisurata in base all’entità della perdita subita dall’assicurato in ragione del sinistro e alle disposizioni contrattuali. L’inserimento di dati relativi ai profili liquidatori nella catena di connessioni può consentire di elaborare più velocemente e con una consistente riduzione di errori umani l’entità del danno. In questa fase blockchain può anche servire per evidenziare alcune anomalie (ricorrenza di sinistri, difformità tra sinistro denunciato e altri dati in possesso dell’assicuratore ecc.) che possano aiutare a svelare eventuali frodi come avremo modo di vedere e secondo un uso di dati da tempo sfruttato soprattutto nel settore dell’assicurazione obbligatoria automobilistica. Come detto l’assicuratore non garantisce l’integrale ristorazione della perdita subita dal danneggiato, ma pone solitamente limitazioni di vario genere. L’indennizzo potrà trovare delimitazione attraverso l’apposizione di franchigie ovvero di clausole che lasciano a carico dell’assicurato una parte del danno: in caso di franchigia semplice l’assicuratore si obbliga a indennizzare soltanto i sinistri determinanti danni al di sopra di una certa soglia; in caso di franchigia assoluta, invece, l’assicuratore detrarrà dall’indennità dovuta un certo ammontare. Diverso è lo scoperto obbligatorio con cui l’assicurato mantiene a proprio carico una certa percentuale di rischio. Limitazioni possono aversi anche con l’apposizione di un massimale ovvero di una condizione, convenzionale o di legge, con cui si delimita la prestazione indennitaria dell’assicuratore che in mancanza di tale determinazione sarebbe stabilita esclusivamente in relazione all’entità del danno. Si potrà avere una coincidenza del valore del bene e della somma assicurata. In questo caso si parlerà di assicurazione piena. Si potrà anche avere una somma assicurata inferiore o superiore al valore del bene. In questi casi si parlerà rispettivamente di sotto o di soprassicurazione. La funzione di tali delimitazioni dell’indennizzo è duplice. Da un lato limitano l’esposizione debitoria dell’assicuratore, da un altro esplicano una funzione deterrente rispetto a condotte di “azzardo morale” dell’assicurato. Si tratta, quindi, di clausole da collocare, non solo nella logica di

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Transizione digitale e mercato assicurativo

469

una limitazione della responsabilità dell’assicuratore, ma anche in una logica di tutela dell’ordine pubblico18. È in questo incedere di dati (denuncia di sinistro, rilievi dei periti, accertamenti sulla sussistenza della copertura, massimali, franchigie, scoperti obbligatori, compresenti coperture per lo stesso rischio ai sensi dell’art. 1910 c.c. ai fini della ripartizione dell’indennizzo tra i vari assicuratori, esercizio della surroga ex art. 1916 c.c.[…]) che può inserirsi un processo automatizzato nei risultati liquidatori. Nel sistema di liquidazione del danno in concreto qui delineato, però, è ancora molto importante l’azione umana e in specie quella dei periti. Con particolare riguardo alla copertura di grandi rischi, al fine di ridurre i tempi e i costi della liquidazione si fa strada l’idea di assicurazioni index based19. In questo caso l’uso di blockchain consente di correlare dati (ad esempio relativi a condizioni metereologiche), estrarre indici sulla base dei quali sono determinati gli indennizzi e anche dati relativi a monitoraggi sul rispetto delle condizioni di assicurabilità della impresa assicurata (adozione di tecniche di adattamento al cambiamento climatico e di resilienza). Queste polizze stanno trovando impiego soprattutto in ambito agricolo. Con riferimento ai rischi che colpiscono le attività agricole il problema della operatività di soluzioni assicurative riguarda l’entità del corrispettivo (premio o contributi di partecipazione al fondo mutualistico) legato non solo al tipo di rischio, ma anche a costi propri dell’operazione e a meccanismi di selezione avversa che portano solo i soggetti più esposti ad un determinato evento catastrofale ad assicurarsi. Il primo aspetto ha trovato soluzione in tecniche attuariali nella gestione di eventi catastrofali. Relativamente ai costi di liquidazione ci riferiamo in particolare a oneri relativi: i) all’accertamento tecnico dei danni dichiarati (sussistenza e consistenza dei danni, valutazione se in copertura): - costi attrezzature - costi personale tecnico per i rilievi - costi sopralluoghi (spese missione del personale, spese personale)

18   Cfr. A. Donati e G. Volpe Putzolu, Manuale di diritto delle assicurazioni, Milano 2019, p. 149 ss. 19   Il testo riprende le nostre conclusioni in Credito e garanzie all’agricoltura, Napoli 2018, p. 17 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

470

Sara Landini

- costi consulenza (non sono necessari accertamenti tecnici ulteriori rispetto ai precedenti); ii) alle consulenze per la valutazione della eventuale adozione o meno di tecniche di prevenzione; iii) alla valutazione in ordine alla sussistenza di eventuali cause di esclusioni (ad es. verifica se vi è stato intervento prima dell’accertamento tecnico ad esempio raccolta del prodotto o sostituzione della coltura prima dell’accertamento tecnico), di eventuali concause (ad esempio cause tecniche dovute a negligenza dell’assicurato), alla valutazione di danni lungo latenti. Oltre ai costi di liquidazione, assumono rilevanza i costi di prevenzione. In caso di assicurazioni agricole i costi di prevenzione sono relativi a visite periodiche sul campo per la verifica dell’andamento della produzione ed eventuali consigli agronomici da dare all’assicurato. Si tratta di individuare meccanismi che riducano l’attività di liquidazione e che al contempo permettano di ridurre gli effetti di selezione avversa pur mantenendo un alto livello di prevenzione. Tra le soluzioni proposte vi è l’adozione di polizze parametriche. Nella determinazione dell’indennizzo non si valuta il danno alle colture ma si predetermina l’ammontare dell’indennizzo sulla base del raggiungimento di determinati indici target20. Ciò produce una serie di vantaggi: - riduzione dei costi di liquidazione - maggiore possibilità di predeterminare le perdite e, quindi, migliore capacità di riassicurazione - riduzione dei problemi di selezione avversa. Un vantaggio dell’assicurazione indicizzata è che gli assicurati sono soggetti ai medesimi termini, condizioni, e “scala di vincita”, il che praticamente permette di eliminare il problema di selezione avversa per gli assicuratori. Tali contratti necessitano interventi qualificatori per stabilire se si tratta di contratti di assicurazione o di contratti derivati ai fini della disciplina applicabile21. 20  E. Bryla-Tressler, j. Syroka, J. Dana et. al., Environmental security: a critique. Contested grounds: security and conflict in the new environmental politics, Albany 1999, pp. 187-219. 21   Cfr. M. Lietzmann e G. Vest, Environment and security in an international context, Report 232 NATO Committee on Challenges of Modern Society, Brussels, 1999; H. Geman (a cura di), Insurance and weather derivatives. From exotic options to

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Transizione digitale e mercato assicurativo

471

Dal punto di vista giuridico si pongono problemi di qualificazione del contratto anche ai fini dell’autorizzazione da parte della pubblica autorità nazionale del mercato assicurativo rispetto alle direttive UE in materia e in particolare da ultimo la Direttiva 138/2009/CE nota come «Solvency 2». Con riferimento alla tipizzazione di contratto di assicurazione contenuta nell’art. 1882 c.c. si può dire che il legislatore parlando di uno scambio di indennizzo contro premio sembra aver lasciato libere le parti di determinare le modalità di determinazione dell’indennizzo cercando sul punto solo di porre argini al Moral Hazard che potrebbe essere incentivato da indennizzi eccessivamente elevati. Il riferimento è agli artt. 1904-1907 ritenuti espressione del principio indennitario in base al quale l’indennizzo assicurativo deve essere commisurato all’entità del danno in concreto patito dall’assicurato e non deve rappresentare, per quest’ultimo, uno strumento per trarre vantaggi economici. Si arriva per tal via ad una definizione di interesse all’assicurazione che riesce a coordinare le esigenze assicurative degli assicurati ai problemi economici di «Moral Hazard» che si traducono in problemi giuridici di buon costume (inteso anche come insieme di regole ordinate a comportamenti prudenziali), ordine pubblico (inteso anche

exotic underlyings, London 1999; H. Shah e P. Nakada, Managing and financing catastrophe risk. Risk Transfer and Financing Mechanism, Financial Risk Management Seminar, Denver (Colorado), 12 april 1999; J. Sayers, G. Fulcher, et. al., Including Insurance Indices and the boundaries between banking and insurance, Securatization working party, Casuality Actuarial Society, GISC, October, 1998; L. Stout, Insurance or Gambling? Derivatives Trading in a World of Risk and Uncertainty, 14 Brookings Rev. (Winter 1996), p. 39; B. Kawamoto, Insurance Linked Derivatives, in Financing Risk and Reinsurance, 7/1998; M.S. Canter e J. B. Cole, The foundation and evolution of the catastrophe bond market, in Global Reinsurance, 1997, p. 1 ss.; R. Gibson e H. Zimmermann, The Benefit and Risk of Derivative Instruments: an economic perspective, IFCI Geneva Papers, 1994; M.S. Soroos, Global change, environmental security, and the prisoner’s dilemma, in Journal of Peace Research, 1994, pp.  317-332; S.P. D’Arcy e V.G. France, Catastrophe Futures: a better Hedge for Insurers, in Journal of Risk and Insurance, 1992, p. 59. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

472

Sara Landini

come insieme di precetti ordinati alla pace sociale)22, principi con cui il contratto di assicurazione si è da sempre confrontato23. Con l’espressione «Moral Hazard» in microeconomia si individua «l’aumento della rischiosità di un evento derivante dal comportamento opportunistico di chi ha stipulato un contratto contro il rischio e, grazie al vantaggio informativo di cui dispone, trasferisce il maggior rischio sulla parte meno informata»24. Con riferimento ai contratti di assicurazione ci si riferisce al comportamento imprudente degli assicurati i quali, facendo affidamento sulla copertura contrattuale, riducono il loro livello di prudenza a danno dell’assicuratore. In tale logica una carenza dell’interesse, inteso come interesse alla cosa assicurata e quindi al non verificarsi del sinistro, potrebbe determinare atteggiamenti irresponsabili dell’assicurato in contrasto con i principi di ordine pubblico25. Anche le polizze index based presentano limiti e problematiche. Un limite alle assicurazioni index based è dato dal fatto che l’automatismo del pagamento della posta indennitaria al raggiungimento dell’indice target non consente di considerare, nel momento indennitario, la presenza di eventuali condotte prudenziali e precauzionali adottate dall’assicurato. Si dice che queste polizze riducono l’azzardo morale in quanto “la vincita” è basata su una base indipendente e su un parametro meteo esogeno, autonomo rispetto al comportamento dell’assicurato. Ciò non toglie che la certezza della “vincita” al raggiungimento 22   Buon costume e ordine pubblico sono clausole generali ovvero «norme di direttiva che delegano al giudice la formazione della norma (concreta) di decisione vincolandolo a una direttiva espressa attraverso il riferimento a uno standard sociale»: così L. Mengoni, Spunti per una teoria delle clausole generali, in Riv. crit. dir. priv., 1986, p. 13. V. sul punto anche A. Belvedere, Le clausole generali tra interpretazione e produzione di norme, in Pol. Dir., 1988, p. 631 ss. La determinazione di tale “norma concreta di decisione”, non potrà che essere fondata sui principi dedotti dall’interprete dalle stesse norme di legge (G.B. Ferri, Ordine pubblico, buon costume e la teoria del contratto, Milano 1970, p. 271). 23   Si vedano in particolare sul punto gli studi di P.G. Pesce, La dottrina degli antichi moralisti circa la liceità del contratto di assicurazione, in Assicurazioni, 1966, p. 36 ss. 24   La definizione è contenuta in D. Begg, S. Fischer e R. Dornbusch, Microeconomia, Milano 2008, 3ª ed., p. 237. Si veda anche tra le pubblicazioni più recenti sul tema S.H. Seog, The Economics of Risk and Insurance, Singapore 2010, p. 175 ss. 25  Sui rapporti tra interesse all’assicurazione e moral hazard, V. De Lorenzi, Contratto di assicurazione: disciplina giuridica e analisi economica, Padova 2008, pp. 192-194. L’autrice arriva ad affermare che il principio dell’essenzialità dell’interesse si pone inderogabilmente solo quando concerne esternalità negative connesse col rischio morale.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Transizione digitale e mercato assicurativo

473

dell’indice possa disincentivare l’adozione di misure di prevenzione dei danni. I contratti assicurativi index based necessitano di attente tecniche di legal drafting, in modo da consentire che il contratto esplichi anche condizioni di prevenzione e contenimento dei danni (v. condizioni all’indennizzo costitute dall’adozione di condotte prudenziali e/o precauzionali del soggetto richiedente l’indennizzo) e che sia volto a coprire il rischio di evento catastrofale (v. individuazione dell’evento catastrofale come condizione di esigibilità del credito). Ancora sarebbe possibile correlare l’entità dell’indennizzo in caso di raggiungimento dell’indice anche al costo delle misure di resilienza adottate. Alcuni studiosi di scienze attuariali hanno infatti proposto di utilizzare il mercato assicurativo per mitigare le conseguenze economiche dei cambiamenti climatici, in particolare per far fronte al rischio di inondazioni26. Gli assicuratori potrebbero intervenire non solo fornendo una compensazione finanziaria per le perdite, ma anche per finanziare la resilienza attraverso infrastrutture di mitigazione. Questo approccio è simile a quello consentito dai cosiddetti resilience bond, strumenti finanziari i cui flussi di cassa dipendono dal verificarsi di eventi (catastrofici) regolati contrattualmente e parte del valore economico dell’investimento è destinato a finanziare azioni di resilienza. La proposta si basa su una progettazione adattiva del contratto assicurativo, sulla base delle informazioni raccolte in ogni momento e dell’eccedenza (eventuale) del premio pagato rispetto ai pagamenti avvenuti per danni, che dovrà essere utilizzato (automaticamente, come regolato nelle condizioni contrattuali) per il finanziamento di infrastrutture di mitigazione. Il costo di queste infrastrutture, il tempo di costruzione, la riduzione del rischio implicito, devono essere valutati da una competenza ingegneristica. I rinnovi periodici del contratto (valutazione dell’eccedenza, variazione dell’esposizione al rischio dovuta alle infrastrutture già realizzate, …), possono essere attuati attraverso smart contracts e in questo quadro la tecnologia blockchain potrebbe essere utilizzata per raccogliere nuove informazioni da varie fonti. Ciò posto, come riconosciuto dagli stessi attuari promotori della ricerca, vi è bisogno di un quadro giuridico in cui possa essere implementato il modello quantitativo attuariale. In questo ambito si evidenzia un particolare punto di contatto tra 26   A.J. Pagano, F. Romagnoli e E. Vannucci, Flood risk: financing for resilience using insurance adaptive schemes, in Agrochimica, 2019, pp. 305-322.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

474

Sara Landini

mercati finanziari e assicurazioni. Le prestazioni dedotte in contratto divengono ancorate a indici in senso analogo alle opzioni. Come noto i derivati sono prodotti finanziari il cui valore deriva dall’andamento del valore di una attività ovvero dal verificarsi nel futuro di un evento la cui determinazione sia oggettivamente rilevabile. L’attività o l’evento rappresentano il c.d. «sottostante» del prodotto derivato. In particolare si parla di options in presenza di contratti che attribuiscono il diritto, ma non l’obbligo, di comprare (call option) o vendere (put option) una data quantità di sottostante ad un valore prefissato entro una certa data o a partire da una certa data. Un accostamento può essere compiuto anche rispetto ad un altro contratto aletorio il contratto di futures, con il quale le parti si obbligano a scambiarsi alla scadenza un certo quantitativo di determinate attività finanziarie, ad un prezzo stabilito. Il sottostante può essere costituito da un’attività finanziaria, una merce o un evento di varia natura. Le polizze index based prevedono il pagamento di una indennità, il cui valore è predefinito sulla base del raggiungimento di un determinato indice, al verificarsi di un certo evento entro una certa data (la durata della polizza). Come detto il profilo gestionale sarà però ancorato al profilo del rischio, nel caso di specie al rischio del verificarsi dell’evento catastrofale. È con riferimento alle assicurazioni indicizzate che l’uso della blockchain può avere un particolare impiego riuscendo a consentire modalità con esecuzione automatica con l’uso di algoritmi in grado intervenire sulla liquidazione del sinistro con l’uso di dati relativi a indici climatici o altri indici che possano quantificare la perdita evitando peraltro frodi. La raccolta di dati può svelare anomalie sintomatiche di fenomeni fraudolenti messi in atto dagli assicurati e l’uso di blockchain può facilitare la analisi e la comparazione tra tali dati anche in correlazione con la grande massa di dati («Big Data») in possesso delle compagnie. Come noto il termine «Big Data» indica un complesso di enorme dimensione dei dati che possono essere utilizzati per formare nuove conoscenze attraverso le relazioni tra i dati conoscibili. Si tratta di informazioni che, per dimensione e velocità di acquisizione, hanno un valore

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Transizione digitale e mercato assicurativo

475

euristico in quanto rappresentano il punto di partenza per individuare le correlazioni che possono essere rilevanti per gli sviluppi futuri27. Ci sono varie tecniche utilizzate: 1. Il «data mining» è il processo di analisi dei dati provenienti da diversi punti di vista in modo da trarne informazioni utili. È il processo di ricerca di correlazioni o modelli tra dati raccolti in banche dati relazionali28. 2. La «data fusion» è il processo di integrazione di molteplici dati e conoscenze. L’aspettativa è che i dati «fusi» contengano informazioni superiori ai dati originali29. 3. La procedura «clustering» ha l’obiettivo di raggruppare dati e di organizzarli in gruppi in modo che i dati contenuti nello stesso cluster siano tra loro più simili rispetto a quelli contenuti in «cluster» diversi. 4. La «regression analysis» è usata per stimare la forza e la direzione della relazione tra le variabili che sono in relazione lineare tra loro. La tecnologia blockchain consente di velocizzare la correlazione di informazione e la elaborazione di output nella fase liquidatoria anche in chiave di contenimento del fenomeno delle frodi assicurative. Non esiste una definizione unica di «Big data». A volte l’aggettivo «Big» si riferisce alla quantità di dati, altre volte è riferito alla loro estensione e all’analisi che possiamo effettuare su di essi. In generale, essi sono caratterizzati da grandi volumi: questo significa che la quantità di dati non può essere trattata con metodi tradizionali, come fogli di calcolo o database. Un’altra caratteristica è la grande velocità riferita al rapido trasferimento di informazioni. Infine c’è l’aspetto di varietà dei dati. Come detto, i Big Data possono essere utilizzati a fini di rilevamento e di prevenzione delle frodi assicurative non solo nel campo

27   Manyika, Chui, Brown, Bughin, Dobbs, Roxburgh, et al., Big data: The next frontier for innovation, competition, and productivity. The McKinsey Global Institute; McAfee e Brynjolfsson, Big Data: The Management Revolution. Harvard Business Review; S. Faro e N. Lettieri, Big data: una lettura informatico-giuridica, in Scritti per Luigi Lombardi Vallauri, Padova 2016, p. 503 ss. 28  P. Cabena, P. Hadj inian, R. Stadler, J. Verhees e A. Zanasi, Discovering data mining from concept to implementation, Prentice Hall PTR 1997; S. Dulli; S. Furini e E. Peron, Data Mining, Springer Verlag 2009. 29  D.L. Hall e S.A.H. McMullen, Mathematical Techniques in Multisensor Data Fusion, Nordwood (Massachussets) 20042; H.B. Mitchell, Multi-sensor Data Fusion – An Introduction, Berlin 2007; S. Das, High-Level Data Fusion, Nordwood (Massachussets) 2008.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

476

Sara Landini

della r.c.a. dove da tempo si fa uso a banche dati e a correlazioni di dati al tal fine30. Attraverso tali tecnologie le aziende sono in grado di gestire per migliorare la loro capacità di rilevamento delle frodi. Un metodo efficace è quello di applicare un modello bayesiano in riconoscimento delle frodi in combinazione con tecniche di analisi dei Big Data. Possiamo indicare le seguenti fasi: 1- analisi della rete che identificherà ogni rapporto storico tra gli attori in una richiesta specifica, che potrebbe suggerire una propensione a commettere una frode; 2- una clusterizzazione degli attori e dei comportamenti correlati sulla base di un modello statistico di auto-apprendimento. Esso consente una migliore rappresentazione di relazioni e atteggiamenti nei confronti di una plausibile esistenza di frode. Da un punto di vista giuridico, l’uso legale di un simile metodo deve essere regolato per evitare che queste correlazioni permettano di attribuire la responsabilità senza valutare l’azione delle persone. In breve, il rischio è che i soggetti siano ritenuti responsabili e puniti prima che essi abbiano agito. Una tale prospettiva sembra essere

30   L’art. 135 del Codice delle Assicurazioni (come modificato con d.l. n. 1 del 2012) è stabilito che IVASS, al fine di migliorare l’efficacia della prevenzione e lotta contro le frodi nel settore dell’assicurazione obbligatoria per i veicoli a motore immatricolati in Italia, costituisce tre database denominati: reclami, testimoni, danneggiati. Le imprese di assicurazione sono tenute a comunicare i dati relativi ai reclami dei propri assicurati, secondo le modalità previste dal regolamento adottato da IVASS. I dati sulle compagnie di assicurazione che operano nel territorio della Repubblica in regime di libera prestazione di servizi o in regime di stabilimento sono richiesti da IVASS alle rispettive autorità di vigilanza degli Stati membri interessati. Le procedure di organizzazione e di funzionamento, i termini e le condizioni di accesso alle banche dati da parte delle autorità pubbliche, le autorità giudiziarie, la polizia, le compagnie di assicurazione e terzi, nonché gli obblighi di consultazione delle banche dati da parte delle imprese di assicurazione nel processo di liquidazione dei sinistri sono stabiliti dal regolamento IVASS in accordo con il Ministero dello sviluppo economico e il Ministero degli interni, e, per la tutela della riservatezza dei profili, dal Garante per la protezione dei dati personali. Le banche dati raccolgono i dati relativi a veicoli a motore immatricolati in Italia, nonché i dati dei testimoni e dei danneggiati al fine di facilitare la prevenzione e la lotta contro le pratiche fraudolente nel settore delle assicurazioni obbligatorie per i veicoli a motore. I database sono organizzati in modo tale che IVASS possa effettuare analisi statistiche, ricerche, studi e analisi dei dati. Sul punto si veda L. Buzzacchi e M. Siri, La frode: rilevanza, effetti, sistemi di monitoraggio e problematiche di regolazione pubblica, in La frode nell’assicurazione r.c. auto. Riforme legislative, esperienze europee e politiche aziendali per il mercato italiano, Milano 2001, p. 141 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Transizione digitale e mercato assicurativo

477

in contrasto con i valori di base di tutti i sistemi giuridici: equità e giustizia31. L’uso della profilazione dei clienti al fine di prevenire le frodi nella c.d. fase assuntiva ovvero al momento in cui l’assicuratore assume il rischio accettando la proposta assicurativa del cliente trova, in caso di responsabilità automobilistica, un limite nell’obbligo a contrarre bilaterale previsto nel settore r.c.a. L’assicuratore non potrà, infatti, negare copertura a soggetti che possano risultare a rischio frode. Anche la libertà tariffaria dell’assicuratore in tale ambito trova un limite nei casi in cui rappresenti uno strumento per aggirare l’obbligo a contrarre32. 4. Il contratto di assicurazione vede dei meccanismi di adeguamento del premio al mutare in corso di rapporto del rischio. Nella durata del contratto di assicurazione sono ad esempio possibili meccanismi di regolazione del premio previsti in contratto. Ove siano incluse clausole di regolazione del premio, l’assicurato, oltre all’obbligo di pagare un premio iniziale, assume l’obbligo di comunicare dati, in base ai quali l’assicuratore può determinare l’eventuale maggior premio, che l’assicurato è tenuto a versare ad integrazione del pagamento iniziale. Secondo un passato orientamento giurisprudenziale queste clausole sarebbero introduttive di vere e proprie obbligazioni accessorie: quella di comunicazione dei dati variabili e quella di pagamento del premio definitivo. In caso di inadempimento a dette obbligazioni accessorie, pertanto, si riteneva applicabile automaticamente l’art. 1901 c.c. Anche in caso di inadempimento al solo obbligo di comunicazione periodica si applicava la disciplina, ivi prevista, della risoluzione del contratto 31   V. Mayer-Schonberger e K. Cukier, Big Data. Una rivoluzione che trasformerà il nostro modo di vivere e già minaccia la nostra libertà, Milano 2013, p. 204. 32   V. sul punto M. Tamburini, L’obbligo a contrarre nelle polizze r.c.a.: riflessioni sul fenomeno elusivo alla luce dell’evoluzione normativa e giurisprudenziale, in Diritto del mercato assicurativo e finanziario, 2016. Il saggio ripercorre la genesi normativa e giurisprudenziale, nazionale e comunitaria, dell’obbligo a contrarre polizze per la responsabilità civile auto. Si gettano così le fondamenta per affrontare con maggiore consapevolezza il problema dell’elusione dell’obbligo a contrarre. Si riflette dunque, sulle sanzioni amministrative pecuniarie che l’IVASS può irrogare alle compagnie assicuratrici, laddove le tariffe predisposte si dimostrino abnormi e finalizzate a negare la copertura assicurativa obbligatoria in determinate zone territoriali o con riferimento a singole categorie di assicurati. Questa analisi viene preceduta da alcune considerazioni circa la distinzione tra discrezionalità amministrativa e discrezionalità tecnica delle Autorità amministrative indipendenti, dimostrando una commistione tra diritto amministrativo ed assicurativo.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

478

Sara Landini

ipso iure se l’assicuratore, nel termine di sei mesi dal giorno in cui il premio o la rata sono scaduti, non agisce per la riscossione così come stabilito all’art. 1901, comma 3, c.c.33. Una simile soluzione interpretativa risultava però ingiustificatamente gravosa per il contraente debole, così, in tempi più recenti, la giurisprudenza ha preso una diversa posizione. In un primo momento si è sostenuto che dette clausole, in quanto onerose richiederebbero una specifica approvazione per iscritto ex art. 1341 c.c.34 e che in caso di contratti col consumatore si sarebbe poi dovuto dare applicazione all’art. 33 del cod. cons. sulle clausole vessatorie. Per superare il limite al giudizio di vessatorietà delle clausole delimitative dell’oggetto del contratto, si è affermato che le obbligazioni accessorie introdotte dalla clausola di regolazione del premio non sarebbero comunque parte della prestazione principale di corrispondere il premio e in caso di inadempimento a detti obblighi accessori non sarebbe applicabile la disciplina prevista dall’art. 1901 c.c.35. La Cassazione a sezioni unite è da tempo intervenuta a dirimere i contrasti formatisi sul punto affermando, da un lato, la validità delle clausole di regolazione del premio ed escludendo, dall’ altro, una applicazione automatica della disciplina di cui all’art. 1901 c.c. in ipotesi di inadempimento alle prestazioni accessorie36. Possibili variazioni possono riguardare anche le ipotesi di rinnovo di

33   Cass., 19.12. 2003, n. 19561, in Mass. Foro it., 2003; Cass., 23 maggio 1997, n. 4612, ivi, 1997; Cass., 30.10.,1990, n. 10527, in Arch. civ., 1991, p. 815. 34   In tal senso Cass., 18.2.2005, n. 3370, in Giust. civ., 2006, 1587 con nota di Farsaci, In tema di clausola di «regolazione del premio» e sospensione della garanzia assicurativa ex art. 1901 c.c. e Cass., 13.6.2005, n. 12647, in Assicurazioni, 2005, p. 290. 35   Sempre in Cass., 18.2.2005, n. 3370, cit. e più recentemente Cass., 13.12.2011, n. 26783, in Mass. Foro it., 2011. 36   Così Cass., S.U., 28. 2. 2007, n. 4631, in Foro it., 2007, c. 1422 con nota di Quarticelli e in Danno e resp., 2007, 557 con nota di Santoro, Contratto di assicurazione e clausola di regolamento del premio. A favore della inapplicabilità in via automatica dell’art. 1341, 2 comma in ipotesi di clausole di regolazione del premio si veda da ultimo Cass., 11.06.2010, n. 14065, in Giust. civ., 2010, I, 2776: «In tema di assicurazione contro i danni, la c.d. clausola di "regolazione del premio" non è di per sé vessatoria; la stessa, tuttavia, assume tale carattere, ai sensi dell’art. 1341, 2º comma, c.c., qualora sia pattiziamente predeterminato l’effetto sospensivo dell’obbligazione dell’assicuratore di corrispondere l’indennizzo per il caso in cui l’assicurato non paghi l’eventuale differenza di premio da versare a conguaglio oppure ometta di comunicare i dati necessari per la determinazione variabile del premio».

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Transizione digitale e mercato assicurativo

479

polizza con l’applicazione di “penalità” per innalzamento del livello di sinistrosità rispetto al momento della conclusione del primo contratto37. Un ambito particolare si ha in caso di polizze i cui termini (in particolare il premio) sono collegati ad un determinato target connesso a comportamenti dell’assicurato. È il caso del delle polizze PAYD (pay as you drive) o PHD (pay how you drive) in cui l’entità del premio dipende rispettivamente dall’utilizzo dell’auto o dallo stile di guida registrati da una scatola nera. Dispositivi collocati sull’auto potrebbero registrarne l’utilizzo e comunicare i dati a sistemi informatici degli assicuratori che provvederebbero ad adeguare il premio. Queste modalità di adeguamento delle condizioni di contratto po37   Il rinnovo automatico trovava e trova una disciplina di carattere generale all’art. 1899 c.c. in materia di durata del contratto il quale al comma 2 prevede: «Il contratto può essere tacitamente prorogato una o più volte, ma ciascuna proroga tacita non può avere una durata superiore a due anni». La norma in esame disciplina la durata del contratto ponendo il termine di inizio degli effetti del contatto alle ore ventiquattro del giorno della conclusione dello stesso, determinata secondo la regola dell’art. 1326, e il termine di cessazione degli effetti del contratto alle ore ventiquattro dell’ultimo giorno di durata individuato in via convenzionale. Si tratta, comunque, di una norma derogabile. È quindi consentito alle parti del contratto di individuare un termine diverso di inizio o di fine del contratto. Al fine di evitare che, attraverso la stipulazione di polizze poliennali, l’assicurato si trovasse vincolato ad un contratto che non risponde più ai propri interessi, il legislatore, già nella versione dell’art. 1899 del 1942, prevedeva il diritto di disdetta dell’assicurato. Il secondo periodo del comma 1 dell’art. 1899, come in origine formulato, sanciva infatti: «In caso di durata poliennale, l’assicurato ha facoltà di recedere annualmente dal contratto». La presente disposizione è stata modificata in un primo momento dall’art. 5 della legge 2 aprile 2007, n. 40, nota come legge Bersani, con cui si prevedeva la facoltà per l’assicurato di recedere annualmente con preavviso di sessanta giorni. Successivamente gli attuali secondo e terzo periodo sono stati sostituiti dal secondo periodo dall’art. 21, comma 3, l. 23 luglio 2009, n. 99. In base a tale nuova disposizione vi è la possibilità di stipulare contratti di durata poliennale purché il premio sia ridotto rispetto a quello previsto nei contratti annuali. Ove poi il contratto abbia durata superiore a cinque anni, allo scadere del quinquennio l’assicurato ha diritto di recedere con preavviso di sessanta giorni. Come detto al 2 comma dell’art. 1899 si prevede poi la possibilità di prorogare tacitamente la durata del contratto. Da ultimo il c.d. decreto sviluppo bis (d.l. 18 ottobre 2012, n.179 (in Suppl. ordinario n. 194 alla Gazz. Uff., 19 ottobre 2012, n. 245). – Decreto convertito, con modificazioni, in legge 17 dicembre 2012, n. 221 – Ulteriori misure urgenti per la crescita del Paese.) innova anche in punto di divieto di rinnovo automatico con una novellazione delle norme del codice delle assicurazioni private (d.lg. 209 del 2005 da ora in poi c.a.p.) relative all’assicurazione civile automobilistica.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

480

Sara Landini

trebbero essere guidate all’interno della catena blockchain consentendo di elaborare anche dati molto più complessi che il mero numero di chilometri percorsi. Gli assicuratori possono rappresentare uno strumento per migliorare la «Eco guida» ovvero una tecnica di guida che comporta un risparmio del carburante (evitare frenate improvvise, uso corretto del cambio, evitare di viaggiare con carichi eccessivi, ecc.). Alcuni importanti studi attuariali compiuti negli ultimi 15 anni indicano un collegamento diretto tra gli autisti più efficienti e quelli con meno incidenti. In tale logica una guida ecologica può essere di interesse diretto anche per gli assicuratori in quanto correlata alla riduzione del rischio di incidenti. Allo stesso tempo gli assicuratori possono promuovere la guida ecologica, offrendo polizze auto ad un prezzo inferiore per i guidatori ecologici che sarebbero anche quelli più sicuri. In questo caso si tratterà, come detto, di collegare l’ammontare del premio a particolari valori nella guida del veicolo assicurato registrati dai dispositivi installati sull’auto e trasmessi al sistema blockchain che li registrerà provvedendo a modificare il premio nel corso del contratto o all’atto del rinnovo. 5. Solvency II (Direttiva 138/2009) ha ridisegnato la governance assicurativa in una logica risk based incentrata sull’analisi dei rischi cui è esposto il patrimonio dell’impresa di assicurazioni secondo un principio di responsabilità ultima degli amministratori che dovranno decidere sulla base dei dati assunti dalle diverse funzioni aziendali38. Con Solvency I l’ammontare di capitale regolamentare era determinato in cifra fissa in percentuale delle riserve matematiche e dei capitali sotto rischio nei rami vita, in percentuali dei premi annui o dell’onere medio dei sinistri nei rami danni. Solvency II mantiene l’approccio, ma prevede margini di protezione patrimoniale non più calcolati in misura fissa ma destinati a cambiare in relazione agli effettivi rischi dell’impresa distinti da quelli assicurativi veri e propri e a quelli del portafoglio d’investimento. In questo senso si parla infatti di un sistema risk-oriented. Il meccanismo è stato costruito secondo un modello che assegna una probabilità agli eventi

38   Queste considerazioni riprendono con aggiornamenti quanto da noi osservato in Legal constraints agli investimenti finanziari nell’età “del breve”, Napoli 2019, p. 74 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Transizione digitale e mercato assicurativo

481

che possono accadere e che possono incidere sulla volatilità degli strumenti finanziari e/o sulla rischiosità del portafoglio assicurativo. In sintesi può dirsi che nel sistema Solvency I il margine richiesto era determinato sulla base di elementi economico/patrimoniali in gran parte desumibili dal bilancio, in Solvency II il margine richiesto è determinato in base al capitale tenuto conto di come questo risulta assorbito dai rischi complessivi ai quali l’impresa/il gruppo sono esposti, rischi che vengono aggregati in base a diversi criteri. Assumono così rilievo elementi quali/quantitativi come la necessaria maggiorazione del capitale per carenze nella governance rilevate. Il previgente art. 30 si limitava a sancire in tema di sistema di governo che «1. L’impresa di assicurazione autorizzata all’esercizio dei rami vita o dei rami danni opera con un’idonea organizzazione amministrativa e contabile e con un adeguato sistema di controllo interno. 2. Il sistema di controllo interno prevede procedure atte a far sì che i sistemi di monitoraggio dei rischi siano correttamente integrati dell’organizzazione aziendale e che siano prese le misure necessarie a garantire la coerenza dei sistemi posti in essere al fine di consentire la quantificazione e il controllo dei rischi. 3. L’impresa che esercita l’attività assicurativa nel ramo assistenza soddisfa i requisiti di professionalità del personale e rispetta le caratteristiche tecniche delle attrezzature determinate dall’IVASS con regolamento». Già con riferimento al passato contesto normativo la finalità perseguita dal legislatore era ravvisabile nell’intento di garantire, ad un tempo, la solvibilità dell’impresa attraverso l’imposizione di un sistema volto ad una sana e prudente gestione e la trasparenza dell’operato nei confronti dell’autorità di controllo e degli utenti, avuto riguardo ai rilevanti interessi pubblicistici coinvolti. I requisiti della sana e prudente gestione, più volte richiamati nell’intero codice, indicano la necessità di una gestione che possa garantire la solvibilità dell’impresa mediante il rispetto delle tecniche assicurative, un efficiente management del patrimonio ed adeguate procedure di controllo interno e di gestione dei rischi in modo da conferire maggiore sicurezza agli assicurati e garantire al contempo una gestione più efficace dell’impresa anche in una logica di ottenimento di un più elevato grado di competitività tra imprese. I requisiti di Solvibilità II e del Regolamento delegato n. 2015/35 coprono in maniera estesa alcuni dei principali aspetti del principio della persona prudente, come la gestione delle attività e passività, gli investimenti in strumenti

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

482

Sara Landini

derivati, la gestione del rischio di liquidità e la gestione del rischio di concentrazione. Si prevede a tal fine che la struttura organizzativa risulti improntata ai princìpi di chiarezza e trasparenza con una ripartizione e un’appropriata separazione delle responsabilità delle funzioni e degli organi dell’impresa. Particolare attenzione viene data all’organizzazione di un efficacie sistema di flusso di informazioni. Forte l’impatto di Solvency sui compiti degli organi di governo. Il consiglio di amministrazione è tenuto ad una gestione qualitativa con compiti e responsabilità ampliati per il cui svolgimento sarà necessario che i membri dell’organo amministrativo siano inseriti effettivamente nella vita della compagnia e che siano selezionati, ora più di prima, tenuto conto delle loro approfondite competenze professionali. È loro richiesta una visione prospettica e un controllo dei rischi ivi compresi quelli che derivano dalla non conformità a norme, garantendo il perseguimento dell’obiettivo della salvaguardia del patrimonio anche in un’ottica di medio-lungo periodo. Vi è anche un’interazione tra gli organi esercenti funzioni di controllo e gestione del rischio (oltre al consiglio di amministrazione, la funzione Internal Audit, la funzione Risk Mangement, la funzione compliance e procedure), la funzione attuariale. Sempre più vera è l’affermazione della dottrina relativa al fatto che «la corporate governance nel diritto societario assicurativo costituisce la precondizione per un corretto esercizio dell’attività assicurativa». Del resto il sistema dei controlli interni trova una collocazione centrale nell’àmbito del secondo pilastro di Solvency II, all’interno delle disposizioni dedicate ai controlli e alla governance. Centrale sul punto era il Regolamento 20/2008 IVASS come modificato e integrato dal provvedimento IVASS dell’8 novembre 2012 n. 3020 e dal provvedimento IVASS del 15 aprile 2014 n. 17. Si tratta di un provvedimento che precisa le responsabilità di vertice dell’organo amministrativo prevedendo appunto che «L’organo amministrativo ha la responsabilità ultima dei sistemi dei controlli interni e di gestione dei rischi dei quali assicura la costante completezza, funzionalità ed efficacia, anche con riferimento alle attività esternalizzate. L’organo amministrativo assicura che il sistema di gestione dei rischi consenta l’identificazione, la valutazione anche prospettica e il controllo dei rischi, ivi compresi quelli derivanti dalla non conformità alle norme, garantendo

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Transizione digitale e mercato assicurativo

483

l’obiettivo della salvaguardia del patrimonio, anche in un’ottica di medio-lungo periodo». Al secondo comma vengono specificati in modo analitico i compiti «di indirizzo strategico e organizzativo» di cui all’art. 2381 c.c.39. Il regolamento 20 è stato abrogato a seguito dell’entrata in vigore del Regolamento IVASS n. 38 del 3 luglio 2018. Il nuovo impianto normativo, salvaguardando quanto già anticipato dalle Lettere al mercato del 15 aprile 2014 e 28 luglio 20151, nonché la struttura e l’impianto del Regolamento n. 20/2008 - già aggiornato alla logica Solvency II delle linee guida preparatorie - assicura un rafforzamento dei requisiti qualitativi di gestione che, unitamente ai requisiti prudenziali di tipo quantitativo, rappresentano i presìdi a salvaguardia della stabilità delle imprese e dei gruppi. Con l’espressione «responsabilità ultima» si vuole indicare, che, pur essendoci degli uffici e delle funzioni preposte espressamente alla compliance, all’osservanza delle norme di legge e regolamentari, non si può escludere la responsabilità anche del consiglio di amministrazione che ha la diretta supervisione sugli altri organi e sulle funzioni di controllo. Per come qui brevemente descritta la nuova governance societaria presenta degli aspetti (flusso di informazioni, comunicazione tra le funzioni e con l’organo di governo, selezione e analisi dati nel risk assessment, ecc.) che possono essere agevolati dall’inserimento degli stessi in un percorso guidato da funzioni algoritmiche in grado di garantire il rispetto della normativa e delle procedure interne. Il consiglio di amministrazione potrebbe far uso di blockchain nella raccolta dei dati su cui fondare le proprie decisioni. Viene da chiedersi se un sistema di intelligenza artificiale possa essere parte del board. Del tema si sono occupati recentemente gli studiosi del diritto commerciale40, mostrando i possibili vantaggi e i possibili rischi di conflitto di interessi dei soggetti che hanno elaborato gli algoritmi che muovono il sistema di intelligenza artificiale, con

39   In tal senso P. Montalenti, Il sistema dei controlli interni nel settore assicurativo, in Assicurazioni, 2013, I, p. 193; S. Febbi e D. Bobbo, L’evoluzione del sistema dei controlli interni delle imprese di assicurazione nel recepimento di Solvency II, in Diritto Bancario, 2016, p. 3. 40  N. Abriani, La corporate governance nell’era dell’algoritmo. Prolegomeni a uno studio sull’impatto dell’intelligenza artificiale sulla corporate governance, in Nuovo dir. soc., 2020, p. 167 ss. Si veda anche R. Lener e S.L. Furnari, Company law during the blockchain revolution. The rise of “CorpTech”, in Adde.it.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

484

Sara Landini

soluzioni futuribili su una possibile personalità giuridica riconosciuta alla macchina e con la possibilità per la stessa di essere parte del board, in linea con le teorie che riconoscono la possibilità di includere tra i membri del consiglio di amministrazione anche le persone giuridiche41, oppure ipotizzando di ammettere nel consiglio di amministrazione una società di servizi informatici non ravvisandosi ostacoli alla nomina alla carica di amministratore di una società specializzata in strumenti e servizi basati sull’intelligenza artificiale42. L’adozione di tecniche di intelligenza artificiale nella governance societaria (analoghe considerazioni possono compiersi per il governo del prodotto di cui abbiamo parlato nel par. 2) non interagisce con l’impianto sanzionatorio costruito su un modello di azione e reazione proprio degli agenti umani o comunque composti da persone fisiche (le persone giuridiche). L’azione umana rimane, e potremmo caso mai dire che deve rimanere per consentire la risposta riequilibratrice dell’ordine violato, in un sistema che vede differenti livelli di interazione tra uomo e intelligenza artificiale, come abbiamo visto nel par. 1. Quindi anche l’impianto sanzionatorio tradizionale potrebbe trovare un’efficace risposta. Si potrebbe poi andare oltre e pensare a strumenti di ricostruzione dell’ordine violato diversi, non improntati a spinte deterrenti ma solo ricostruttive e educative per il futuro, adatte anche a default di IA43. 6. Ripartiamo dalla domanda che ci siamo posti all’inizio ovvero se le nuove tecnologie abbiano inciso sul contratto in modo tale da necessitare di nuove categorie e nuove norme. Come detto le tecnologie hanno impattato sulla struttura dell’agere per il diritto privato inserendosi nell’esercizio e sviluppo dei poteri dei soggetti, rafforzando la categoria del procedimento anche nel diritto privato. Questo importa di ripensare al tessuto normativo tenuto conto di come il nuovo contesto tecnologico metta alla prova i diritti fondamentali e i principi costituzionali. 41   Il riferimento è, come ricordato dalla dottrina citata, a Trib. Milano, 27 marzo 2017 (n. 3545/2017) e alla Massima n. 100 del Consiglio notarile di Milano, “Amministratore persona giuridica di società di capitali (artt. 2380-bis e 2475 c.c.)” del 18 maggio 2007. Si veda N. Abriani, op. cit., pp. 177 e 178. 42   Si veda N. Abriani, op. cit., p. 178. N. Abriani e G. Schneider, Diritto delle imprese e intelligenza artificiale. Dalla Fintech alla Corptech, Bologna 2021. 43   Si rinvia al nostro S. Landini, The Insurance Perspective on Prevention and Compensation Issues Relating to Damage Caused by Machines, in The Italian Law Journal, 2020, pp. 59-87.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Transizione digitale e mercato assicurativo

485

Quanto alla regolazione, qualche parola merita di essere spesa su come la tecnologia, in ambito assicurativo, e non solo, abbia avuto ricadute sulla stessa tecnica di normazione e di comunicazione della norma per la sua applicazione e osservanza. Dal lato degli operatori del mercato regolato, possiamo ricordare un termine da tempo molto in uso: RegTech (Regulatory Technology). Si tratta dell’applicazione della tecnologia emergente per migliorare il modo in cui le aziende gestiscono la conformità normativa. Sebbene relativamente giovane, RegTech sta maturando rapidamente. Le aziende RegTech stanno ora utilizzando l’apprendimento automatico, l’elaborazione del linguaggio naturale, la blockchain, l’intelligenza artificiale e altre tecnologie per portare la potenza della trasformazione digitale nel mondo della conformità normativa. ReghTech nasce dall’incrocio dell’incremento delle regole nel settore finanziario dopo la crisi del 2008 per prevenirne di future e dello sviluppo di tecniche di intelligenza artificiale. Anche in questo caso la trasformazione non ha riguardato solo gli strumenti del diritto, ma più profondamente il diritto stesso. È stato in questo incrocio tra l’incombente onere normativo e l’ascesa dell’IA che è nata RegTech. Inizialmente, il settore dei servizi finanziari ha guardato a RegTech con una buona dose di scetticismo. Le soluzioni promesse dai provider RegTech erano interessanti: il mondo della compliance normativa è vasto e complesso e il suo margine di errore è consistente. Per i servizi finanziari, i vantaggi di RegTech sono sostanziali in termini di: aumento dell’efficienza in quanto dal momento che la regolamentazione continua a crescere, diventa quasi impossibile per il personale addetto alla conformità tenere il passo senza l’ausilio della tecnologia. La tecnologia, in grado di elaborare un volume elevato di dati a velocità incredibili, può analizzare rapidamente testi legali non elaborati ed estrarre informazioni preziose; maggiore accuratezza e completezza rispetto ai processi manuali che tendono a creare lacune nell’operazione di conformità, causando errori umani e una maggiore esposizione al rischio di sanzioni. L’implementazione della tecnologia adeguata (e l’integrazione ponderata di tali tecnologie ove necessario) colma le lacune e crea un processo di conformità semplificativo; maggiore allineamento interno per gli intermediari finanziari. Infatti gli strumenti tecnologici consentono una maggiore trasparenza in tutta l’azienda, collegando persone e processi un tempo isolati. Il risultato sono informazioni migliori tra le unità aziendali che possono essere © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

486

Sara Landini

condivise più rapidamente, il che porta anche a una più forte cultura della conformità. Si vede infine una gestione del rischio migliorata: molti strumenti RegTech aiutano a proteggere da vari tipi di rischio, inclusi abusi di mercato, attacchi informatici e frodi, monitorando i sistemi e avvisando il personale di attività sospette. Dal lato del regolatore si vede da tempo la necessità di ripensare a come regolare il mercato tenuto conto di due aspetti: il rischio che le regole frenino lo sviluppo irragionevolmente e il pericolo di non cogliere le novità del mercato in continua e rapida evoluzione44. Da qui un mutamento nella normazione fatta sempre più di soft law, con meno ricadute sanzionatorie e più ricadute sul piano del dialogo con gli operatori interessati e di ricomposizione del quadro ordinamentale violato. Questo in linea con la osservazione che dell’ex Direttore generale di IVASS Rossi: «Riteniamo essenziale che si stabilisca in questo campo un dialogo continuo fra vigilanti e vigilati, attuali e potenziali. Gli interventi regolamentari dovrebbero essere volti innanzitutto a garantire il level playing field tra gli operatori (incumbents e nuovi), secondo il principio “stesso rischio, stessa attività, stessa regola”, dovrebbero essere neutri rispetto alle varie tecnologie e dovrebbero comunque ricercare un’adeguata armonizzazione almeno a livello europeo»45.

44   Sì veda A. Canepa, Il dilemma della regolazione delle piattaforme: l’introduzione dell’Uber test fra affermazione di nuovi strumenti e parziale inefficacia di quelli classici, in Algoritmi, Big Data, piattaforme digitali. La regolazione dei mercati in trasformazione, Torino 2021, pp. 24-25. 45   S. Rossi, Fintech e regole Considerazioni conclusive del Direttore Generale della Banca d’Italia e Presidente dell’IVASS, in Ivass.it.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Ettore M. Lombardi*

Il consumatore-investitore e la valutazione del rischio finanziario: tra criteri di percezione e selezione dei dati, «alea iacta est» e responsabilità

Sommario: 1. Le esigenze di analisi della selezione, della percezione e della valutazione del rischio finanziario e le sue criticità. – 2. Una via potenziale verso la responsabilità dei regolatori? Alcuni spunti ricostruttivi provenienti dal quadro internazionale. – 3. La figura del consumatore-investitore alla luce di una regolazione sensibile alle istanze tecnologiche. – 4. Prospettive future e futuribili sul rischio e sul consumatore-investitore: «alea iacta est» o «si vis pacem para bellum»?

1. Una indagine diretta a cogliere la valenza più profonda e prossima al vero del termine «rischio», come base di partenza e giustificazione dell’intervento regolatorio, non può prescindere dalla sua considerazione come strumento alla cui luce valutare la regolazione e la misura dell’accountability del regolatore, onde pervenire a un più lucido intendimento della responsabilità che a esso può legarsi. In effetti, la presenza di rischio, in modo simile a quanto accade per i fallimenti di mercato, può costituire la base giustificativa per intervenire a regolare un’attività, un processo, un prodotto finanziario, tenendo conto che quanto sia al di sotto di una determinata soglia di tollerabilità del rischio è, in principio, rimesso all’autonoma determinazione dei privati1, a differenza di quanto ne esorbiti, che rappresenta, invece, una causa legittimante l’azione dei pubblici poteri. L’approccio di risk regulation presenta, da un punto di vista sia teorico che pratico, due significative criticità che possono essere colte nella fluidità del concetto di rischio e nelle difficoltà insite nella individuazione, nella valutazione e nella gestione del rischio.

* Professore di Diritto privato nell’Università di Firenze.   Si parla, a riguardo, di «individualizzazione della gestione del rischio» o individualisation of risk governance. Cfr. J. Black, Decentring Regulation: Understanding the Role of Regulation and Self-regulation in a “Post-regulatory” World, in Current Legal Problems, 2002, p. 103 ss.; J. Black, The Role of Risk in Regulatory Processes, in R. Baldwin, M. Cave e M. Lodge (a cura di), The Oxford Handbook of Regulation, Oxford 2010, p. 302 ss. 1

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

488

Ettore M. Lombardi

Più in particolare, la presenza del rischio in un sistema economico di riferimento può essere accertata in modo più «fluido» di quanto accada per i fallimenti di mercato, giacchè, mentre questi ultimi s’identificano con delle ipotesi sufficientemente definite cui si accompagnano specifiche reazioni regolatorie, il rischio non presenta una eguale cristallinità né nella sua individuazione né nella risposta a esso. Purtuttavia, nel tentativo di stabilizzare il processo di risk regulation, i policy makers elaborano regole e principi, che non sempre riescono a raggiungere lo scopo desiderato a causa delle numerose difficoltà connesse alla identificazione della stessa nozione di rischio e di evento non desiderabile, alla fissazione di graduatorie di livelli di rischio accettabili e al raffronto tra eventi dannosi che si intendono evitare. Si presenta, inoltre, parimenti complesso sia stabilire o dimostrare le relazioni eziologiche esistenti tra un’attività e un danno (si pensi, ad esempio, alle crisi di mercato), che misurare le probabilità del verificarsi dell’evento pregiudizievole che si voglia evitare2. Di certo, il modo in cui i policy makers selezionano i rischi a fini regolativi appare più articolato di quanto non sia per i singoli individui3, atteso che nel processo decisionale dei primi entrano in gioco, contestualmente, sia la percezione psicologica legata alla loro posizione individuale che gli interessi connessi alla loro posizione istituzionale4.

2   Si presentano, quindi, più stabili, in principio, le teorie che spiegano ex post come debba avvenire la selezione del rischio su cui intervenire, come fanno le tesi sui gruppi di interesse o sulla c.d. path dependance. 3   In generale, la percezione che gli individui hanno del rischio è condizionata dalla familiarità che la persona ha con una data attività o con l’alea naturale (per esempio, il vivere nei pressi di una centrale nucleare), dal livello del controllo in cui ci si trovi o ci si percepisca, dalla natura delle conseguenze (il c.d. dread factor), dalla distribuzione dell’impatto negativo, dalla availability heuristic, ovvero dalla probabilità che il verificarsi di un evento sia percepito diversamente a causa della facilità con cui un caso analogo sia ricordato o immaginato, dalla esposizione volontaria o meno al rischio, e dalla intuizione dei benefici che possono essere tratti dal rischio che si corre. Cfr., per un approccio gius-economico, E.A. Posner, Law and the Emotions, in Georgetown Law Journ., 2001, p. 1977 ss.; e, più in generale, D. Kahneman e A. Tversky, Prospect Theory: An Analysis of Decision under Risk, in Econometrica, 1979, p. 263 ss.; D. Kahneman e A. Tversky (a cura di), Judgment under Uncertainty: Heuristics and Biases, Cambridge 1982, p. 12 ss. 4   In termini più ampi, il processo di selezione del rischio viene caratterizzato dalla circostanza che i rischi già trascorsi tendano a essere considerati in modo più lato rispetto ai nuovi, perché, di solito, i primi sono regolati attraverso previsioni standardizzate, mentre i secondi attraverso previe analisi di mercato. Cfr. P. Huber, The Old-New Division in Risk Regulation, in Vanderbilt Law Rev., 1983, LXIX, p. 1025

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il consumatore-investitore e la valutazione del rischio finanziario

489

Il quadro viene, poi, reso ulteriormente «mobile» dalle diversità, sia interne che esterne ai sistemi nazionali, che si possono cogliere nei criteri di selezione dei rischi sottoposti al controllo politico o regolatorio5, oltre che dalle eterogenee modalità con cui possano venire gestiti e valutati i medesimi tipi di rischio all’interno dello stesso paese6. Le motivazioni che giustificano una tale diversificazione nella selezione e nella supervisione dei rischi operate dai policy makers risiede inevitabilmente nella complessità e nella dinamicità del processo di individuazione delle politiche da attuare, e, in concreto, potrebbe spiegarsi alla luce degli interessi dei più influenti operatori economici7. Ciononostante un significativo problema che l’analisi del rischio deve affrontare riguarda la trasformazione, quanto più possibile, delle incertezze in probabilità8, perché da un’accurata strategia (sostanzialmente ss.; J. Black, The Role of Risk in Regulatory Processes, in The Oxford Handbook of Regulation, cit., p. 312. 5  Cfr., amplius, D. Vogel, The Politics of Risk Regulation in Europe and the United States, 2002, reperibile alla pagina: www.faculty.haas.berkeley.edu/vogel/ uk%20oct.pdf. 6  Cfr. C. Hood, H. Rothstein e R. Baldwin, The Government of Risk: Understanding Risk Regulation Regimes, Oxford 2001, p. 20 ss. 7   Cfr., per l’analisi di un interessante esempio in cui trovano sostanza le teorie di policy making basate sugli interessi di gruppo, C. Hood, H. Rothstein e R. Baldwin, The Government of Risk: Understanding Risk Regulation, cit., p. 136, dove gli AA. notano che «Where concentrated business interests were in the field, the position they could be expected to prefer over regime content was normally adopted, whatever the logic of general opinion responsiveness and minimum feasible response might suggest». Si deve notare che, sebbene la costruzione e la diffusione degli interessi sia un importante fattore esplicativo del policy making, i regimi regolatori sono spesso forgiati da altri fattori istituzionali. Le politiche adottate, di conseguenza, possono essere più durevoli e rigide di quanto le teorie basate sugli interessi di gruppo parrebbero suggerire, in quanto il policy making e la stessa attività in cui trovano attuazione tali interessi di gruppo, sembrano assumere le forme derivanti dai limiti istituzionali e dagli schemi regolativi esistenti. Cfr. G.J. Stigler, The Theory of Economic Regulation, in Bell Journ. of Economics, 1971, p. 3 ss.; P.T. Spiller, Politicians, Interest Group and Regulators: A Multiple-Principals Agency Theory of Regulation, in Journ. of Law and Economics, 1990, p. 65 ss.; J. Black, The Role of Risk in Regulatory Processes, in The Oxford Handbook of Regulation, cit., p. 313 ss. 8   Se si ragiona in termini statistici, la valutazione del rischio può dimostrarsi erronea o nell’assumere che una ipotesi inesistente (un asserito stato delle cose) sia falsa ove, al contrario, sia vera (un «falso positivo» o «errore di tipo I»), o nell’assumere che una ipotesi inesistente sia vera ove, al contrario, sia falsa (un «falso negativo» o «errore di tipo II»). Gli errori di tipo I sono spesso considerati più complessi degli errori di tipo II, giacché è richiesto un più elevato livello di importanza per respingere una ipotesi inesistente rispetto al trattenerla. Quanto sia definito come un asserito stato delle cose è, quindi, rilevante sia in termini scientifici che politici. Nel caso del © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

490

Ettore M. Lombardi

scientifica) nella determinazione del rischio verrebbe fatto discendere un rafforzamento dello stesso meccanismo (sostanzialmente politico) decisionale che ne è all’origine9. La possibilità di categorizzare i rischi in termini epistemologici, basandosi sulla conoscenza probabilistica della loro verificazione e delle loro conseguenze rappresenta, tuttavia, un elemento che si aggiunge alle ulteriori difficoltà che, in una prospettiva stabilizzatrice, la regolazione presenta nella elaborazione di un complesso di assunti precisi e definiti10. Si colgono, difatti, a un estremo, i c.dd. rischi ordinari o routinari, che presentano una ridotta incertezza statistica o la possibilità di diminuirla ulteriormente mediante tests11, e i cui rapporti di causa-effetto sono ben noti, e, all’altro estremo opposto, i c.dd. rischi catastrofici (c.dd. dread risks) che presentano delle conseguenze potenzialmente irreversibili12. Nel mezzo, invece, si collocano i rischi che possono essere qualificati come complessi-catastrofici, che, sebbene presentino rapporti di causalità ipotizzabili e finanche conoscibili13, si presentano di difficile gestione, data la loro collocazione all’interno di un sistema che presenta una articolata interrelazione tra eterogenee componenti14. Se, in linea teorica, l’analisi dei costi e dei benefici sembra in grado di garantire il tendenziale controllo dei rischi ordinari15, è con riferimento alle misure da adottare in situazioni di incertezza (i.e., i rischi rischio, dunque, l’errore potrebbe risiedere o nel fatto che si ritiene che qualcosa sia rischioso quando, invece, sia privo di rischi, o che sia privo di rischi quando, invece, potrebbe dimostrarsi rischioso. Le decisioni assunte dalle autorità governative, in materia di rischio, si presentano sostanzialmente come scelte politiche. Cfr., in tal senso, M. Douglas, Risk Acceptability According to the Social Sciences, London 1985, p. 42 ss.; J. Black, The Role of Risk in Regulatory Processes, in The Oxford Handbook of Regulation, cit., p. 317. 9   Cfr., in tal senso, J. Black, The Role of Risk in Regulatory Processes, in The Oxford Handbook of Regulation, cit., p. 314. 10   Cfr. A. Klinke e O. Renn, Precautionary Principle and Discursive Strategies: Classifying and Managing Risks, in Journ. of Risk Research, 2001, IV, p. 159 ss. 11   Si pensi, ad esempio, alle medicine, che presentano un potenziale catastrofico relativamente basso o un c.d. dread potential. 12  V. supra nota 3. 13   Si pensi, ad esempio, ai collassi finanziari sistemici. 14   Cfr., sul punto, C. Perrow, Normal Accidents: Living with High Risk Technologies, New York 1984, p. 15 ss. 15   Cfr., in tal senso, J. Black, The Role of Risk in Regulatory Processes, in The Oxford Handbook of Regulation, cit., p. 318 ss. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il consumatore-investitore e la valutazione del rischio finanziario

491

presenti nei mercati finanziari, che possono assumere anche natura catastrofica, come nelle ipotesi di crolli di sistema) che il dibattito, invece di porsi come risolutivo, tende ad accendersi, a causa della possibilità di applicare numerosi e variegati principi16 su cui strutturare il processo decisionale e giustificare l’adozione di specifici strumenti regolatori. Tutti i problemi che caratterizzano l’accertamento della nozione di rischio si ripetono, pertanto, sia nella valutazione del rischio (c.d. risk assessment), a causa della difficoltà di ricorrere a un metodo sufficientemente affidabile perché scevro da pregiudizi o biases di tipo commerciale, politico, o dovuti a conflitti di interesse, che nella gestione del rischio (c.d. risk management), ove si tratti di selezionare la risposta da dare, che è spesso decisione politica e dunque discrezionale. Il diritto cerca, allora, di sopperire alle descritte lacune ricorrendo a strumenti di stabilizzazione del processo decisionale sul rischio, quali le presunzioni (ad esempio, quella di non colpevolezza, che accetta l’errore di tipo II o del falso negativo, ammettendo che qualcuno sia innocente quando in realtà potrebbe essere colpevole)17, il principio di resilienza18 o di precauzione19. Quest’ultimo, più in particolare, per la sua natura sfuggente e per la

16   Il riferimento è essenzialmente al principio di precauzione, al principio di resilienza, e alle loro variazioni elaborate dall’analisi dei costi e dei benefici come catastrophic principle. 17  V. supra nota 8. 18   La consapevolezza delle difficoltà legate alla individuazione di rischi «stabili» ha ispirato l’affermazione del principio di resilienza, da intendersi come la necessità di sperimentare e fare errori, e, in tal modo, opporre, resistenza ai sistemi che non operino correttamente. La resilienza include quei controlli che, in termini ingegneristici, sono definiti «ridondanze», ossia che iniziano a operare quando altri meccanismi sono falliti. In pratica, le public policies includono spesso degli aspetti tipici della resilienza, come accade, per esempio, nella regolazione finanziaria, ove le banche sono generalmente tenute ad accantonare un dato capitale per fronteggiare eventuali perdite. Si deve notare, in effetti, che, sebbene l’attenzione dei regolatori sia, attualmente, più concentrata sulla gestione della crisi a livello tanto nazionale quanto transnazionale, tale profilo è stato a lungo trascurato, principalmente perché appariva (e lo è ancor oggi) di grande difficoltà individuare sia le modalità con cui assicurare l’adozione di decisioni, comuni e operanti su un piano internazionale, per procedere all’eventuale salvataggio dei sistemi bancari in crisi, che il soggetto competente alla loro coordinazione. Cfr., in tal senso, A. B. Wildavsky, Searching for Safety, London 2004, p. 77 ss.; J. Black, The Role of Risk in Regulatory Processes, in The Oxford Handbook of Regulation, cit., p. 321 ss. 19   Non a caso, negli ultimi decenni, il principio di precauzione è diventato centrale, ad esempio, nel sistema di regolazione del rischio dell’Unione europea.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

492

Ettore M. Lombardi

sua limitata precettività20 parrebbe idoneo a giustificare un complesso di scelte più politiche che scientifiche21: i policy makers possono avvalersi di tale principio come strumento utile per dotarsi di una base salda che giustifichi la risposta che intendano dare al rischio e per spiegare le decisioni che vogliano adottare, influenzando, per tal via, la stessa regolazione finanziaria22. 20   Cfr., per tutti, G. Majone, Strategic Issues in Risk Regulation and Risk Management, in OECD, 2010, p. 93 ss. 21   I detrattori del principio di precauzione ritengono che la sua applicazione sia inopportuna nella gestione del rischio, perché il principio di precauzione (1) ignora i grandi benefici esistenti per concentrarsi sui piccoli rischi esistenti, (2) non considera i benefici che possano derivare dalle opportunità, (3) non può apportare alcun aiuto quando sia da riferire a scelte rischio-rischio, (4) ignora gli effetti legati ai costi della sicurezza, (5) dà adito a problemi distributivi, (6) è sostanzialmente vago. Cfr., in tal senso, J. Black, The Role of Risk in Regulatory Processes, in The Oxford Handbook of Regulation, cit., p. 319; J. D. Graham e J. Baert Wiener, Risk vs Risk, Cambridge (MA) 1995, p. 1 ss. Quanto al punto (4), i detrattori degli approcci basati sul principio di precauzione sostengono che tentare il controllo di un rischio basso e poco conosciuto comporta il necessario ricorso a eccessive risorse che, in alcuni casi, potrebbe essere efficacemente evitato operando sulla riduzione di rischi ben conosciuti e ad ampio spettro. Cfr., in tal senso, G. Majone, What Price Safety? The Precautionary Principle and its Policy Implications, cit., p. 107 ss. Quanto al punto (5), il principio di precauzione è, talvolta, definito come producer-risk perché pone l’onere della prova a carico dei produttori. Ne segue che, ove si tratti di grandi società multinazionali, i problemi sociali ingenerati potrebbero essere non significativi, diversamente dal caso in cui i produttori non fossero delle aziende dagli alti profitti. Quanto al punto (6), la tesi secondo cui il principio di precauzione sia, in sostanza, uno strumento per mascherare l’adozione di misure protezionistiche, è stata utilizzata dagli Stati Uniti per combattere e vincere la causa instaurata dinanzi alla World Trade Organization (WTO) contro l’Unione europea per il divieto di commercializzazione degli ormoni bovini. Cfr, in merito, G. Majone, What Price Safety? The Precautionary Principle and its Policy Implications, cit., p. 95 ss., ove l’A., a p. 89, afferma anche che, sebbene il principio di precauzione possa legittimare l’adozione di misure regolatorie protettive, anche quando manchi una credibile base scientifica che provi le cause e/o l’estensione dei potenziali danni – apparendo, così, attraente per coloro che temono la «globalization of risks» realizzata attraverso i canali del libero scambio –, amplia una discrezione che potrebbe essere utilizzata per rispondere a delle legittime preoccupazioni, ma anche «to practice protectionism, or to reclaim national autonomy in politically sensitive area of public policy»; G. Skogstad, The WTO and Food Safety Regulatory Policy Innovation in the European Union, in Journ. of Comm. Market Studies, 2002, p. 484 ss.; B. Goldstein e R. Carruthers, The Precautionary Principle and/or Risk Assessment in World Trade Organization Decisions: A Possible Role for Risk Perception, in Risk Analysis, 2004, p. 291 ss. 22  Cfr. T. O’Riordan, Foreword, in The Precautionary Principle in the 20th Century: Late Lessons from Early Warnings, P. Harremoes, D. Gee, M. MacGarvin, A. Stirling, J. Keys, B. Wynne e S. Guedes Vaz (a cura di), Abingdon-New York (NY) 2002, p. 11, ove l’A. afferma che il principio di precauzione si presenta come «a ful-

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il consumatore-investitore e la valutazione del rischio finanziario

493

A riguardo un aiuto non giunge, come già notato, neanche dall’analisi costi-benefici che, sebbene teoricamente diretta a coadiuvare i legislatori nella valutazione dell’esigenza di regolare, nella selezione del tipo di regolazione del rischio e quindi nella misurazione dell’impatto presunto dell’efficacia della risposta da offrire23, presenta dei chiari limiti nella valutazione del rischio in generale24 che ne compromettono l’utilizzo come metodo efficace nella determinazione dei margini di sicurezza sistemica25. ly politicized phenomenon» perché concerne tanto «styles of government, patterns of power, and changing interpretations of participation […] as it about taking awkward decisions in states of uncertainty and ignorance». 23   Cfr., a titolo di esempio, R.A. Posner, Catastrophe: Risk and Response, cit., p. 139, dove l’A. sostiene che l’analisi costi-benefici sia «indispensable» per valutare le possibili risposte al rischio, nonostante le crescenti difficoltà che si riscontrano nell’individuare gli elementi che la compongono, inclusi i discount rates, e la gamma dei fattori sostanziali nella quantificazione dei costi e dei benefici. L’A., inoltre, suggerisce, a p. 173, il ricorso a tecniche come i «time horizons» e le «tolerable windows» per adattare l’analisi dei costi-benefici alla elaborazione di risposte adeguate a specifici rischi (i rischi catastrofici, per esempio). A p. 171, in effetti, l’A. sostiene che, specie l’ultimo approccio, possa essere utilizzato per creare una cornice in cui inquadrare i costi e i benefici. Benché sia, dunque, impossibile determinare il livello ottimale dei costi e dei benefici necessario per ridurre o eliminare degli specifici rischi, è possibile sviluppare una «window» composta da due linee verticali, di modo che, dal lato sinistro della cornice, i benefici eccedono chiaramente i costi, ove, sul suo lato destro i costi eccedono chiaramente i benefici. Ne segue che ove alcuni livelli di costi eccedenti i benefici sono ancora accettabili, altri potrebbero apparire «excessive», conseguendone la necessità di adottare altre strategie, come, ad esempio, il ricorso al «wait and see» o al «more research». Cfr., per ulteriori approfondimenti, N. Stern, The Economics of Climate Changes, Cambridge 2007, p. 25 ss. e p. 161 ss.; L. Allio, L’analisi del rischio e il processo decisionale: una nuova frontiera per la better regulation?, in A. Natalini e G. Tiberi (a cura di), La tela di Penelope, Bologna 2010, p. 479 ss.; J. Staum, Counterparty Contagion in Context: Contributions to Systemic Risk, in Handbook of Systemic Risk, Cambridge 2013, p. 512 ss. 24   Cfr., per approfondimenti, J. Black, The Role of Risk in Regulatory Processes, in The Oxford Handbook of Regulation, cit., p. 322. 25   Il modello elaborato da Posner, per esempio, non indica il corretto orizzonte temporale su cui applicare il tasso di ammortamento. Nella pratica, infatti, non esiste un modo esatto per decidere dove l’intervento regolativo debba iniziare e finire o che forma debba prendere, data la presenza di un’ampia finestra di tolleranza. Cfr. R.A. Posner, Catastrophe: Risk and Response, cit., p. 139; A. Strowel, Utilitarisme et approche économique dans la théorie du droit. Autour de Bentham et de Posner, in Archives de philosophie du droit, 1992, p. 147 ss. Sunstein, d’altro canto, sostiene che, quando le probabilità e le conseguenze sono ragionevolmente ben conosciute, le decisioni su come rispondere al rischio dovrebbero essere basate su una analisi dei costi e dei benefici che ricorra a date preferenze, perché adattate per considerare le differenze esistenti tra capacità di pagamento, desiderio di assumere rischi, e problematiche diffuse sulla determinazione del valore della vita. Tuttavia, in presenza di ef© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

494

Ettore M. Lombardi

La separazione concettuale tra apprezzamento scientifico del rischio e suo controllo istituzionale26 non sembra, così, aver garantito alla scienza la possibilità di offrire un’adeguata conduzione del processo deliberativo basato sulla valutazione (puramente razionale) del rischio27.

fetti tanto catastrofici da non consentire un adeguato calcolo probabilistico, dovrebbe trovare applicazione una limitata versione del principio di precauzione, combinata con il principio di efficacia, da intendersi (1) come attenzione da assicurare alle scelte rischio/rischio, (2) come considerazione delle problematiche diffuse, (3) come previsione di un ampio margine di sicurezza, basato sul calcolo delle probabilità. Cfr. C.S. Sunstein, Laws of Fear: Beyond the Precautionary Principle, cit., p. 35 ss.; J. Black, The Role of Risk in Regulatory Processes, in The Oxford Handbook of Regulation, cit., p. 323 ss. 26   Cfr., sul tema, O. Renn, Concepts of Risk: A Classification, in S. Kirmsky e G. Golding (a cura di), Social Theories of Risk, Westport (CT) 1992, p. 53 ss. 27   Di conseguenza, allo stato attuale, la incidenza di tale distinzione appare tanto limitata che, nella pratica, numerosi organismi governativi sono sempre più propensi a ritenere che basare le scelte da effettuare su meri fondamenti scientifici rappresenti una prassi politicamente inadeguata. A riguardo, in primo luogo, si è ritenuto che i modelli scientifici elaborati fossero inadeguati per diverse ragioni, quali la modesta dimensione degli esempi, la ridotta accuratezza delle estrapolazioni, e la presenza di altri errori metodologici. In secondo luogo, gli esperti, nel formulare le proprie valutazioni, sono soggetti agli stessi pregiudizi riscontrabili nelle valutazioni sul rischio compiute dai profani, quali la responsabilità euristica, una eccessiva fiducia nella formulazione di giudizi basati su modelli troppo ridotti, e una trascuratezza nella conduzione dell’analisi probabilistica. In terzo luogo, i metodi scientifici sono criticati per essere troppo limitati, o per non considerare delle rilevanti fonti informative ritenendole prive di validità scientifica. In quarto luogo, i metodi scientifici tendono ad attagliarsi maggiormente a misure che possono essere quantificate più facilmente, conseguendone che le tipologie di rischio che sono più agevolmente misurabili si presentano sistematicamente più favorite rispetto alle altre. In quinto luogo, una delle più comuni tecniche per fronteggiare i problemi legati all’incertezza, l’analisi di scenario (c.d. scenario analysis), si è dimostrata profondamente errata, da un lato, a causa della presenza condizionante degli stessi pregiudizi cognitivi che affettano la percezione del rischio dei profani, e, dall’altro, a causa della limitata gamma di scenari sviluppati dai modellatori. In sesto luogo, il processo di valutazione scientifica è stato criticato per essere influenzato da influssi sia economici che politici, presentandosi, pertanto, pervaso da numerosi conflitti d’interesse. Da ultimo, l’approccio scientifico è criticato per essere un fondamento inappropriato per la elaborazione di adeguate decisioni dato che i rischi concreti si presentano profondamente diversi da quelli individuati mediante mere valutazioni di probabilità e di impatto, per la pratica presenza di differenze cognitive e culturali. Cfr., in tal senso, P. Slovic, Perception of Risk, in Science, 1987, p. 280 ss.; O. Renn, Concepts of Risk: A Classification, in Social Theories of Risk, cit., p. 55 ss.; S. Jasanoff, Technologies of Humility: Citizen Participation in Governing Science, in Minerva, 2003, XXXXI, p. 223 ss.; Better Regulation Commission, Public Risk: the Next Frontier for Better Regulation, 2008, reperibile su Federalismi.it. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il consumatore-investitore e la valutazione del rischio finanziario

495

Si ricava, pertanto, che se l’analisi del rapporto esistente tra accountability del regolatore finanziario e procedure risk-based possa essere impiegata per misurare ex post il successo nella gestione del rischio (sia quello sociale sia quello istituzionale), la principale utilità di tale analisi risiede nel chiarire il modo in cui si sviluppa il processo di decision-making grazie alla centralità che si attribuisce alla partecipazione della collettività (per mezzo dei competenti organismi politici) nei meccanismi di percezione del rischio. Il processo d’individuazione del rischio si pone, infatti, come una prassi affidata alla politica cui viene tacitamente demandata la percezione che dell’alea ha la collettività, i metodi con cui condurlo e le spese da sostenere per realizzarlo28. Il mondo politico esercita, di conseguenza, una profonda influenza sulle modalità di intendere il rischio e, per tal via, sui fattori che condizionano l’architettura regolatoria e sulle forme di responsabilizzazione che a quest’ultima sono legate29. In sostanza, sebbene le autorità politiche cerchino di giustificare e rafforzare le decisioni adottate ricorrendo a considerazioni scientifiche e a principi di varia origine, quali il principio di precauzione e l’analisi dei costi e dei benefici, riescono a conseguire risultati solo parziali, a causa della limitata efficacia di tali tecniche nell’assicurare un’adeguata stabilità normativa e funzionale, trattandosi, in realtà, di operazioni a carattere segnatamente politico30. Nella descritta ottica, il rischio, inteso come giustificazione alla regolazione e alla esistenza delle autorità regolatorie, rappresenterebbe una base instabile, atteso che questioni relative alla tipologia di rischio da sottoporre a controllo, alle modalità della sua valutazione e alla sua irreggimentazione, costituiscono altrettanti problemi che appaiono avere un forte connotato politico. Un approccio che cerchi di comprendere e definire gli ambiti di 28   Cfr., in tal senso, J. Black, The Role of Risk in Regulatory Processes, in The Oxford Handbook of Regulation, cit., p. 317. 29   La crisi finanziaria ha evidenziato chiaramente come i regolatori, anche se indipendenti, sembrino abbisognare di una licenza politica nel loro operare. Cfr., in tal senso, J. Black, The Role of Risk in Regulatory Processes, in The Oxford Handbook of Regulation, cit., p. 329 ss. 30   Cfr., per approfondimenti, T.M. Porter, Trust in Numbers: The Pursuit of Objectivity in Science and Public Life, Princeton (NJ), 1995, p. 9 ss.; A. Supiot, Homo juridicus. Essai sur la fonction anthropologique du droit, Paris 2005, p. 12 ss.; J. Black, The Role of Risk in Regulatory Processes, in The Oxford Handbook of Regulation, cit., p. 324.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

496

Ettore M. Lombardi

operatività della responsabilità delle autorità di controllo del mercato ricorrendo o a principi a carattere prettamente economico o al rischio si dimostra, in conclusione, insufficiente e deve essere arricchito da una visione politica che consenta di cogliere effettivamente i modi, le forme, e le ragioni su cui l’attività regolatoria si impernia e si realizza31. In tal senso, sembra assumere capitale importanza cogliere quale sia il sentire sociale, nelle sue articolazioni temporali e ambientali, per dare una più corretta risposta alle esigenze di responsabilizzazione dei regolatori finanziari, pur nella continua considerazione del particolare e fondamentale ruolo che le autorità di regolazione bancaria e finanziaria sono costantemente chiamate a giocare. 2. Sebbene dalla osservazione del modo di operare delle autorità di regolazione del mercato alla luce del rischio32 discenda un loro indubitabile carattere permeabile alle istanze di «responsabilizzazione»33, occorre valutare se un tale assunto trovi pratica conferma nello sviluppo dei modelli regolatori che hanno cercato di rispondere alle istanze di globalizzazione proprie dei mercati finanziari contemporanei. In effetti, la crisi economica avviatasi nel 2008 ha mostrato, a livello internazionale, quali siano i pericoli creati da una regolazione che tenda ad affidarsi completamente a modelli di gestione del solo rischio interno – si pensi al regime che risulta da Basel III34 –, e all’autoregolazione, specie quando si tratti di affrontare sistemi particolarmente complessi, come i mercati dei derivati over-the-counter (OTC)35. 31  Cfr. C.R. Way, Political Insecurity and the Diffusion of Financial Market Regulation, in Annals of the American Academy of Political and Social Science, 2005, p. 125 ss.; D. Masciandaro e M. Quintyn, Regulating the Regulators: The Changing Face of Financial Supervision Architectures Before and After the Financial Crisis, in Handbook of Central Banking, Financial, Regulation and Supervision, cit., p. 480. 32   Le autorità indipendenti si presentano più come esecutrici di policies di sorveglianza specificate aliunde che come loro ideatrici 33   In effetti, le riforme avviate sono state rette da una tendenza generale volta a ridurre il numero delle agenzie e a conseguire la realizzazione di un modello unificato o verticale. In entrambe le configurazioni strutturali, comunque, i supervisori sono specializzati e operano per la realizzazione di una ben determinata missione. Cfr. D. Masciandaro e M. Quintyn, Regulating the Regulators: The Changing Face of Financial Supervision Architectures Before and After the Financial Crisis, in Handbook of Central Banking, Financial Regulation and Supervision, cit., p. 454 ss. 34   Cfr. Basel Committee on Banking Supervision, Progress report on adoption of the Basel regulatory framework, 2021, p. 1 ss., reperibile alla pagina: www.bis.org/ bcbs/publ/d525.pdf. 35  Cfr., sul punto, M. Cossu e P. Spada, Dalla ricchezza assente alla ricchezza

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il consumatore-investitore e la valutazione del rischio finanziario

497

Le esigenze di riforma, che si sono concretizzate principalmente alla fine del 2012, si sono concentrate non solo sul settore bancario e sulla stabilità dei mercati finanziari, ma sull’intera economia, e le misure che sono state adottate hanno dovuto combinare il rafforzamento del sistema di regolazione e supervisione con l’esigenza di preservare un sistema finanziario e bancario capace di supportare una ripresa robusta e duratura36. Il problema che si pone, dinanzi a piazze finanziarie che alla supremazia dei numeri accompagnano la possibilità di danneggiare un numero elevatissimo di individui, è la identificazione di una migliore e più idonea regolazione, il cui conseguimento potrebbe passare per lo sviluppo di meccanismi incentrati su doveri di render conto capaci rendere i regolatori responsabili verso i soggetti che siano stati danneggiati dal loro (colpevole) operato. Non è un caso che dalla lettura di alcuni tra i più rilevanti documenti internazionali che si siano pronunciati sulla questione emerga la duplice esigenza di realizzare una prospettiva che cerchi di temperare l’affidamento riposto dalla collettività nell’agire responsabile dei supervisori a delle opportune esigenze di limitazione della responsabilità di questi ultimi per garantirne un’adeguata indipendenza operativo-funzionale37. inesistente: divagazioni del giurista sul mercato finanziario, in Banca borsa e tit. cred., 2010, p.  401 ss.; N. Moloney, How to Protect Investors, cit., p.  102 ss.; OECD, OECD Economic Outlook, 2012, II, p.  11 ss., reperibile alla pagina: www.oecd-ilibrary.org/economics/oecd-economic-outlook-volume-2012-issue-2_eco_outlookv2012-2-en. V., per approfondimenti, supra par. 2. 36   Il riferimento è, tra l’altro, alle istituzioni finanziarie a rilievo sistemico globale o global systemically important financial institutions o G-Sifis. Cfr., in merito, G.D. Mosco, Regole e mercato dopo la crisi, in Scritti in onore di Marcello Foschini, Padova 2011, p. 491 ss.; A. Blundell-Wignall e P. E. Atkinson, Deleveraging, traditional versus Capital Markets Banking and the Urgent Need to Separate and Recapitalise G-SIFI Banks, cit., p.  1 ss.; G. Ferrarini e F. Chiodini, Nationally Fragmented Supervision over Multinational Banks as a Source of Global Systemic Risk: A Critical Analysis of Recent EU Reforms, in Financial Regulation and Supervision. A Post-Crisis Analysis, cit., p. 194 ss. 37   Già nel 1999, la relazione elaborata da Delston per la World Bank avverte l’esigenza che «[…] to the extent that there is a political consensus which often occurs during a banking crisis that banking laws should be amended to provide greater authority for central banks and regulatory agencies, there may also be an opportunity to include legal protections for banking supervisors as part of any such legislation. The rationale for the need for such protections may be found in the Basel Core Principles, which are a useful means of explaining any such legislative proposal to lawmakers. There are a number of models on which statutory protections for banking supervisors © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

498

Ettore M. Lombardi

Il Principle No. 2 of the 2012 Basel Core Principles for Effective Banking Supervision, dal titolo «Independence, accountability, resourcing and legal protection for supervisors»38, si muove in un senso più spiccatamente duale, perché diretto alla tutela tanto della fiducia del mercato che della indipendenza dei supervisori, affermando, al punto 1, la necessità di assicurare che il supervisore finanziario abbia la «[…] full discretion to take any supervisory actions or decisions on banks and banking groups under its supervision», al punto 9, che «Laws provide protection to the supervisor and its staff against lawsuits for actions taken and/or omissions made while discharging their duties in good faith. The supervisor and its staff are adequately protected against the costs of defending their actions and/or omissions made while discharging their duties in good faith», ma contestualmente precisando, al punto 3, che il supervisore, con riferimento agli obbiettivi che si sia posto, «[…] is accountable through a transparent framework for the discharge of its duties […]»39. Si pronunciano, infine, in senso ancora più icastico le International Organization of Securities Commissions (IOSCO), che, al punto A. Principles Relating to the Regulator degli Objectives and Principles of Securities Regulation del 2017, sostengono la necessità che «1. The responsibilities of the Regulator should be clear and objectively stated. 2 The Regulator should be operationally independent and accountable in the exercise of its functions and powers»40. L’analisi della responsabilità come strumento che possa agevolare il conseguimento di una più adeguata e corretta attività degli stessi regolatori, senza, quindi, limitarsi alla sola riparazione dei danni inflitti o alla punizione degli incorretti comportamenti attivi od omissivi, si pone come una questione di assoluto rilievo in una indagine che miri a coglierne l’operatività e la incidenza sui regolatori finanziari. Il discorso finora svolto, muovendosi nella prospettiva di una potenziale interrelazione tra attività di controllo del mercato finanziario e may be based, but care should be taken to ensure that the widest possible coverage for banking supervisors is enacted into law». Cfr. R.S. Delston, Statutory Protections for Banking Supervisors, 1999, reperibile alla pagina: www1.worldbank.org/finance/ html/statutory_protection.html. 38   Cfr. Basel Committee on Banking Supervision, Core Principles for Effective Banking Supervision, 2012, reperibile alla pagina: www.bis.org/publ/bcbs230.pdf. 39  V., amplius, infra, par. 4. 40  Cfr. IOSCO, Objectives and Principles of Securities Regulation, 2017, p. i., reperibile alla pagina: www.iosco.org/library/pubdocs/pdf/IOSCOPD561.pdf. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il consumatore-investitore e la valutazione del rischio finanziario

499

possibilità applicativo-funzionali di una responsabilità da regolazione, ha cercato di cogliere come la crisi finanziaria del 2008 abbia determinato un cambiamento nell’approccio della regolazione Quest’ultima, infatti, sebbene da principles-based sia divenuta risk-based, non ha mutato la propria capacità di incidere sulla responsabilità delle autorità di controllo del mercato che resta legata alla percezione che i policy makers hanno dell’attività regolatoria e dei suoi effetti sulla collettività in tale prospettiva, il processo di «responsabilizzazione» delle autorità di regolazione risulta condizionato dal possibile mutamento di prospettive prioritarie, come ben dimostrano i modelli di regolazione elaborati da alcuni rilevanti documenti internazionali che appaiono incentrati sulla duplice esigenza di contemperare istanze di responsabilizzazione e autonomia funzionale dei regolatori finanziari. 3. Dalle valutazioni che precedono è possibile ricavare, in primo luogo, che, sebbene, ancor oggi, sia frequente una visione della regolazione come misura diagnostico-rimediale cui ricorrere per risolvere le anomalie in atto nel settore da regolare41, un’attività regolatoria si presenta efficientemente svolta quando sia in grado di ricorrere a diversificate e flessibili strategie di attuazione, le cui attitudini di intervento varino a seconda dei soggetti che ne costituiscono i referenti42 secondo un approccio che incide sull’articolarsi della stessa (eventuale) responsabilità dell’authority che agisca o ometta di agire. Inoltre, ogni tentativo diretto a cogliere il fulcro e l’essenza della «responsabilizzazione»

41   Cfr. J. Black, The Role of Risk in Regulatory Processes, in The Oxford Handbook of Regulation, cit., p. 307. 42   Cfr., per un vaglio del diverso atteggiarsi della regolazione in base agli individui che ne sono soggetti, J.L. Coleman, Tort Law and Demands of Corrective Justice, in Indiana Law Journ., 1992, p. 349 ss.; P. Gallo, Errore sul valore, giustizia contrattuale e trasferimenti ingiustificati di ricchezza alla luce dell’analisi economica del diritto, in Quadrimestre, 1992, p. 656 ss.; M.I. Krauss, Regulation vs. Markets in the Development of Standards, in Southern California Interdisciplinary Law Jour., 1994, p. 781 ss. Cfr., inoltre, per una più generale riflessione, M. Foucault, La volonté de savoir, Paris 1975, p. 122 ss., ove sembrano riecheggiare i complessi profili attinenti al meccanismo regolatorio, quando l’A., a p. 128, osserva acutamente che «[…] si le pouvoir est partout, ce n’est pas qu’il englobe tout, c’est qu’il viens de partout», di modo che un tale potere non deve essere ricercato «[…] dans un foyer unique de souveraineté d’où rayonneraient des formes dérivées et descendantes […]», ma nella «[…] multiplicité des rapports de force qui sont immanentes au domaine où ils s’exercent […]», tanto che «Peut-être faut-il se passer du personnage du Prince et déchiffrer les mécanismes du pouvoir à partir d’une stratégie immanente aux rapports de force».

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

500

Ettore M. Lombardi

delle autorità di regolazione bancaria e finanziaria – ma non solo – deve scontare le difficoltà che derivano dalla esigenza di ponderare una molteplicità di interessi e di idee che ruotano attorno a tale concetto Occorre, ora, valutare la portata che la tecnologia, anche nelle sue disruptive features, può avere sul quadro normativo-regolatorio esistente. A riguardo, possono essere colte due tipologie di evoluzione tecnologica, potendosi parlare, da un lato, di sustaining technology43, e, dall’altro, di disruptive technology44. Quest’ultima nozione riguarda, allora, strumenti tecnologici che, in una prima fase, appaiono di incerta applicazione, e che, una volta acquisito un certo riconoscimento, possono profondamente incidere sulla realtà in cui sono applicati, e, di conseguenza, sulle modalità operative dei modelli economici che sono in essere. È in questo stadio che si producono gli effetti distorsivi scaturenti dalla nuova tecnologia e i nuovi modelli di conduzione degli affari, che beneficiano della innovativa applicazione tecnologica, iniziano a minacciare l’esistenza dei modelli tradizionali cui fino a quel momento si è attinto45. Di certo, l’invenzione dell’internet e l’affermazione di tecnologie intelligenti hanno prodotto evidenti conseguenze distorsive, come ben dimostra, ad esempio, l’e-commerce, cui il mercato, in prima battuta, si è avvicinato timidamente intendendolo come forma meramente alternativa ai meccanismi materiali di scambio che vedono nel negozio fisico il proprio punto di riferimento, per divenire, in breve tempo, un nuovo e vincente modo di commerciare che, costruito sull’impiego del web, ha fatto sì che lo scambio online competesse seriamente, spesso anche soppiantandoli, con i punti vendita corporei (c.d. bricks-and-mortar store)46. Da quel momento, il ricorso all’internet e alla 43   Tale concetto si riferisce a una tecnologia che o si evolve gradualmente o semplicemente migliora le tecnologie già esistenti. 44   Tale concetto si riferisce a un nuovo tipo di tecnologia che, non appena introdotto, potrebbe apparire meno affidabile delle tecnologie già esistenti, ma che presenterebbe la tendenza ad acquisire una celere credibilità. 45   Cfr., per approfondimenti, N. Katyal, Disruptive Technologies and the Law, in Georgetown Law Journ., 2014, p. 1685 ss., secondo cui, con espresso riferimento alla disruption, «In the past two decades, the concept has gone from theory, to buzz word, to the captivation of the popular imagination. Disruptive innovation goes beyond improving existing products; it seeks to tap unforeseen markets, create products to solve problems consumers don’t know they have, and ultimately to change the face of the industry». 46   Si noti, a riguardo, come l’effetto distorsivo dell’e-commerce è divenuto sempre più evidente con il passare degli anni, tanto da provocare o la scomparsa di numerosi

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il consumatore-investitore e la valutazione del rischio finanziario

501

tecnologia digitale si è enormemente espanso, stimolando la emersione di sempre nuovi modelli di business che fanno proprio il mondo digitale, e causando l’affioramento di interessanti problematiche in numerose branche del diritto. Pertanto, il problema che si pone è valutare la incidenza che il mutato quadro socio-economico possa avere sul concetto di consumatore-investitore, come concepito finora, riscontrandosi parallelamente l’esigenza sempre più avvertita di elaborare un approccio omogeneo e sistematico. Quest’ultima esigenza, difatti, quantomeno a livello teorico, potrebbe facilitare il superamento sia delle possibili lacune strutturali che delle difficoltà applicative legate alle disruptive technologies e che si sono espresse nell’adozione di soluzioni frammentate e differenziate47. Si può ritenere, allora, che, ove gli sviluppi tecnologici assumano un autentico carattere distorsivo, potrebbe essere necessario procedere a un cambiamento anche a livello normativo-categoriale che consenta di fronteggiare la mancanza di tenuta delle norme che si riferiscono a un dato istituto e, quindi, la impossibilità di un loro mero adattamento a problemi creati proprio dalla distorsione prodotta dalla nuova tecnologia48. In alternativa, e sempre che i cambiamenti prodotti dalla innovazione tecnologica non siano tali da comportare eccessive alterazioni nel sistema, si potrebbe ipotizzare il mantenimento delle impostazioni già esistenti, chiarendone l’applicazione nel contesto di un nuovo quadro: l’effetto distorsivo sarebbe minimo, provando la organica e flessibile struttura del sistema normativo in essere e la sua potenziale estensione al nuovo impianto venutosi a creare49.

marchi che erano famosi in passato o la trasformazione della loro presenza nel mercato che da una realtà fisica è passata a una realtà online. 47   Un valido contributo, in tal senso, potrebbe trarsi da un’appropriata analisi costi-benefici, specie nella prospettiva di introdurre un unitario quadro normativo di riferimento e di raggiungere un appropriato bilanciamento tra opposti e confliggenti interessi di cui sono portatori, per un verso, i soggetti che immettono in rete i beni digitali, e, per l’altro, gli utenti-fruitori. 48   Cfr., per approfondimenti, C. Koopman, M. Mitchell e A. Thierer, The Sharing Economy and Consumer Protection Regulation – The Case for Policy Change, in Journal of Business Entrepreneurship and Law, 2015, p. 520 ss. 49   Si pensi in tal senso, e solo per fare un esempio, alla guida aggiornata che la Commissione europea ha emanato sulla Unfair Commercial Practices Directive. Cfr. European Commission, Guidance on the Implementation/Application of Directive 2005/29/EU on Unfair Commercial Practices – SWD(2016) 163 final, Brussels, 25.5.2016, reperibile alla pagina: ec.europa.eu/justice/consumer-marketing/files/ ucp_guidance_en.pdf. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

502

Ettore M. Lombardi

Se, infine, il cambiamento tecnologico, pur provocando un effetto distorsivo nella conduzione degli affari non si riverberasse sul mondo giuridico e rendesse sufficienti cambiamenti di minor portata, si rappresenterebbe una ulteriore possibilità: valutare se procedere a riforme contenute50 sia sufficiente per affrontare le nuove e specifiche questioni che il cambiamento tecnologico ha generato51. Di conseguenza, se un siffatto approccio non fosse possibile o sufficiente e apparisse opportuno procedere alla elaborazione di un nuovo complesso di regole, espressione di nuovi principi e orientamenti normativo-dottrinali, la innovazione tecnologica sarebbe foriera di un’autentica distorsione dell’impianto normativo. Nella prospettiva tracciata, appare chiara l’esigenza di concepire il diritto del consumatore-investitore e dei soggetti che lo popolano (il consumatore-investitore e il professionista), in modo tale da considerare gli effetti legati ai cambiamenti del mercato che trovano origine anche nella graduale affermazione delle piattaforme digitali52. In questa ottica, la natura collaborativa che spesso si coglie in tali piattaforme, condiziona un profilo essenziale del diritto dei consumatori, perché se questo «corpus» normativo presuppone la presenza di un «professionista» e a prestare il servizio (ad esempio, Airbnb) o a vendere il bene (ad esempio, Etsy) è un «privato», ovvero un soggetto che non opera nell’ambito di un’attività organizzata in maniera imprenditoriale, la relazione professionista-consumatore viene meno in favore di un rapporto inter pares o peer-to-peer, ove colui che acquista 50   Come, ad esempio, chiarire o modificare le principali definizioni, emendare la formulazione delle regole giuridiche esistenti o ancora estendere lo scopo delle norme già in atto. 51   Un principio comunemente invocato, in tal senso, è quello della «equivalenza funzionale», secondo cui, ad esempio, una volta identificate le caratteristiche essenziali dei nuovi approcci sviluppati alla luce della normativa esistente, si procede a considerare il modo in cui questi possano essere estesi ad ogni altra nuova situazione che richieda un intervento regolatorio. 52   Cfr., in merito, G. Alpa, Che cos’è il diritto privato?, Roma-Bari 2014, p. 14, «[I]l mercato, soprattutto in questa fase, è sempre più esposto agli effetti delle nuove tecnologie e al superamento dei confini nazionali: i testi normativi reggono all’urto, ma ovunque si pone il problema se sia opportuno o addirittura necessario procedere ad una loro revisione radicale. […] È in atto una revisione dei dogmi consegnati dalla tradizione, e l’urto – se così si può dire – delle nuove fonti (il diritto comunitario, le altre fonti regolamentari, l’autodisciplina e la creatività della giurisprudenza, e persino le fonti internazionali) comprimono i testi di codice e delle leggi speciali, e rendono illusorio ogni tentativo di sistemazione dovendo le regole giuridiche – di qualsiasi grado – via via adattarsi ad un ritmo evolutivo sempre più accelerato».

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il consumatore-investitore e la valutazione del rischio finanziario

503

potrebbe essere orfano della protezione apprestata dall’ordinamento a tutela del consumatore. È in questa prospettiva che trova luce quel fenomeno di ibridazione portato dalla sharing economy tra le figure di professionista e consumatore, che vengono sempre più confuse nel concetto intermedio di «prosumer» o «consumattore», che porta con sé un quesito fondamentale che si lega alla possibilità di porre degli obblighi giuridici di comportamento a carico del «privato» qualora decida di offrire un bene o servizio in via sicuramente non «professionale» ma anche non occasionale. I tratti problematici ora segnalati si accentuano, poi, se, come spesso accade, la piattaforma inglobi sia i privati o gli utenti operatori sia i professionisti, questo ingenerando un possibile errore di percezione in cui il (supposto) consumatore-investitore potrebbe cadere in errore valutando l’identità della controparte e cogliendo una fiducia nella piattaforma che non lo faccia avvedere di muoversi in un’area potenzialmente priva di tutele53. La complessità della problematica è tale da richiedere delle coordinate chiare e riconosciute in modo uniforme nel territorio dell’Unione Europea, pur nella consapevolezza di possibili riserve sulla possibilità di dettare una disciplina euro-unitaria che sia capace di stabilire, a seconda dei vari settori merceologici, chi sia professionista e chi non lo sia54. In particolare, mantenendo ferma la competenza dello Stato membro a tracciare i confini delle professioni, anche a carattere finanziario, si prevede espressamente l’obbligo della piattaforma di specificare se il terzo che offre beni, servizi o contenuto digitale sia o meno un professionista, sulla base della dichiarazione che abbia fatto sul mercato online; se al contratto concluso si applichino o meno i diritti dei consumatori che derivano dalla legislazione dell’Unione sulla tutela dei

53   La necessità di tracciare una linea di confine chiara e netta tra professione e attività occasionale o amatoriale può accavallarsi a questioni riconducibili alla sicurezza, all’ordine pubblico, all’igiene sanitaria e che, in forza del principio di sussidiarietà, possono essere affrontate o dai singoli Stati membri o dalle Istituzioni comunitarie. 54   La Comunicazione New Deal e la conseguente proposta di direttiva New Deal 1, diretta a modificare la direttiva concernente le clausole abusive nei contratti stipulati con i consumatori, la direttiva relativa alla protezione dei consumatori in materia di indicazione dei prezzi dei prodotti offerti ai consumatori, la direttiva relativa alle pratiche commerciali sleali tra imprese e consumatori nel mercato interno e la direttiva sui diritti dei consumatori, sembrano muoversi nella corretta direzione garantendo una migliore applicazione delle norme dell’UE a tutela dei consumatori e il loro adeguamento alla luce dell’evoluzione digitale.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

504

Ettore M. Lombardi

consumatori; qualora il contratto sia concluso con un professionista, a quale professionista debba riferirsi la responsabilità di garantire, in relazione al contratto, l’applicazione dei diritti dei consumatori derivanti dalla legislazione dell’Unione sulla tutela dei consumatori. La soluzione prospettata parrebbe incrementare il livello di consapevolezza dei consumatori-investitori55, ma il percorso appare solo in parte compiuto ove si faccia riferimento ai rimedi che derivano dall’eventuale inosservanza di tali obblighi. In proposito, la proposta di direttiva New Deal 1 si ricollega alle conseguenze civilistiche che discendono da una qualsivoglia pratica commerciale scorretta che legittimi gli Stati membri, in presenza di simili comportamenti, a ricorrere ai rimedi contrattuali ed extracontrattuali, riconoscendo, tra i primi, quantomeno il diritto di porre fine al contratto, e, tra i secondi, quantomeno il diritto al risarcimento danni. In effetti, non ogni violazione dei diritti contrattuali dei consumatori, come ad esempio, l’omessa o la inadeguata identificazione della controparte, integra per se una pratica commerciale sleale, essendo necessario dimostrare che il comportamento contestato possa falsare in misura rilevante la scelta del consumatore. D’altro canto, considerando più strettamente i contenuti rimediali potrebbe apparire più consona una tutela per equivalente che consenta al consumatore, alla stregua della disciplina sulla garanzia di conformità, di optare tra il rimedio satisfattivo e il rimedio liberatorio o risarcitorio. Si avrebbe, per tal via, un quadro rimediale che imporrebbe alla piattaforma, responsabile per omessa scelta o identificazione degli utenti iscritti, di supplire alla mancanza configurandosi una sorta di culpa in vigilando ancorché applicabile, seguendo una strada di rigore, al professionista e non al privato, o, in alternativa, di adoperarsi, su richiesta del consumatore-investitore leso, per fargli conseguire una prestazione equivalente, come alcune piattaforme già fanno. 4. Dalla disamina condotta nelle pagine che precedono, si coglie come la rivoluzione digitale costringa il sistema normativo vigente a confrontarsi con situazioni del tutto nuove, che solo un quadro regolatorio sufficientemente flessibile è in grado di affrontare senza che sia necessariamente richiesta lo sviluppo di un nuovo complesso di stru55   In particolar modo, se l’informazione chiave in ordine all’identità della controparte sia veicolata attraverso simboli grafici di immediata chiarezza.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il consumatore-investitore e la valutazione del rischio finanziario

505

menti atti a risolvere le innovative problematiche che il mondo digitale porta con sé56. D’altronde, occorre anche la consapevolezza che numerose questioni create dalla rivoluzione digitale coinvolgono aspetti che non possono essere lasciati al mero apporto degli studiosi, dei giudici e dei legislatori nazionali, necessitando di essere inquadrate in una coerente struttura logico-giuridica unitaria che favorisca il ricorso a una metodica interdisciplinare57. Si può ritenere, allora, che il primo obiettivo riferibile alla comunità giuridica comunitaria sia favorire l’analisi e lo sviluppo del diritto dei consumatori-investitori, con tutte le sue sfaccettature, in modo tale da considerare tutta la forza esercitata dalla rivoluzione digitale: è fondamentale raggiungere un giusto equilibrio che, per un verso, non lasci i nuovi mercati privi di regole, e, dall’altro, impedisca un eccesso regolativo che assicuri al contempo la protezione degli utenti e la possibilità di sviluppo di nuovi modelli economici. In definitiva, una volta che il diritto abbia subito gli effetti riconducibili agli sviluppi tecnologici prodottisi sino a un dato momento, diviene fondamentale considerare il grado di distorsione che si è venuto a realizzare. Solo operando una corretta valutazione del rapporto esistente tra quadro regolatorio esistente e innovazione tecnologica in essere si potrebbe favorire, a livello interno, l’affermazione di un sistema normativo adeguato alle evoluzioni tecnologiche, e, a livello dell’Unione, lo sviluppo di un autentico mercato bancario e finanziario unico incentrato su una reale trasparenza e certezza giuridiche, così da aumentare la complessiva forza attrattiva del commercio e della finanza digitale. La rivoluzione digitale, in sostanza, presenta insita in sé una forza distorsiva che, permettendo di ricorrere alla digitalità per compiere attività che nel passato richiedevano il ricorso ad altri mezzi, appare 56   È proprio in questa logica che si deve leggere l’insieme di proposte che, a livello dell’Unione, sono state avanzate nel quadro della Digital Single Market Strategy e quindi del New Deal per il consumatore, atteso l’impegno profuso dalla UE nel rendere il mercato unico al passo con l’età digitale. 57   A riguardo, sia sufficiente notare come gli studi di economia comportamentale (c.dd. behavioural economics) dimostrino come l’utente tenga un comportamento involontariamente «leggero» e vulnerabile quando sia chiamato ad operare nel mondo online, in quanto ricorre in lui la tendenza ad assumere un contegno più incline a privilegiare la facilità e la velocità d’uso più che a maturare una piena consapevolezza di tutta la documentazione contrattuale.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

506

Ettore M. Lombardi

strettamente legata alla combinazione di tre fattori: un ampio accesso all’internet veloce, una estesa diffusione degli smartphones e una crescente evoluzione degli apparati informatici58. La rivoluzione digitale è stata, quindi, favorita dal notevole sviluppo tecnico di numerosi dispositivi che, in precedenza, erano principalmente a carattere meccanico o a struttura elettronica elementare e non erano in grado di connettersi all’internet attraverso un collegamento wi-fi che permettesse loro di essere interconnessi e controllati attraverso una sola stazione di controllo, costituita, ad esempio, da uno smartphone59. È proprio questa capacità delle apparecchiature elettroniche più avanzate di condividere collegamenti online, in modo da potenziarli reciprocamente, a costituire il c.d. internet of things60. Da ultimo, un significativo sviluppo è stato dato dalla combinazione di un processo meccanico, che ricorre a una tecnologia di concezione digitale, diretto a creare una nuova forma di produzione tecnologica, quale la stampante 3D (c.d. additive manufacturing o AM). Pertanto, le modalità di circolazione dei beni stampabili in formato 3D, se presentano un amplissimo potenziale per contribuire al cambiamento del modo in cui i beni sono realizzati e adattati alle preferenze del singolo utente, fanno anche emergere delle rilevanti problematiche giuridiche che continuano a riflettersi sui classici concettuali di consumatore e di professionista. Tre, pertanto, parrebbero essere gli approcci percorribili nel definire un potenziale rapporto che intercorre tra i soggetti protagonisti di questo spaccato della contemporanea realtà economica digitale: in primo luogo, si potrebbe assumere che la disciplina consumeristica e di tutela degli investitori, in generale, debba trovare comunque applicazione in operazioni economiche operate su piattaforme online in presenza di elementi che consentano di valutare il rapporto tra le parti come avente natura verticale, piuttosto che peer-to-peer61. 58   Sono molte le opportunità per avvicinare tra loro le persone (privati e operatori commerciali) che hanno un sottoutilizzo dei propri beni con altri individui che vorrebbero invece farne uso, e la tecnologia mobile ha molto facilitato la instaurazione di tali rapporti. 59   Ora le apparecchiature elettroniche possono raccogliere informazioni sul loro stato e sulle loro prestazioni e condividerle con gli utenti, il costruttore o i terzi. 60   Cfr., sull’argomento, S. Greengard, The Internet of Things, Cambridge (MA) 2015, specialmente p. 27 ss. 61   In una prospettiva qualificatoria del rapporto, circostanze come la pianificazione della operazione economica, il modo in cui è stata condotta, il numero di opera-

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il consumatore-investitore e la valutazione del rischio finanziario

507

In secondo luogo, adottando un approccio volto a valorizzare la situazione esistente ex ante, si potrebbe considerare la possibilità di prevedere degli obblighi minimi da porre a carico del venditore o prestatore del servizio, e giustificare, in caso di accertato difetto, nei fatti, della posizione paritetica delle parti, una soluzione che non preveda l’applicazione dei più incisivi obblighi posti a carico del professionista dalla normativa di settore. Da ultimo, in una prospettiva che cerchi si evitare i possibili eccessi regolatori e favorisca una soluzione di ridistribuzione del rischio (di abuso), si potrebbe favorire l’assunzione di obblighi assicurativi sia da parte delle piattaforme sia da parte dei consumatori/investotori per contenere l’inevitabile rischio riferibile alle operazioni condotte (c.d. risk spreading)62. Le riflessioni svolte evidenziano che qualunque sia l’esito che sarà effettivamente adottato nella regolazione del rapporto intercorrente tra professionista e consumatore-investitore e nella definizione dei reciproci tratti differenziali, la tecnologia sta giocando un ruolo di particolare importanza nella ridefinizione e nella riqualificazione della posizione del consumatore che, sempre più sotto l’influsso della tecnologia, si sta trasformando da semplice parte debole del rapporto in parte più complessa e capace, quantomeno in potenza, di poter far un uso anche difensivo delle possibilità che la tecnica gli mette a disposizione rendendolo progressivamente più consapevole dei tratti che ineriscono alla sua posizione. Tanto questo è vero, specie in un momento quale l’attuale dove si assiste a un’amplificazione delle aspettative del singulus e delle sue esigenze perché collocato in una realtà tecnologica sovra-nazionale e quasi a-spaziale e a-temporale la cui effettiva percezione deve essere da monito: evitare il ricorso a categorie spersonalizzanti che siano rappresentative di «figure» e non delle persone che dietro di esse si collocano

zioni di quel genere, il loro valore, la durata dell’attività oggetto della operazione, il modo in cui il compratore e i terzi possono considerarla, l’intento speculativo e il giro di affari imputabile al venditore o la circostanza che questi si adoperi per acquistare i prodotti e rivenderli, potrebbero essere tutti elementi atti ad agevolare la considerazione in senso professionale della posizione del venditore. 62   Cfr. Proposta di legge n. 3564 del 27 gennaio 2016, recante “Disciplina delle piattaforme digitali per la condivisione di beni e servizi e disposizioni per la promozione dell’economia della condivisione”, reperibile alla pagina: www.camera.it/ leg17/126?tab=2&leg=17&idDocumento=3564&sede=&tipo. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

508

Ettore M. Lombardi

con le loro specifiche individualità sempre da considerare seppure in una necessaria logica astratizzante. In questa prospettiva, al normatore, invece, si richiederà l’adozione di una forma mentis che non trascuri prospettive assiologiche di valutazione ed elaborazione del diritto e, al contempo, consideri, come dato fattuale e valoriale fondamentale, che il benessere della collettività possa essere assicurato solo dalla ricerca e dalla soddisfazione delle passioni e dagli interessi individuali63. In effetti, parafrasando le parole di Niall Ferguson, «If the financial system has a defect, it is that it reflects and magnifies what we human beings are like. Money amplifies our tendency to overreact, to swing from exuberance when things are going well to deep depression when they go wrong. Booms and busts are products, at root, of our emotional volatility»64.

63   Cfr. G. Conte, I nuovi paradigmi della ricerca giuridica ed economica nell’epoca della glabalizzazione, in F. Capriglione (a cura di), Finanza, impresa e nuovo umanesimo, Bari 2007, p. 153. 64  N. Ferguson, The Ascent of Money – A Financial History of the World, London 2008.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Riccardo Iacovelli*

Innovazione tecnologica e attività creditizia: la responsabilità della banca per illecito trattamento dei dati

Sommario: 1. Premessa: il fenomeno FinTech. – 2. L’innovazione digitale nei servizi bancari e finanziari. – 3. Il trattamento dei dati personali nel settore bancario e violazioni (data breach). – 4. La responsabilità della banca per illecito trattamento dei dati personali. - 4.1. (Segue) Il regime di responsabilità per il trattamento dei dati non conforme al Regolamento. – 5. Osservazioni conclusive.

1. L’incessante sviluppo delle tecnologie digitali ha interessato ogni settore del vivere quotidiano, ed ha plasmato la realtà produttiva e organizzativa di numerosi settori del mercato. Il dirompente sviluppo tecnologico ha così dato vita alle attività di tecno-finanza (FinTech) volte al perseguimento, mediante l’impiego di nuove tecnologie, dell’innovazione dei servizi e dei prodotti nel settore finanziario, creditizio, assicurativo e dei mercati regolamentati1. Con il termine FinTech, pertanto, si è soliti indicare l’innovazione finanziaria resa possibile dall’innovazione tecnologica, che può concretizzarsi nella creazione di nuovi modelli di business, processi o prodotti, con effetti determinanti anche sui mercati finanziari, sulle istituzioni e sull’offerta dei relativi servizi2. Tale definizione evoca un fenomeno intersettoriale destinato a rendere più efficienti le attività finanziarie tradizionali, quali i servizi di pagamento, di investimento, e le attività bancarie, creditizie e assicurative in genere; e al contempo indica la tendenza a creare nuovi modelli di business e nuovi servizi quali, ad esempio, le piattaforme digitali per l’investimento alle imprese3. * Dottorando in Discipline civilistiche nell’Università di Firenze. 1   Per un approfondimento sugli aspetti giuridici del fenomeno FinTech, si veda: M.T. Paracampo (a cura di), Fintech, introduzione ai profili giuridici di un mercato unico tecnologico dei servizi finanziari, Torino 2017. 2   Cfr. Documento del Financial Stability Board, FinTech credit Market structure: business models and financial stability implication, 22 maggio 2017, reperibile al seguente link: www.fsb.org/2017/05/fintech-credit-market-structure-business-models-and-financial-stability-implications/. 3   R. Grimaldi, Disintermediazione e digitalizzazione dei servizi bancari nell’era © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

510

Riccardo Iacovelli

Con il termine FinTech, inoltre, si è soliti indicare un insieme di società, le grandi aziende Big Tech già operanti nel mercato digitale o spesso start-up innovative, dedite allo sviluppo di attività basate su nuove tecnologie informatiche e digitali, applicate anche in ambito finanziario. Un’indagine che si proponga il fine di vagliare la responsabilità della banca per illecito trattamento dei dati personali, non può quindi prescindere dall’analisi del fenomeno che ha condotto – e continua a condurre – alla costante innovazione digitale dei servizi bancari, atteso che oggi la maggior parte dei dati viaggia in rete, e l’uso di tecnologie digitali per l’offerta di servizi finanziari può comportare il serio rischio di intrusione dei sistemi informatici, con conseguente illecita captazione dei dati personali. Come anticipato, si può osservare come al centro del fenomeno FinTech vi sia l’innovazione digitale. In un settore cruciale dell’economia quale quello finanziario, l’innovazione tecnologica promana da fonti diverse. Da un lato, infatti, le start-up innovative e le grandi aziende tecnologiche quali Amazon, Apple, Facebook, Alibaba, offrono servizi finanziari su varie piattaforme digitali; dall’altro, sono gli stessi intermediari finanziari e bancari a sviluppare servizi digitali (come, ad esempio, i servizi di home banking). Per quanto concerne le società Big Tech, è possibile osservare che esse si rivelano estremamente eterogenee nel tipo di servizi offerti: solo alcune, infatti, offrono effettivamente servizi di intermediazione finanziaria (in via esclusiva oppure in aggiunta ad altre tipologie di attività), mentre altre si limitano ad offrire servizi funzionali o strumentali ad essa4. In altri casi, invece, si può notare come siano gli stessi intermediari finanziari e bancari a rendersi autori dello sviluppo di servizi digitali, anche attraverso l’acquisizione di società fintech5. Fintech, in G. Cassano, F. Di Ciommo e M. Rubino de Ritis (a cura di), Banche, Intermediari e Fintech. Nuovi strumenti digitali in ambito finanziario, Milano 2021, p. 21 ss. 4   D.W. Arner, J. Barberis e R.P. Buckley, The evolution of Fintech: a new post-crisis paradigm?, in Georgetown Journal of International Law, 2015-2016, p. 1271 ss., osservano che il fenomeno FinTech si riferisce all’applicazione della tecnologia alla finanza, chiarendo altresì che soggetti non vigilati utilizzano la tecnologia per fornire soluzioni finanziarie, che in passato erano offerte solo da intermediari finanziari regolamentati. 5   R. Silva, G. Amodio e A. Trova, L’ecosistema Banche-Fintech: nuovi scenari e opportunità, tra sprint e maratone, in Bancaria, 2018, IV, p. 79 ss. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Innovazione tecnologica e attività creditizia

511

Per una più approfondita comprensione degli effetti dei servizi fintech sull’industria finanziaria, occorre anche distinguere tra le diverse tipologie di innovazione poste in essere6. In alcuni casi, infatti, i nuovi servizi hanno la potenzialità di sostituire quelli esistenti, perché modificano le relazioni tra investitori e soggetti finanziati. Si pensi, ad esempio, al peer-to-peer lending7, che mette direttamente in relazione risparmiatori e prenditori di fondi, o alle criptovalute, che consentono di effettuare transazioni protette senza il controllo di una terza parte8. In altri casi, l’innovazione può rendere più efficienti ed efficaci i servizi già esistenti, contribuendo al possibile rafforzamento degli intermediari in grado di implementare i propri servizi con le innovazioni in oggetto. Si considerino, ad esempio, i sistemi di business analytics e di intelligenza artificiale per la valutazione del merito creditizio o per la gestione dei servizi di investimento9. Tuttavia, l’assenza di una regolamentazione completa ed articolata rende oggi più difficile definire l’esatto perimetro del fenomeno FinTech, e dei servizi da esso innovati10. Come spesso avviene nei processi di innovazione, infatti, anche le

6   R. Oriani, Opportunità e rischi per l’industria finanziaria nell’era digitale, in G. Cassano, F. Di Ciommo e M. Rubino de Ritis (a cura di), Banche, Intermediari e Fintech, cit., p. 4 ss. 7   Le piattaforme digitali per i prestiti Peer-to-Peer consentono di ottenere finanziamenti anche senza la presenza di una banca. Sfruttando le nuove tecnologie e i dati, infatti, esse sono in grado di mettere direttamente in contatto soggetti prestatori e soggetti richiedenti credito. Sul tema, si veda G. Biferali, Big data e valutazione del merito creditizio per l’accesso al peer to peer lending, in Dir. dell’Informazione e dell’Informatica, 2018, p. 487 ss; R. Capobianco, Il “peer to peer lending”, F. Fimmanò e G. Falcone (a cura di), Fintech, Napoli 2019, p. 227; G. Cassano e S. Chiodi, Il Peer to Peer Lending (il mutuo su piattaforme), in G. Cassano, F. Di Ciommo e M. Rubino de Ritis (a cura di), cit., p. 253 ss. 8   Per un approfondimento sul tema sia consentito rimandare a M.C. Di Martino, Soluzioni e prospettive sulla “natura giuridica” delle valute virtuali, in Banche, Intermediari e Fintech, G. Cassano, F. Di Ciommo e M. Rubino de Ritis (a cura di), cit., p. 297 ss.; M. Passaretta, Valute virtuali: prodotti e strumenti finanziari, ivi, p. 401 ss. 9   A. Davola, Algoritmi decisionali e trasparenza bancaria. Il paradigma dell’inerenza nella regolamentazione delle tecnologie emergenti, Milano 2020. 10   Sulla regolamentazione del fenomeno FinTech si veda: B. Barmann, Fintech: primi tentativi di regolazione, in Giornale di diritto amministrativo, 2021, p. 811; M. Giuliano, Regolare l’introsfera, in Contratto e Impresa, 2021, p. 885.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

512

Riccardo Iacovelli

nuove soluzioni fintech hanno spesso preceduto la regolamentazione esistente in materia. Sul piano nazionale, si deve comunque registrare il recente d.l. 30 aprile 2019, n. 34 (conv. con mod. in l. 28 giugno 2019, n. 58), che, nel dettare misure urgenti di crescita economica e per la risoluzione di specifiche situazioni di crisi, ha previsto all’art. 36, comma 2-octies, l’istituzione presso il Ministero dell’economia e delle finanze del «Comitato FinTech». Comitato cui si affida il compito di individuare gli obiettivi, definire i programmi e porre in essere le azioni per favorire lo sviluppo della tecno-finanza, anche in cooperazione con soggetti esteri, nonché di formulare proposte di carattere normativo e agevolare il contatto degli operatori del settore con le istituzioni e con le autorità di settore. Inoltre, al tema non è rimasta estranea l’Unione Europea, che ha recentemente adottato un nuovo «Digital Finance Package»11, che include le strategie di finanza digitale e dei pagamenti al dettaglio, con proposte legislative su cripto-asset e resilienza digitale. Si tratta di un pacchetto di misure che, in estrema sintesi, si pone l’obiettivo di stimolare la competitività e l’innovazione dell’Europa nel settore finanziario, con uno sguardo sempre rivolto ai consumatori, ai quali si offrono ampie scelte e opportunità nei servizi finanziari e nei sistemi di pagamenti, garantendone al contempo protezione e stabilità finanziaria12. Il FinTech, in definitiva, rappresenta un fenomeno «orizzontale» interno al settore dei servizi finanziari, che si sviluppa nell’era della digital economy13. Non segna, pertanto, l’inizio di una nuova tipologia di industria, ma indica piuttosto un nuovo ambito dell’industria

11   Cfr. Comunicazione della Commissione al Parlamento Europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni relativa a una strategia in materia di finanza digitale per l’UE. Bruxelles, 24.9.2020, COM(2020) 591. 12   Attraverso l’obiettivo di avere regole più sicure e più adatte al digitale per i consumatori, la Commissione mira a promuovere l’innovazione responsabile nel settore finanziario dell’UE, in particolare per le start-up digitali altamente innovative, mitigando al contempo potenziali rischi legati alla protezione degli investitori, al riciclaggio di denaro e alla criminalità informatica. 13   C. Schena, A. Tanda, C. Arlotta e G. Potenza, Lo sviluppo del FinTech, Opportunità e rischi per l'industria finanziaria nell’era digitale, in Quaderni FinTech, 2018, disponibile al seguente indirizzo: www.consob.it/web/area-pubblica/ft1.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Innovazione tecnologica e attività creditizia

513

finanziaria che, in quanto tale, sembra avere un raggio d’azione quasi sconfinato14. 2. La corsa all’utilizzo delle tecnologie digitali nell’ambito dei servizi bancari e finanziari è riconducibile a vari fattori di incidenza15. Anzitutto, si registra un cambiamento della domanda da parte delle «generazioni digitali», determinata sia da bisogni ed esigenze concrete, legate alla semplicità ed accessibilità dei servizi, che dalla maggiore propensione tecnologica. E poi, la necessità di ottenere nuovi modelli operativi per lo svolgimento di attività tradizionali (si pensi ai servizi di pagamento e a quelli d’investimento), offrire nuovi servizi, e sviluppare attività tecnologiche innovative, strumentali all’erogazione degli stessi16. Si è osservato, inoltre, che l’impiego di nuove tecnologie in ambito bancario e finanziario può condurre alla riduzione dei costi commerciali e delle transazioni, al miglioramento dell’efficienza aziendale e, in ultima analisi, alla possibilità di acquisire più velocemente nuova clientela17. La digitalizzazione, per giunta, consente di offrire servizi più adeguati alle esigenze del cliente, anche attraverso la profilazione, e cioè per mezzo dell’uso intensivo delle due componenti essenziali dell’economia digitale: i dati e le informazioni18. La spinta all’innovazione tecnologica e digitale nel settore bancario e finanziario è altresì dettata dalla necessità, avvertita soprattutto dagli istituti di credito, di mantenere un elevato tasso di competitività sul mercato.

14   Per una disamina approfondita: G. Finocchiaro e V. Falce (a cura di), Fintech: diritti, concorrenza, regole. Le operazioni di finanziamento tecnologico, Bologna 2019. 15   Per un approfondimento sul tema, si veda A.V. Thakor, FinTech and banking: What do we know, in Journal of Financial Intermediation, 2020, XLI, pp. 1-13. 16   J. Frost, L. Gambacorta, Y. Haung, H.S. Shin e P. Zbinden, BigTech and the changing structure of financial intermediation, in BIS Working Papers, n. 779, 2019. 17   Studi in materia di riduzione dei costi nelle transazioni commerciali sono stati condotti da: C. Chen, Regulatory Sandbox and InsurTech: A Preliminary Survey in Selected Countries, 2018, disponibile all’URL https://ssrn.com/abstract=3275929; F. Ferretti, Consumer access to capital in the age of FinTech and big data: The limits of EU law, in Maastricht Journal of European and Comparative Law, 25, 2018, p. 490. 18   Sulla centralità dei dati nello sviluppo del mercato finanziario si veda M. Bofondi e G. Gobbi, The Big Promise of FinTech, in European Economy, 2017, disponibile al seguente indirizzo: www.european-economy.eu/2017-2/the-big-promise-of-fintech/.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

514

Riccardo Iacovelli

Infatti, attività e servizi finanziari diventano, nell’era digitale, scenari di competizione tra nuovi operatori specializzati, che rendono più efficienti – rinnovandoli – servizi già esistenti, e ne introducono di nuovi, capaci di intercettare le rinnovate esigenze finanziarie dei consumatori e delle imprese, creando così ulteriori canali di intermediazione del risparmio19. Entrano quindi a far parte del panorama nuovi soggetti (c.dd. entrants), in molti casi imprese nate in ambito tecnologico e con funzioni strumentali rispetto alle attività finanziarie, che si trovano a concorrere con gli intermediari tradizionali (c.dd. incumbents), chiamati ad uno sforzo evolutivo per conservare la propria fascia di mercato20. Fanno così il loro ingresso nel mercato finanziario le TechFin companies, imprese che in precedenza avevano – e continuano ad avere – il proprio core business in altri settori del mercato, ma in grado di consentire loro di accedere a significative quantità di dati suscettibili di essere impiegati per operare anche nel settore finanziario21. Le imprese FinTech, infatti, dopo essersi affermate nel settore più propriamente tecnologico o distributivo (e-commerce, telecomunicazioni, piattaforme di social media, ecc.), sfruttano il patrimonio dei dati raccolti nel proprio settore commerciale di afferenza per sviluppare l’offerta di servizi a contenuto finanziario, secondo modalità in grado di intercettare in modo efficiente le preferenze dei propri utenti. L’approdo dei grandi attori del mercato dei dati al settore dei servizi finanziari rappresenta un mutamento radicale: a differenza degli intermediari finanziari già operanti in tale comparto, i nuovi soggetti sono prima di tutto intermediari di dati22. 19   R. Grimaldi, Disintermediazione e digitalizzazione dei servizi bancari nell’era Fintech, cit., p. 23. 20   P. Mikalef, M. Boura, J. Krogstie e G. Lekakos, Big data analytics and firm performance: Findings from a mixed-method approach, in Journal of Business Research, 2019, p. 261 ss. 21   R. Shea, Fintech versus techfin: does technology offer real innovation or simply improve what is out there?, in Thomson Reuters: Inside Fin. And Risk, 2016, disponibile al seguente indirizzo: www.refinitiv.com/perspectives/ai-digitalization/fintech-versus-techfin-technology-offer-real-innovation-simply-improve/. L’Autore, nell’ambito della riflessione sulle TechFin Companies, pone in evidenza la differenza tra le FinTech e le TechFin Companies, osservando che: «Fintech companies are driven by the desire to apply emerging technologies to radically alter the financial landscape. Techfin companies, in contrast, apply technology to enhance existing financial capabilities. A less disruptive, more incremental approach». 22   D.A. Zetzsche, R.P. Buckley, D.W. Arner e J.N. Barberis, From FinTech to

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Innovazione tecnologica e attività creditizia

515

La differenza è invero essenziale. Infatti, anche gli intermediari tradizionali posseggono i dati relativi ai propri clienti e li usano per la propria attività, ma tali informazioni sono spesso confinate al loro contesto specifico di operatività (storico dei pagamenti, asset di garanzia a disposizione, ecc.); viceversa, le TechFin companies sono in grado di garantirsi un significativo vantaggio competitivo elaborando informazioni riguardanti disparati comportamenti dei propri utenti in un panorama eterogeneo di mercato. Un aspetto, questo, alla base della loro capacità di operare trasversalmente su diversi mercati, pure in assenza di un know-how specifico23. Come si è accennato, nella maggior parte dei casi le imprese FinTech riescono a fornire i medesimi servizi offerti dalle banche. Pertanto, gli istituti di credito sono chiamati ad adeguarsi al fenomeno digitale, al fine di mantenere un alto tasso di competitività sul mercato, ampliando così la loro offerta di servizi. Ed infatti, le innovazioni in ambito FinTech comprendono tanto servizi finanziari, quanto tecnologie informatiche, e concernono tutti i settori dell’intermediazione bancaria e finanziaria: dal credito (crowd-funding e peer-to-peer lending) ai servizi di pagamento (instant payment), dalle valute virtuali (Bitcoin) ai servizi di consulenza (robo-advisor), oltre alle tecnologie di valutazione decentrata delle transazioni (blockchain o «DLT» - distribuite ledger technology), di identificazione biometrica (impronta digitale, retina o riconoscimento facciale), di supporto all’erogazione dei servizi (cloud computing e big data)24. L’applicazione di sofisticati modelli legati all’utilizzo di tecnologie digitali ha così dato impulso a quella che è stata definita la «dimensione planetaria dell’economia»25, fondata sulla libera circolazione dei capitali e sulla possibilità di attuare investimenti senza frontiere. Il fenomeno FinTech, quindi, ridisegna i servizi finanziari e la fiTechFin: The Regulatory Challenges of Data-Driven Finance, in New York University Journal of Law and Business, 2018, p. 383. 23   G. Du Toit e M. Burns, Evolving the Customer Experience in Banking. Should banks worry about Amazon’s quiet moves into financial products, including Amazon Cash?, 2017, disponibile al seguente indirizzo: www.bain.com/insights/ evolving-the-customer-experience-in-banking/. 24   G. Alpa, FinTech: un laboratorio per giuristi, in Contratto e Impresa, 2019, p. 378 ss. 25   F. Capriglione, L’UE alla ricerca di nuovi equilibri tra armonizzazione normativa, convergenza economica e sovranismi, in A. Antonucci, M. De Poli e A. Urbani (a cura di), I luoghi dell'economia, Torino 2019, p. 157 ss. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

516

Riccardo Iacovelli

sionomia delle banche, sempre più vicine a trasformarsi in operatori virtuali, in grado di offrire servizi fruibili da chiunque, in qualunque luogo. Il futuro della finanza è digitale26. 3. Alla luce delle riflessioni sin qui svolte, è possibile giungere ad un primo punto fermo della presente indagine: i dati e le informazioni sono divenuti i pilastri essenziali per lo sviluppo e il funzionamento del settore bancario e finanziario. L’intero fenomeno FinTech è infatti caratterizzato dallo stretto connubio tra servizi finanziari e tecnologia dell’informazione27: il crescente ricorso a tecnologie in grado di registrare, immagazzinare, e trasmettere una grande quantità di informazioni circa le azioni degli individui fornisce – al mercato – una pluralità di dati. L’informazione, dunque, diviene una risorsa strategica per il funzionamento efficiente dei mercati e per lo sviluppo sociale ed economico; e l’innovazione tecnologica rende di conseguenza possibile svolgere nuove forme di analisi utili alla creazione di prodotti e alla prestazione dei servizi28. Al centro di questa rivoluzione vi è, come già detto, il dato29. Non sorprende, di conseguenza, stante la crescente rilevanza dei dati quali strumenti essenziali per lo svolgimento delle attività com-

26   Nello stesso senso le osservazioni presenti nel Press remarks by Executive Vice-President Valdis Dombrovskis on the Capital Markets Union and Digital Finance, ove si legge: «the future of finance is digital. We saw during the lockdown how people were able to get access to financial services thanks to digital technologies such as online banking and fintech solutions. Technology has much more to offer consumers and businesses and we should embrace the digital transformation proactively, while mitigating any potential risks. That’s what today’s package aims to do. An innovative digital single market for finance will benefit Europeans and will be key to Europe’s economic recovery by offering better financial products for consumers and opening up new funding channels for companies». Disponibile all’URL: www.ec.europa.eu/ commission/presscorner/detail/en/SPEECH_20_1739. 27  Cfr. D.W. Arner, J. Barberis e R.P. Buckley, The evolution of Fintech: a new post-crisis paradigm?, op. cit. 28   M. Flandreau, Globalization and Its Big Data: The Historical Record in Financial Markets, disponibile al seguente indirizzo: www.ineteconomics.org/perspectives/ blog/globalization-and-its-big-data-the-historical-record-in-financial-markets, 2021. 29   Per un approfondimento sul tema, si veda G. D’acquisto e F. Pizzetti, Regolamentazione dell’economia dei dati e protezione dei dati personali, in Analisi Giuridica dell’Economia, 2019, p. 89 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Innovazione tecnologica e attività creditizia

517

merciali, che tale fenomeno abbia investito in maniera preponderante i servizi resi sui mercati finanziari30. Il tema del trattamento dei dati personali, pertanto, oggi diviene centrale in relazione all’attività economica in generale, ed in specie per quella bancaria, il cui ambito risulta caratterizzato da un elevato livello di tecnologia, combinato alla raccolta e gestione di una importante quantità di informazioni e dati31. Il flusso delle transazioni bancarie, corredato di numerosi dati personali, si snoda infatti su una rete notevolmente strutturata, imperniata su sistemi informativi complessi, come quelli relativi alle transazioni su carte di debito o di pagamento, al servizio di home banking, ovvero agli incassi elettronici (solo per citarne alcuni). Necessario punto di partenza per un’indagine sul trattamento dei dati personali nel settore bancario è certamente rappresentato dalla disciplina contenuta nel Regolamento (UE) 2016/679 del 27 aprile 2016, in materia di protezione delle persone fisiche con riguardo al trattamento dei dati personali. Tra le posizioni soggettive tutelate dalla normativa sui dati personali, assume rilievo centrale il diritto alla riservatezza32. Il considerando n. 39, infatti, nell’ultima parte stabilisce che i dati 30  Osserva A. Davola, Big Data Analysis e TechFin Companies nel mercato finanziario, in G. Cassano, F. Di Ciommo e M. Rubino de Ritis (a cura di), cit., p. 127 ss., che: «La possibilità di avvalersi di dati personali per creare valore a vantaggio di compagnie e consumatori attraverso la riduzione dei costi transattivi, l’introduzione di paradigmi collaborativi di interazione e creazione di prodotti e servizi, la discriminazione di prezzi e di condizioni di accesso ai beni, la riduzione dei costi di ricerca e dei margini di rischio connessi alle operazioni sul mercato, permette oggi di qualificare i big data come forieri di un vero e proprio vantaggio competitivo per le imprese che ne dispongono […]». Le medesime osservazioni sono svolte da: A. Acquisti e H.R. Varian, Conditioning Prices on Purchase History, in Marketing Science, 2005, pp. 367-381; e E.A. Von Hippel e J. Henkel, Welfare Implications of User Innovation, in Journal of Technology Transfer, 2005, pp. 73-87. 31  Per una disamina approfondita del tema del trattamento dei dati personali nell’ambito dell’attività bancaria, sia consentito rimandare a R. Frau, Il trattamento dei dati nell’attività bancaria, in V. Cuffaro (a cura di), I dati personali nel diritto europeo, Torino 2019, p. 627 ss. 32   Anche in epoca antecedente l’emanazione della normativa europea, riflessioni in materia di posizioni soggettive rilevanti nell’ambito del trattamento dei dati personali sono state svolte da: G. Mirabelli, Le posizioni soggettive nell’elaborazione elettronica dei dati personali, in Dir. inf., 1993, p. 313 ss. In epoca più recente si veda G. De Gregorio e R. Torino, Privacy, tutela dei dati personali e Big Data, in E. Tosi (a cura di), Privacy Digitale, Milano 2019.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

518

Riccardo Iacovelli

personali dovrebbero essere sempre trattati in modo da garantirne un’adeguata sicurezza e riservatezza, anche per impedire l’accesso o l’utilizzo non autorizzato dei dati personali e delle attrezzature impiegate per il trattamento, con evidente intento di prevenzione degli abusi. Tuttavia, soprattutto nell’ambito dei trattamenti elettronici, non di rado si è registrato il fenomeno di violazioni di informazioni riservate33. Il fenomeno, noto come data breach, risulta di rilevante interesse nell’operatività delle aziende di credito. Ferma una precisazione. Si è già detto, infatti, che il panorama dei soggetti coinvolti nell’offerta di servizi finanziari si è andato estendendo oltre l’originale orizzonte, arrivando così a comprendere anche le Big Data companies. Ed allora, anche questi nuovi operatori del settore finanziario saranno interessati a tutti i risvolti legati alla tutela dei dati personali, considerato altresì che, operando prevalentemente in rete, essi risultano maggiormente esposti al rischio di attacchi informatici, e quindi a illecita captazione dei dati dei propri utenti. Il fenomeno del data breach è espressamente definito dal Regolamento 2016/679, all’art. 4, n. 12, ed è inteso come violazione di sicurezza che comporta accidentalmente o in modo illecito la distruzione, la perdita, la modifica, la divulgazione non autorizzata o l’accesso ai dati personali trasmessi, conservati o comunque trattati34. Il Regolamento, inoltre, nel trattare dei possibili danni derivanti da una violazione dei dati personali, sancisce che il titolare del trattamento, non appena viene a conoscenza di tale violazione, dovrebbe notificare all’autorità di controllo competente l’avvenuta violazione di dati, senza ingiustificato ritardo; e comunicare all’interessato la violazione dei dati personali che lo riguardano, qualora questa violazione sia suscettibile di presentare un rischio elevato per i diritti e le libertà della persona fisica, al fine di consentirgli di prendere le precauzioni necessarie35. Il legislatore europeo, altresì, ritiene opportuno che venga verificato

33   S.F. Giovannangeli, La violazione di dati o data breach, in R. Panetta (a cura di), Circolazione e protezione dei dati personali, tra libertà e regole del mercato. Commentario al Regolamento UE n. 679/2016 e al d.lgs. n. 101/2018, Milano 2019. 34   Sugli oneri di comunicazione del data breach, v. A. Mantelero, Si rafforza la tutela dei dati personali: data breach notification e limiti alla profilazione mediante i cookies, in Dir. inf., 2012, p. 781 ss.; G. Butti, Comunicare la sicurezza, in Internal Audit, 2017, p. 20 ss. 35   Cfr. Regolamento (UE) 2016/679, considerando n. 85 e n. 86.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Innovazione tecnologica e attività creditizia

519

se siano state poste in essere tutte le misure tecnologiche e organizzative adeguate di protezione, al fine di stabilire immediatamente se c’è stata violazione dei dati personali e informare tempestivamente l’autorità di controllo e l’interessato36. Dall’impianto normativo sopra richiamato si trae quindi un articolato assetto di disciplina dal quale spicca un preciso obbligo di sicurezza e riservatezza a carico del titolare del trattamento, al fine di impedire accessi non autorizzati ai dati di cui dispone37. Per espressa previsione normativa38, nella nozione di dato personale rientra anche l’identificativo online, e pertanto assumono espresso riconoscimento normativo e tutela taluni fenomeni emersi nella prassi, come le tecniche di identificazione online, fra le quali rientrano anche le credenziali informatiche per l’accesso a determinati servizi offerti dal titolare del trattamento, con evidente ed immediata riferibilità ad alcuni fenomeni bancari, quali tipicamente il servizio di home banking. L’operatività pratica ha messo in luce le insidie sottese ai mezzi di pagamento evoluti, facendo registrare numerosi casi di abusiva captazione degli identificativi personali degli utenti, con particolare riguardo ai correntisti delle aziende di credito. Numerose sono le tecniche di appropriazione di detti codici, ed un primo riferimento va fatto al fenomeno del c.d. phishing, espressione in cui solitamente si compendiano una pluralità di stratagemmi atti a carpire dati e codici personali. In termini generali, il phishing consiste nella sottrazione dei codici segreti con una tecnica fondata sull’invio di messaggi di posta elettronica solo apparentemente provenienti da istituti di credito, con i quali si richiede artatamente al cliente di inserire le proprie credenziali di accesso, adducendo i motivi più vari, tra i quali la necessità di controlli di sicurezza e minacciando, in difetto, il blocco dell’account39.   Cfr. Regolamento (UE) 2016/679, considerando n. 87.   R. Frau, Il trattamento dei dati nell’attività bancaria, cit., p. 633. 38   Il Regolamento UE 679/16, art. 4, n. 1, definisce espressamente il dato personale come: «qualsiasi informazione riguardante una persona fisica identificata o identificabile («interessato»); si considera identificabile la persona fisica che può essere identificata, direttamente o indirettamente, con particolare riferimento a un identificativo come il nome, un numero di identificazione, dati relativi all’ubicazione, un identificativo online o a uno o più elementi caratteristici della sua identità fisica, fisiologica, genetica, psichica, economica, culturale o sociale». 39   Sul tema del phishing si segnalano: F. Cajani, G. Contestabile e G. Mazzaraco, Phishing e furto d’identità digitale. Indagini informatiche e sicurezza bancaria, 36 37

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

520

Riccardo Iacovelli

A tali fenomeni sono poi andate ad aggiungersi altre pratiche fraudolente, tra cui quelle del c.d. man-in-the-browser e del man-in-themiddle (e simili), mediante le quali il cliente è erroneamente convinto di operare sul sistema del fornitore del servizio, simulato ad arte, e quindi a conferire – per sbaglio – le proprie credenziali. Una volta carpiti detti codici, il terzo può quindi accedere abusivamente al conto corrente degli utenti, con conseguente loro usurpazione d’identità (digitale). Come accennato, i richiamati profili si sono posti in modo particolarmente rilevante in uno dei settori in crescita dell’attività bancaria e, più esattamente, nell’utilizzo di dispositivi online per le transazioni di home banking. Ed è per tali ragioni che il ricorso massiccio all’innovazione digitale, che ha condotto gli operatori finanziari ad offrire in rete la maggior parte dei propri servizi, il fenomeno dell’abusiva sottrazione delle credenziali di accesso del cliente a tali servizi, e della successiva illecita utilizzazione da parte di terzi, costituiscono terreno fertile per talune riflessioni in materia di responsabilità civile. 4. La responsabilità civile per trattamento di informazioni personali si inquadra nella eterogenea categoria degli illeciti informativi, che annovera al suo interno condotte diversificate quali la rivelazione di informazioni riservate, l’omissione di informazione, la trasmissione di informazioni inesatte. Si tratta di una casistica varia, ruotante intorno al minimo comune denominatore della riconducibilità di un danno all’informazione data, sbagliata, carpita o omessa, e che da tempo sollecita le riflessioni di giurisprudenza e dottrina, soprattutto in materia di responsabilità civile. La prassi giurisprudenziale ha rivelato che la responsabilità da illecito trattamento dei dati personali, nell’esperienza degli istituti di cre-

Milano 2008; M. Fantini, Phishing: strategie operative dell’inganno, in Dir. Internet, 2008, p. 421 ss.; P. Valore, Phishing sul conto postale e trattamento dei dati personali, in Corriere del merito, 2012, p. 663 ss. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Innovazione tecnologica e attività creditizia

521

dito, è stata spesso evocata per illecita captazione dei codici di accesso ai servizi online40 (nonché per illecita segnalazione in centrale rischi41). Codici di accesso che oggi sono costituiti anche dai c.dd. dati biometrici, quali le impronte digitali e i tratti somatici del viso, che pure vengono utilizzati quali chiavi di accesso ai servizi online delle banche, anche tramite app. Tale profilo si mostra coerente con l’esponenziale crescita tecnologica che ha interessato i servizi bancari e finanziari, e che ha contribuito ad incrementare l’utilizzo di dispositivi online per le transazioni di home banking. Come anticipato, la responsabilità dell’azienda bancaria per illecita captazione dei codici di accesso del correntista è stata spesso fondata sulla normativa in materia di trattamento dei dati personali, con una serie di pronunce che hanno sancito, nella maggior parte dei casi, la condanna al risarcimento della banca fornitrice dei dispositivi utilizzati per le transazioni illecite, e cioè effettuate a seguito della fraudolenta sottrazione dei codici di accesso. In tali pronunce, infatti, si pone l’accento sulla qualifica della banca in termini di contraente professionale, come tale obbligato a garantire la sicurezza dei propri sistemi, al fine di salvaguardare i dati personali, e le giacenze in conto, dei propri clienti.

40   V. Trib. Palermo, 12 gennaio 2010, n. 5916, con nota di R. Frau, Sottrazione di credenziali informatiche, bonifici non autorizzati e responsabilità civile della banca da trattamento di dati personali, in Resp. civ. prev., 2011, p. 1830; Trib. Verona, 2 ottobre 2012, n. 1284, con nota di R. Frau, Home banking, bonifici non autorizzati e responsabilità della banca, in Resp. civ. prev., 2013, p. 1285; Trib. Milano, 4 dicembre 2014, n. 908, con nota di R. Frau, Home banking, captazione di credenziali di accesso dei clienti tramite phishing e responsabilità della banca, in Resp. civ. prev., 2015, p. 911; ed anche Cass. civ., Sez. I, 23 maggio 2016, n. 10638 e Trib. Roma, Sez. X, 31 agosto 2016, n. 16221, entrambe in Resp. civ. prev., 2017, p.  850 ss., con nota di R. Frau, Responsabilità civile della banca per operazioni di home banking disconosciute dal cliente, in Resp. civ. prev., 2017, p. 853 ss.; v. anche Cass., Sez. I, 12 aprile 2018, n. 9158, in Dir. giust., 2018. 41   Si veda, nella giurisprudenza più recente, Cass. Civ., Sez. I, Ord. 08/01/2019, n. 207, con nota di M.S. Esposito, Il risarcimento del danno non patrimoniale da illecito trattamento dei dati personali, in Corriere Giur., 2019, V, p. 625 ss., ove è stabilito che: «In caso di illecito trattamento dei dati personali per illegittima segnalazione alla Centrale dei rischi, il danno, sia patrimoniale che non patrimoniale, non può essere considerato “in re ipsa” per il fatto stesso dello svolgimento dell’attività pericolosa. Anche nel quadro di applicazione dell’art. 2050, il danno, e in particolare la “perdita”, deve essere sempre allegato e provato da parte dell’interessato (Cass. civ., Sez. I, Sent., (data ud. 24/11/2016) 25/01/2017, n. 1931)».

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

522

Riccardo Iacovelli

Invero, non mancano decisioni basate su un diverso percorso interpretativo, tese a ricondurre la responsabilità agli obblighi di diligenza rafforzata in capo alla banca42, ovvero alla normativa speciale in tema di servizi di pagamento posta dal d.lg. 27 gennaio 2010, n. 1143. Per quanto concerne, specificatamente, il richiamo alla disciplina del trattamento dei dati, l’iter argomentativo seguito dalla più recente giurisprudenza prende le mosse dalla premessa ineludibile per cui i codici segreti di accesso ai servizi bancari (in specie di home banking), compresi i dati biometrici44, costituiscono dati personali dei clienti. Pertanto, qualora terzi non autorizzati si inseriscano nei sistemi informatici, carpendo le credenziali e operando sui conti della clientela, l’istituto di credito potrà dirsi responsabile, in quanto gestore del sistema stesso, per non aver predisposto adeguate misure di sicurezza. Con il conseguente inquadramento della relativa fattispecie nell’ambito della normativa sul trattamento dei dati personali. Tale inquadramento, sino a poco tempo fa, comportava l’applicazione del severo regime di responsabilità in tema di attività pericolose, in virtù dell’espresso richiamo all’art. 2050 c.c. operato dall’art. 15 del d.lg. 30 giugno 2003, n. 196 (c.d. Codice privacy), norma di riferimento in materia di responsabilità da illecito trattamento dei dati personali. Tale richiamo, infatti, onerava l’istituto di credito, che intendesse

42   Cass. civ., 3 febbraio 2017, n. 2950, in Expartecreditoris.it, nonché in Dir. giust., 6 febbraio, 2017; Cass. Civ., 19 gennaio 2016, n. 806, in Resp. civ. prev., 2017, p. 216 ss., con nota di R. Frau, Prelevamenti illeciti dal bancomat e responsabilità della banca, p. 219 ss.; Cass. Civ., Sez. I, 12 giugno 2007, n. 13777, in Banca, borsa, tit. cred., 2009, e in Guida dir., 2007. Si veda anche Cass. Civ., Sez. I, 24 settembre 2009, n. 20543, ivi, 2009. Da ultimo, Cass., Sez. I, 12 aprile 2018, n. 9158, in Dir. giust., 2018, ribadisce l’obbligo, di natura professionale, di garantire la sicurezza dei sistemi. 43   Anche in questo caso si veda Cass. civ., 3 febbraio 2017, n. 2950, in www.expartecreditoris.it., nonché in Dir. giust., 2017. Mentre in dottrina il tema è approfondito da F.A. Marasà, Utilizzo fraudolento di carta bancomat e diligenza professionale della banca, in Banca, borsa, tit. cred., 2016, p. 396. Per un commento al d.lg. n. 11 del 2010, si veda: M. Mancini, M. Rispoli Farina, V. Santoro, A. Sciarrone Alibrandi e O. Troiano (a cura di), La nuova disciplina dei servizi di pagamento, Torino 2011. 44   Per un approfondimento sul tema specifico del trattamento dei dati biometrici, si segnala: S. Girotto, Il trattamento dei dati biometrici, in P. Zatti e S. Rodotà (diretto da), Trattato di biodiritto, Milano 2011, p. 1237 ss., spec. p. 1241 ss.; nonché S. Amato, F. Cristofari e S. Raciti, Biometria: i codici a barre del corpo, Torino 2013; G. Preite, voce Biometria, in Aa.Vv.., Enciclopedia di bioetica e scienza giuridica, Napoli 2009, p. 231; L. Cuomo, Profili giuridici del trattamento biometrico dei dati. Legal aspects of the treatment of biometric data in Riv. it. med. leg., 2014, p. 43 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Innovazione tecnologica e attività creditizia

523

andare esente da responsabilità, a provare l’adozione di tutte le misure più idonee per evitare il danno conseguente all’illecito trattamento dei dati personali45. Tuttavia, occorre rilevare che l’art. 15 del Codice Privacy è ricaduto fra le norme abrogate da parte del d.lg. 10 agosto 2018, n. 101, in sede di allineamento al Regolamento europeo 2016/679: risulta quindi venuto meno il referente normativo che autorizzava un immediato richiamo alla responsabilità civile per attività pericolose. Ciononostante, la responsabilità da illecito trattamento dei dati continua ad essere disciplinata dal Regolamento (UE) 2016/679, nel quale i richiami più specifici al tema in esame risultano dettati dal considerando 146 e dall’art. 82, i quali convergono nello statuire che il titolare o il responsabile del trattamento sono tenuti a risarcire i danni cagionati a una persona da un trattamento non conforme al Regolamento, salvo essere esonerati da responsabilità se si dimostra che l’evento dannoso non è in alcun modo loro imputabile. Vale allora la pena ricostruire brevemente le componenti essenziali della nuova disciplina in materia di responsabilità da trattamento illecito dei dati personali, al fine di comprendere il regime di responsabilità applicabile alle fattispecie sopra analizzate. 4.1. Il fenomeno dell’illecita captazione delle credenziali di accesso ai servizi online costituisce, come anticipato, l’ambito di indagine più significativo in materia responsabilità da trattamento illecito dei dati personali da parte degli istituti di credito. La ragione, ovviamente, risiede nella percezione immediata che i correntisti possono avere rispetto al danno subito, nonché rispetto all’entità e alla rilevanza che tale danno può assumere. Tuttavia, anche in riferimento alla responsabilità da illecito trattamento dei dati, si ripropone il problema classico in materia di responsabilità civile, e cioè quello di individuare il 45   Per un riferimento alla prova liberatoria ex art. 2050 c.c. in tema di trattamento di dati bancari, in giurisprudenza si veda Cass. civ., Sez. I, 25 gennaio 2017, n. 1931, in Dir. giust., 2017 (fattispecie di erronea segnalazione di nominativo in Centrale Rischi). Da ultimo, in tema di abusivo accesso al sistema di home banking, Cass. civ., Sez. VI, 12 aprile 2018, n. 9158, cit. In dottrina si segnala M. Franzoni, Dati personali e responsabilità civile, in Resp. civ. prev., 1998, p.  901, ove l’Autore evidenzia da un lato che la prova liberatoria richiesta dall’art. 2050 c.c. coincide con il caso fortuito e, dall’altro, che il richiamo a detta norma non vale a catalogare il trattamento di dati come attività in sé pericolosa, quanto piuttosto a collegare a questa materia quel particolare regime di responsabilità.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

524

Riccardo Iacovelli

regime di responsabilità applicabile – contrattuale o extracontrattuale –, non fosse altro per la necessità di stabilire quale sia il termine di prescrizione applicabile e il regime di quantificazione del danno. Essendo invece il regime giuridico dell’onere della prova già fissato ope legis46. Una questione, quindi, dal gusto tutt’altro che teorico, attesi i notevoli risvolti pratici che implica, soprattutto in termini di quantificazione del danno e di decorso del tempo necessario per esercitare validamente l’azione di risarcimento. Tanto premesso, al fine di individuare il regime di responsabilità applicabile alla banca – e ai nuovi operatori del settore – per omessa salvaguardia della sicurezza delle informazioni trasmesse soprattutto via internet, si rende necessario prendere le mosse dalla normativa di riferimento, oggi rappresentata dall’art. 82, par. 1, del Regolamento (UE) 2016/679, la quale stabilisce che chiunque subisca un danno materiale o immateriale causato da una violazione del Regolamento ha il diritto di ottenere il risarcimento del danno dal titolare o dal responsabile del trattamento, salvo che questi non dimostrino che l’evento dannoso non è in alcun modo loro imputabile. Volendo anticipare le conclusioni cui si tenterà di pervenire, è possibile affermare che la responsabilità degli operatori finanziari per trattamenti non conformi al Regolamento è una responsabilità di tipo contrattuale, con tutte le conseguenze che ne derivano in punto di disciplina. In altre parole, l’indagine sulla natura e sul profilo funzionale del modello di responsabilità civile da illecito trattamento di dati personali regolato dall’art. 82 del Regolamento 2016/679, soprattutto se rapportata al settore finanziario, consente di pervenire a soluzioni in parte diverse da quelle diffusamente accolte dal dibattito dottrinale – che si intende qui richiamare brevemente – e sviluppatosi intorno alla previsione di cui all’art. 15 del Codice privacy, oggi abrogato47. La dottrina appariva già divisa, infatti, con riguardo alla natura giuridica della responsabilità ex art. 15 Codice privacy: alla tesi maggioritaria in favore dell’extracontrattualità48 – all’interno della quale si 46   Per un approfondimento sugli aspetti processuali si veda P. Mazza, Profili processuali del diritto alla protezione dei dati personali nel regime del Reg. UE 2016/679 (GDPR) e del riformato D.lgs. n. 196/2003, in Il Corriere Giuridico, 2021, p. 959 ss. 47   Per un primo inquadramento della responsabilità da illecito trattamento dei dati personali V. Roppo, La responsabilità civile per trattamento di dati personali, in Danno e responsabilità, 1997, p. 663 ss. 48   Ex multis, in dottrina, G. Resta e A. Salerno, La responsabilità civile per il trat-

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Innovazione tecnologica e attività creditizia

525

distinguono le posizioni di chi ne sostiene l’estraneità o, al contrario, la riconducibilità al modello generale di cui all’art. 2043 c.c.49 – si contrapponevano le ricostruzioni che, attribuendo rilevanza agli obblighi posti ex lege sui soggetti deputati al trattamento, riconducevano la fattispecie nella sfera dell’inadempimento contrattuale ex art. 1218 c.c., in virtù della speciale tipologia di rapporto esistente tra danneggiante e danneggiato50, ovvero teorizzando l’esistenza di un contatto sociale qualificato tra titolare del trattamento e interessato51. tamento dei dati personali, in Aa.Vv., La responsabilità d’impresa, a cura di G. Alpa e G. Conte, Milano 2015, p. 658; E. Navarretta, Commento sub art. 9, in Tutela della «privacy». Commentario alla L. 31 dicembre 1996, n. 675, C.M. Bianca e F.D. Busnelli (a cura di), in Le nuove leggi civ. comm., 1999, p. 323 ss.; A. Pinori, Internet e responsabilità civile per il trattamento dei dati personali, in Contr. e impr., 2007, p. 1567 ss. 49   Con riguardo alla fattispecie di responsabilità di cui all’art. 15 del Codice privacy, ora abrogato, per l’impostazione che tende a ricondurla al paradigma della responsabilità aquiliana dell’art. 2043 c.c. si veda M. Franzoni, L’illecito, in M. Franzoni (diretto da), Trattato della responsabilità civile, Milano 2010, p. 941; M. Franzoni, Responsabilità per l’esercizio di attività pericolose, in Aa.Vv., La responsabilità civile, a cura di G. Alpa e M. Bessone, Torino 1987, II, p. 831 ss.; A. Finessi, Il danno non patrimoniale da illecito trattamento dei dati personali, in Aa.Vv., Responsabilità civile. Danno non patrimoniale, S. Delle Mona e S. Patti (a cura di), Milano 2010, p. 500. Per la tesi opposta che definisce, invece, la fattispecie di responsabilità civile ex art. 15 del Codice privacy in termini di autonomia rispetto al modello generale di cui all’art. 2043 c.c., in quanto costruita in funzione di un comportamento riprovevole nella sua antigiuridicità – valutato ex ante tramite la prescrizione delle regole del trattamento – e non più definito in riferimento alla produzione di un danno ingiusto, si veda D. Messinetti, I nuovi danni. Modernità, complessità della prassi e pluralismo della nozione giuridica di danno, in Riv. crit. dir. priv., 2006, p. 549; G. Ramaccioni, La risarcibilità del danno non patrimoniale da illecito trattamento dei dati personali, in Aa.Vv., Studi in onore di Davide Messinetti, Napoli 2009, II, p. 268 ss.; F. Di Ciommo, Il danno non patrimoniale da trattamento dei dati personali, in Aa.Vv., Il nuovo danno non patrimoniale, G. Ponzanelli (a cura di), Padova 2004, pp. 267 e 274. 50   F.D. Busnelli Itinerari europei nella “terra di nessuno tra contratto e fatto illecito”: la responsabilità da informazioni inesatte, in Contr. e impr., 1991, p. 539 ss.; E. Pellecchia, La responsabilità civile per trattamento dei dati personali, in Resp. civ. prev., 2006, p. 224 ss; per l’applicabilità della figura della responsabilità per violazione di obblighi di status alla responsabilità civile per trattamento di dati personali, si esprime C. Scognamiglio, Buona fede e responsabilità civile, in Europa e dir. priv., 2001, p. 357 ss. Da ultimo, in riferimento alla fattispecie di responsabilità di cui all’art. 82, F. Piraino, Il Regolamento generale sulla protezione dei dati personali e i diritti dell’interessato, in Nuove leggi civ. comm., 2017, p. 388, fa richiamo alla responsabilità da inadempimento di obblighi che «isolatamente considerati, non attribuiscono all’interessato una specifica utilità, ma che proiettano comunque la relazione tra questi e il titolare e il responsabile del trattamento nella dimensione del rapporto obbligatorio» 51   C. Castronovo, Situazioni soggettive e tutela nella legge sul trattamento dei dati personali, in V. Cuffaro, V. Ricciuto e V. Zeno Zencovich (a cura di), Trattamento dei dati e tutela della persona, Milano 1998, p. 675. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

526

Riccardo Iacovelli

In favore della ricostruzione maggioritaria in termini di responsabilità extracontrattuale è stata valorizzata, poi, la stessa formulazione dell’art. 15 del Codice privacy, costruita come norma generale secondo il modello di cui all’art. 2043 c.c., contenente altresì l’espresso richiamo all’art. 2050 c.c., collocato, a sua volta, nella disciplina dei fatti illeciti (titolo IX del libro IV del codice civile). Ed ancora, a favore della tesi della extracontrattualità, si era sostenuto che l’unico vantaggio che sarebbe residuato dall’applicazione del regime normativo di cui all’art. 1218 ss. c.c., dato dal più ampio termine di prescrizione – decennale per la responsabilità da inadempimento, laddove l’art. 2947 c.c. prevede un termine quinquennale per la responsabilità aquiliana – sarebbe stato in qualche modo compensato dall’operatività del limite della prevedibilità del danno risarcibile, previsto dall’art. 1225 c.c. in materia di risarcimento del danno da inadempimento contrattuale52. Tuttavia, la figura di responsabilità civile delineata dal nuovo Regolamento europeo appare discostarsi dal modello tradizionale della responsabilità aquiliana, intesa come responsabilità che sorge in capo ad un soggetto non gravato da nessun obbligo di condotta prima del verificarsi della lesione dalla quale deriva l’obbligo di risarcire il danno eventualmente cagionato53. Ed invero, più indici rivelatori depongono a favore di un inquadramento della responsabilità in esame in termini di responsabilità contrattuale, quantomeno in termini di responsabilità da contatto sociale qualificato. Anzitutto, occorre precisare che il Regolamento adotta una nozione più ampia, rispetto all’abrogato art. 15 Codice privacy, di trattamento illecito. La norma identifica, infatti, il trattamento illecito in una condotta del titolare contraria alle prescrizioni regolamentari che presiedono al trattamento di dati personali, o anche in un inadempimento del responsabile degli obblighi del trattamento specificamente previsti dalla legge a suo carico54. La norma adotta, pertanto, una nozione di illecito quale fatto anti52   M. Gambini, Responsabilità e risarcimento nel trattamento dei dati personali, in V. Cuffaro (a cura di), I Dati Personali Nel Diritto Europeo, cit., p. 1082. 53   C. Castronovo, La nuova responsabilità civile, Milano 1980, p. 180, definisce la responsabilità extracontrattuale come responsabilità del «chiunque» o del passante. 54   Tra cui rientrano anche i comportamenti difformi o contrari rispetto alle legittime istruzioni impartite dal titolare, sulla base delle quali è tenuto a trattare i dati.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Innovazione tecnologica e attività creditizia

527

giuridico, l’illiceità designando la contrarietà alle norme regolamentari che fissano i principi e le condizioni di liceità che presiedono al trattamento dei dati ovvero che, imponendo puntuali obblighi di comportamento, principalmente a carico del titolare del trattamento medesimo, ma anche del responsabile, finiscono con l’offrire agli autori del trattamento modelli di condotta diligente. Il Regolamento, quindi, predispone un sistema complesso di regole che individuano precisi obblighi a carico del titolare e del responsabile volti, principalmente, a minimizzare i rischi per i diritti e le libertà delle persone riconducibili all’attività di trattamento dei dati personali, e a prevenire i danni che essa può provocare55. La peculiare struttura che viene, conseguentemente, ad assumere la fattispecie di responsabilità di cui all’art. 82 del Regolamento, rivela la tendenza a sostituire all’antica serie dei c.dd. doveri generici del neminem laedere, la cui violazione è fonte di responsabilità per illecito aquiliano, ben più specifici obblighi di comportamento, collegati ai vari status e condizioni professionali dei soggetti coinvolti nel trattamento dei dati personali56. Alla luce dei richiamati obblighi comportamentali, volti a minimizzare i rischi derivanti dal trattamento, è possibile quindi richiamare la teoria del contatto sociale qualificato, ravvisabile ogni qualvolta l’ordinamento imponga ad un soggetto di tenere un determinato comportamento, idoneo a tutelare l’affidamento riposto da altri soggetti sul corretto espletamento da parte sua di preesistenti, specifici, doveri di protezione che egli abbia volontariamente assunto57. La banca ha pertanto nei confronti della propria clientela, nel cui interesse tali regole comportamentali sono dettate – e che, per la violazione di esse, abbia sofferto un danno –, una responsabilità di tipo contrattuale, avendo un obbligo professionale di protezione (preesi-

55  Cfr. M. Gambini, Responsabilità e risarcimento nel trattamento dei dati personali, cit., p. 1083. 56  Cfr. A. Di Majo, I cinquant’anni del Libro delle obbligazioni, in Riv. crit. dir. priv., 1992, p. 170. 57   Cfr. Cass., Sez. Un., 21 maggio 2018, n. 12477, in Banca, borsa, tit. cred., 2019, p. 297, con note di D. Spagnuolo, La responsabilità della banca per l’errata identificazione del prenditore di assegno non trasferibile; e A. Ricci, Circolazione titoli e pagamento dell’assegno a soggetto non legittimato. Il tramonto della responsabilità oggettiva.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

528

Riccardo Iacovelli

stente, specifico e volontariamente assunto) operante nei confronti dei clienti interessati alla corretta gestione dei propri dati personali58. Tuttavia, è stato pure sostenuto che i richiamati obblighi di comportamento operino comunque all’interno della responsabilità extracontrattuale, in quanto la loro natura generalmente procedimentale li renderebbe inidonei ad attribuire all’interessato il diritto ad una prestazione del titolare (e/o del responsabile) del trattamento capace di soddisfare un suo specifico interesse; non essendo pertanto sufficienti ad attrarre la relazione tra i soggetti coinvolti nell’evento dannoso – l’interessato, da un lato, e il titolare (e/o il responsabile), dall’altro – nell’alveo di un rapporto obbligatorio59. Ma soprattutto all’interno di rapporti fortemente contrattualizzati come quelli intercorrenti tra clienti e intermediari finanziari, risulta difficile sostenere che sia solamente il danno cagionato nella sfera giuridica dei primi, derivante dal trattamento (illecito) dei dati personali, a creare una relazione con i secondi, atteso che spesso i soggetti coinvolti entrano in contatto tra loro prima e a prescindere dal trattamento dei dati in sé, questo accedendo ad altro rapporto contrattuale quale quello di apertura di conto corrente, di attivazione di servizi online, di finanziamento o simili, in grado di far sorgere in capo al cliente lo specifico interesse a che i suoi dati, forniti per l’erogazione dei vari servizi, vengano trattati in modo conforme al Regolamento. L’indagine sulla natura della responsabilità da illecito (recte: non conforme) trattamento dei dati personali, inoltre, non può prescindere dall’analisi del suo criterio di imputazione, e del contenuto dell’onere probatorio imposto al titolare del trattamento che intenda andare esente da tale responsabilità. L’art. 82, par. 3, del Regolamento 2016/679 ammette il danneggiante-titolare del trattamento alla prova liberatoria «che l’evento dannoso non gli è in alcun modo imputabile». Detta locuzione non coincide più con la prova liberatoria prevista dall’ abrogato art. 15 Codice privacy, e coincidente con quella di cui

58   Contra C. Solinas, Danno non patrimoniale e violazione del diritto alla protezione dei dati personali, in La Nuova Giurisprudenza Civile Commentata, 2021, I; S. Thobani, Protezione dei dati personali - Il danno non patrimoniale da trattamento di dati tra danno presunto e danno evento, in Giurisprudenza Italiana, 2019, I, p. 41 ss. 59   M. Gambini, Responsabilità e risarcimento nel trattamento dei dati personali, in V. Cuffaro (a cura di), cit. pp. 1083-1084.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Innovazione tecnologica e attività creditizia

529

all’art. 2050 c.c., che si concretizza nell’aver adottato tutte le misure idonee per evitare il danno60. Pertanto, sembra potersi ritenere superata la concezione che sostiene l’imputazione oggettiva della responsabilità da illecito trattamento dei dati, sviluppatasi nel vigore dell’art. 15 Codice privacy61. La via percorsa dal Regolamento, infatti, è stata quella di dettare una disciplina puntuale dell’attività di trattamento dei dati personali, attraverso un complesso di norme che fissano i principi e le regole cui il trattamento deve essere improntato, anche attraverso la definizione di puntuali obblighi di condotta, posti principalmente a carico del titolare del trattamento, che possono considerarsi diretta espressione del principio di responsabilità (accountability)62. In questa prospettiva, il danno da violazione della privacy viene a configurarsi quale conseguenza colposa della mancata adozione delle misure tecniche e organizzative, anche di sicurezza, ragionevoli e comunque adeguate a scongiurarlo, tenuto conto dei rischi per i diritti e le libertà delle persone connessi all’attività di trattamento63. Anche sotto il richiamato profilo, quindi, il regime della respon-

60   Per un riferimento alla prova liberatoria ex art. 2050 c.c. in tema di trattamento di dati bancari, v., fra le più recenti, Cass. civ., Sez. I, 25 gennaio 2017, n. 1931, in Dir. giust., 2017 (fattispecie di erronea segnalazione di nominativo in Centrale Rischi). Da ultimo, in tema di abusivo accesso al sistema di home banking, Cass. civ., Sez. VI, 12 aprile 2018, n. 9158, cit. 61   La dottrina prevalente era orientata a ravvisare nella fattispecie di responsabilità di cui all’art. 15 del Codice privacy un’ipotesi di responsabilità oggettiva: così M. Franzoni, Responsabilità derivante da trattamento dei dati personali, in Aa.Vv.., Diritto dell’informatica, G. Finocchiaro e F. Delfini (a cura di), Milano 2014, p. 831; G. Resta e A. Salerno, La responsabilità civile per il trattamento dei dati personali, in Aa.Vv., La responsabilità d’impresa, G. Alpa e G. Conte (a cura di), cit., p. 670. Per una interpretazione dell’art. 2050 c.c. nel senso della mera inversione dell’onere della prova in favore del danneggiato e/o di ampliamento del dovere di diligenza incombente sul danneggiante, P. Ziviz, I danni non patrimoniali, in AA.VV., Il diritto italiano nella giurisprudenza, P. Cendon (a cura di), Torino 2012, p.  367. Ancora, F.D. Busnelli, Il “trattamento dei dati personali” nella vicenda dei diritti della persona: la tutela risarcitoria, in V. Cuffaro, V. Ricciuto e V. Zeno Zencovich (a cura di), cit., p. 185 ss. 62   U. Izzo, La precauzione nella responsabilità civile, Padova 2007, p. 642; F. Santonastaso, Principio di «precauzione» e responsabilità d’impresa: rischio tecnologico e attività pericolosa «per sua natura». Prime riflessioni su un tema di ricerca, in Contr. e impr./Europa, 2001, p. 21; C. Castronovo, Sentieri di responsabilità civile europea, in Europa e dir. priv., 2008, p. 787. 63   M. Gambini, Responsabilità e risarcimento nel trattamento dei dati personali, cit., pp. 1056-1058.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

530

Riccardo Iacovelli

sabilità da illecito trattamento dei dati sembra coincidere con quello stabilito dall’art. 1218 c.c., che impone al debitore che intenda andare esente da responsabilità la prova che l’inadempimento o il ritardo è stato determinato da impossibilità della prestazione derivante da causa a lui non imputabile. In altre parole, anche nell’ambito della responsabilità da illecito trattamento dei dati sembra ammettersi, al pari di quanto avviene nell’ambito della responsabilità contrattuale, un regime di responsabilità per colpa presunta: la colpa, infatti, resta implicita nel comportamento dannoso tenuto dal titolare, e costituisce oggetto della sola prova liberatoria concessagli64. Anche il dato testuale, infine, sembra confermare la ricostruzione proposta della responsabilità da illecito trattamento dei dati personali in termini di responsabilità contrattuale, quantomeno nel settore finanziario. Il riferimento ai soli soggetti attivi del trattamento – titolare e responsabile –, operato dall’art. 82 del Regolamento 2016/679, segna il superamento del generico richiamo al «chiunque cagiona danno» adottato dall’art. 15 del Codice privacy, oggi abrogato, per indicare il soggetto tenuto al risarcimento del danno da trattamento di dati personali; così, di fatto, eliminando anche l’ultima espressione di raccordo con l’art. 2043 c.c., norma generale in materia di responsabilità aquiliana. Alla luce delle considerazioni svolte, risulta quindi possibile tentare una ricostruzione della responsabilità degli intermediari finanziari – da illecito trattamento dei dati personali – in termini di responsabilità contrattuale. E tale conclusione si impone alla luce del rilievo, dirimente, per cui titolare del trattamento (intermediario finanziario) e titolare dei dati personali (cliente) difficilmente potranno essere ritenuti soggetti estranei, che entrano cioè in contatto per la prima volta in occasione del danno cagionato dal primo al secondo. 6. Il fenomeno FinTech è lo specchio dei nostri tempi. La finanza digitale ha aiutato i cittadini e le imprese a far fronte alla eccezionale situazione creata dalla pandemia da Covid-19. E così, ad esempio, grazie alla verifica dell’identità online molti utenti sono riusciti ad aprire conti, gestirli, e usare i diversi servizi 64   M. Gambini, Responsabilità e risarcimento nel trattamento dei dati personali, cit., p. 1058.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Innovazione tecnologica e attività creditizia

531

finanziari a distanza. Una porzione crescente di pagamenti presso i punti vendita è stata effettuata tramite le tecnologie digitali e senza contatto fisico, e gli acquisti online (e-commerce) hanno registrato un incremento senza precedenti. Le soluzioni di tecnologia finanziaria, inoltre, hanno contribuito ad ampliare e accelerare l’accesso ai prestiti, compresi quelli finanziati dai governi in risposta alla crisi dettata dalla pandemia. L’innovazione tecnologica, in definitiva, ha consentito a consumatori e imprese di avere sempre più accesso ai servizi finanziari in modalità digitale. Ed ha contribuito a cambiare la fisionomia delle banche, sempre più vicine a trasformarsi in operatori virtuali, in grado di offrire servizi fruibili da chiunque, in qualunque luogo. Al centro di questo fenomeno vi sono i dati personali degli utenti, con sempre maggiore frequenza immessi in rete. Governare la realtà virtuale diviene allora fondamentale, così come garantire la sicurezza e l’affidabilità delle infrastrutture digitali, individuando un punto di equilibrio tra innovazione finanziaria, sviluppo tecnologico e creazione di un quadro unitario di regole. In attesa che il legislatore – europeo e nazionale – prenda piena contezza della rivoluzione digitale in atto, per regolarne compiutamente gli effetti, all’interprete non resta che confrontarsi con gli strumenti già presenti nell’ordinamento. La svolta digitale delle banche e del mercato finanziario offre allora l’occasione per una riflessione generale in materia di responsabilità civile per illecito trattamento dei dati. Gli intermediari finanziari, infatti, possono essere considerati responsabili in sede civile delle frodi telematiche commesse in danno dei propri clienti, e perpetrate mediante il furto di dati personali, tra i quali certamente rientrano le credenziali di accesso ai servizi online. Al fine di stabilire il regime giuridico di tale responsabilità si può ragionare essenzialmente in due modi. E tuttavia arrivare alle medesime conclusioni. Per la fattispecie di illecita captazione dei dati personali del cliente – mediante frodi informatiche – può ravvisarsi una responsabilità contrattuale della banca per violazione degli obblighi di diligenza, buona fede e correttezza derivanti, ai sensi degli artt. 1175, 1176 e 1375 c.c., dal contratto di conto corrente con servizio di home banking. È indubbio, infatti, che dalla conclusione di detto contratto sorgano in capo al contraente professionale obblighi di protezione, nonché il do© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

532

Riccardo Iacovelli

vere di adottare misure idonee ad evitare l’accesso fraudolento da parte di terzi al conto dei clienti. Altresì, risulta possibile invocare la responsabilità dell’intermediario ex art. 82 del Regolamento 2016/679, ma solo per i danni causati alle persone fisiche, posto che alla sola protezione di costoro è rivolta la normativa richiamata. Ed anche per tale via, riconoscere comunque una responsabilità di tipo contrattuale in capo all’intermediario. Tale conclusione si impone alla luce della nuova formulazione della disposizione in materia e del rilievo, dirimente, per cui il contatto qualificato tra cliente e intermediario giustifica lo specifico interesse del primo ad una gestione del trattamento dei propri dati personali, da parte del secondo, conforme rispetto alle disposizioni regolamentari. Interesse specifico in grado di far sorgere un rapporto obbligatorio tra i soggetti coinvolti. I risvolti pratici che discendono da tale ricostruzione si rivelano coerenti con un’interpretazione dell’intera normativa in materia di protezione dei dati personali tesa a bilanciare gli interessi in gioco: la massima protezione dei titolari dei dati, da un lato, e la circolazione dei dati personali, ormai divenuti pilastri essenziali dell’economia digitale, dall’altro. Lo strumento della presunzione di colpa, infatti, consente di raggiungere soluzioni più eque tanto sul piano della protezione della vittima del danno, quanto sul piano della promozione della libera circolazione dei dati, attraverso la responsabilizzazione dei soggetti attivi del trattamento in relazione ai pericoli e ai pregiudizi che possano derivarne. Al riguardo, il regime probatorio disposto dalla norma europea, e coincidente con quello in materia di responsabilità contrattuale, consente – per un verso – di aumentare la protezione dell’interessato, stanti le difficoltà che questi potrebbe incontrare nel dimostrare la colpa dell’autore, soprattutto in riferimento alla realtà digitale in cui oggi si svolge la maggior parte dei trattamenti dei dati personali. E permette – per altro verso – di responsabilizzare il titolare e/o il responsabile del trattamento il quale, per andare esente da responsabilità, avrà l’onere di provare l’impiego di misure di prevenzione e precauzione ragionevoli ed adeguate a evitare gli effetti pregiudizievoli derivanti dal trattamento (illecito) dei dati. Estendere a tali fattispecie la disciplina della responsabilità contrattuale, inoltre, rafforza la posizione processuale dei danneggiati anche

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Innovazione tecnologica e attività creditizia

533

dal punto di vista della prescrizione, attesa la possibilità di esperire l’azione di responsabilità nell’ordinario termine decennale. Non sembrano, infine, porsi in contrasto con la logica della massima tutela dei soggetti danneggiati né il limite della prevedibilità del danno, sancito dall’art. 1225 c.c. nell’ambito della sola responsabilità contrattuale, né il tipo di danno risarcibile in tale regime di responsabilità. Per quanto concerne la prevedibilità del danno, invero, è agevole rilevare che la prassi degli istituti di credito ha reso del tutto ragionevole ricondurre nell’area del rischio del prestatore dei servizi finanziari, prevedibile ed evitabile con le ordinarie misure di sicurezza informatiche, la illecita captazione dei codici di accesso ai servizi online. E che in ogni caso, al cospetto di un debitore ipercapace – come deve ritenersi l’intermediario finanziario – in grado di prevedere concretamente un danno che, secondo il parametro dell’agente modello, sarebbe imprevedibile, risulta comunque ragionevole imporre a tale soggetto la sopportazione anche delle conseguenze dannose ordinariamente imprevedibili. Per quanto attiene, infine, al tipo di danno risarcibile, la prassi giurisprudenziale ha ormai da tempo ammesso il risarcimento del danno non patrimoniale da inadempimento contrattuale. Con la conseguenza per cui, anche sotto tale profilo, la tutela dei soggetti danneggiati da un illecito trattamento dei dati personali non risulterebbe menomata da un inquadramento della responsabilità dell’intermediario nell’ambito della responsabilità contrattuale.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Enza Cirone*

La decisione algoritmica nelle Organizzazioni Autonome Decentralizzate (DAOs): Panopticon o panacea? «Se vogliamo che tutto rimanga com’è, bisogna che tutto cambi» Il Gattopardo, Giuseppe Tomasi di Lampedusa

Sommario: 1. Introduzione. – 2. Blockchain 101. – 3. Le Organizzazioni Autonome Decentralizzate. – 4. Il caso «The DAO» e la rilevanza delle regole endogene ed esogene nelle organizzazioni autonome decentralizzate. – 5. Il sistema reputazionale nelle DAOs. – 6. La governance algoritmica nelle DAOs. – 7. Conclusioni.

1. Il concetto di Blockchain1 racchiude al suo interno non solo gli elementi costitutivi di una nuova tecnologia che crea soluzioni innovative in numerosi campi del sapere, ma anche dei nuovi valori di riferimento2. Questo, inevitabilmente, pone gli operatori del diritto innanzi alla scelta sul se abbracciare il cambiamento oppure opporvisi. È per tale ragione che la citazione di Tomasi di Lampedusa, sebbene figlia del suo tempo, rispecchia perfettamente la situazione attuale. Infatti, così come la nobiltà dell’epoca, al fine di mantenere le proprie prerogative, fu costretta ad accettare il cambiamento dello status quo e a condividere il potere con i non nobili, allo stesso modo il nuovo paradigma Blockchain costringe a fare i conti con una situazione nella quale i meccanismi di funzionamento del passato non sembrano essere adatti alla realtà odierna. Pertanto, come avvenuto con altre tecnologie che l’hanno preceduta, ad esempio Internet, la chiave di volta sarà la creazione di un ponte tra il passato e il presente. Invero, perché si possa beneficiare a pieno delle potenzialità della Blockchain, è necessario * Dottoranda in European and Transnational Legal Studies nell’Università di Firenze.   L’autrice utilizza il termine Blockchain e blockchain in maniera diversa. Il primo si riferisce alla tecnologia, il secondo alle applicazioni. 2   Le applicazioni blockchain e DLT, in generale, possono condizionare il settore finanziario, legale, economico e sociale: infatti un numero incredibile di applicazioni in numerosi campi può essere sviluppato grazie a queste tecnologie. 1

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

536

Enza Cirone

approcciarvisi con una metodologia che sia scevra da antiche logiche ma che sia allo stesso tempo costruttiva e non distruttiva. In tale contesto il dibattito è a livello giuridico ancora fervente. In via preliminare, la dottrina si domanda se e in che modo sia possibile regolamentare questo nuovo fenomeno3. A tal proposito, è necessario premettere che le considerazioni che seguono si basano sull’assunto che, per quanto vi siano oggettive (e anche ovvie) difficoltà nel comprendere le modalità e gli strumenti giuridici da utilizzare, la Blockchain non vive all’interno di una dimensione a sé stante dove la legge non può arrivare. Il presente contributo, pertanto, si discosta da parte della dottrina che ritiene che la Blockchain, per la sua natura decentralizzata, sia ontologicamente immune da qualsiasi interferenza statale e che non essere (o non poter essere) regolata sia una delle sue principali caratteristiche4. Tuttavia, tali aspetti non saranno oggetto della presente trattazione che, invece, partendo dalla constatazione che ogni protocollo blockchain, oltre a sviluppare una certa applicazione, permette lo sviluppo di strumenti giuridici che riprendono le caratteristiche dei sistemi tradizionali (come, ad esempio, gli smart contracts)5, si focalizzerà sulle c.dd. organizzazioni autonome decentralizzate, ovvero nuove entità che promettono di scardinare il tradizionale concetto di autonomia, estremizzato in termini di indipendenza, e che perseguendo propri obiettivi e avendo proprie regole di funzionamento, inducono

3   Cfr. per esempio, D. Mimran, Spanning the Chasm: The Missing Link in Tech Regulation Part 1, OECD Forum Network series on Digitalisation (26 Aprile 2019), disponible a https://www.oecd-forum.org/posts/48280-spanning-the-chasm-themissing-link-in-tech-regulation-part-1: «For three decades governments across the globe have created an enormous regulatory vacuum due to a profound misunderstanding of the magnitude of technology on society. As a result, they neglected their duty to protect society in the mixed reality of technology and humanity». 4   M. Atzori, Blockchain Technology and Decentralized Governance: Is the State Still Necessary?, 2015, https://www.papers.ssrn.com/sol3/papers.cfm?abstract_ id=2709713. 5  Gli smart contracts sono programmi utilizzati per automatizzare l'esecuzione di un accordo. Il concetto di smart contracts trae origine da N. Szabo, The idea of smart contracts, 1997, nakamotoinstitute.org/the-idea-of-smart-contracts/; N. Szabo, Smart contracts: formalizing and securing relationships on public networks, First Monday 2, https://www.doi.org/10.5210/fm.v2i9.548M; M. Raskin, The Law and Legality of Smart Contracts in Georgetown Law Technology Review, 2017, VIII.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La decisione algoritmica nelle DAOs

537

a ripensare il concetto tradizionale di governance in termini di self-governance6. Le Organizzazioni Autonome Decentralizzate, meglio conosciute con l’acronimo inglese DAOs7 ovvero Decentralized Autonomous Organizations, si basano su smart contracts e possono essere considerate a tutti gli effetti sia come nuove forme organizzative che come autonomi sistemi decisionali. In particolare, la DAO come nuova forma associativa solleva numerosi quesiti e dubbi rispetto alla applicabilità delle tradizionali regole del diritto societario. Tuttavia, ancora prima, è proprio la legalità delle DAOs che risulta incerta e che dipenderà dalla qualificazione che ne verrà data nei vari ordinamenti statali o a livello europeo8. Tali questioni, già indagate in dottrina, non saranno tuttavia oggetto di approfondimento nel presente studio9. Infatti, l’analisi, partendo dal rilievo che solitamente l’esame dei pericoli e delle minacce all’interno delle blockchains ha come focus i c.dd. fattori esogeni (es. la rilevanza del protocollo internet nei sistemi decentralizzati)10, si concentrerà sui fattori di pericolo c.dd. endogeni che

6   N. Kelsie, Experiments in algorithmic governance continue, https://www.kelsienabben.substack.com/p/experiments-in-algorithmic-governance?s=r. 7   Per una analisi tecnica e comparativa delle principali DAOs formatesi sulla piattaforma Ethereum si rimanda a: Y. Faqir-Rhazoui, J. Arroyo e S. Hassan, A comparative analysis of the platform of the decentralized autonomous organizations in the Ethereum blockchain, in Journal of Internet Services and Applications, 2021, p. 1 ss.; D. Kraus D, T. Obrist e O. Hari, Blockchains, smart contracts, decentralised autonomous organisations and the law, Cheltenham-Northampton 2019. 8   Si potrebbe ipotizzare che la base giuridica per un atto legislativo in materia possa essere l’art. 114 TFUE sul ravvicinamento delle legislazioni per il funzionamento del mercato interno, così come per la Proposta di regolamento relativo ai mercati delle cripto-attività, COM(2020) 593 final. 9   Per un approfondimento sull’ambito societario: Z.V. Zamfir, Against Szabo’s law, for a new Crypto legal system, in Crypto Law Review, 2019. Per la questione della legalità delle DAOs si rimanda a: M. Tanaya, The DAO might be groundbreaking, but is it legal?, https://www.americanbanker.com/bank-technology/the-dao-mightbe-groundbreaking-but-is-it-legal-1081084-1.html?zkPrintable=1&nopagination=1. 10  «The internet allows us to create decentralized corporations, automatons that exist entirely as decentralized networks over the internet, carrying out the computations that keep them “alive” over thousands of servers», V. Buterin, Bootstrapping an autonomous decentralized corporation, part. 2: interacting with the world, 2013, https://www.bitcoinmagazine.com/technical/bootstrapping-an-autonomous-decentralized-corporation-part-2-interacting-with-the-world-1379808279; si v. V. Buterin, Gitcoin Grants Round 9: The next phase of growth, 2021, https://www.vitalik.ca/general/2021/04/02/round9.html.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

538

Enza Cirone

riguardano proprio la struttura interna delle organizzazioni autonome decentralizzate. Prima di proseguire, è però necessaria una premessa terminologica. Bisogna distinguere concettualmente l’autonomia dalla automazione. La autonomia è la capacità di prendere decisioni in maniera informata. Le organizzazioni autonome sono indipendenti in quanto organismi di cd. «auto-governo». L’automazione è, invece, la capacità di un sistema di operare con poco (o nessun) intervento da parte dell’uomo. Va da sé, però, che l’esecuzione automatizzata delle regole ha come effetto la progressiva autonomia del sistema stesso. Dunque, applicando questa differenza concettuale alle Organizzazioni Autonome Decentralizzate, si ritiene che queste, in quanto sistemi decisionali autonomi (cd. automated decision-making systems, ADMs), ovvero software o processi che usano algoritmi per aiutare o prendere direttamente decisioni automatizzate che possono coinvolgere attività di classificazione, ottimizzazione, identificazione o profilazione, necessariamente sollevano quesiti sugli effetti di tali attività per l’accesso alle libertà e ai diritti delle persone fisiche e giuridiche11. Nel novero delle citate questioni giuridiche che potrebbero essere approfondite, il presente contributo si concentrerà sul concetto di profilazione12 all’interno delle DAOs al fine di comprendere come mutino le opportunità e i rischi di una governance degli algoritmi in un sistema decentralizzato rispetto a uno centralizzato. Infatti, dato che le DAOs possono essere considerate come istituzioni sociali che rafforzano la posizione individuale dei partecipanti e, quindi, come una alternativa alla struttura governativa che è alla base delle infrastrutture digitali più conosciute e utilizzate, si intende dimostrare che la governance degli algoritmi può allo stesso tempo creare e risolvere le vulnerabilità proprie dei sistemi decentralizzati. In buona sostanza, le domande alle quali si intende rispondere sono: le Organizzazioni Autonome Decentralizzate sono il nuovo panopti11   R. Richardson, Defining and Demystifying Automated Decision Systems, https://www.papers.ssrn.com/sol3/papers.cfm?abstract_id=3811708#. 12   Secondo il Regolamento (UE) 2016/679 (regolamento generale per la protezione dei dati, GDPR), la profilazione è «qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati personali per valutare determinati aspetti personali relativi a una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica» (art. 4, n.4).

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La decisione algoritmica nelle DAOs

539

con digitale13 di una governance degli algoritmi? Quali le implicazioni per l’autonomia umana in questi sistemi autonomi e decentralizzati? 2. Per una piena comprensione dell’ambito di analisi, è necessario introdurre brevemente gli elementi essenziali della tecnologia Blockchain14 al fine di approfondire la questione del ruolo degli algoritmi all’interno delle Organizzazioni Autonome Decentralizzate. Per gli scopi del presente contributo sarà sufficiente comprendere due aspetti della tecnologia: le sue funzionalità e le modalità di gestione dei dati. Innanzitutto, la tecnologia Blockchain è una specie del genere DLT – nonché la più conosciuta – e, in quanto tale, si caratterizza per la modalità distribuita attraverso la quale sono gestiti e scambiati i dati. La prima e più nota blockchain pubblica è stata Bitcoin, rilasciata nel 2009 dal suo creatore ancora oggi conosciuto con lo pseudonimo Satoshi Nakamoto, che nel white paper15 pubblicato a fine 2008 delineò le caratteristiche di un innovativo e originale modo di scambiare denaro. La diffusione del white paper ebbe infatti un effetto dirompente perché fu subito chiaro che la tecnologia che sviluppava e gestiva bitcoin rappresentava qualcosa di diverso rispetto al protocollo internet. Infatti, la principale differenza tra questi risiede nell’oggetto del trasferimento: entrambi permettono di scambiare dati, tuttavia, i dati di internet sono una serie di bit corrispondenti a informazioni, mentre i dati della Blockchain corrispondono a un bene, sia materiale che immateriale. La Blockchain può essere definita come un database immutabile, decentralizzato, distribuito geograficamente su una rete multipla di nodi e non amministrato da un ente centrale16. Qualsiasi modifica al libro 13   Il panottico è un tipo di edificio adibito a carcere di forma circolare, con un vano centrale che prende luce dal tetto in vetro e dal quale è possibile controllare tutte le celle, disposte lungo il perimetro. Il concetto, ideato dal filosofo Jeremy Bentham, che viene generalmente associato a quello del potere invisibile ha ispirato numerosi filofosi, tra cui Foucalt, Chomsky e Bauman. 14   Per un approfondimento, si rimanda a: M. Nofer, P. Gomber, O. Hinz e D. Schiereck, Blockchain, in Business and Information Systems Engineering, 2017, p.  183 ss.; B. Singhal, G. Dhameja e P. Sekha Panda, Beginning Blockchain – a beginner’s guide to building blockchain solutions, New York 2018; V. Dhillon, D. Metcalf e M. Hooper, Blockchain enabled application, New York 2017. 15   S. Nakamoto, Bitcoin: A Peer-to-Peer Electronic Cash System, 2008, https:// www.bitcoin.org/bitcoin.pdf. 16   W. Mougayar, The business blockchain, Hoboken 2016, p. 17; A. Wright e P.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

540

Enza Cirone

mastro si riflette nelle varie copie distribuite tra i nodi della rete e questo garantisce la immutabilità delle informazioni ivi contenute. Inoltre, la sicurezza e l’accuratezza del libro mastro sono mantenute crittograficamente secondo le regole di consenso concordate dalla rete che definiscono quale sia l’algoritmo validante e chi possa essere un nodo validatore17. Nello specifico, occorre precisare che, per quanto riguarda il funzionamento delle blockchains, le tecnologie utilizzate per svilupparla sono il risultato di tecnologie già esistenti. Vale a dire che i protocolli blockchain sono la combinazione unica di tecnologie già sviluppate per costruire reti decentralizzate18. Infatti, si è già detto che, in buona sostanza, ogni blockchain costituisce una piattaforma che non è controllata né da una entità centrale né da un’autorità pubblica. Invece, è una rete peer-to-peer (P2P) che opera attraverso una struttura decentralizzata in cui ogni partecipante è contemporaneamente un fornitore e un consumatore di dati e/o informazioni. In realtà, predecessore della Blockchain sono le reti P2P, già disponibili prima del 2008 (Torrent o Napster); tuttavia, i protocolli blockchain sono qualcosa di più dal momento che permettono il commercio dei token che rappresentano valori o beni, mentre le reti P2P di solito permettono il trasferimento di dati già esistenti.

De Filippi, Decentralized Blockchain Technology and the Rise of Lex Cryptographia, 2015, https://www.papers.ssrn.com/sol3/papers.cfm?abstract_id=2580664. 17  Con riferimento a ciò, si consideri che una figura essenziale nel panorama Blockchain è quella dei c.dd. miners che determinano quali blocchi devono essere aggiunti alla blockchain attraverso diversi protocolli di consenso. Questi ultimi rendono possibile per una rete distribuita di peers di memorizzare informazioni in una blockchain senza la necessità di affidarsi ad alcun operatore o intermediario centralizzato, permettendo agli attori della rete di trovare un metodo comune di validazione. Proof-of-work e proof-of-stake sono i metodi di consenso comuni. Nelle blockchain basate su proof-of-work, come quella utilizzata da Bitcoin, i nodi di mining competono per aggiungere il blocco successivo risolvendo un calcolo crittograficamente complesso che richiede un’elevata quantità di potenza di calcolo ed energia elettrica. Nelle blockchain basate sul proof-of-stake, un fattore importante nel determinare quale nodo aggiungerà al blocco successivo è la quota che questo nodo ha, cioè la quantità di token che possiede. Si rimanda a: A. Narayanan, J. Bonneau, E. Felten, A. Miller e S. Godfeder, Bitcoin and Cryptocurrency Technologies: A Comprehensive Introduction, Princeton 2016. 18   A. Narayanan e J. Clark, Bitcoin’s Academic Pedigree, https://www.queue. acm.org/detail.cfm?id=3136559#:~:text=Arvind%20Narayanan%20and%20Jeremy%20Clark&text=Along%20came%20bitcoin%2C%20a%20radically,resemblance%20to%20earlier%20academic%20proposals. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La decisione algoritmica nelle DAOs

541

Dunque, ricapitolando e in estrema sintesi, la Blockchain è un database distribuito, unito da una rete di computer, chiamati nodi, situati ovunque nel mondo. Ogni nodo conserva copie identiche dell’intero libro mastro e, di conseguenza, il libro mastro è contemporaneamente condiviso da tutti. Come si evince dal nome stesso, usando una rappresentazione figurativa, ogni blockchain è composta da blocchi che immagazzinano qualsiasi dato o informazione che serve per eseguire l'operazione o la transazione a cui sono legati (sia essa una certificazione, il trasferimento di una proprietà o altro contratto). La transazione avviene quando le parti interessate scambiano la loro corrispondente chiave pubblica e tale scambio è possibile grazie al puzzle crittografico che permette l'inoltro di messaggi criptati, contenenti la transazione, tra due parti. 3. La decentralizzazione è uno dei caratteri distintivi della tecnologia Blockchain che sostituisce una rete peer-to-peer al tradizionale sistema centralizzato. Inoltre, è proprio questo aspetto uno dei principali motivi di interesse del dibattito pubblico nei confronti delle criptovalute, ovvero la prospettiva di creazione e mantenimento di una valuta digitale che non fa riferimento ad alcuna banca centrale né organismo tecnico per la decisione di accedere al sistema. Nello specifico, in letteratura, la possibilità di conferire poteri decisionali ad una rete di pari è considerata come un elemento rilevante della nuova realtà creata dalla Blockchain. È proprio in tale contesto che emerge il concetto di Organizzazioni Autonome Decentralizzate19, ovvero architetture di decisione e controllo decentralizzate basate su Blockchain che vanno al di là dell’ambito delle criptovalute e si estendono ai più svariati settori. Non c’è una definizione di Organizzazione Autonoma Decentralizzata comunemente accettata. Buterin20 la definisce come un modo per esplorare le nuove regole di governance che possono essere automatizzate e incorporate, in maniera trasparente, in una blockchain.

19   Il concetto di una entità autonoma e decentralizzata basata su Blockchain deriva dall’idea dell’imprenditore Daniel Larimer che, all’interno del suo blog, affermò che una criptovaluta potesse essere vista come una Decentralized Autonomous Corporation (DAC) dove la fonte del codice rappresenta lo statuto mentre i possessori del token sono gli azionisti. 20   V. Buterin et al., A next-generation smart contract and decentralized application platform, White paper, 2014, III, XXXVII.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

542

Enza Cirone

Differentemente, Dhillon e altri21 la definiscono come una entità basata su blockchain e costruita sul consenso delle decisioni dei suoi membri; Beck e altri22, ancora, la definiscono come un sistema decentralizzato, sicuro e trasparente in grado di svolgere operazioni in maniera indipendente tra i suoi partecipanti. La dottrina23 fa riferimento a due tipologie di DAO, la partecipativa e l’algoritmica. La prima è gestita attraverso un sistema di consenso distribuito mediante smart contracts per segnalare le preferenze dei membri24. La c.d. «algoritmica»25 rinvia interamente al software per strutturare e coordinare le interazioni sociali grazie agli smart contracts sottostanti che dettano le regole di funzionamento, nella stessa ottica di Ethereum e Bitcoin. Quest’ultima è dai più considerata come la unica tipologia di DAO realmente autonoma nel senso che coordina attività umana e non dipende dal processo decisionale umano per operare tecnicamente. Per le finalità del presente studio, le Organizzazioni Autonome Decentralizzate possono essere definite come organizzazioni decentralizzate che utilizzano programmi basati su regole computazionali, noti come smart contract, per determinare le norme di comportamento in base alle quali le parti devono cooperare. Infatti, le DAOs rappresentano una evoluzione nel modo in cui i soggetti si coordinano tra loro, in quanto l’organizzazione stessa è autonoma dall’influenza di un terzo intermediario. In sostanza, le DAOs permettono a gruppi di partecipanti di creare organizzazioni che vanno al di là della tradizionale struttura gerarchica, così eliminando il ruolo degli organi esecutivi e manageriali, basandosi invece su regole trasparenti che devono essere rispettate da tutti i partecipanti. Dal punto di vista tecnico, è opportuno specificare che tali orga-

21   V. Dhillon, D. Metcalf e M. Hooper, The hyperledger project, in Blockchain enabled applications, New York 2017, pp. 139-149. 22   R. Beck, C. Muller-Bloch e J.L. King, Governance in the ¨ blockchain economy: A framework and research agenda, in Journal of the Association for Information Systems, 2018, XIX, X, p. 1 ss. 23   A. Wright, The Rise of Decentralized Autonomous Organizations: Opportunities and Challenges, 2021, https://www.stanford-jblp.pubpub.org/pub/rise-of-daos/ release/1. 24   Si tratta, essenzialmente, di DAOs create per finalità di profitto economico, come The Lao, Thelao.io e MetaCartel, Metacartel.xyz. 25   Y.Y. Hsieh et al., Bitcoin and the Rise of Decentralized Autonomous Organizations, in J Organization Design 1-16, 2018.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La decisione algoritmica nelle DAOs

543

nizzazioni sono una specie delle c.dd. Distributed Autonomous App (DApp)26, ovvero applicazioni informatiche che funzionano in modo distribuito. In concreto, una DApp diventa una DAO quando lo smart contract che contiene le regole di funzionamento prevede anche delle regole di governance. In altre parole, una DAO è un’applicazione decentralizzata che funziona grazie al protocollo blockchain e costituisce un nuovo tipo di organizzazione tra i suoi partecipanti. Le DAOs sono sviluppate per perseguire uno scopo definito, oppure perseguono uno scopo interdisciplinare, combinando aspetti legali, sociali, politici ed economici. Inoltre, le DAOs possono funzionare sia per profitto che senza profitto. In entrambi gli scenari, presumibilmente perseguono il loro interesse finale senza alcuna autorità centrale. Le DAOs, quindi, corrispondono a un insieme di processi e regole insiti negli smart contracts che operano autonomamente su una blockchain. Connessi a questi aspetti, vi sono molte questioni ancora aperte e irrisolte che di riflesso portano a guardare con incertezza il futuro della DAO la cui legalità dipenderà necessariamente dalla sorte della tecnologia Blockchain che ne costituisce il sostrato tecnologico di base. La tecnologia non è stata direttamente oggetto di intervento legislativo da parte del legislatore europeo27 che si sta mostrando pericolosamente cauto. La fase di stasi politica che stiamo sperimentando rischia seriamente di rallentare l’evoluzione tecnologica, economica e sociale che la Blockchain promette di realizzare. Pertanto, la consistenza ed eventuale applicabilità delle tesi avanzate nel presente contributo dipenderanno necessariamente dalle scelte che il legislatore farà in materia. Tornando all’ambito di analisi, avendo dato una definizione della DAO, è ora possibile analizzare nello specifico le regole di governance 26   Si veda W. Kaidong e Y. Ma, A first look at blockchain-based decentralized applications, in Journal of Software: Practice and Experience, 2019, https://www.onlinelibrary.wiley.com/doi/abs/10.1002/spe.2751. 27   La Commissione europea ha definito una «Stategia europea per la Blockchain» che si compone di una serie di iniziative che coinvolgono l’ambito politico, economico e sociale con la finalità di promuovere l’impiego della tecnologia. Tuttavia, quanto sinora fatto in termini pratici risulta ancora lontano dall’obiettivo di rendere l’Unione europea leader nel settore, «The EU wants to be a leader in blockchain technology, becoming an innovator in blockchain and a home to significant platforms, applications and companies», https://www.digital-strategy.ec.europa.eu/en/policies/ blockchain-strategy.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

544

Enza Cirone

che vi sono alla base e che si trovano sia a livello endogeno (on-chain) che esogeno (off-chain). Le disposizioni endogene sono scritte in codice e promulgate all’interno del Libro Bianco. Per prassi, queste disposizioni sono basate su incentivi economici (la cosiddetta criptoeconomia) e sulla teoria dei giochi, prevedendo specifici premi per ricompensare il buon comportamento dei partecipanti. Ciò perché ingannare il sistema o commettere frodi è economicamente poco conveniente e richiede tempo ed energia. In caso di frode commessa da un partecipante, ogni blockchain dispone di regole per punirlo; per esempio, i miners potrebbero accordarsi per non elaborare una transazione richiesta dai partecipanti della lista nera. Al secondo livello si trovano le disposizioni esogene, ovvero regole previste e regolate da altre piattaforme cui la DAO è collegata, pertanto imposte al di fuori della comunità di riferimento della Organizzazione ma pur sempre vincolanti. Ad esempio, per funzionare concretamente, le DAOs si basano sul protocollo internet. Di conseguenza, nessuna DAO può ignorare il livello di governance di internet che, invero, può essere esercitata in molteplici modi. Infatti, i fornitori di servizi internet (c.dd. internet service providers, ISPs) possono controllare il livello di utilizzo di internet, possono indirizzare determinate operazioni o adottare certe pratiche di gestione della rete che possono a loro volta influenzare anche il funzionamento di una data blockchain. Ad esempio, la governance di internet può determinare chi può essere parte attiva in un protocollo. Infatti, gli ISPs possono dare priorità agli utenti/servizi che hanno pagato per avere tale priorità. Tale meccanismo, sebbene molto diffuso, è in realtà contrario al principio della neutralità della rete28 in virtù del quale l’accesso al traffico internet dovrebbe essere aperto ed equo. Oltre a ciò, sempre con riferimento alla rilevanza della governance di internet nelle DAOs, queste ultime potrebbero essere sottoposte ad una pratica molto diffusa, la c.d. deep packet inspection29 con la quale è possibile esaminare il contenuto dei 28   La fonte normativa sul punto è rappresentata dal Regolamento 2015/2120 del 25 novembre 2015 che stabilisce misure riguardanti l’accesso a un’Internet aperta e che modifica la Direttiva 2002/22/CE relativa al servizio universale e ai diritti degli utenti in materia di reti e di servizi di comunicazione elettronica e il Regolamento (UE) n. 531/2012 relativo al roaming sulle reti pubbliche di comunicazioni mobili all’interno dell’Unione. 29   Sul punto: A. Daly, The legality of Deep Packet Inspection in International

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La decisione algoritmica nelle DAOs

545

dati trasferiti dagli utenti, anche se criptati; inoltre, le blockchain devono anche obbedire a regole esterne che riguardano sia il protocollo sul quale è sviluppato il codice che le regole proprie delle DApp30. Da questi elementi si evince che ogni organizzazione basata su blockchain, e le DAOs in particolare, sottostanno a vari livelli di governance che, di fatto, influiscono sul protocollo e ne influenzano il funzionamento. In buona sostanza, considerando che le DAOs si affidano a sistemi di regole sia endogeni che esogeni rispetto al protocollo blockchain e alla DAO stessa, si potrebbe sostenere che, in realtà, nessuna di queste organizzazioni autonome decentralizzate corrisponde a un sistema autonomo di diritto. Pertanto, a livello applicativo, la principale difficoltà risiede nel combinare i due diversi livelli affinché vi sia un equilibrio tra essi. 4. Se, dunque, è chiaro che i due sistemi di regole on-chain e off-chain devono essere combinati, è altrettanto evidente che, dato il quadro delineato, bisogna anche comprendere in che modo i livelli di regole possano coesistere. E quindi: in che modo una DAO può inserirsi all’interno di un sistema statale già strutturato? Dovrebbe rispettare anche la normativa di diritto internazionale? Per delineare meglio la questione, è utile ripercorrere la storia della prima organizzazione autonoma decentralizzata creata, «The DAO», soffermandoci sugli aspetti essenziali del progetto. Questa DAO era stata creata sulla blockchain di Ethereum il cui White Paper31 era stato pubblicato nel 2016. All’interno di questo documento venivano spiegate le regole base della procedura della DAO che avrebbe dovuto essere un esempio di organizzazione autonoma e democratica. Infatti, era stata presentata come una Entità che individui, sia al di fuori di una tradizionale compagine aziendale che all’interno della stessa, avrebbero usato al fine di automatizzare le regole di funzionamento contenute nello statuto o imposte per legge. Secondo il White Paper lo smart Journal of Communications Law & Policy, 2011. 30   Un esempio rilevante è rappresentato da Aragon che, in particolare, cerca di risolvere la problematica della scalabilità «ideando la formazione di sottogruppi di membri la cui risposta a una catena di autorizzazioni consente loro di svolgere una serie ridotta di compiti e attività all’interno della struttura organizzativa. Tutti i sottogruppi sono gestiti dalla piattaforma Aragon, che ne consente la creazione, la cancellazione e la modifica», etherevolution.eu/aragon-una-dapp-per-organizzazioni-autonome-decentralizzate/. 31  www.github.com/the-dao/whitepaper. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

546

Enza Cirone

contract distribuito sulla DAO avrebbe risolto tutte le problematiche relative alla governance tipiche di qualsiasi entità legale. In pratica, The DAO avrebbe dovuto soppiantare i sistemi tradizionali di governance e gestione attraverso una applicazione formalizzata e automatizzata delle clausole contrattuali. Per quanto concerne gli aspetti tecnici, ogni partecipante utilizzava uno pseudonimo. A ciascuno di questi era richiesto di acquistare DAO token pagandoli in ETH e poi di investirli – per intero o solo una parte – in uno (o più) progetti sponsorizzati dalla DAO stessa, dunque una vera e propria attività di crowfunding. Tutti i fondi, raccolti attraverso l’invio di token all’address del wallet della DAO, venivano conservati all’interno di questo stesso portafoglio. In questo modo, The DAO guadagnava profitti e, in cambio, ogni token conferiva all’acquirente diritti di proprietà e di voto, oltre a ricompense ulteriori e alla possibilità di rivenderlo nel mercato secondario e così monetizzare il suo investimento32. Dunque, da quanto indicato nel white paper, sembrava che la struttura di The DAO non dovesse discostarsi molto da qualsiasi piattaforma di crowfunding e, infatti, il progetto acquisì talmente tanto interesse che raccolse più di 150 milioni di dollari provenienti da più di 11.000 partecipanti. Tuttavia, anche durante la raccolta fondi, alcuni espressero perplessità riguardo alla vulnerabilità del codice. Uno dei creatori annunciò che era stato trovato un bug nel software ma che nessun fondo era a rischio. Ciononostante, mentre gli sviluppatori stavano cercando di risolvere questi e altri problemi, The DAO venne attaccata da un soggetto ancora oggi sconosciuto33 che trasferì 3.6 milioni di ether in una piattaforma che aveva la stessa struttura di quella originaria. La comunità di Ethereum discusse le possibili risposte all’attacco perché il fallimento di The DAO avrebbe potuto avere significative ripercussioni anche sulla piattaforma stessa. Basti pensare che gli smart 32   Nel periodo successivo all’offerta dei token, Slock.it ha sollecitato alcune piattaforme di exchange a scambiare questi token. La funzione di The DAO era chiaramente spiegata sul sito web che conteneva anche un link attraverso il quale il token poteva essere acquistato. Il sito era usato per promuovere la comunicazione della DAO con il pubblico al fine di permetterne la comprensione sia del progetto che delle funzioni. 33   Dato che gli sviluppatori non si aspettavano un tale successo del progetto e, quindi, un tale ammontare di ether, tutte le criptovalute si trovavano in un unico wallet.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La decisione algoritmica nelle DAOs

547

contracts lanciati per il progetto contenevano circa il 14% di tutti gli ether in circolazione al tempo. Pertanto, la soluzione fu una hard fork34 che ebbe come risultato la nascita di Ethereum Classic35 nella quale rimasero coloro che non aderirono a questa scelta. Dal punto di vista giuridico, il sistema così delineato sollevava quesiti relativi ai profili di responsabilità dei creatori e/o degli acquirenti dei token. Le disposizioni on-chain avevano ad oggetto esclusivamente le regole di funzionamento della DAO; quindi, non contenevano indicazioni in merito al comportamento da tenere in casi di violazione del codice, come quello accaduto. Tuttavia, The DAO non si muoveva in un vacuum dove non vigeva la legge. Al contrario, questa attrasse l’attenzione della autorità di regolamentazione finanziaria statunitense (SEC)36 che passò in rassegna le attività della DAO al fine di capire quale legge federale fosse applicabile. Secondo la SEC, i DAO token erano titoli (securities) per i seguenti motivi. Innanzitutto, i possessori dei DAO token avevano sottoscritto un accordo di investimento; in secondo luogo, questi avevano investito con la aspettativa di ottenere un guadagno; e, infine, il profitto dipendeva da una attività coordinata degli sviluppatori e dei curatori della DAO. Prescindendo da questi aspetti tecnici che per giunta sono applicabili all’ordinamento statunitense e non di default a quello europeo, dal ragionamento della SEC è possibile trarre importanti considerazioni sul contesto legale internazionale nel quale si muovono queste organizzazioni. Si desume che la legge può essere imposta alle applicazioni basate su blockchain e che, quindi, qualsiasi organizzazione basata su questa tecnologia potrebbe eventualmente essere tenuta a rispettare la legge dello

34  Gli hard fork sono aggiornamenti software non retrocompatibili. Tipicamente, si verificano quando i nodi aggiungono nuove regole in conflitto con le regole dei vecchi nodi. I nuovi nodi possono comunicare solo con altri che usano la nuova versione. Di conseguenza, la blockchain si divide, creando due network separati: uno con le vecchie regole e uno con le nuove regole, https://www.academy.binance.com/ it/articles/hard-forks-and-soft-forks#what-is-a-hard-fork. 35  www.gemini.com/cryptopedia/ethereum-classic-etc-vs-eth. 36   Securities and Exchange Commission (SEC). Securities exchange act of 1934. Release No. 81207 / July 25 2017: Report of investigation pursuant to Section 21(a) of the Securities Exchange Act of 1934 Report.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

548

Enza Cirone

Stato nel quale le operazioni vengono effettuate – a condizione che, nella pratica, si riesca a venire a conoscenza di queste informazioni. La combinazione tra regole endogene ed esogene potrebbe rivelarsi risolutiva. Le regole esogene, in particolare, potrebbero essere realmente efficaci per certificare una violazione di diritto e individuare un responsabile, sempre che si riesca a identificare una persona fisica cui imputare la violazione37. Inoltre, si può ipotizzare che, quando il dibattito in merito alle modalità di regolamentazione della Blockchain e delle sue applicazioni si definirà verso una soluzione comunemente accettata, gli smart contracts che regolano la gestione interna alle DAOs dovranno adattare il codice rispetto, ad esempio, alla normativa anti-money laundering (AML)38 che, oltre ad essere ampiamente utilizzata dalle principali società, si rivela adeguata a proteggere gli investitori e i consumatori. Non credo che questo possa snaturare il concetto di organizzazione autonoma decentralizzata. Al contrario, data la finalità delle DAOs di eliminare le barriere di accesso per individui e piccole società (che altrimenti non avrebbero alcun ruolo nel mercato dei capitali), un controllo di questo tipo potrebbe probabilmente favorire una maggiore inclusione e realizzare una realtà nuova e più democratica. In alternativa, nell’ipotesi in cui non si dovesse rinvenire alcun collegamento, qualsiasi violazione dovrebbe essere risolta a livello di gestione organizzativa della blockchain. 5. Nel paragrafo precedente, che ha ripercorso le vicissitudini della prima DAO mai creata, ho sostenuto che la governance delle Organiz-

37   Oltre al caso di The DAO, vi sono ulteriori esempi di comportamenti illeciti per i quali è stato possibile individuare un collegamento con il mondo off-chain che permettesse di identificare un territorio rientrante nella giurisdizione di uno stato e, di conseguenza, portare la questione innanzi a un organo giudiziario: si richiama, ad esempio: Tribunale di Brescia, decreto di rigetto 7556/ 2018 del 18 luglio 2018; Tribunale di Firenze, sentenza n. 18/2019, 21 gennaio 2019; Corte commerciale di Nanterre, sentenza del 26 febbraio 2020; Corte di appello di Parigi, caso n. 12/00161 SAS Macaraja c/SA Credit industriel et commercial, 26 ottobre 2013. 38   Direttiva (UE) 2018/843 del Parlamento europeo e del Consiglio del 30 maggio 2018 che modifica la Direttiva (UE) 2015/849 relativa alla prevenzione dell’uso del sistema finanziario a fini di riciclaggio o finanziamento del terrorismo e che modifica le Direttive 2009/138/CE e 2013/36/UE; Regolamento (UE) 2015/847 del Parlamento europeo e del Consiglio del 20 maggio 2015 riguardante i dati informativi che accompagnano i trasferimenti di fondi e che abroga il Regolamento (CE) n. 1781/2006.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La decisione algoritmica nelle DAOs

549

zazioni Autonome Decentralizzate è costituita dalla commistione tra fattori esogeni ed endogeni. I professionisti che operano quotidianamente con la blockchain riconoscono nei c.dd. sybil attacks39 la principale minaccia alla stabilità delle DAOs, cioè una delle principali vulnerabilità interne al sistema stesso. I sybil attacks sono fenomeni che, di fatto, sovvertono l’ordine del sistema reputazionale mediante la creazione di un numero consistente di identità pseudonimizzate e false con la finalità di trarne vantaggio a discapito degli altri partecipanti al network. Questo avviene frequentemente a livello computazionale e automatizzato mediante i c.dd. bot. All’interno di organismi decentralizzati come le DAOs una delle tecniche per proteggere l’infrastruttura da queste tipologie di attacchi è gestire il sistema reputazionale in maniera automatizzata, ovvero attraverso algoritmi che verificano l’identità dei partecipanti e che costituiscono la base di fiducia su cui si fonda la comunità. Il concetto di reputazione è di uso comune. Con questo termine generalmente ci si riferisce all’opinione socialmente riconosciuta su un soggetto che lo identifica e influenza, altresì, il giudizio altrui rispetto alle sue azioni ma, soprattutto, che plasma e rafforza le norme di comportamento all’interno di una comunità, la quale sostanzialmente interagisce grazie a queste regole. La reputazione assume una straordinaria rilevanza all’interno della infrastruttura blockchain nella quale la fiducia in soggetti – che, si ricorda, sono identificati con pseudonimi o con chiavi pubbliche – e tra soggetti – che non si conoscono tra di loro – è essenziale per la sussistenza del sistema decentralizzato. Gli elementi che concorrono a definire la reputazione dei partecipanti non sono nomi, lettere di referenza o curriculum vitae ma esclusivamente i loro passati comportamenti all’interno del network che sono anche il principale mezzo per ipotizzare comportamenti futuri. Dunque, in buona sostanza, il sistema reputazionale è un meccanismo di governance dell’organizzazione decentralizzata e, al fine di permetterne la gestione, non essendovi organi centralizzati preposti, il suo funzionamento è basato su algoritmi che monitorano e premiano

39   J.R. Doucer, The sybil attack, Peer-to-peer system, Lectures notes in Computer Science, 2002, pp.  251-60, https://www.link.springer.com/chapter/10.1007/3-540-45748-8_24; Z. Trifa e M. Khemakhem, Sybil nodes as a mitigation strategy against sybil attacks, in Procedia Computer Science 2014, pp. 1135-1140.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

550

Enza Cirone

i comportamenti considerati desiderabili all’interno della comunità e puniscono quelli ritenuti lesivi delle regole comunemente accettate. Da ciò si desume che la portata della governance degli algoritmi40 risulta più estesa all’interno delle organizzazioni autonome decentralizzate rispetto ad altre applicazioni della tecnologia Blockchain dove la maggior parte delle informazioni già disponibili nel registro pubblico delle transazioni risultano perlopiù sufficienti. Al contrario, nelle DAOs il ruolo degli algoritmi è molto più pervasivo perché la finalità ultima è il controllo sociale del comportamento dei partecipanti per la corretta tenuta del sistema decentralizzato. Pertanto, essendo le regole e le decisioni effettuate dagli smart contracts, più che di sistemi autonomi, bisognerebbe parlare di sistemi di autogoverno. Il fenomeno della reputazione algoritmica non è nuovo nella società digitale odierna41. Basti pensare al sistema di recensioni e feedback che caratterizza la maggior parte delle grandi piattaforme di e-commerce che si basa sul presupposto per cui una buona reputazione porta a ottime transazioni e quindi a ottimi introiti. Inoltre, proprio al fine di rendere più efficace l’offerta e l’acquisto di beni, le piattaforme digitali – pur avendo differenti scopi – scambiano tra di loro informazioni rilevanti sugli utenti. In particolare, gli utenti dei principali social media sono profilati cosicché ne siano definite le preferenze e i gusti42. Questi preziosi dati sono utilizzati dalle piattaforme stesse per individuare tutti i potenziali consumatori, definire gruppi di utenti e raggrupparli cosicché per ciascuno di essi siano fruibili contenuti personalizzati – soprattutto inserzioni pubblicitarie, ma anche post e notizie – che compariranno sulla bacheca dell’utente e che saranno tendenzialmente conformi alle sue preferenze in materia di acquisti, scelte politiche, opinioni, proprio perché selezionati ad hoc per lui. Si tratta di un fenomeno – ormai ampiamente indagato in dottrina43 40   Si parla anche di «governance by algorithms», Q. Dupont, Experiment in algorithmic governance: A history and ethnography of “The DAO”, a failed decentralized autonomous organization, in Bitcoin and Beyond, Oxon-New York 2018, p. 171. 41   Sul punto si rimanda al contributo di A. Adinolfi nel presente volume. 42   K. Cotter, Playing the visibility game: How digital influencers and algorithms negotiate influence on Instagram, in New Media & Society, 2018, pp. 895-913; T. Bucher, Want to be on top? Algorithmic power and the threat of invisibility on Facebook, in New Media & Society, 2012, p. 1164 ss. 43   Tra gli altri, G. Ziccardi, Il futuro del GDPR tra profilazione, trattamenti automatizzati, marketing e misure di sicurezza, in S. Bonavita (a cura di) Società delle tecnologie esponenziali e General Data Protection Regulation, Milano 2018, pp. 7-9.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La decisione algoritmica nelle DAOs

551

e ben noto agli utenti – che influenza, in alcuni casi in maniera più sottile, in altri più palese, le scelte quotidiane di ciascuno di noi. Estremizzazioni di questo sistema reputazionale sono rappresentate dai c.dd. social credit systems, come quello cinese44, nel quale la volontà di controllo politico e di efficienza economica si riflettono nella demonizzazione dei comportamenti considerati indesiderabili e nell’incoraggiamento dei comportamenti desiderabili che, tuttavia, in tale contesto assumono un ruolo chiave per l’accesso a una serie di servizi essenziali e per i diritti dei cittadini45. Indubbiamente, se un tale sistema fosse applicato a livello europeo, risulterebbe illegittimo in quanto contrastante con il sistema di valori46 e di tutele giuridiche garantite dall’ordinamento giuridico europeo47. Quando si parla di reputazione algoritmica bisogna sempre tenere a mente che gli algoritmi non nascono spontaneamente e che non

44   S. Johnson, How China’s “social credit score” will punish and reward citizens, 25 Aprile 2018, https://www.bigthink.com/politics-current-affairs/a-look-at-chinasorwellian-plan-to-give-every-citizen-a-social-credit-score/; B. Zhao, Reputation as Social Control in Present China: Use, Misuse, Abuse and Bankruptcy, in Asian Journal of Comparative Law, 2015, pp. 359-379. 45   B. Zhao, op. cit., «I can’t buy property. My child can’t go to a private school». 46   Ai sensi dell’art. 5, paragrafo 1, lettera c), della Proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (Legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione, COM (2021) 206 final: «sono vietate l’immissione sul mercato, la messa in servizio o l’uso di sistemi di IA da parte delle autorità pubbliche o per loro conto ai fini della valutazione o della classificazione dell’affidabilità delle persone fisiche per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note o previste, in cui il punteggio sociale così ottenuto comporti il verificarsi di uno o di entrambi i seguenti scenari: i) un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di interi gruppi di persone fisiche in contesti sociali che non sono collegati ai contesti in cui i dati sono stati originariamente generati o raccolti; ii) un trattamento pregiudizievole o sfavorevole di determinate persone fisiche o di interi gruppi di persone fisiche che sia ingiustificato o sproporzionato rispetto al loro comportamento sociale o alla sua gravità». V., a questo proposito, il contributo di A. Simoncini in questo volume. 47   Ne è un esempio il fervente dibattito che ha accompagnato la istituzione delle app di contact tracing per gestire la pandemia di coronavirus. Secondo le opinioni di molti autori, la deriva di un tale sistema di sorveglianza avrebbe potuto essere proprio il social credit scoring sul modello cinese. Per alcune considerazioni sul sistema italiano dell’app di contact tracing italiana si permetta un rimando a: E. Cirone, L’app italiana di contact tracing alla prova del GDPR: dall’habeas data al ratchet effect il passo è breve? in SidiBlog, 13 maggio 2020, www.sidiblog.org/2020/05/13/lapp-italiana-di-contact-tracing-alla-prova-del-gdpr-dallhabeas-data-al-ratchet-effect-il-passo-e-breve/.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

552

Enza Cirone

sono neutrali, come non lo è nessuno strumento tecnologico48. Possono certamente agire in modo automatizzato ma, per fare ciò, devono essere «istruiti» e, considerando che tale attività è effettuata da esseri umani, il risultato è che gli algoritmi di fatto non sono oggettivi, potendo al contempo incarnare sia i valori che i pregiudizi (c.d. bias) dei loro creatori, nonché della comunità nella quale vivono. Applicando tali concetti di base alle DAOs, si può affermare che le norme di comportamento della comunità sono incluse all’interno del sistema di incentivi economici che governa il sistema reputazionale che ne è alla base. Tali norme di comportamento stabiliscono l’accesso, la partecipazione, i premi e la leadership all’interno della comunità e sono pensate per agire all’interno di un sistema di regole complesso ma finalizzato a vivere a lungo. Ciò comporta che nessuna di queste regole deve essere considerata isolatamente; in tal caso, si correrebbe il rischio di avere come effetto contrario il rafforzamento delle vulnerabilità intrinseche al sistema. Comparando le modalità di funzionamento del sistema reputazionale all’interno dei modelli centralizzati rispetto a quelli decentralizzati, si notano non poche somiglianze. Infatti, molto spesso quando si parla della governance degli algoritmi e della profilazione nei sistemi centralizzati si fa riferimento al problema della black box49 in virtù del quale neanche gli utilizzatori dei sistemi informatici sono in grado di spiegare in che modo funzioni l’algoritmo. Questi aspetti determinano notevoli incertezze e perplessità per la tutela del diritto alla protezione dei dati e per la applicabilità a tali fattispecie delle disposizioni del GDPR. La problematica è stata ampiamente indagata in dottrina50, sin dalla entrata in vigore del Rego48   S.L. Star, The Ethnography of Infrastructure, in American Behavioral Scientist, 1999, p. 377 s. 49   L. Edwards e M. Veale, Slave to the Algorithm? Why a “Right to an Explanation” Is Probably Not the Remedy You Are Looking For, in Duke Law & Technology Review, 2017, pp. 18 ss.; D. S. Rudesill, J. Caverlee e D. Sui, The Deep Web and the Darknet: A Look Inside the Internet’s Massive Black Box, in Ohio State Public Law Working Paper No. 314, 2015, https://www.papers.ssrn.com/sol3/papers.cfm?abstract_id=2676615. 50   S. Wachter, B. Mittelstadt e C. Russell, Counterfactual Explanations Without Opening the Black Box: Automated Decisions and the GDPR, in Harvard Journal of Law & Technology, 2018, p. 841 ss.; G. Malgieri e G. Comandè, Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation, in International Data Privacy Law, https://www.papers.ssrn.com/ sol3/papers.cfm?abstract_id=3088976; M. Almada, Human Intervention in Automated Decision-Making: Toward the Construction of Contestable Systems, in 7th In-

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La decisione algoritmica nelle DAOs

553

lamento. Tuttavia, ad oggi, nessuna Istituzione né Autorità garante ha fornito linee guida sul rapporto Blockchain-GDPR51 o sulle Organizzazioni autonome decentralizzate. Ciononostante, pur non con l’intento di delineare nello specifico la questione, data la connessione del tema con l’ambito di indagine del presente contributo, è opportuno quantomeno precisare che, sebbene la tecnologia e il diritto alla protezione dei dati risultino contrapposti nella loro ontologia – da una parte la centralizzazione del regolamento, dall’altra la decentralizzazione della Blockchain – non possono, tuttavia, escludersi margini per una conciliabilità tra di essi52. 6. Definito il meccanismo di profilazione e il sistema reputazionale su cui si basa il funzionamento delle DAOs, è ora possibile approfondire in che modo si delinei la governance all’interno delle Organizzazioni Autonome Decentralizzate. Va detto che, in base al sistema di profilazione delle DAOs, i creatori e i partecipanti possono spesso interagire con gli algoritmi anche in maniera passiva e che la possibilità di accedere al codice non è in qualsiasi caso sinonimo di una piena comprensione del funzionamento dell’algoritmo53 da parte di chi vanta l’accesso. Inoltre, nell’esame della governance, altro elemento da considerare è che le comunità formatesi attorno alla tecnologia Blockchain sono le eredi della ideologia dei Cypherpunks e della corrente di pensiero meglio conosciuta come «code is law»54 secondo la quale il codice è immutabile e autonomo e deve essere disegnato in modo tale da scongiurare qualsiasi monopolio o influenza esterna al codice stesso. Da ciò derivano le riluttanze di parte ternational Conference on Artificial Intelligence and Law, 2017, https://www.papers. ssrn.com/sol3/papers.cfm?abstract_id=3264189. 51   Sul punto, si rimanda al report tematico «Blockchain and the GDPR» dell’Osservatorio e forum europeo sulla Blockchain nel quale, per lo più in maniera ricostruttiva, vengono evidenziati gli aspetti di tensione tra la blockchain e il GDPR, www.eublockchainforum.eu/sites/default/files/reports/20181016_report_gdpr.pdf. 52   Si consenta un rimando a E. Cirone, Blockchain and the General Data Protection Regulation: an irreconciliable regulatory approach? in Queen Mary Law Journal, 2021, p. 15 ss. 53   M. Ananny e K. Crawford, Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability, in New Media & Society, 2018, XX, p. 973 ss. 54   S. Hassan e P. De Filippi, The expansion of Algorithmic Governance: From Code is law to law is code, in Artificial Intelligence and Robotics in the City, special issue, https://www.journals.openedition.org/factsreports/4518. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Enza Cirone

554

della comunità rispetto alla possibilità – e opportunità – di sindacare il contenuto dell’algoritmo e riguardo la possibilità pratica di modificarlo. Tuttavia, all’interno di alcune DAOs si sta favorendo un movimento di riflessione critica della cultura e dei valori incardinati all’interno dei sistemi autonomi e automatizzati. Questo perché, altra parte della comunità ritiene che, in realtà e in pratica, gli algoritmi all’interno delle DAOs e dei sistemi decentralizzati in generale non siano autonomi ma siano, proprio come nei sistemi centralizzati, il frutto dell’azione coordinata e congiunta degli esseri umani e delle macchine. Pertanto, mettere in discussione i valori su cui si fonda la comunità ed eventualmente proporre una modifica avrebbe l’effetto di poter implementare nuove regole che possano portare a una differente gestione che sia sì automatizzata ma basata su valori che rispecchino realmente la comunità. Tutto ciò è il frutto della lezione appresa a seguito dell’attacco subito da The DAO che avvenne non per carenze tecnologiche, bensì per l’assenza di una solida base culturale e valoriale nella comunità. Dunque, la domanda che sorge spontanea è se si debba rinunciare a qualcosa a livello individuale per realizzare l’obiettivo dell’autonomia collettiva del sistema o se la co-dipendenza tra macchine e uomini per la definizione dei valori nelle comunità delle DAOs non incardini essa stessa il valore ultimo di autonomia55. Indubbiamente, sebbene alcune inequivocabili somiglianze tra il regime reputazionale proprio dei sistemi blockchain e quello dei sistemi centralizzati, ciò che differenzia le comunità che si creano attorno alla blockchain è che il rischio di una sorta di autoritarismo degli algoritmi sembra essere scongiurato dalla DAO stessa che permette a ciascun partecipante di creare e definire le regole di base cosicché possa essere ognuno di loro, come parte della collettività, a valutare se modificare l’algoritmo per creare regole migliori della quali possa beneficiare il sistema nella sua complessità e interezza. 7. Le considerazioni che precedono indurrebbero a rispondere in maniera negativa alla domanda formulata in apertura di questo contributo: «Sono le Organizzazioni Autonome Decentralizzate il nuovo panopticon digitale di una governance degli algoritmi?». Infatti, in un sistema come quello delle DAOs non pare potersi parlare di sorveglianza algoritmica56   S. Jasanoff e S. Kim, Dreamscape of Modernity, Chicago 2015.   S. Zuboff, The Age of Surveillance Capitalism: The fight for a Human Future

55 56

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La decisione algoritmica nelle DAOs

555

perché sono i partecipanti stessi ad effettuare un controllo attento e capillare sui valori che sono alla base della comunità e delle regole di comportamento e a partire dalle quali si garantisce l’autonomia e, di conseguenza, l’automatizzazione del sistema. Tale atteggiamento potrebbe risultare vincente contro i sybil attacks o altri attacchi perché i partecipanti potrebbero reagirvi attraverso una struttura coordinata, così attuando quella cooperazione uomo-macchina cui si è accennato in precedenza. In realtà, potrebbe controbattersi che un panopticon non deve necessariamente svilupparsi secondo un sistema centralizzato, anzi, forse potrebbe dirsi più effettivo se avesse alla base un sistema decentralizzato di controllo gli uni sugli altri57. In tale contesto, però, comprendere cosa voglia dire autonomia e chi sia autonomo risulta un compito di non facile soluzione che, inoltre, richiederebbe, allo stato attuale, una riflessione più profonda e orientata. La Blockchain che costituisce la infrastruttura sottostante delle DAOs e il sistema automatizzato rappresentano entrambi sia una opportunità contro la minaccia di un potere esterno che, al contempo, una ipotetica vulnerabilità del sistema di governance che, si è detto, trova nel sistema reputazionale una componente fondamentale. Il punto è che, quando si parla di sistemi sociali, è facilmente ipotizzabile che la minaccia principale al sistema stesso derivi proprio dal suo interno. Nel rapporto di sinergia tra i partecipanti e il sistema automatizzato dovranno essere proprio i primi a essere maggiormente resilienti e in grado di capire in che modo adattare l’algoritmo. In quanto estensione di molte diverse tecnologie ideate dall’uomo nei decenni, le DAOs rappresentano una evoluzione rispetto al concetto di coordinazione e non una rivoluzione in senso stretto. Tuttavia, sebbene siano ancora numerosi i nodi problematici da sciogliere – relativi, ad esempio, alla durata della partecipazione e alla struttura della governance – la creazione delle DAOs come struttura coordinata rappresenta indubbiamente una importante evoluzione nelle modalità con le quali le persone possono coordinarsi in maniera democratica in base a regole scelte da loro, per raggiungere obiettivi da loro scelti. Questo è un importante passo per l’evoluzione sociale che, se incardinata all’interno di un sistema valoriale strutturato e trainante, potrebbe davvero contribuire a risolvere molte delle problematiche attuali. at the New Frontier of Power, London 2019. 57   M. Foucalt, Sorvegliare e punire. Nascita della Prigione, Torino 2014. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Tommaso Polvani*

La responsabilità da illecito trattamento dei dati personali

Sommario. 1. L’illecito trattamento dei dati personali: la responsabilità civile come terra di frontiera – 2. Per una più salda ricostruzione delle fondamenta – 3. La funzione della responsabilità civile e l’eccezione dei danni punitivi – 4. Il GDPR come emblema della complessità – 5. Una riflessione (non) conclusiva.

1. Due recenti pronunce della Corte di Cassazione in tema di illecito trattamento dei dati personali1 offrono il destro per svolgere alcune considerazioni relative al settore della responsabilità civile2. Come si cercherà di illustrare nelle pieghe di questo contributo, le due sentenze di legittimità paiono cogliere pienamente – attraverso un sapiente utilizzo della tecnica del bilanciamento – i valori sottesi a quel complesso corpus normativo rappresentato dal Regolamento (UE) n. 2016/679 (GDPR): da un lato la tutela dell’efficienza del mercato, dall’altro la tutela del diritto fondamentale della persona alla prote-

* Dottorando in Diritto civile nell'Università di Firenze. 1   Si tratta di Cass., 20 agosto 2020, n. 17383, e di Cass., 26 aprile 2021, n. 11020, in Dir. e Giust., 85, 2021, p. 3, con nota di A.M. Mazzaro. 2   Senza alcuna pretesa di esaustività, si veda sul tema A. De Cupis, Contributi alla teoria del risarcimento del danno, Milano 1939; A. De Cupis , Il danno: teoria generale della responsabilità civile, Milano 1946; S. Rodotà, Il problema della responsabilità civile, Milano 1964; S. Patti, Famiglia e responsabilità civile, Milano 1984; M. Franzoni, Il danno da cose e da animali, Padova 1988; M. Franzoni, L’illecito, Milano 20102, V. Zeno-Zencovich, La responsabilità civile da reato: lineamenti e prospettive di un sottosistema giurisprudenziale, Padova 1989; V. Ricciuto e V. Zeno-Zencovich, Il danno da mass-media, Padova 1990; G. Bonilini, Il danno non patrimoniale, Milano 1983; G. Bonilini, Danno morale, in Digesto delle discipline privatistiche, Torino 1989; G. Alpa, Responsabilità civile e danno: lineamenti e questioni, Bologna 1991; G. Alpa, La responsabilità civile, Milano 1999; G. Alpa, Diritto della responsabilità civile, Roma-Bari 2003; C. Castronovo, La nuova responsabilità civile: regola e metafora, Milano 1991; F.D. Busnelli, Diritto giurisprudenziale e responsabilità civile, Napoli 2007; F.D. Busnelli, Tutela aquiliana del credito e principio della certezza del diritto, in Foro Pad., 1970, pp. 90-94; A. Di Majo, Profili della responsabilità civile, Torino 2010; R. Scognamiglio, Responsabilità civile e danno, Torino 2010; © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

558

Tommaso Polvani

zione dei propri dati personali3. Nella sentenza del 2021 la Corte ha affermato che la divulgazione di dati personali fa sorgere il diritto al risarcimento del danno laddove non sia stato rispettato il principio della minimizzazione nell’uso dei dati personali4, secondo il quale gli unici dati che possono essere utilizzati sono quelli «adeguati, pertinenti e limitati a quanto necessario rispetto alle finalità per le quali sono trattati»5. In entrambe le pronunce, inoltre, si afferma che il danno non patrimoniale per illecito trattamento dei dati personali possa essere risarcito soltanto ove ricorrano i requisiti della «gravità della lesione»6 e della M. Comporti, Fatti illeciti: le responsabilità oggettive; Milano 2009; M. Comporti, Fatti illeciti: le responsabilità presunte, Milano 2002; P. Trimarchi, La responsabilità civile: atti illeciti, rischio, danno, Milano 2021; G. Vettori, Le fonti e il nesso di causalità nella responsabilità medica, in Obbligaz e contr., 2008, p. 393; M. Bessone, Le trasformazioni del sistema della responsabilità civile e la tutela aquiliana del possesso negli orientamenti della giurisprudenza, in Giur. mer., 1983, pp. 1092-1094; M. Bessone, Ingiustizia del danno e tutela aquiliana delle pure e semplici “aspettative”, in Giur. mer., 1983, pp. 822-825; A. Luminoso, La tutela aquiliana dei diritti personali di godimento, Riv.dir. civ., 1973, V, p. 492; M. Barcellona, “scopo della norma violata” interpretazione teleologica e tecniche di attribuzione della tutela aquiliana, in Riv. dir. civ. 1973, pp. 311-71; G. Cian, Nuove oscillazioni giurisprudenziali sulla tutela aquiliana del credito, in Riv. Dir. Civ., 1971, pp. 632-638. 3   Su questo bilanciamento si veda C. Camardi, Note critiche in tema di danno da illecito trattamento dei dati personali, in Jus civile, 2020, p. 790, secondo la quale il principio della libera circolazione dei dati: «convive con quello per il quale il regolamento valorizza il diritto alla protezione dei dati personali, ma che sdogana una buona dose dei rischi indotti dall’economia digitale come rischi fisiologici che la società e i singoli devono assumersi, quale corrispettivo degli immensi vantaggi che la stessa è in grado di generare»; F. Bravo, Sul bilanciamento proporzionale dei diritti e delle libertà “fondamentali”, tra mercato e persona: nuovi assetti nell’ordinamento europeo?, in Contratto e impresa, 2018, p. 190; V. Ricciuto, La patrimonializzazione dei dati personali. Contratto e mercato nella ricostruzione del fenomeno, in Dir. dell’informazione e dell’informatica, 2018, p. 689. 4  Cfr. G. Versaci, Contrattualizzazione del trattamento di dati sensibili in un rapporto bancario: principio di minimizzazione e nullità virtuale nell’ombra di un consenso “condizionale”, in Foro it., 2020, cc. 958-963. 5   Art. 15, comma 1, d.lg. 30 giugno 2003, n. 196 (Codice della privacy), nonché, art. 5 c. 1, lett. c, del GDPR. 6   Sul tema della gravità della lesione si veda: E. Navarretta, Sub art. 29, IX comma, in Nuove leggi civ. comm., 1991, p. 693 ss., che sottolinea come nella categoria dei danni non patrimoniali «l’idoneità a selezionare la serietà delle pretese risarcitorie, occorre restringere e qualificare il potere selettivo dell’ingiustizia del danno (cioè dell’elemento oggettivo dell’illecito) a garanzia di tale serietà e a dimostrazione indiretta della stessa fondatezza dei danni non patrimoniali. Si giunge in tal modo alla regola incentrata su una certa gravità dell’offesa quale unico elemento idoneo a giustificare una divergenza dalla disciplina generale sui danni patrimoniali»; R. Montinaro, TuISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La responsabilità da illecito trattamento dei dati personali

559

«serietà del danno», poiché anche il diritto al risarcimento è soggetto al bilanciamento con il principio di tolleranza della lesione minima, che costituisce portato diretto dell’art. 2 della Costituzione7. Del resto, il terreno della responsabilità civile è più sensibile di altri ad una costante evoluzione delle proprie regole8: è prima di tutto in tale

tela della riservatezza e risarcimento del danno, in Giust. civ., 2004, p. 260, la quale richiama il «criterio della gravità dell’offesa» come parametro per evitare «il rischio di un’eccessiva dilatazione dell’area soggetta alla tutela risarcitoria»; E. Pellecchia, La responsabilità civile, in Resp. civ. prev., 2006, p. 232. 7   Sul tema della tolleranza nel diritto civile si veda: G. Sicchiero, Tolleranza, in Dig. Disc. Priv. Sez. civ., XIX, Torino 1999, p. 372; S. Patti, Profili di tolleranza nel diritto privato, Napoli 1978; G. Sicchiero, Tolleranza, in Enc. Dir., XLIV, Milano 1992, p. 714; E. Navarretta, Il danno alla persona tra solidarietà e tolleranza, in Resp. civ. prev., 2001, p. 803; E. Navarretta, Art. 2059 c.c. e valori costituzionali: dal limite del reato alla soglia della tolleranza, in Danno e resp., 2002, VIII-IX, pp. 865-875; A. Musio, Il principio di tolleranza nel diritto civile, Contr. e impr., 2017, II, p. 403; D. Imbruglia, La regola di tolleranza, in Riv. Dir. Priv., 2019, pp. 75-96; M. Costanza, Possesso e tolleranza, in Giust. civ., 2006, pp. 363-365. 8   In questo senso, N. Lipari, Le categorie del diritto civile, Milano 2013, p. 201, secondo il quale la responsabilità civile costituisce: «uno dei terreni più significativi per verificare la mobilità di frontiere che il rigore degli assetti categoriali considerava invalicabili». G. Vettori, voce effettività delle tutele (diritto civile), in Enc. Dir. Ann., X, Milano 2017, p. 391. Si pensi all’evoluzione che ha riguardato il novero di situazioni giuridiche la cui lesione dia luogo ad un danno risarcibile. Per lungo tempo si è reputato che fonte di responsabilità civile potesse essere soltanto la lesione di diritti assoluti che, in quanto tali, impongono a tutti i consociati l’obbligo di astenersi dal turbarne l’esercizio da parte del titolare. Secondo tale impostazione, risarcibile sarebbe soltanto la lesione di diritti della persona ovvero la lesione di diritti reali. Nell’ottica tradizionale, invece, i diritti di credito, qualificati come diritti relativi, darebbero luogo a pretese esercitabili esclusivamente nei confronti del debitore e non anche nei confronti dei terzi. Nei primi anni ’70 la Corte di Cassazione, nel celebre «caso Meroni», operando il più classico revirement ha cominciato ad affermare il diritto di credito del creditore ad ottenere il risarcimento dal terzo che abbia cagionato l’estinzione del suo diritto di credito, Cass., Sez. Un., 26 gennaio 1971, n.174, in Foro it., 1971, I, c. 1286, con nota di D. Busnelli, Un clamoroso “revirement” della Cassazione: dalla “questione di Superga” al “caso Meroni”, in Giur. it., 1973, I, 2, c. 1186, con nota di G. Visintini, Ancora sul “caso Meroni”. Muovendo un passo ulteriore, la giurisprudenza è giunta a riconoscere la risarcibilità del danno da lesione di interessi legittimi: quei danni derivanti, cioè, dalla violazione da parte della p.a., di una regola di comportamento prevista nell’interesse collettivo, e che solo indirettamente è posta a presidio dell’interesse del privato, Cass., Sez. Un., 22 luglio 1999, n. 500, in Foro it., 1999, c. 2487, sulla quale a commento, M. Franzoni, La lesione dell’interesse legittimo è, dunque, risarcibile, in Contratto e impr., 1999, p. 1025 ss.; infine si è giunti ad ammettere anche la risarcibilità delle lesioni di situazioni di fatto, laddove esse risultino tutelate dall’ordinamento, così risultando oggi pacificamente riconosciuta la risarcibilità del danno da spoglio violento del possesso, Cass., 5 luglio 2007, n. 152333, in Giust. civ., 2008, I, p. 411, con nota di Costanza, Possesso e risarcimento del danno. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

560

Tommaso Polvani

materia, che avviene il recepimento delle istanze dettate dall’evoluzione tecnologica e dal mutamento delle gerarchie degli interessi nell’ordinamento. Allora, in forza della consapevolezza per cui l’avvento della società e dei mercati digitali rappresentano un fenomeno di trasformazione sociale in grado di impattare fortemente sulla persona e di accrescere la probabilità di eventi dannosi a suo carico9, occorre vagliare la tenuta di alcune regole nell'ambito della responsabilità civile per danni cagionati dal trattamento illecito dei dati personali. Pertanto, il saggio si occuperà essenzialmente di affrontare, in detta materia, il problema principale in tema di illecito aquiliano: la selezione tra atti dannosi che producono responsabilità e atti dannosi che non producono responsabilità, ovvero l’individuazione dei danni risarcibili e di quelli non risarcibili10. Soprattutto con riguardo alla lesione di interessi non patrimoniali si cercherà di accertare quando la violazione della normativa sulla privacy faccia sorgere o meno un diritto al risarcimento del danno, chiarendo in particolare se in tal caso sussista un c.d. danno in re ipsa11, ovvero se occorra dimostrare l’esistenza di un danno-conseguenza12. Il fatto che il GDPR preveda espressamente all’art. 82 la risarcibilità dei danni non patrimoniali permette all’interprete di bypassare tutte le strettoie ermeneutiche poste dall’art. 2059 c.c.13 e concentrarsi sui presupposti in presenza dei quali l’interessato abbia diritto al risarcimento del danno. Per fare ciò, gioverà compiere un’analisi di sistema che abbia ad oggetto la responsabilità aquiliana, con i propri caratteri e funzioni, nonché l’impatto che le fonti europee hanno prodotto in tale settore.

Per una ricostruzione di una parte di questa evoluzione cfr. G. Cian, La virata della cassazione sulla tutela aquiliana del credito (dal caso di Superga al caso Meroni) in Riv. dir. civ., 1971, pp. 199-205; nonché, E. Navarretta, L’evoluzione storica dell’ingiustizia del danno, in Diritto civile, N. Lipari e P. Rescigno (diretto da), Milano 2009; N. Lipari, Le categorie, cit., pp. 201-204. 9   In questo senso, efficacemente, C. Camardi, Note critiche, cit., p. 787, nonché P. Trimarchi, La responsabilità civile, cit., p. 65 ss. 10   V. Roppo, Diritto privato, Torino 2020, p. 576. 11   Per questa impostazione D. Messinetti, I nuovi danni. Modernità, complessità della prassi, e pluralismo della nozione giuridica di danno, in Riv. crit. dir. priv., 2006, p. 550 ss.; D. Messinetti, Circolazione dei dati personali e dispositivi di regolazione dei poteri individuali, in Riv. Crit. dir. priv., 1998, p. 339. 12   Per questo secondo orientamento C. Camardi, Note critiche, cit., p. 788 ss. 13   S. Thobani, Il danno non patrimoniale da trattamento illecito dei dati personali, 2017, p. 428. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La responsabilità da illecito trattamento dei dati personali

561

2. Per fornire risposta alla questione di cui si è detto, si ritiene che il discorso debba fondarsi anzitutto su due aspetti attinenti al danno non patrimoniale: la distinzione tra «danno evento» e «danno conseguenza» e il necessario bilanciamento tra interessi imposto dall’art. 2 della Costituzione. In primo luogo, occorre rammentare il cambio di orientamento – oggi assolutamente consolidato – registratosi in giurisprudenza a partire dagli anni ’90. Secondo l’impostazione pretoria più innovativa, il mero fatto illecito, quindi non iure, non determina un diritto al risarcimento del danno. Affinché sorga tale diritto, occorre che dal fatto scaturisca una illecita lesione di interessi tutelati dall’ordinamento giuridico, il c.d. «danno evento». Ma questo non è sufficiente. Infatti, mentre il danno evento è un connotato dell’illiceità del fatto, sarà soltanto il «danno conseguenza» ad essere oggetto di risarcimento14: attualmente si tende ad escludere i c.dd. danni in re ipsa, poiché «la lesione del diritto o dell’interesse è solo il presupposto del diritto al risarcimento del danno»15, in quanto «il danno non patrimoniale, anche quando sia determinato dalla lesione di diritti inviolabili della persona, costituisce danno conseguenza, che deve essere allegato e provato»16. In forza di tale assunto, nel sistema della responsabilità civile, colui che aspira ad ottenere il risarcimento dei danni, non sarà tenuto soltanto a fornire la prova della norma violata o dell’interesse leso, ma anche quella del pregiudizio effettivamente patito, ossia il danneggiato dovrà dare «la dimostrazione che la lesione ha prodotto una perdita […] costituita dalla diminuzione o privazione di un valore personale (non patrimoniale), alla quale il risarcimento deve essere commisurato»17. 14   C. Castronovo, Il risarcimento in forma specifica come risarcimento del danno, in Processo e tecniche di attuazione dei diritti, Napoli 1989, p. 481 ss. 15   Cass., 6 dicembre 2018, n. 31537. 16   Cass., Sez. Un., 24 giugno 2008, n. 26972, in Resp. civ. e prev., 2009, p. 38, con nota di P.G. Monateri, Il pregiudizio esistenziale come voce del danno non patrimoniale; con nota di D. Poletti, La dualità del sistema risarcitorio e l’unicità della categoria dei danni non patrimoniali; con nota di E. Navarretta, Il valore della persona nei diritti inviolabili e la complessità dei danni non patrimoniali. Si tratta di un principio affermato inizialmente dalla giurisprudenza costituzionale: Corte cost., 27 ottobre 1994, n. 372, in Giust. civ., 1995, IV, p. 887, con nota di G. S. Coco e poi confermato da quella di legittimità: Cass., 31 maggio 2003, n. 8828; Cass. 31 maggio 2003, n. 8827; Cass. 25 maggio 2018, n. 13071; Cass., 10 maggio 2018, n. 11269; Cass., ord. 28 marzo 2018, n. 7594; Cass., ord. 29 gennaio 2018, n. 2056. 17   N. Lipari, Le categorie, cit., p. 208. In senso contrario, almeno per il caso della violazione dei diritti della personalità, C.M. Bianca, La responsabilità, Milano 20213,

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

562

Tommaso Polvani

In secondo luogo, altro aspetto da precisare è quello relativo al bilanciamento tra l’interesse del danneggiato e l’interesse del danneggiante. A ben vedere, il sistema della responsabilità civile consiste proprio in un conflitto di interessi: le regole sull’illecito aquiliano edificano un sistema teso a coordinare «l’esigenza di conservare o attribuire quanto spetta al potenziale danneggiato e l’esigenza di riconoscere, nei giusti limiti, la libertà d’azione del potenziale danneggiante»18. Proprio il giudizio di comparazione tra esigenze confliggenti, che il giudice è tenuto a compiere, costituisce uno dei grandi mutamenti che ha interessato il sistema della responsabilità civile negli ultimi anni. Se l’impostazione tradizionale rinveniva l’ingiustizia del danno in una condotta colposa necessariamente lesiva di un diritto soggettivo, l’orientamento che si è affermato a partire dalla storica pronuncia a Sezioni Unite del 199919 si fonda sull’assunto per cui, ai fini della configurabilità della responsabilità aquiliana, non è dirimente la qualificazione formale della posizione giuridica lesa, in quanto il risarcimento è ammissibile in presenza della lesione di un qualsiasi interesse purché esso risulti giuridicamente protetto20. Secondo la linea evolutiva, la responsabilità civile non si p. 191: «Il danno per violazione di diritti della personalità è considerato dalla giurisprudenza danno-evento e pertanto non risarcibile come tale. Risarcibili sarebbero solo i danni conseguenze, dei quali occorre dare la prova. È difficile condividere questo orientamento giurisprudenziale. La violazione dei diritti della personalità integra infatti la lesione degli interessi che tali diritti tutelano e quindi rappresenta un danno che va risarcito a prescindere dalle ulteriori conseguenze che ne possono derivare». 18   P. Trimarchi, La responsabilità civile, cit., p. 44: «Il problema dell’illecito civile consiste principalmente nella valutazione comparativa di due interessi contrapposti: l’interesse altrui minacciato da un certo tipo di condotta da un lato, e dall’altro l’interesse che l’agente con quella condotta realizza o tende a realizzare». 19   Cass. s.u., 22 luglio 1999, n. 500, in Giur. it., 2000, p. 1380 con nota di F.G. Pizzetti, Risarcibilità degli interessi legittimi e danno ingiusto. Se un giorno d’estate la Corte di Cassazione; con nota di P.G. Monateri, La Cassazione riconosce la risarcibilità degli interessi legittimi, in Danno e Resp., 1999, p. 978 ss.; con nota di L.V. Moscarini, La risarcibilità degli interessi legittimi: un problema tuttora aperto, in I contratti, 1999, p.  879 ss.; con nota di M.R. Morelli, La fortuna di un obiter: crolla il muro virtuale della irrisarcibilità degli interessi legittimi, in Giust. civ., 1999, I, p. 2276 ss; con nota di V. Carbone, La Cassazione riconosce la risarcibilità degli interessi legittimi, in Danno e resp., 1999, p. 974 ss.; con nota di F. Fracchia, Dalla negazione della risarcibilità degli interessi legittimi all’affermazione della risarcibilità di quella giuridicamente rilevanti, in Foro it., 1999, c. 3212 ss.; con nota di A. Orsi Battaglini e C. Marzuoli, La Cassazione sul risarcimento del danno arrecato dalla Pubblica amministrazione: trasfigurazione e morte dell’interesse legittimo, in Dir. pubbl., 1999, p. 500. 20   Critico verso la diffusa distinzione tra interessi di mero fatto e interessi giuridicamente rilevanti, P. Trimarchi, La responsabilità civile, cit., p. 38, secondo cui tale impostazione «non è appropriata, perché corrisponde all’idea che gli interessi possaISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La responsabilità da illecito trattamento dei dati personali

563

struttura più a priori in funzione dell’individuazione di una posizione giuridica soggettiva, ma si enuclea a posteriori, «all’esito di un giudizio di comparazione, rimesso al giudice, […] al fine di accertare se il sacrificio dell’interesse del danneggiato trovi o meno giustificazione nella realizzazione dell’interesse dell’autore della condotta»21. Occorre chiarire, però, che c’è anche un secondo grado di bilanciamento – più rilevante ai nostri fini – tra interesse del danneggiante e interesse del danneggiato. Esso attiene al grado di pregiudizio richiesto affinché possa sorgere un diritto al risarcimento del danno. La giurisprudenza di legittimità, a partire dalle note sentenze a Sezioni Unite di San Martino del 2008, richiede in via generale che il danno subito dal danneggiato sia serio e che la lesione sia grave: ciò al fine di bilanciare gli interessi tutelati dall’ordinamento con il generale dovere di solidarietà che grava sui consociati22. Secondo la ricostruzione consolidata, il requisito della gravità della lesione attiene al tipo di pregiudizio, per cui essa non potrà essere considerata grave laddove il danno sia «futile o non serio», mentre il parametro della serietà attiene al grado della lesione che deve superare una certa soglia di tollerabilità23. Non sono pertanto risarcibili i pregiudizi che si riducono a meri disagi, fastidi, ansie o insoddisfazioni considerate eventualità connaturate ad una vita normale e tollerabili in una convivenza sociale24. 3. La soluzione della questione che ci occupa non può prescindere da una riflessione sulla stessa funzione dell’istituto della responsabilità civile ed in particolare del danno non patrimoniale25. Il tema della fun-

no, per la loro stessa natura e prima ancora dell’analisi del modo della loro lesione, essere qualificati come difesi, o non difesi, dal diritto. Ma così non è. La difesa del medesimo interesse mediante la responsabilità civile può dipendere dal modo in cui sia stato arrecato il detrimento». 21   N. Lipari, Le categorie, cit., pp. 203-204. 22   Cass. s. u., 11 novembre 2008, n. 26972-26975, in Giur. it., 2009, I, p. 61. Uno dei primi a richiamare il parametro della solidarietà nel campo della responsabilità civile è stato S. Rodotà, Il problema della responsabilità civile, Milano 1964, pp. 92 ss. e 199 ss. 23   S. Thobani, Il danno non patrimoniale da trattamento illecito dei dati personali, cit., p. 442. 24   P. Trimarchi, La responsabilità civile, cit., p. 635, secondo cui è la stessa «convivenza sociale che impone un minimo di tolleranza» e per cui l’organizzazione giuridica stessa esigerebbe un generale principio di tolleranza. 25   Si aderisce all’idea di S. Sica, La responsabilità civile per il trattamento illecito dei dati personali, in A. Mantelero e D. Poletti, (a cura di), Regolare la tecnologia: © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

564

Tommaso Polvani

zione cui l’illecito aquiliano assolve è da sempre dibattuto: se è pacifico che il codice del 1865 delineava un istituto con preminente finalità sanzionatoria, l’art. 2043 del codice civile è stato interpretato nel senso di una sua polifunzionalità. In primo luogo, la funzione principale della responsabilità civile è quella compensativa-reintegrativa26. Il risarcimento è una nozione che nel diritto privato ha il suo preciso significato di ristoro del danno arrecato: a seguito di un pregiudizio, occorre compensare il danneggiato per la perdita subita, ossia reintegrare il suo patrimonio ingiustamente diminuito, riportandolo alla consistenza che aveva prima del fatto dannoso27. Con il codice del 1942 si è assistito allo spostamento del baricentro della responsabilità dal fatto illecito al danno ingiusto. Ciò ha comportato anche un radicale cambiamento nella concezione della funzione della responsabilità: essa non è volta a sanzionare un comportamento illecito, ma soprattutto a riparare la lesione ingiustamente arrecata al danneggiato28. Il principio che si osserva in materia è quelil Reg. UE 2016/679 e la protezione dei dati personali. Un dialogo tra Italia e Spagna, Pisa 2018, p. 162: «la stessa struttura della responsabilità civile sia sempre emanazione della sua funzione. Quest’ultima, dal canto suo, non può che essere diretta espressione della filosofia che il legislatore per quel determinato ambito ha inteso seguire». Sulla funzione del risarcimento del danno non patrimoniale cfr. M. Franzoni, Il danno alla persona, Milano 1995, p. 591 ss.; E. Navarretta, Diritti inviolabili e risarcimento del danno, Torino 1996, p. 320 ss.; E. Giannantonio, Responsabilità civile e trattamento dei dati personali, in Riv. dir. informaz. e informat., 1999, p. 1046; P. Ziviz, La tutela risarcitoria della persona. Danno morale e danno esistenziale, Milano 1999, p. 444 ss. 26   In tal senso la più parte della dottrina, tra chi ravvisa il fondamento di tale funzione nelle norme costituzionali: S. Rodotà, Il problema della responsabilità civile, Milano 1964, P. Perlingieri, Il diritto civile nella legalità costituzionale secondo il sistema italo-comunitario delle fonti, Napoli 2006; G. Annunziata, Responsabilità civile e risarcibilità del danno, Padova 2010, p. 23 ss. Altri, pur non ricavando la funzione compensativa da valori costituzionali, ne esaltano il valore di funzione principale dell’illecito civile C. M. Bianca, La responsabilità, cit., p. 207; G. Ponzanelli, La irrilevanza costituzionale del principio di integrale riparazione del danno, in M. Bussani (a cura di), La responsabilità civile nella giurisprudenza costituzionale, Napoli 2006, p. 67 ss. 27   V. Roppo, Diritto privato, cit., p. 579; C. Salvi, La responsabilità civile, Milano 1998, p. 11; S. Rodotà, Il problema della responsabilità civile, Milano 1964; R. Scognamiglio, voce Responsabilità civile, in Noviss. Dig. It., XV, Torino 1968, p. 643 ss.; F.D. Busnelli, voce Illecito civile, in Enc. Giur. Treccani, XV, Roma 1989, p. 33 ss.; G. Ponzanelli, La responsabilità civile, Bologna 1992; P.G. Monateri, La responsabilità civile, Tratt. Dir. civ., Sacco, Torino 1998, p. 318 ss.; P. Perlingieri, Le funzioni della responsabilità civile, in Rass. Dir. civ., 2011, p. 118. 28   M. Fratini, Manuale sistematico di diritto civile, Roma 2020, p. 1877. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La responsabilità da illecito trattamento dei dati personali

565

lo dell’integrale risarcimento del danno patito dal danneggiato29. La funzione reintegrativa realizza indirettamente un risultato socialmente utile. Essa tende ad assicurare una maggiore stabilità delle situazioni patrimoniali, nonché la riduzione dei rischi e migliori possibilità di programmazione. Assicurare che il patrimonio non possa essere illecitamente sottratto o deteriorato vale a premiare, e così a incentivare, le iniziative creative di valore30. Oltre alla funzione reintegrativa-compensativa, pacificamente viene assolta anche una funzione preventiva. Essa permette alla responsabilità civile di operare come strumento efficiente dal punto di vista anche sociale: anziché limitarsi ad intervenire soltanto quando il danno si è già verificato, la minaccia di una sanzione è volta ad impedire che i danni si producano, o almeno a ridurne il numero, con il risultato di evitare, o almeno limitare, la distruzione di ricchezza. La funzione preventiva sposta l’attenzione dal danneggiato al potenziale danneggiante, inducendolo a comportarsi con maggiore attenzione, prudenza e competenza31. Infine, si discute se nel nostro ordinamento vi sia spazio per la funzione sanzionatoria della responsabilità civile. Essa assolverebbe al compito di punire il responsabile per un suo comportamento riprovevole. La funzione sanzionatoria è prevalente negli ordinamenti in cui si sposa una concezione etica della responsabilità civile. Il codice del ’42 aderisce ad una impostazione pratica: non si ritiene essenziale che, in nome di un astratto principio di giustizia, la società 29   A. De Cupis, Tradizione e rinnovamento nella responsabilità civile, in Riv. dir. civ., 1979, p. 320: «Che il risarcimento abbia funzione riparatoria, significa che esso vuol riequilibrare gli interessi nella misura in cui sono stati pregiudicati, restaurare, e non più che restaurare, l’equilibrio compromesso, per mezzo dell’equivalente pecuniario: significa che, in esso, il sacrificio imposto al responsabile è strumentale e proporzionale rispetto al fine della riparazione a favore del danneggiato, corrisponde al danno da riparare ed è proporzionato alla sua entità». 30   P. Trimarchi, La responsabilità civile, cit., p. 9. G. Vettori, La responsabilità civile tra funzione compensativa e deterrente, in Liber Amicorum per Francesco D. Busnelli, Il diritto civile tra principi e regole, Milano 2008, p. 691 ss. 31   P. Trimarchi, La responsabilità civile, cit., p. 3; V. Roppo, Diritto privato, cit., p. 580; In merito a tale funzione G. Cian, Antigiuridicità e colpevolezza – saggio per una teoria del diritto civile, Padova 1966 che già nell’introduzione dell’opera evidenzia: «sulla presenza, nel diritto civile, di una funzione anche preventiva e non soltanto riparatoria delle lesioni […], la responsabilità da illecito significa, per me, responsabilità che sorge per un atto di cosciente violazione di norme. In tale prospettiva, credo sia in definitiva rispettato lo spirito più profondo di quanto forma l’essenza del diritto secondo il pensiero continentale: il dover concepire, cioè, la norma giuridica come regola di condotta per i singoli individui».

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

566

Tommaso Polvani

colpisca l’autore di un fatto illecito; è indispensabile, tuttavia, che chi ha patito un danno riceva un adeguato risarcimento32. Sebbene sia tradizionalmente condiviso che la funzione sanzionatoria sia recessiva rispetto ad una prioritaria funzione riparatoria-compensativa, vi sono in dottrina due orientamenti contrapposti in merito all’ammissibilità di una responsabilità punitiva33. In particolare, secondo l’impostazione più innovativa, l’art. 2043 c.c. necessita di essere letto secondo una prospettiva che tenga in debita considerazione non solo la figura del danneggiato, ma anche quella del danneggiante, mediante l’attribuzione al giudice di un armamentario più ampio, idoneo a soddisfare tanto l’effettività della tutela dei diritti34 quanto esigenze di utilità sociale. Attualmente si ritiene, quindi, che nell’istituto della responsabilità civile possano convivere più finalità, pur non potendo mai venir meno quella riparatoria-compensativa. Certo, in talune ipotesi, essa potrà risultare affievolita e cedere il passo ad altre ma senza scomparire del tutto, non potendosi prescindere dall’accertamento di una conseguenza pregiudizievole cagionata nella sfera giuridica del soggetto offeso dalla condotta dell’agente. Ci pare che sia questo, del resto, l’insegnamento di quella dottrina

  V. Roppo, Diritto privato, cit., p. 580.   In senso contrario: E. Moscati, voce Pena (dir. priv.), in Enc. Dir. Milano 1982, p. 771 ss.; C.M. Bianca, La responsabilità, cit., p. 207; P. Trimarchi, La responsabilità civile, cit., p. 649 ss.; In senso favorevole: G. Bonilini, Danno morale, in Digesto, Disc. Priv. Sez. civ., V, Torino 1989, p. 86, il quale ammette l’utilizzabilità della figura della pena privata nei casi in cui occorre affiancare alla reazione di tipo penalistico l’ulteriore reazione di tipo privatistico; M. Franzoni, Fatti illeciti (Art. 2043-2059), Bologna 1993, p. 1250: «le due finalità si assommano e si integrano facendo assumere al danno morale la natura si una sanzione civile punitiva»; C. Scognamiglio, Il danno morale soggettivo, in Nuova giur. Civ. comm., 2010, V, p. 237: che ne sottolinea la «funzione di presidio della dignità della persona»; A. Di Majo, Rileggendo Augusto Thon, In merito ai cd. danni punitivi dei nostri giorni, in Eur. dir. priv., 2018, IV, p. 1313. 34   G. Vettori, Contratto giusto e rimedi effettivi, in Riv. trim. dir. proc. civ., 2017, III, p. 787; G. Vettori, voce effettività delle tutele (diritto civile), cit., p. 381 ss; A. Di Majo, voce Tutela (dir. priv.), in Enc. Dir., XLV, Milano 1992, p. 360 ss.; A. Proto Pisani, Il principio di effettività nel processo civile italiano, in Giusto proc. civ., 2014, p. 828 ss.; I. Pagni, Tutela specifica e tutela per equivalente. Situazioni soggettive e rimedi nelle dinamiche dell’impresa, del mercato, del rapporto di lavoro e dell’attività amministrativa, Milano 2004. 32 33

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La responsabilità da illecito trattamento dei dati personali

567

secondo cui l’interprete deve in primo luogo individuare i rimedi, senza lasciarsi ammaliare dal fascino di categorie qualificatorie35. Il problema della funzione della responsabilità civile è stato affrontato inter alia nella storica pronuncia della Cassazione a Sezioni Unite del 2017, che ha precipuamente ad oggetto la delibazione di una pronuncia straniera in materia di danni punitivi36. Trattasi di quei danni utili a fronteggiare il problema di danneggianti che da talune attività realizzano un beneficio tanto elevato da far loro accettare, all’esito di una valutazione economica di costi benefici, il rischio di pagare i danni37. In tale arresto, la Suprema Corte rileva che i danni punitivi, invalsi in altri ordinamenti, non contrastano con l’ordine pubblico solo ove

35   N. Lipari, Le categorie, cit., p. 211: «Quale che sia il criterio classificatorio o l’espediente dialettico la dottrina più sensibile avverte l’esigenza di partire dal basso, dall’esito di vicende che implicano inesorabilmente rimedi senza lasciarsi affascinare dal feticismo di categorie rispetto alle quali è evidente l’artificio in forza del quale ciascuna di esse è utilizzata come criterio di qualificazioni di eventi rispetto ai quali ciò che conta è il risultato riparatore, non la sua motivazione». 36   Cass., Sez. Un., 5 luglio 2017, n. 16601, in Foro it., 2017, I, c.  2613; in Corr. Giur., 2017, p. 1050 ss., con nota di C. Consolo, Riconoscimento di sentenze, specie usa e di giudici popolari, aggiudicanti risarcimenti punitivi o comunque sovracompensativi, se in regola con il nostro principio di legalità.; in Nuova giur., civ. comm., 2017, II, p.  1405 ss., con nota di A. Gambaro, Le funzioni della responsabilità civile tra diritto giurisprudenziale e dialoghi transnazionali; G. Ponzanelli, La decisione delle Sezioni Unite: cambierà qualcosa nel risarcimento del danno? in Riv. dir. civ., 2018, p. 301; A. Palmieri e R. Pardolesi, I danni punitivi e le molte anime della responsabilità civile, in Foro it., 2017, I, c. 2631; E. D’alessandro, Riconoscimento di sentenze di condanna a danni punitivi: tanto tuonò che piovve, in Foro it., 2017, I, c. 2640 ss.; F. Busnelli, Deterrenza, Responsabilità civile, fatto illecito, danni punitivi, in Eur. dir. priv., 2009, IV, p. 909; A. Di Majo, Principio di legalità e di proporzionalità nel risarcimento con funzione punitiva, in Giur. it., 2017, p. 1793; M. Franzoni, Danno punitivo e ordine pubblico, in Riv. Dir. Civ., 2018, I, pp. 283-299; C. Scognamiglio, Le Sezioni Unite e i danni punitivi: tra legge e giudizio, in Resp. civ. e prev., 2017, IV, pp. 1109-1122; C. Scognamiglio, Principio di effettività, tutela civile dei diritti e danni punitivi, in Resp. civ., prev., 2016, IV, pp. 1120-1135; C. Scognamiglio, I danni punitivi e le funzioni della responsabilità civile, in Corr. Giur., 2016, VII, pp. 912-20; G. Alpa, Le funzioni della responsabilità civile e i danni “punitivi”: un dibattito sulle recenti sentenze della Suprema Corte di Cassazione, in Contr. impr., 2017, IV, pp. 1129-1141; S. Landini, La condanna a danni punitivi tra penale e civile: la questione rimane attuale, in Dir. pen. Proc., 2017, II, pp.  262-267; C. Sartoris, La responsabilità civile tra funzione riparatoria e funzione sanzionatoria, in Funzioni punitive e funzioni ripristinatorie, Torino 2020, pp. 1-22; C. Sartoris, Riflessioni sulle funzioni della responsabilità aquiliana alla luce delle Sezioni Unite n. 16601/2017, in Pers. e merc., 2017, III, p. 21 ss. 37   E. Navarretta, Il risarcimento in forma specifica e il dibattito sui danni punitivi tra effettività, prevenzione e deterrenza, in Resp. civ. e prev., 2019, I, p. 20.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

568

Tommaso Polvani

essi siano direttamente previsti dalla legge o da altre fonti normative equipollenti in quell’ordinamento. Esclusivamente in tale ipotesi sarà possibile delibare in Italia una sentenza che dia riconoscimento a danni di tal fatta. Dal circoscritto obiettivo del riconoscimento dei danni punitivi comminati da una pronuncia estera, la Cassazione passa poi ad affermare il carattere polifunzionale della responsabilità civile. In effetti, vi sono ipotesi in cui la funzione compensativa dell’istituto aquiliano non risulta del tutto soddisfacente, per cui risulta opportuno il riconoscimento di una funzione anche preventiva e dissuasiva, idonea a realizzare obiettivi generali di giustizia sociale38. La Corte, però, è opportuno chiarirlo, non dà libero accesso nel nostro ordinamento ai danni punitivi. I giudici di legittimità, dopo aver scandagliato il sistema positivo ed aver rinvenuto alcune ipotesi di fattispecie aventi carattere punitivo, riconoscono l’ammissibilità nel nostro ordinamento di pene private, purché espressamente previste dalla legge, in conformità con l’art. 23 della Costituzione39. Sulla scorta di queste considerazioni, si ritiene di condividere la posizione di chi, dopo aver chiarito che i danni punitivi, proprio per la loro natura, si pongono al di fuori della cornice della responsabilità civile, sostiene che essi possano trovare una legittimazione nell’ordinamento nazionale solo in forza di una scelta del legislatore finalizzata alla tutela di interessi fondamentali e soltanto come extrema ratio preordinata a contrastare il diffondersi di condotte particolarmente odiose a livello sociale40.

38   V. Scalisi, Il nostro compito nella nuova Europa, in Eur. dir. priv., 2007, II, p. 250; G. Vettori, Diritto privato e ordinamento comunitario, Milano 2009, p. 296, secondo cui al fine di rendere più efficiente la tutela dei diritti lesi da un illecito è «necessario riformulare un coerente «statuto della responsabilità civile» capace di coordinare in modo efficiente l’ingiustizia del danno, i criteri di imputazione e le diverse modalità del danno risarcibile». 39   Cass., Sez. Un., 5 luglio 2017, n. 16601, in Foro it., 2017, c. 2613, fa riferimento ad una necessaria: «intermediazione legislativa». 40  E. Navarretta, Il risarcimento in forma specifica e il dibattito sui danni punitivi tra effettività, prevenzione e deterrenza, cit., p. 23: «Escluso, dunque, che all’interno della responsabilità civile possano trovare alcuna paternità i danni punitivi […] resta da valutare se nel sistema nazionale, al di fuori delle regole sulla responsabilità civile, essi possano trovare una qualche legittimazione. […] La loro previsione dipenderebbe da una scelta di politica legislativa» giustificata in caso di «lesione di interessi fondamentali. I danni punitivi, dunque, dovrebbero raffigurarsi proprio quale extre-

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La responsabilità da illecito trattamento dei dati personali

569

4. Giova ora esaminare la disciplina dell’illecito delineata dal GDPR, al fine di chiarire la questione che ci interessa, tenendo in debito conto il diritto positivo, per come esso sia desumibile anche dal formante europeo. La fattispecie dell’illecito trattamento dei dati personali è prevista all’art. 82 del GDPR, ove si prevede che: «Chiunque subisca un danno materiale o immateriale causato da una violazione del presente regolamento ha il diritto di ottenere il risarcimento del danno dal titolare del trattamento o dal responsabile del trattamento». Si tratta di un’ipotesi in cui il legislatore riconosce espressamente la risarcibilità del danno non patrimoniale in tutti i casi in cui vi sia stata una lesione di una qualsiasi norma del Regolamento41. Ad essa si aggiungono le disposizioni che contribuiscono a delineare le ipotesi di condotta illecita. Il legislatore europeo ha compiuto una tipizzazione, seppur non tassativa né esaustiva, delle condotte che possono cagionare un danno ingiusto e quindi una responsabilità dei titolari del trattamento. Esse consistono nelle attività di trattamento realizzate in contrasto con lo statuto protettivo dell’interessato, quindi in spregio al consenso o ad altra base idonea ex art. 6 GDPR42, ovvero in violazione dei principi previsti per la legittimità del trattamento agli ma ratio per combattere l’eventuale diffondersi a livello sociale di condotte particolarmente odiose, pur se nella singolarità della vicenda con un impatto offensivo limitato» 41   S. Thobani, Il danno non patrimoniale da trattamento illecito dei dati personali, cit., p. 427; R. Caterina e S. Thobani, Il diritto al risarcimento dei danni, in Giur. Ita., 2019, p. 2805; M. Ratti, La responsabilità da illecito trattamento dei dati personali nel nuovo regolamento, in G. Finocchiaro (a cura di), Il nuovo regolamento europeo sulla privacy e sulla protezione dei dati personali, Bologna 2017, p. 616; S. Sica, La responsabilità civile per il trattamento illecito dei dati personali, cit., p. 171. 42   In particolare, l’art. 6 del Reg. n. 679/2016 che indica le basi idonee al trattamento, prevede: «1. Il trattamento è lecito solo se e nella misura in cui ricorre almeno una delle seguenti condizioni: a) l’interessato ha espresso il consenso al trattamento dei propri dati personali per una o più specifiche finalità; b) il trattamento è necessario all’esecuzione di un contratto di cui l’interessato è parte o all’esecuzione di misure precontrattuali adottate su richiesta dello stesso; c) il trattamento è necessario per adempiere un obbligo legale al quale è soggetto il titolare del trattamento; d) il trattamento è necessario per la salvaguardia degli interessi vitali dell’interessato o di un’altra persona fisica; e) il trattamento è necessario per l’esecuzione di un compito di interesse pubblico o connesso all’esercizio di pubblici poteri di cui è investito il titolare del trattamento; f) il trattamento è necessario per il perseguimento dell’illegittimità interesse del titolare del trattamento o di terzi, a condizione che non prevalgano gli interessi o © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

570

Tommaso Polvani

artt. 5 e 6, o dei diritti dell’interessato ex artt. 12 ss. e fino agli artt. 22 e 23, nonché nelle condotte in contrasto con la normativa sulla sicurezza dei dati43. Il danno che può subire il soggetto ai sensi dell’art. 82 del GDPR viene ulteriormente specificato dai considerando nn. 75 e 8544 che prevedono un catalogo di conseguenze dannose articolato su due livelli. Il primo attiene ai diritti fondamentali della persona che possono essere lesi dalla condotta illecita: trattasi dei diritti all’identità personale, alla reputazione, all’onore e alla riservatezza45. Il secondo, invece, concerne i diritti e le libertà fondamentali dell’interessato che richiedono protezione dei dati personali, in particolare se l’interessato è un minore». 43   C. Camardi, Note critiche, cit., p. 793; F. Piraino, I “diritti dell’interessato” nel Regolamento generale sulla protezione dei dati personali, in Giur. it., 2019, p. 2789. 44   In particolare, il considerando n. 75 contiene delle esemplificazioni a proposito dei rischi che i trattamenti possono comportare «in particolare: se il trattamento può comportare discriminazioni, furto o usurpazione d’identità, perdite finanziarie, pregiudizio alla reputazione, perdita di riservatezza dei dati personali protetti da segreto professionale, decifratura non autorizzata della pseudonimizzazione, o qualsiasi altro danno economico o sociale significativo; se gli interessati rischiano di essere privati dei loro diritti e delle loro libertà o venga loro impedito l’esercizio del controllo sui dati personali che li riguardano. se sono trattati dati personali che rivelano l’origine razziale o etnica, le opinioni politiche, le convinzioni religiose o filosofiche, l’appartenenza sindacale, nonché dati genetici, dati relativi alla salute o i dati relativi alla vita sessuale o a condanne penali e a reati o alle relative misure di sicurezza; in caso di valutazione di aspetti personali, in particolare mediante l’analisi o la previsione di aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze o gli interessi personali, l’affidabilità o il comportamento, l’ubicazione o gli spostamenti, al fine di creare o utilizzare profili personali; se sono trattati dati personali di persone fisiche vulnerabili, in particolare minori; se il trattamento riguarda una notevole quantità di dati personali e un vasto numero di interessati», mentre il considerando 85 afferma che la violazione dei dati personali può: «provocare danni fisici, materiali o immateriali alle persone fisiche, ad esempio perdita del controllo dei dati personali che li riguardano o limitazione dei loro diritti, discriminazione, furto o usurpazione d’identità, perdite finanziarie, decifratura non autorizzata della pseudonimizzazione, pregiudizio alla reputazione, perdita di riservatezza dei dati personali protetti da segreto professionale o qualsiasi altro danno economico o sociale significativo alla persona fisica interessata». 45   A proposito del diritto alla riservatezza, si noti che il fenomeno del trattamento dei dati non possa essere ricostruito soltanto secondo la primigenia prospettiva del right to be let alone e che anzi esso si sia sviluppato lungo un articolato percorso fino a giungere alla formulazione della privacy come «diritto a mantenere il controllo sulle proprie informazioni». Sul concetto di privacy, in particolare, S. Rodotà, Persona, riservatezza, identità. Prime note sistematiche sulla protezione dei dati personali, in Riv. crit. dir. priv., 1997, pp. 588-589; S. Rodotà, Privacy e costruzione della sfera privata, in Pol. dir., 1991, IV, pp. 521-546; S. Rodotà, Tecnologie e diritti, Bologna 1995; G. Vettori, Privacy: un primo bilancio, in Riv. dir. priv., 1998, p. 675, che parla di una «necessità teleologica dei diritti. La ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La responsabilità da illecito trattamento dei dati personali

571

le conseguenze dannose in senso stretto, attraverso le quali si realizza sul piano non patrimoniale la lesione del diritto: a titolo esemplificativo, potrà trattarsi della perdita di controllo di alcuni dati tale da rendere possibile all’usurpatore di assumere l’identità dell’interessato; ovvero la decifratura non autorizzata della pseudonimizzazione; ovvero la discriminazione del soggetto cui quei dati appartengono; o la perdita della propria serenità di vita laddove si tratti di dati relativi alla propria abitazione o ai propri spostamenti sfruttati per una insistente attività di marketing46. Il trattamento dei dati personali può indubbiamente cagionare anche danni patrimoniali: potrebbe essere il caso di dati raccolti in certe circostanze ed utilizzati in differenti ambiti economici, come nel caso in cui essi siano utilizzati in selezioni professionali o rispetto all’ottenimento di finanziamenti bancari47. Pacificamente laddove vi sia una prova del pregiudizio subito, sarà ammissibile il risarcimento del danno48. I problemi maggiori riguardano tuttavia il danno non patrimoniale. Dalla sintetica analisi svolta, le disposizioni del Regolamento soddisfano le condizioni di operatività di cui all’art. 2059 c.c., avendo il complesso delle disposizioni regolamentari tratteggiato sia gli elementi rilevanti della condotta, sia quelli della lesione e del danno ingiusto. Tuttavia sulla questione pesano dubbi e incertezze ermeneutiche49. Ma possibilità di conoscere l’inizio di un trattamento, di opporsi, di chiedere la cancellazione, la modifica o l’integrazione, è un efficiente mezzo di tutela specifica che può impedire la violazione o la continuazione dell’attività lesiva»; R. Pardolesi, Dalla riservatezza alla protezione dei dati personali: una storia di evoluzione e discontinuità, in R. Pardolesi (a cura di), Diritto alla riservatezza e circolazione dei dati personali, Milano 2003, p. 1 ss.; S. Niger, Le nuove dimensioni della privacy: dalla riservatezza alla protezione dei dati personali, Padova 2006; G. Marini, Diritto alla privacy, in Comm. cod. civ. E. Gabrielli, Torino 2013, p. 209 ss. G. Alpa, Privacy, in G. Alpa (a cura di), I precedenti. La formazione giurisprudenziale del diritto civile, Torino 2000, p. 259 ss.; G. Pugliese, Il preteso diritto alla riservatezza e le indiscrezioni cinematografiche, in Foro it., 1954, c. 115. 46   C. Camardi, Note critiche, cit., p. 793; R. Caterina e S. Thobani, Il diritto al risarcimento dei danni, in Giur. Ita., 2019, p. 2805; S. Thobani, Invio di comunicazioni indesiderate: il risarcimento del danno non patrimoniale, in Giur. it., 2017, p. 1539. 47   Cass., 8 gennaio 2019, n. 207. 48   C. Camardi, Note critiche, cit., p. 793; R. Caterina e S. Thobani, Il diritto al risarcimento dei danni, cit., p. 2809; A. Pierucci, Elaborazione dei dati e profilazione delle persone, in V. Cuffaro, R. D’Orazio e V. Ricciuto (a cura di), I dati personali nel diritto europeo, Torino 2019, p. 413; C. Tabarrini, Comprendere la “Big Mind”. Il GDPR sana il divario di intelligibilità uomo-macchina?, in Dir. informaz. e informat., 2019, p. 555. 49   C. Camardi, Note critiche, cit., p. 793; R. Caterina e S. Thobani, Il diritto al risarcimento dei danni, cit., p. 2809. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

572

Tommaso Polvani

prima di ipotizzare una possibile soluzione al problema, occorre fare un passo indietro e riflettere sul sistema delineato dal GDPR nel suo insieme e sulle finalità cui esso è preordinato. Ciò in quanto si ritiene che la soluzione della questione debba essere ricavata e argomentata principalmente sulla base del Regolamento, per poi adattarla alle categorie formali del nostro ordinamento50. Il GDPR non sposa una impostazione assolutistica dei diritti della personalità51. Si ha, anzi, l’impressione che la nuova disciplina introduca un bilanciamento tra l’interesse della persona e il profilo della circolazione decisamente sbilanciato in favore di quest’ultimo52, così come evidenziato dal considerando n. 4, secondo cui: «il diritto alla protezione dei dati di carattere personale non è una prerogativa assoluta, ma va considerato alla luce della sua funzione sociale»53.  C. Camardi, ivi, p. 793.   Sul rapporto tra la normativa sui dati personali e i diritti della personalità: V. Zeno-Zencovich, I diritti della personalità dopo la legge sulla tutela dei dati personali, in Studium iuris, 1997, p. 467 ss.; V. Zeno-Zencovich, Una lettura comparatistica della L. 675/96 sul trattamento dei dati personali, in V. Cuffaro, V. Ricciuto e V. Zeno Zencovich (a cura di), Trattamento dei dati e tutela della persona, Milano 1998, p. 163 ss.; C. Castronovo, Situazioni soggettive e tutela nella legge sul trattamento dei dati personali, in V. Cuffaro, V. Ricciuto e V. Zeno Zencovich (a cura di), Trattamento dei dati e tutela della persona, Milano 1998, p. 467 ss.; S. Rodotà, Conclusioni, in V. Cuffaro, V. Ricciuto e V. Zeno Zencovich (a cura di), Trattamento dei dati e tutela della persona, cit., p. 301; G. Resta, Il diritto alla protezione dei dati personali, in F. Cardarelli, S. Sica e V. Zeno Zencovich (a cura di), Il codice dei dati personali, Milano 2004, p. 23 ss.; S. Rodotà, Tra diritti fondamentali ed elasticità della normativa: il nuovo codice sulla privacy, in Eur. Dir. Priv., 2004, IV; A. Riccobene, Il danno cagionato per effetto del trattamento e i diversi modelli risarcitori, in R. Panetta (a cura di), Libera circolazione e protezione dei dati personali, Milano 2006, II, p. 2034 ss. 52   A. Iuliani, Note minime in tema di trattamento dei dati personali, in Eur. e Dir. Priv., 2018, p. 306; F. Piraino, Il regolamento generale sulla protezione dei dati personali e i diritti dell’interessato, in nuove leggi civ. comm., 2017, p. 375; G. Finocchiaro, Introduzione al Regolamento europeo sulla protezione dei dati, in Nuove leggi civ. comm., 2017, p. 3; A. Thiene, Segretezza e riappropriazione di informazioni di carattere personale: riserbo e oblio nel nuovo Regolamento europeo, in Nuove leggi civ. comm., 2015, p. 412; A. Ricci, Sulla «funzione sociale» del diritto alla protezione dei dati personali, in Contr. impr., 2017, p. 586 ss. 53   Considerando n. 4: «Il trattamento dei dati personali dovrebbe essere al servizio dell’uomo. Il diritto alla protezione dei dati di carattere personale non è una prerogativa assoluta, ma va considerato alla luce della sua funzione sociale e va contemperato con altri diritti fondamentali, in ossequio al principio di proporzionalità. Il presente regolamento rispetta tutti i diritti fondamentali e osserva le libertà e i principi riconosciuti dalla Carta, sanciti dai trattati, in particolare il rispetto della vita privata e familiare, del domicilio e delle comunicazioni, la protezione dei dati personali, la 50 51

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La responsabilità da illecito trattamento dei dati personali

573

Le norme regolatrici dell’attività di trattamento dei dati personali infatti sono indubbiamente volte alla protezione dei diritti e delle libertà fondamentali, ma «riconoscono altresì la legittimità e la pienezza del principio della libera circolazione dei dati», tanto che all’art. 1, c. 3 del Regolamento si afferma: «La libera circolazione dei dati personali nell’Unione non può essere limitata né vietata per motivi attinenti alla protezione delle persone fisiche con riguardo al trattamento dei dati personali»54. Le norme del GDPR si fondano sulla convinzione dell’ineluttabilità della circolazione dei dati55. Conferma questa impostazione anche il considerando n. 8, nel quale si legge: «[…] La tecnologia ha trasformato l’economia e le relazioni sociali e dovrebbe facilitare ancora di più la libera circolazione dei dati personali all’interno dell’Unione e il loro trasferimento verso paesi terzi e organizzazioni internazionali, garantendo al tempo stesso un elevato livello di protezione dei dati personali»56. Non pare pertanto di poter risolvere la questione individuando un generale e assoluto diritto alla protezione dei dati. Occorrerà compiere una riflessione, che tenga conto della ratio che sta alla base del Regolamento e delle sue disposizioni57, non dimenticando, tra l’altro, che libertà di pensiero, di coscienza e di religione, la libertà di espressione e d’informazione, la libertà d’impresa, il diritto a un ricorso effettivo e a un giudice imparziale, nonché la diversità culturale, religiosa e linguistica». 54   S. Sica, La responsabilità civile per il trattamento illecito dei dati personali, cit., p. 164. 55   Ibidem; A. De Franceschi, La vendita di beni con elementi digitali, Napoli 2020: «proposito del legislatore europeo è promuovere la libera circolazione dei dati nel mercato interno, assicurando nel contempo la protezione dei dati personali, sorretta dai diritti di privacy nelle Costituzioni nazionali e nell’art. 8 della Carta dei Diritti fondamentali dell’Unione Europea». 56   Considerando n. 8: «La rapidità dell’evoluzione tecnologica e la globalizzazione comportano nuove sfide per la protezione dei dati personali. La portata della condivisione e della raccolta di dati personali è aumentata in modo significativo. La tecnologica attuale consente tanto alle imprese private quanto alle autorità pubbliche di utilizzare dati personali, come mai in precedenza, nello svolgimento delle loro attività. Sempre più spesso, le persone fisiche rendono disponibili al pubblico su scala mondiale informazioni personali che li riguardano. La tecnologia ha trasformato l’economia e le relazioni sociali e dovrebbe facilitare ancora di più la libera circolazione dei dati personali all’interno dell’Unione e il loro trasferimento verso paesi terzi e organizzazioni internazionali, garantendo al tempo stesso un elevato livello di protezione dei dati personali». 57   D. Carusi, La responsabilità, in V. Cuffaro e V. Ricciuto (a cura di), La disciplina del trattamento dei dati personali, Torino 1997, p. 365, il quale evidenzia come occorra: «nel giudizio di responsabilità, individuare la ratio della regola violata, gli © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

574

Tommaso Polvani

tale corpus normativo tutela non soltanto interessi individuali ma anche generali, rispetto alla cui lesione pare inverosimile la configurabilità stessa di un danno arrecato al singolo58. Giova allora tentare di immaginare una sistematica nella quale si accetti, come ordinaria e inevitabile, l’interferenza che il principio della circolazione mercantile dei dati genera nella sfera delle persone fisiche. Sicché, sarà possibile ricalibrare l’impostazione del problema e riconoscere che la concezione assolutistica della persona andrebbe relativizzata alla luce della prospettiva patrimonialistica del Regolamento59. Per tali motivi si ritiene che il GDPR possa essere considerato come il risultato della presa di coscienza da parte del legislatore europeo dell’esistenza nel settore di una doppia complessità: da una parte, le esigenze di tutela dei diritti inviolabili della persona si contrappongono alle esigenze di efficienza del mercato, dall’altra, il riconoscimento del bisogno di tutele sia individuali che collettive. Il Regolamento prevede una disciplina tipicamente regolatoria del mercato dei dati e, collocando i valori della persona in un contesto di ordinaria circolazione anche volontaria dei dati personali come risorse dichiaratamente oggetto di attività d’impresa, ridimensiona la rilevanza dell’interferenza esterna sulla persona e riconfigura in questa chiave l’istituto della responsabilità aquiliana60. 5. L’analisi di sistema compiuta spinge l’interprete a un duplice orinteressi ch’essa protegge» e rinvia poi alla «teoria dello scopo della norma violata»; P. Cendon, Danni non patrimoniali: verso dove stiamo andando, in U. Dal Lago e R. Bordon (a cura di), La nuova disciplina del danno non patrimoniale, Milano 2005, p. 86; A. Riccobene, Il danno cagionato per effetto del trattamento e i diversi modelli risarcitori, in R. Panetta (a cura di), Libera circolazione e protezione dei dati personali, Milano 2006, p. 2038, secondo cui: «la possibilità di attivare il rimedio richiede – esclusivamente – che il danno riportato in concreto dal singolo corrisponda esattamente al pericolo di danno che il legislatore voleva esorcizzare attraverso l’emanazione della normativa di protezione dei dati». 58   S. Thobani, Il danno non patrimoniale da trattamento illecito dei dati personali, cit., p. 428; S. Thobani, Il mercato dei dati personali: tra tutela dell’interessato e tutela dell’utente, in Riv. dir. media, 2019, III, p. 147; S. Rodotà, Protezione dei dati e circolazione delle informazioni, in Riv. crit. dir. priv., 1984, p. 763. 59  C. Camardi, Note critiche, cit., p. 804; V. Cuffaro, Il diritto europeo sul trattamento dei dati personali e la sua applicazione in Italia: elementi per un bilancio ventennale, in V. Cuffaro, R. D’orazio e V. Ricciuto (a cura di), I dati personali nel diritto europeo, Torino 2019, pp. 3-17 ss. 60  C. Camardi, Note critiche, cit., p. 804. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La responsabilità da illecito trattamento dei dati personali

575

dine di considerazioni: il primo attiene all’inquadramento dogmatico-teorico della responsabilità da illecito trattamento di dati personali; il secondo concerne il novero dei rimedi di cui può disporre il giudice dinanzi a un trattamento non conforme alle regole. Anzitutto, occorre chiarire se ai fini del risarcimento da illecito trattamento dei dati personali sia sufficiente allegare la lesione dell’interesse giuridicamente tutelato, ammettendo così l’esistenza di un danno in re ipsa, ovvero se si debba comunque dare prova di un pregiudizio patito dall’interessato. Per sciogliere questo nodo ermeneutico, ossia per dare una corretta interpretazione dell’art. 82 GDPR che sancisce il diritto al risarcimento di colui che «subisca un danno materiale o immateriale causato da una violazione del presente regolamento» occorrerà utilizzare gli indici desumibili dal sistema, tanto nazionale quanto europeo. In base ad essi, si ritiene di poter aderire alla ricostruzione secondo cui la soluzione debba differenziarsi in ragione delle ipotesi di volta in volta affrontate. La prima ipotesi riguarda il caso in cui vi sia stata una offesa diretta dei diritti della personalità. In tali circostanze, per il danneggiato sarà sufficiente la prova della mera lesione per avere diritto al risarcimento del danno non patrimoniale quale ristoro dell’ingiusta offesa subita61. Il particolare rango degli interessi tutelati rende legittimo uno spostamento del baricentro della tutela più favorevole al danneggiato, tale da ammettere una sfumatura sanzionatoria della responsabilità. In ogni caso, trattandosi di una presunzione relativa, sarebbe comunque sempre ammessa da parte del danneggiante la prova, seppur complicata, di non aver arrecato alcun danno62. In tutti gli altri casi, ossia quando la regola organizzativa violata 61  S. Thobani, Il danno non patrimoniale da trattamento illecito dei dati personali, cit., p. 437; A. De Cupis, Il risarcimento del danno non patrimoniale, in Assicurazioni, 1972, I, p. 224; C.M. Bianca, La responsabilità, cit., p. 591; P.G. Monateri, La responsabilità civile, in Sacco (a cura di), Tratt. Dir. civ., Torino 1998, p. 277 ss. 62  S. Thobani, Il danno non patrimoniale da trattamento illecito dei dati personali, cit., p. 453: «vi sono alcuni valori attinenti alla tutela dell’individuo cui la coscienza sociale attribuisce una importanza tale da potersi ritenere sedimentata nella comune sensibilità la percezione che la lesione degli stessi provochi disagi, fastidi e turbamenti, senza che ci sia bisogno di alcuna dimostrazione in proposito. Tale valutazione di normalità sociale è in questo caso così forte da condurre all’affermazione che il danno è in re ipsa nella lesione in sé del valore tutelato. Si tratta tuttavia di una presunzione, che […] dovrebbe poter essere vinta dalla prova contraria che nel caso concreto l’interessato non abbia in realtà patito alcun danno».

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

576

Tommaso Polvani

non abbia quale ratio la tutela immediata e diretta dei diritti della personalità, l’art. 82 GDPR richiederà, ai fini di una responsabilità risarcitoria, anche l’ulteriore prova della conseguenza dannosa prodottasi nella sfera personale del danneggiato nella forma di concreta compromissione della sua esistenza – identificabile in fastidi, sofferenze e disagi – secondo standard di medietà sociale. L’interessato disporrà allora di tutti i rimedi previsti dal Regolamento per reagire alla violazione delle norme in esso contenute, senza però potersi avvalere anche del risarcimento del danno ove la lesione ingiusta non abbia concretamente provocato un pregiudizio serio e grave nella sua sfera giuridica che ne giustificherebbe la concessione63. Dal punto di vista della prospettiva domestica, l’ammissione generalizzata del risarcimento del danno, pur in assenza della prova di un «danno conseguenza», rappresenterebbe una aporia rispetto alle «fondamenta» della materia: la necessità di una sofferenza ulteriore rispetto alla mera lesione; la natura eccezionale della funzione sanzionatoria e punitiva della responsabilità civile64. A tal proposito, infatti, anche ove si volesse tralasciare la mancanza di una espressa previsione legislativa in tal senso, non sembrano sussistere i margini per un’ipotesi di responsabilità punitiva che potrà trovare, come detto, uno spazio solo per tutelare interessi fondamentali e soltanto come extrema ratio per contrastare il diffondersi delle condotte più insopportabili a livello sociale. La circolazione e il trattamento dei dati costituisce un valore che, in quanto capace di favorire la creazione di ricchezza, è visto con favore all’interno dell’ordinamento65. Ragionando, invece, su di un piano europeo, tale assetto non costituisce il risultato di una strategia normativa di riduzione del livello di tutela della persona in un àmbito tanto diffuso. Esso rappresenta l’effetto finale di una concezione nuova del diritto della persona alla protezione dei propri dati in un panorama variegato in cui tale diritto costituisce soltanto uno dei valori protetti in una complessa realtà or-

63  C. Camardi, Note critiche, cit., p. 806; S. Thobani, Il danno non patrimoniale da trattamento illecito dei dati personali, cit., p. 437. 64   S. Thobani, Il danno non patrimoniale da trattamento illecito dei dati personali, cit., p. 432; V. Colonna, Il sistema della responsabilità civile da trattamento dei dati personali, in R. Pardolesi (a cura di), Diritto alla riservatezza e circolazione dei dati personali, Milano 2003, p. 58. 65   S. Thobani, Il danno non patrimoniale da trattamento illecito dei dati personali, cit., p. 432.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La responsabilità da illecito trattamento dei dati personali

577

dinamentale. Si realizza quindi un efficace bilanciamento tra il valore dell’individuo e l’efficienza del mercato, coerente con un ulteriore indice che ci appare possibile ricavare dal sistema66. Il principio di riservatezza si contrappone al principio della generale trasparenza67 e della libera accessibilità di alcuni dati alla conoscenza dei quali il legislatore affida il compito di realizzare molteplici interessi pubblici. Il cittadino, allora, diviene titolare di due diritti tra loro antagonisti: quello alla riservatezza e quello alla conoscenza. Questa coesistenza di valori tra loro in contrapposizione rende necessario l’abbandono di una logica meramente difensiva68. Come noto, l’art. 5 bis del d.lg. 14 marzo 2013, n. 33 (c.d. «Decreto Trasparenza»), stabilisce che l’accesso civico possa essere rifiutato al fine di evitare un pregiudizio concreto alla tutela, tra gli altri, della protezione dei dati personali. A tal proposito, le Linee guida previste dalla legge sulla trasparenza e redatte dall’ANAC, d’intesa con il Garante per la protezione dei dati personali, nel distinguere tra eccezioni assolute e semplici limiti, prevede che la p.a. non possa opporre un diniego all’accesso basato sul rischio di un’offesa in via generica e astratta. L’amministrazione dovrà valutare se il pregiudizio concreto dipenda direttamente dall’accesso all’informazione richiesta e valutare

 C. Camardi, Note critiche, cit., p. 806.   Sul tema della trasparenza si veda: C. Colapietro, Il complesso bilanciamento tra il principio di trasparenza e il diritto alla “privacy”: la disciplina delle diverse forme di accesso e degli obblighi di pubblicazione, in Federalismi.it., 2020, XIV, pp. 64-91; C. Marzuoli, Diritto d’accesso e segreto d’ufficio, in M. Cammelli e M.P. Guerra (a cura di), Informazione e funzione amministrativa, Rimini 1997, p. 257 ss.; C. Cudia, Appunti su trasparenza amministrativa e diritto alla conoscibilità, in GiustAmm.it, 2016; F. Cardarelli, Amministrazione digitale, trasparenza e principio di legalità, in Dir. informat. e informaz., 2015, pp. 227-273; R. Marrama, La pubblica amministrazione tra trasparenza e riservatezza nell’organizzazione e nel procedimento amministrativo, in Dir. proc. amm., 1989, p. 416; M. Occhiena, Diritto di accesso, atti di diritto privato e tutela della riservatezza dopo la legge sulla privacy (il diritto di accesso e la riforma dell’organizzazione della p.a.), in Dir. proc. amm., 1998, p. 221; F. Patroni Griffi, La trasparenza amministrativa tra accessibilità totale e riservatezza, in Federalismi.it, 2021; A. Meloncelli, Pubblicazione e pubblicità, in Enc. Dir., vol. XIII, Milano 1988, p. 927 ss.; M. Mazzamuto, La tutela del segreto ed i controinteressati al diritto d’accesso, in Dir. proc. amm., 1995, p. 107 ss; G. Arena, Trasparenza amministrativa, in Enc. Giur., vol. XXX, Roma 1995, p. 1 ss.; P. Costanzo, Informazione pubblica nel diritto costituzionale, in Dig. Disc. Pubbl., vol. VIII, Torino 1996, p. 319 ss. 68   E. Carloni e M. Falcone, L’equilibrio necessario. Principi e modelli di bilanciamento tra trasparenza e privacy, in Dir. pubb., 2017, III, passim. 66

67

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

578

Tommaso Polvani

se esso sia altamente probabile e non soltanto possibile69, privilegiando comunque la scelta più favorevole all’accesso. Si chiarisce poi che il pregiudizio concreto possa in tali casi consistere in eventuali minacce, ritorsioni, azioni da parte di terzi, o furti di identità. Da ciò discende che nel caso in cui sorga una controversia tra cittadino e p.a. che abbia consentito l’accesso ai dati di quest’ultimo, il privato per ottenere il risarcimento del danno dovrà dare prova di aver subito un pregiudizio concreto soltanto in presenza del quale la norma sulla trasparenza legittima l’amministrazione a negare l’accesso70. Sembrerebbe di poter concludere allora che anche il bilanciamento tra diritto al riserbo e diritto a conoscere induca a fissare la soglia della tutela del primo al livello della probabile produzione di quello che possiamo definire come «danno conseguenza», ulteriore quindi rispetto al danno in re ipsa rappresentato dalla mera divulgazione di dati personali. Tale normativa non può non produrre alcuni effetti – eventualmente anche solo indiretti – sul piano della disciplina della tutela aquiliana tra privati. In ragione del principio di parità di trattamento, essendo imposto all’interessato che voglia ottenere un risarcimento dalla p.a. l’onere di provare un danno effettivamente patito in concreto, sembrerebbe corretto richiedere analoga prova quando invece egli si trovi di fronte ad un soggetto privato che abbia giustificato il suo trattamento in forza del principio della libera circolazione dei dati, previsto dall’art. 3, c. 1, del GDPR71. In conclusione, pare che questa soluzione sia coerente con tutti i valori del sistema e, al contempo, individui un confine più ragionevole tra condotte invasive lecite e condotte invasive illecite, tenendo in debita considerazione un’ottica di incentivazione dei comportamenti efficienti dei consociati, così da massimizzare il benessere sociale condiviso. Del resto, questi sembrano gli insegnamenti di due Maestri che si sono occupati del tema della responsabilità civile. L’uno evidenzia l’impossibilità di individuare una teoria generale dell’illecito, «intesa come una formula o come un insieme di formule che consentano di distinguere il lecito dall’illecito» e che l’àmbito della responsabilità civile è determinato «in base a una valutazione comparativa dell’interesse 69   Le linee guida sono consultabili alla pagina: www.anticorruzione.it/portal/public/classic/attivitaAutorita/attiDellAutorita/_Atto?ca=6666. 70   E. Carloni e M. Falcone, L’equilibrio necessario. Principi e modelli di bilanciamento tra trasparenza e privacy, in Dir. pubb., 2017, III, p. 768 ss. 71  C. Camardi, Note critiche, cit., pp. 804-809.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

La responsabilità da illecito trattamento dei dati personali

579

leso e dell’attività lesiva»72; l’altro ribadisce l’importanza del rimedio, del «risultato riparatore», assecondando «l’esigenza di partire dal basso», senza restare intrappolati in categorie qualificatorie73. Si giunge quindi al secondo livello della riflessione, quello attinente all’apparato rimediale. Occorre chiedersi se la dimensione essenzialmente individuale della responsabilità civile sia o meno l’unico strumento di tutela rispetto ai danni che l’attività di produzione, elaborazione e circolazione dei dati cagiona nella società contemporanea74. La risposta che sembra di poter dare è negativa. A ben vedere, l’economia fondata sui dati sviluppa un’offensività nei confronti della persona che ha caratteri massivi e seriali: gli eventuali illeciti da essa provocati riguardano un numero indefinito di danneggiati75. Sembra di poter concordare con chi evidenzia la debolezza e l’insufficienza del mero rimedio aquiliano, laddove per esso si richieda la dimostrazione di un danno non patrimoniale nonché di un turbamento delle personali condizioni di benessere del danneggiato a fronte di azioni offensive realizzate in forma massiva e su larga scala76. Proprio le dimensioni del danno prodotto da questo tipo di meccanismi fa sì che, se anche qualche individuo dovesse riuscire ad ottenere ristoro personale dei pregiudizi subiti, il danno sociale continuerebbe a persistere e a riprodursi in maniera diffusa, senza che la responsabilità civile possa minimamente creare una deterrenza efficace. In conclusione, per colmare questa debolezza sembra possibile proporre due diversi itinerari, che vanno a sommarsi alla tutela aquiliana. Anzitutto, si guarda con favore alla vicenda americana, nella quale Facebook è stata accusata di aver illecitamente condiviso – in assenza di autorizzazione – dati degli utenti per fini commerciali e di marketing e con ciò aver violato la disciplina antitrust, nonché alla vicenda tedesca, ove sempre Facebook è stata accusata di aver abusato della   P. Trimarchi, La responsabilità civile, cit., p. 43.   N. Lipari, Le categorie, cit., p.  201. In questo senso è anche l’opera di altri autorevoli Maestri: P. Grossi, Ritorno al diritto, Roma-Bari 2015, passim; N. Lipari, Il giudice civile. Un interprete?, in Riv. trim. dir. proc. civ., 2016, IV, p. 1144 ss. G. Vettori, Contratto giusto e rimedi effettivi, cit., p. 787; G. Vettori, voce effettività delle tutele (diritto civile), cit., p. 381 ss; G. Vettori, Effettività tra legge e diritto, Milano 2020, passim. 74  C. Camardi, Note critiche, cit., p. 801. 75   A. Quarta e G. Smorto, Diritto privato dei mercati digitali, Milano 2020, pp. 1-28. 76  C. Camardi, Note critiche, cit., p. 810. 72 73

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

580

Tommaso Polvani

posizione dominante ricoperta77. Si sottolinea allora che una corretta impostazione dei rimedi contro l’offensività strutturale dell’economia digitale non possa essere ridotta soltanto alla responsabilità aquiliana o all’applicazione del GDPR, ma necessiti – in un’ottica rimediale – dell’utilizzo di molteplici apparati normativi, tra cui anche strumenti preventivi che abbiano un’incidenza sistematica sul mercato78. In secondo luogo, si ritiene che lo strumento dell’azione di classe, previsto dall’art. 14 bis del d.lg. 6 settembre 2005, n. 206, ben si attagli all’esigenza de qua, trattandosi di un istituto utile in quei casi in cui il pregiudizio patito dal singolo non sia di ammontare sufficiente a giustificare il costo e l’alea del giudizio, o la numerosità dei danneggiati crei un problema di costi giudiziari e di coerenza delle decisioni79. Si potrà utilizzare questo istituto di tutela risarcitoria da pretesa seriale in presenza, come richiesto dalla legge, di una omogeneità tra i crediti risarcitori dei soggetti lesi dall’illecito plurioffensivo80.

77   Su tali vicende si veda C. Osti e R. Pardolesi, L’antitrust ai tempi di Facebook, in Mercato concorrenza regole, 2019, p. 195; A. Giannaccari, Facebook, tra privacy e antitrust: una storia (non solamente) americana, in Mercato concorrenza regole, p. 273. 78  C. Camardi, Note critiche, cit., p. 811. 79   P. Trimarchi, La responsabilità civile, cit., p. 67. Sul tema si veda anche G. Versaci, La contrattualizzazione dei dati personali, Napoli, 2020. 80   I. Pagni, Introduzione, in V. Barsotti, F. De Dominicis, G. Pailli e V. Varano, (a cura di), Azione di classe: la riforma italiana e le prospettive europee, Torino 2020, p. 104.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il sistema giustizia e gli sviluppi tecnologici: giustizia predittiva e trattamento dei dati personali

Erik Longo*

Predizione, profilazione e giustizia: le prospettive costituzionali

Sommario: 1. Introduzione. – 2. Le tecnologie e il futuro delle corti: uno sguardo generale. – 3. La folgorazione di una nozione altamente enigmatica: la giustizia predittiva. – 4. Il rispetto dei diritti nella Carta etica sull’uso dell’IA nei sistemi giudiziari del CEPEJ. – 5. Problemi pratici e teorici nell’uso degli algoritmi di intelligenza artificiale all’interno del processo. – 6. Spunti conclusivi.

1. Uno degli adagi coniati da Sir Arthur C. Clarke ricorda che «any sufficiently advanced technology is indistinguishable from magic1». Potremmo rivedere questa legge affermando che «qualsiasi tecnologia sufficientemente avanzata è indistinguibile dalle pratiche della vita sociale». Oggi nessuno osa più immaginare che le tecnologie non hanno a che fare con la vita politica né con la vita sociale e ben che meno con la pratica del diritto2. Le tecnologie «dirompenti», come vengono chiamate, stanno aiutando gli uomini in una serie molto vasta di funzioni, sia consentendo di risparmiare tempo sia rendendo tante attività molto più performanti3. Le macchine tecnologiche che impieghiamo o quelle che nel futuro ci accingeremo a usare portano inscritta una pretesa molto forte4. Con la «rivoluzione digitale»5 – così viene chiamato dai più il cambiamento de-

* Professore di Diritto costituzionale nell’Università di Firenze. 1   A.C. Clarke, Profiles of the future; an inquiry into the limits of the possible, New York 1962. 2   Un tema di cui hanno re-iniziato a parlare, tra gli altri, R.E. Susskind, The Future of Law: Facing the Challenges of Information Technology, Oxford 1998, passim, e M. Taruffo, Judicial decisions and artificial intelligence, in Artificial Intelligence and Law, 1998, p. 311 s. 3   Introduction, in Aa.Vv., Constitutional Challenges in the Algorithmic Society, H.-W. Micklitz, A. Reichman, A. Simoncini, G. Sartor, O. Pollicino e G. De Gregorio (a cura di), Cambridge 2021. 4   A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in Biolaw Journal, 2019, I. 5   G. Balbi, L’ultima ideologia: Breve storia della rivoluzione digitale, Bari-Roma 2022; P. Larrey, Dove inizia il futuro, Milano 2018. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

584

Erik Longo

scritto – le macchine sono divenute capaci di sostituire l’uomo, cessando di essere semplici strumenti utilizzati per rispondere a specifici bisogni6. Le tecnologie del terzo millennio, infatti, non pongono solo problemi di emarginazione ed esclusione di persone singole, gruppi o di ampie porzioni della società e di interi territori, ma mirano a divenire un vincolo ingombrante per chi le utilizza. Il processo di digitalizzazione incessante ha la pretesa di invertire i ruoli, facendo emancipare le macchine dagli uomini attraverso «automatismi» codificati, capaci addirittura di vincolare, condizionare e influenzare le persone7. Uno dei settori dove il potere della rivoluzione digitale si candida a divenire decisivo è certamente la giustizia8. A differenza degli altri settori nei quali si realizza un connubio tra tecnologia e diritto, come la amministrazione o i meccanismi democratici, nel sistema giustizia si annidano alcune delle questioni più controverse legate ai processi di digitalizzazione dei nostri ordinamenti giuridici9. In questo ambito abbiamo assistito negli ultimi anni ad alcune importanti novità. Le tecnologie si sono diffuse tanto all’interno delle professioni legali quanto all’interno degli uffici giudiziari, con nuove ed interessanti possibilità che si aprono di fronte a noi sulla base della spinta alla digitalizzazione dei processi civili e penali. Di fatto, accanto al tema della efficienza della giustizia nella specie della ottimizzazione del lavoro, dell’alleggerimento del carico giudiziario e del conseguente risparmio per le casse dello Stato, si pone un problema molto rilevante di miglioramento dell’accesso alla giustizia, consentendo alla digitaliz-

6   Il digitale, proprio per gli evidenti vantaggi di efficienza e velocità, porta inscritta una rivoluzione cognitiva nella quale non sono più gli uomini a maneggiare la tecnica ma quest’ultima a impadronirsi della vita umana. A. Gehlen, L’uomo nell’era della tecnica. Problemi socio-psicologici della civiltà industriale, Roma 2003. 7   Il riferimento è alla nota espressione «code is law» di L. Lessig, Code. Version 2.0, New York 2006. 8   Sul tema si v. infra multis: R.E. Susskind, Online Courts and the Future of Justice, Oxford 2019; J. Tomlinson, Justice in the digital state: assessing the next revolution in administrative justice, Bristol 2019; D. Piana, Legal Services and Digital Infrastructures: A New Compass for Better Governance, London 2021; T. Sourdin, Judges, Technology and Artificial Intelligence, Cheltenham 2021; A. Garapon e J. Lassègue, Justice Digitale. Révolution graphique et rupture anthropologique, Paris, 2018, trad. it., La giustizia digitale. Determinismo tecnologico e libertà, Bologna 2021. 9   J. Allsop, Technology and the future of the courts, in University of Queensland Law Journal, 2019, VII, p. 32 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Predizione, profilazione e giustizia

585

zazione di colmare uno dei più importanti problemi che le moderne società democratiche incontrano10. La dottrina giuridica italiana da tempo ha preso in considerazione le tematiche «etico-giuridiche» legate al rapporto tra attività giurisdizionale e tecnologia, soprattutto con riguardo all’applicazione di strumenti decisionali automatizzati11. I metodi per indagare i nessi tra decisioni automatiche e processo (o in generale amministrazione) sono numerosi12. Da alcuni anni i cultori dell’informatica giuridica hanno aperto la strada per gli studi sull’intelligenza artificiale in prospettiva giuridica, domandandosi se il ragionamento necessario per l’applicazione del diritto da parte dei giudici possa essere scomposto in una serie di operazioni logiche elementari rese automatiche da macchine «pensanti»13. Da un’altra prospettiva gli studiosi del diritto processuale, sia penale che civile, si stanno interrogando sulla generale sorte del processo in questo momento di rivoluzione digitale14. Dal punto di vista del diritto costituzionale si è arrivati alla consapevolezza che non si possono comprendere le implicazioni delle nuove tecnologie informatiche senza capire come esse stiano innescando una trasformazione generale dei metodi e modi per prendere decisioni nel contesto della democrazia15. Nel momento in cui aiutano nelle scelte,   L. Rullo, Corti online, in Rivista di Digital Politics, 2021, I, p. 216 ss.   Si v. a tal proposito C. Casonato, Intelligenza artificiale e diritto costituzionale: prime considerazioni, in DPCE, Speciale/2019, 101 ss.; C. Castelli e D. Piana, Giusto processo e intelligenza artificiale, Rimini 2019. 12   G. Taddei Elmi, Introduzione. Dall’informatica giuridica al diritto dell’informatica, in G. Taddei Elmi e A. Contaldo (a cura di), Intelligenza artificiale: algoritmi giuridici Ius condendum o fantadiritto?, Pisa 2020. 13   Ricordiamo che il primo a porsi tale domanda è L. Loevinger, Jurimetrics – The Next Step Forward, in Minn. L. Rev., 1948, p. 471 nel pioneristico lavoro in cui, nella scia del giudice Holmes, si domanda cosa ne sarà nel futuro del lavoro dei giuristi e, speculando a partire da N. Wiener, Cybernetics or Control and Communication in the Animal and the Machine, Cambridge (MA) 1948, afferma l’esistenza di una nuova scienza, la “giurimetrica”, la quale si svilupperà proprio dalla domanda “Why should not a machine be constructed to decide lawsuits?”. In Italia tra i primi a discutere di questo tema sono stati M.G. Losano, Giuscibernetica: macchine e modelli cibernetici nel diritto, Torino 1969; V. Frosini, Cibernetica: diritto e societa, Milano 1968. 14   S. Quattrocolo, Artificial Intelligence, Computational Modelling and Criminal Proceedings, Cham 2020. 15   Come evidenzia A. Simoncini, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, cit., p. 69, è in crisi il rapporto tra mezzi e fini, perché oggi alla tecnologia (potere cibernetico) non viene più chiesto solo di essere un «“mezzo” per realizzare un corso di azioni deciso da un soggetto agente umano, ma, sempre più 10

11

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

586

Erik Longo

infatti, le tecnologie tendono ad imporre la loro architettura16 e, di fatto, costringono a seguire una strada decisa o dalla macchina o da altri soggetti agenti diversi dai decisori stessi, innescando un capovolgimento delle dinamiche di potere che sovverte le regole su cui si reggono gli stati moderni17. In questo scenario diventa decisivo comprendere quanto le innovazioni tecnologiche stravolgono le fondamenta costituzionali del sistema giudiziario (il problema già citato dell’accesso o la garanzia dell’indipendenza e l’autonomia della magistratura, così come il principio del giudice precostituito per legge o il principio della piena tutela dei diritti e degli interessi legittimi, ecc.) e quali sono i metodi migliori per regolarne l’uso. Alla luce di tali considerazioni, questo saggio avrà lo scopo di discutere criticamente il tema della «giustizia predittiva», un termine venuto alla ribalta negli ultimi anni per indicare la possibilità di utilizzare gli algoritmi di machine learning per prevedere l’esito dei processi18. Il tema è strettamente connesso ai modelli di profilazione, in quanto anche nel caso delle macchine programmate per predire l’esito di una controversia si tratta di elaborare dati già all’interno di un database e produrre nuove informazioni. Lo scopo di tale lavoro è infatti mettere in evidenza che l’uso degli algoritmi predittivi all’interno del processo non può portare mai alla predizione dei risultati prima del loro verificarsi19. Prima di arrivare ad analizzare i problemi connessi allo sviluppo della giustizia predittiva si prenderà in considerazione in generale l’impiego delle tecnologie all’interno del sistema giustizia.

spesso, è essa stessa a prendere decisioni rilevanti per la persona umana e la sua libertà. Alla macchina non si chiede di realizzare ciò che un soggetto ha deciso, ma le si chiede di decidere, autonomamente». 16   Come mette in luce proprio sulla nuova scienza computazionale L. Lessig, op. cit. 17   L. Casini, Lo Stato nell’era di Google, Milano 2020; A. Simoncini e E. Longo, Fundamental Rights and the Rule of Law in the Algorithmic Society, in H.-W. Micklitz, O. Pollicino, A. Reichman, G. Sartor e A. Simoncini (a cura di), Constitutional Challenges in the Algorithmic Society, Cambridge 2021, p. 27 s. 18   Nella dottrina italiana si v. C. Castelli e D. Piana, Giustizia predittiva. La qualità della giustizia in due tempi, in Quest. giust., 2018, IV; E. Rulli, Giustizia predittiva, intelligenza artificiale e modelli probabilistici. Chi ha paura degli algoritmi?, in Analisi Giuridica dell’Economia, 2018, II. 19   T.Z. Zarsky, Governmental data mining and its alternatives, in Penn St. L. Rev., 2011, 292. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Predizione, profilazione e giustizia

587

2. Alcuni autori già da anni affermano che il futuro della giustizia è digitale20. Tra poco vedremo come l’uso del machine learning si candida a essere uno dei profili più promettenti e controversi di tale futuro descrivendo come i compiti delle corti tradizionali si candidano a essere svolti da procedimenti e procedure automatizzate. In realtà parte di questo futuro è già presente. La digitalizzazione ha già assorbito molte delle attività svolte dalle corti, soprattutto attraverso servizi di e-justice come il nostro processo telematico o attraverso l’uso di assistenti legali virtuali e chatbots ovvero mediante l’utilizzo di strumenti che consentono udienze virtuali ovvero vere e proprie corti online21, come le piattaforme di Online Dispute Resolution (ODR)22. Le tecnologie stanno piano piano alterando molti aspetti del sistema processuale consegnandoci un quadro altamente cambiato rispetto al passato23. Può essere utile usare una concettualizzazione obsoleta ma ancora efficace per distinguere i diversi modi di utilizzo delle tecnologie digitali nei processi. Da un lato, vi sarebbe la digitalizzazione che avviene in back-office, e si riferisce a sviluppi quali la firma digitale, la PEC o l’archiviazione dei documenti depositati nei procedimenti giudiziari attraverso tecnologie simili al nostro processo telematico. Dall’altro, c’è la digitalizzazione front-of-house, la quale si riferisce al passaggio dei tribunali online e, più in generale, alla transizione digitale della giustizia, tra cui rientrano anche – usando una tassonomia ampia – i tentativi di usare infrastrutture digitali per il supporto decisionale nel settore giustizia24. Le due forme sono strettamente collegate. Il back-office è fondamentale per far funzionare la digitalizzazione front-of-house. Per creare app o chatbot che diano risposte alle parti in causa sulla base di casi precedenti o per avere un’udienza virtuale, i dati e i documenti devono essere prima archiviati digitalmente. In Italia oggi abbiamo una implementazione del processo telematico su vasta scala. Come noto, con il termine generico processo 20   Si v. a questo proposito i contributi di recente raccolti in J. Ryberg e J.V. Roberts, Sentencing and Artificial Intelligence, Oxford 2022. 21   Si v. a questo proposito il volume già citato di R.E. Susskind, op. cit., p. 63 s. 22   L. Mingardo, Online Dispute Resolution. Involuzioni ed evoluzioni di telematica giuridica, in Aa.Vv., Tecnodiritto: temi e problemi di informatica e robotica giuridica, a cura di P. Moro e C. Sarra, Milano 2017, p. 121 s. 23   L. Rullo, Corti online, cit., 215 s. 24   M. Zalnieriute e F. Bell, Technology and the Judicial Role, in G. Appleby e A. Lynch, The Judge, the Judiciary and the Court. Individual, Collegial and Institutional Judicial Dynamics in Australia, Cambridge 2021, p. 116 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

588

Erik Longo

telematico si fa riferimento alla gestione in formato elettronico delle comunicazioni e dello scambio di documenti che intercorrono tra i soggetti coinvolti in un procedimento giudiziario (sia esso civile, penale o amministrativo) e l’ufficio giudicante25. Nel nostro Paese è una realtà tanto il processo civile quanto il processo amministrativo in forma telematica. Dall’anno scorso anche i giudizi dinnanzi alla Corte costituzionale si svolgono grazie a un sistema di e-justice chiamato «E-Cost». È ancora in fase di progettazione, invece, il processo penale telematico. Lo sviluppo del processo telematico si colloca all’interno di un filone di studi e di ricerca legato fortemente alla riconsiderazione del ruolo delle istituzioni pubbliche e alla loro «delivering capacity»26, la quale non si sostituirebbe ma si aggiungerebbe alla garanzia della legalità27. Uno degli outcome di tale impiego è proprio l’ottimizzazione dei processi decisionali interni che, con queste forme di e-government, diverrebbero molto più efficienti28. Inoltre, la scelta di incentivare l’uso delle tecnologie nel processo dovrebbe garantire la trasparenza e conoscibilità dei procedimenti giudiziari, divenendo una sorta di strumento di maggiore accountability delle decisioni29. Si permetterebbe a strumenti pensati per «addetti ai lavori» di divenire più trasparenti e aperti al cittadino aumentando di conseguenza la comprensibilità e leggibilità di un fenomeno di solito non immediatamente accessibile a tutti30. La realizzazione pratica del processo telematico realizza certamente un miglioramento delle procedure esistenti, ma non raggiunge del tutto le

25   M. Velicogna, Il processo telematico in Europa, in Informatica e diritto, 2007, I-II, p. 407 ss. 26   P. Lægreid e K. Verhoest, Reform Waves and the Structure of Government, in E. Ongaro (a cura di), Public Administration in Europe. The Contribution of EGPA, Cham 2019, p. 167 ss. 27   Molto interessante quanto nota F. Donati, Intelligenza artificiale e giustizia, in Rivista AIC, 2020, I, p. 418 in relazione alla forza conformativa e normativa delle procedure, anche solo per il controllo di legittimità e di regolarità delle procedure amministrative connesse alle fasi processuali. 28   G.G. Poli, Il processo civile telematico e il dialogo tra le sue fonti, in G. Ruffini (a cura di), Il Processo telematico nel sistema del Diritto processuale civile, Milano 2019, p. 1 ss. 29   P. Comoglio, Processo civile telematico e codice di rito. Problemi di compatibilità e suggestioni evolutive, in Rivista trimestrale di diritto e procedura civile, 2015, III, p. 953 ss. 30   Esprime qualche critica su tale punto J. Allsop, Technology and the future of the courts, cit., p. 8 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Predizione, profilazione e giustizia

589

esigenze di abbattimento dei tempi e dei costi della giustizia. Si deve notare infatti che quella del processo telematico è una storia «analogica» dell’impiego di tecnologie digitali all’interno del processo. Il cambiamento che tali strumenti promettono e permettono può essere ben altro e sicuramente maggiore della semplice sostituzione di relazioni basate sullo scambio di carta con registri e documenti informatici31. Questo ci porta a esaminare le modalità di impiego delle tecnologie nei processi che si chiamano front-of-house. Al di là della utopistica sostituzione di robot a persone in carne e ossa nel giudizio, l’idea che parte del processo decisionale rivolto alla soluzione delle controversie venga svolto con l’ausilio di strumenti capaci di automazione ha ricevuto negli ultimissimi anni una nuova linfa. Gli esempi di tali strumenti sono molti, anche nel campo dei diritto civile. Tra quelli più promettenti ci sono ad esempio l’implementazione di tecnologie di supporto da parte del Dubai SCT o del Civil Resolution Tribunal («CRT») nella provincia della British Columbia in Canada32. Il CRT è il primo tribunale online del Canada che si occupa di controversie per piccoli reclami inferiori a $ 5.000, di incidenti automobilistici e reclami per lesioni fino a $ 50.000, nonché di questioni relative alla proprietà di appartamenti «a strati» di qualsiasi importo nella provincia della British Columbia. Il primo livello di coinvolgimento pubblico con il CRT è il «Solution Explorer», un software che in modo automatizzato pone domande alle parti e diagnostica la controversia in oggetto fornendo informazioni legali gratuite e risorse, come modelli di missive per aiutare gli utenti a risolvere questioni contenziose. In caso contrario, le parti possono rivolgersi all’ufficio del CRT per la risoluzione consensuale delle liti. Da lì, le parti possono utilizzare la piattaforma di negoziazione online del CRT per negoziare un risultato, per mediare la controversia con accordi trasformati in ordini esecutivi o per far determinare la lite da un membro del tribunale. Con l’introduzione di questo sistema si è osservato che solo il sei per cento delle controversie di modesta entità depositate viene affrontata dai giudici in tribunale. L’uso della tecnologia non si limita a rendere più accessibili le in-

31   P. Liccardo, Ragione tecnologica e processo: ovvero delle ere del processo telematico, in Quest. giust., www.questionegiustizia.it/rivista/articolo/ragione-tecnologica-e-processo_ovvero-delle-ere-del-processo-telematico_294.php. 32   Si v. www.civilresolutionbc.ca.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

590

Erik Longo

formazioni legali e le linee guida procedurali. L’utilizzo di procedure che impiegano decisioni automatizzate all’interno dei processi civili è servita anche a evitare che i giudici dovessero compiere alcune tipologie di attività, o perchè ripetitive o perché in esse si realizzerebbe un minore impiego di discrezionalità. Gli esempi di questo tipo sono numerosi. Si va dal piano faraonico dell’Estonia, che ha annunciato qualche anno fa un programma nazionale rivolto a far decidere tutte le controversie di piccola entità con l’ausilio di sistemi di intelligenza artificiale33, fino al più limitato caso nostrano del software MoCAM impiegato dal Tribunale di Firenze34. Il sistema prevedeva una stima automatizzata – mediante calcoli statistici – dell’assegno di mantenimento per i figli nel caso di separazione, divorzio o rottura di una unione di fatto e, quando ne esistessero i presupposti, del contributo a favore del coniuge. Il modello presentava, come già indicato dalla dottrina, alcune rigidità che ne rendevano l’uso molto difficile e attaccabile sul piano giuridico, in quanto la misura delle indennità dovute ai coniugi e ai figli in caso di crisi coniugale «debbono essere determinate attraverso una valutazione globale di tutte le circostanze rilevanti e un bilanciamento dei principi giuridici» e non «sulla base di semplici criteri matematici»35. Gli strumenti tecnologici a disposizione dei tribunali si sono negli ultimi anni arricchiti grazie all’impiego delle più potenti tecniche di intelligenza artificiale. Esse includono tecniche di machine learning supervisionato e di Deep Learning36. Si tratta di sistemi che «imparano» dai dati (raccolti o costruiti) in modo da trarre inferenze su nuove situazioni. Queste decisioni possono fornire classificazioni (come accade se un documento è rilevante a fini di prova) o predittive (quando si determina la probabilità che un individuo commetta un crimine in futuro). Esistono molte tecniche basate sull’analisi dei dati che permettono di «imparare» schemi e correlazioni per generare previsioni o rivelare approfondimenti. A differenza dei metodi statistici standard, il 33   T. Kerikmäe e E. Pärn-Lee, Legal dilemmas of Estonian artificial intelligence strategy: in between of e-society and global race, in AI & SOCIETY, 2020, II, p. 561 s.; J. Ulenaers, The Impact of Artificial Intelligence on the Right to a Fair Trial: Towards a Robot Judge?, in Asian Journal of Law and Economics, 2020, II,p. 13. 34   F. Donati, Intelligenza artificiale e giustizia, cit., p. 419. 35   Come ricorda ivi, p. 420. 36   M. Haenlein e A. Kaplan, A brief history of artificial intelligence: On the past, present, and future of artificial intelligence, in California management review, 2019, IV, p. 5 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Predizione, profilazione e giustizia

591

machine learning è generalmente «iterativo», cioè è in grado di apprendere continuamente da nuove informazioni e di identificare modelli più complessi nei dati. Un’area del processo decisionale giudiziario in cui sono già stati implementati nella pratica strumenti di automazione della seconda ondata è la previsione della probabilità di recidiva nel contesto delle decisioni di condanna penale. Sono molto noti i meccanismi di risk assesment usati dai tribunali (soprattutto americani) per il calcolo della cauzione e della pena sulla base del tasso di recidiva. L’esempio più noto, il caso Loomis o COMPAS37, dal nome del software usato dal tribunale del Wisconsin, ha destato notevole scalpore per via di un’inchiesta della testata online ProPublica, che aveva fatto notare gli effetti discriminatori dell’impiego di algoritmi di machine learning nei processi penali38. Il software in questione funziona, infatti, attraverso un algoritmo che elabora una previsione del rischio di recidiva di un condannato comparando le informazioni ottenute dal singolo attraverso un questionario con quelle relative a un gruppo di individui con caratteristiche assimilabili39. Nel Regno Unito viene impiegato il sistema HART («Harm Assessment Risk Tool») per comprendere se le persone fermate dalla polizia corrono un rischio basso, moderato o alto di commettere ulteriori crimini in un periodo di due anni. L’algoritmo alla base di HART non decide se un sospetto debba essere tenuto in custodia, ma ha lo scopo di aiutare gli agenti di polizia a scegliere se una persona debba essere indirizzata a un programma di riabilitazione (chiamato «Checkpoint») o meno40. Anche l’impiego di «reti neurali artificiali» per elaborare dati di co  State of Wisconsin v Loomis, 881 N.W.2d 749 (Wis. 2016) (‘Loomis’).   K. Hannah-Moffat, Algorithmic risk governance: Big data analytics, race and information activism in criminal justice debates, in Theoretical Criminology, 2019, IV, p. 453 s. 39   Anche il Regno Unito ha proposto un sistema di «condanna online automatica» nel 2017. La proposta del Regno Unito riguardava reati sommari non punibili con la reclusione, come l’evasione tariffaria e il possesso di attrezzature da pesca senza licenza. 40   Su questo sistema di v. M. Oswald, J. Grace, S. Urwin e G.C. Barnes, Algorithmic risk assessment policing models: lessons from the Durham HART model and ‘Experimental’proportionality, in Information & Communications Technology Law, 2018, II, p.  223 ss.; J. Jose Medina Ariza, A. Robinson e A. Myhill, Cheaper, Faster, Better: Expectations and Achievements in Police Risk Assessment of Domestic Abuse, in Policing, 2016, IV, p. 341 ss. 37 38

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

592

Erik Longo

noscenza si propone come molto promettente. Di recente Singapore ha annunciato il suo programma di tecnologia dei tribunali dell’intelligenza artificiale, che includerebbe il processo decisionale dell’IA per alcuni reati minori. Anche la Cina sta usando l’intelligenza artificiale nei suoi tribunali. Nella provincia di Hebei, un’applicazione denominata «Intelligent Trial 1.0» assiste i giudici nell’analisi dei dati da utilizzare nelle decisioni. Nella provincia di Liaoning, i tribunali hanno lanciato un robot chiamato «Heping Fabao», che fornisce consulenza legale 24 ore su 24, 7 giorni su 7 ai cittadini. È stata anche introdotta la revisione dei casi basata su intelligenza artificiale, in cui un programma analizza i casi, segnala i problemi relativi alle prove e esamina casi simili dal punto di vista fattuale e giuridico a beneficio del giudice. Questo programma ha finora portato alla revoca di oltre 30 condanne penali. 3. L’impiego dell’intelligenza artificiale nei processi – soprattutto civili – è oggi oggetto di numerosi progetti nel nostro Paese che vedono la collaborazione di alcune università e tribunali o corti di appello italiane. Secondo quanto si legge nei documenti pubblicati a fini della disseminazione di tali progetti, l’automazione del processo decisionale genererebbe vantaggi significativi in termini di «uniformità, affidabilità e controllabilità» della decisione41. Lo scopo di queste iniziative scientifico-applicative è duplice: da un lato, garantire agli avvocati e ai cittadini una migliore e più accessibile conoscenza della giurisprudenza e poter valutare «preventivamente» (non predittivamente42) la soluzione di un determinato caso (sia nel caso di giudizi civili quanto penali); dall’altro, far conseguire ai giudici una più approfondita – perché aggregata – conoscenza della giurisprudenza formatasi tra gli uffici giudiziari del distretto di una Corte d’appello43. 41   Tra le prime Corti ad avviare questi progetti Venezia, Brescia e Bari. Per la Corte d’appello di Venezia (www.corteappello.venezia.it/giurisprudenza-predittiva-per_198.html); per la Corte d’appello di Brescia (www.giustiziabrescia.it/giustizia_predittiva.aspx); Corte d’Appello di Bari (www.corteappello.bari.it/buone_ prassi_4.aspx). Alcuni di questi progetti sono riportati da C. Castelli e D. Piana, Giustizia predittiva. La qualità della giustizia in due tempi, cit. 42   Appare molto discutibile la proposta di considerare la “giustizia predittiva” come la possibilità di prevedere l’esito di un giudizio tramite alcuni calcoli. Si v. L. Viola, Giustizia predittiva, in Treccani, www.treccani.it/enciclopedia/giustizia-predittiva_%28Diritto-on-line%29. 43   Si v. a questo proposito il progetto della Scuola Sant’Anna di Pisa in collabora-

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Predizione, profilazione e giustizia

593

Tali iniziative incentivano anzitutto la «prevedibilità» delle decisioni. Essi connettono l’uso del digitale nel processo alle esigenze di eguaglianza, di effettività della tutela, di stabilità delle decisioni e fiducia nelle decisioni giudiziarie. Inoltre, essi affermano il valore della prevedibilità per una maggiore efficienza del sistema, per deflazionare il contenzioso e considerare il processo come una – non l’unica – via per risolvere le controversie tra le parti e organizzare i precedenti (la loro correlazione a casi particolari sono lo strumento per raggiungere una maggiore tutela dei diritti44). La dottrina non ha mancato di esprimere numerose critiche verso tali iniziative. In primo luogo, secondo alcuni tali progetti non avrebbero grande rilevanza producendo solo un risultato informativo, sia nei confronti dei cittadini sia nei confronti degli operatori del diritto, i quali possono facilmente verificare orientamenti maggiormente tenuti all’interno del proprio tribunale su determinate cause. Saremmo, quindi, di fronte a potenzialità ancora da esprimere, più che a dei risultati veri e propri45. Tali iniziative potrebbero fondare una migliore percezione della giustizia da parte delle persone, una maggiore consapevolezza delle connessioni con l’impiego di strumenti alternativi di risoluzione delle controversie, diminuire la quantità di sentenze di primo grado appellate e i motivi relativi, come pure potrebbero incentivare l’individuazione della giurisprudenza maggiormente controversa. Molto deriverà dal nesso tra questi strumenti e la maggiore disponibilità dei dati derivante dalla digitalizzazione del processo (si pensi alla esperienza del processo telematico), oltre che dalla possibile integrazione dei nuovi algoritmi con le banche dati già esistenti46. In secondo luogo, i progetti avrebbero un carattere troppo framzione con il Tribunale di Genova (www.predictivejurisprudence.eu/). 44   In ultima analisi, la prevedibilità delle decisioni è un bene in sé perché consente di indirizzare ex ante i comportamenti dei cittadini e dei poteri pubblici. Si v. a tale proposito quanto esprimono: F. Patroni Griffi, Per un dialogo sulla calcolabilità giuridica, in A. Carleo (a cura di), Calcolabilità giuridica, Bologna 2017; A. Carratta, Decisione robotica e valori del processo, in Riv. dir. proc., 2/2020, p. 496 s. 45   C. Castelli e D. Piana, op. cit., p. 47 s. 46   Come già indicato dal CSM a partire dal 2017 con la delibera “Linee guida volte alla individuazione delle modalità di ricostituzione di una banca dati della giurisprudenza di merito”, poi oggetto di attuazione con la delibera 19 giugno 2019 e successivamente con la delibera 7 ottobre 2020. Le delibere sono interessanti e contengono numerose informazioni sulla costruzione della banca dati, come ad esempio la tutela della privacy. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

594

Erik Longo

mentato, essendo lasciati alla autonoma iniziativa dei tribunali e delle Corti d’Appello, pur se affiancati dalle rappresentanze della avvocatura e dai ricercatori delle università coinvolte. A quanto pare risulterebbe sprecata l’opportunità di connettere i progetti locali ad esperienze di livello nazionale, come il progetto del CSM di creare un «Archivio di Merito di ItalgiureWeb»47. La individuazione di una banca dati ragionata e organizzata secondo criteri uniformi potrebbe far capire e individuare orientamenti giurisprudenziali di merito sulle stesse importanti materie con effetti maggiori rispetto alle esperienze in essere48. Da alcuni è stato sottolineato che la prospettiva verso cui occorrerebbe muoversi è una integrazione delle diverse iniziative (locali e nazionali) per arrivare a banche dati ragionate che enunciano materia per materia e tema per tema la casistica con le soluzioni, specificando quali sono gli orientamenti maggioritari e consolidati e quali potrebbero essere le novità giurisprudenziali rilevanti49. In terzo luogo, tali iniziative dimostrerebbero un problema di fondo molto grave poiché celerebbero dietro l’obiettivo della prevedibilità delle decisioni un meccanismo automatico che produce conformismo nelle decisioni50, a tutto detrimento del naturale e benefico adeguarsi della giurisprudenza alla mutevolezza della realtà economica e sociale e alla stessa evoluzione interpretativa51. 47   Sul progetto si v. di recente E. Vincenti, Il giudice e il precedente. Massimazione e conoscenza della giurisprudenza nell’era digitale, in Quest. giust., 2018, IV, p. 151. 48   In tal senso si è mosso il legislatore francese, che, ai fini anche di una migliore trasparenza del sistema giustizia, ha approvato la Loi pour une République numérique (n. 2016-1321 du 7 octobre 2016). La legge francese ha introdotto il principio della generale pubblicazione gratuita di tutte le decisioni giudiziarie, precisando unicamente che «cette mise à disposition du public est précédée d’une analyse du risque de ré-identification des personnes» (art. 21). 49   C. Castelli e D. Piana, op. cit., p. 65. 50   Una cosa è utilizzare i precedenti come «indici di un orientamento», altro è «vincolare ai precedenti la decisione della causa». Il primo è un «espediente di economia processuale, sempre derogabile e soggettivamente valutabile, che nega la decisione; il secondo, una regola imperativa di decisione (appunto, stare decisis)». Cfr. N. Irti, Per un dialogo sulla calcolabilità giuridica, in A. Carleo (a cura di), Calcolabilità giuridica, Bologna 2017, p. 25. Sul tema del precedente si v. R. Rordorf, Stare decisis: osservazioni sul valore del precedente giudiziario nell’ordinamento italiano, in Foro. it., 9/2006; M. Nuzzo, Il problema della prevedibilità della decisione: calcolo giuridico secondo i precedenti, in A. Carleo (a cura di), Calcolabilità giuridica, cit., p. 137 s. 51   In questo senso occorre però riconoscere che la maggiore conoscibilità degli orientamenti potrebbe avere ulteriori effetti benefici, perché garantirebbe a coloro che

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Predizione, profilazione e giustizia

595

Nel senso indicato da queste considerazioni appare molto interessante il documento elaborato dalla “XIII Assemblea nazionale degli osservatori sulla giustizia civile” del 2018 dove sono contenute una serie di proposte che potrebbero rappresentare, se sviluppate, profili su cui in futuro, anche grazie alla maggiore digitalizzazione del processo, si potrà investire per rendere i processi civili più efficienti52. Nel condurre tali progetti va tenuto in debito conto che seppure i computer aiutino a portare una maggiore formalizzazione e coerenza nel processo decisionale, essi non possono determinare una perfetta “uniformità di giudizio” perché, tra l’altro, i risultati dipendono sia dalla capacità di calcolo della macchina sia dagli input soggettivi immessi in essa a monte (anche quando le macchine sono progettate per imparare “da sole”)53. Allo scopo di garantire una maggiore e migliore circolazione delle informazioni appare interessante la proposta di chi parla di una «pre-

scrivono anche sentenze difformi e innovative di poter conoscere la giurisprudenza precedente e semmai consentire una più responsabile motivazione nell’adozione delle stesse. Sui problemi della mutazione e stabilità della interpretazione si v. il lucidissimo articolo di P. Curzio, Il giudice e il precedente, in Quest. giust., 2018, IV, p. 37 ss. 52  Si propone: introdurre un sistema informatico che consenta ai giudici, soprattutto onorari, di conoscere automaticamente l’eventuale appello contro le loro sentenze; raccogliere dati delle controversie in modo da individuare il “quadro della domanda di giustizia espressa dal territorio”; condividere schemi di verbali, di atti, punti di motivazione, provvedimenti, sentenze e per “incrementare sia la prevedibilità delle decisioni – attraverso la loro circolazione e conoscibilità – sia la implementazione delle prassi virtuose”; raccogliere le informazioni sulla “giustizia percepita” dalle parti; individuare con maggiore facilità filoni di “giurisprudenza controversa”; rendere diffusi e pienamente conoscibili tutti i precedenti della giurisprudenza di merito per garantire l’effettiva parità delle armi e per garantire che i cittadini sentano che la giurisdizione non è un aspetto solo per addetti ai lavori; utilizzare ampiamente i siti web degli uffici giudiziari allo scopo di rendere noti a tutti gli interessati – cittadini o avvocati – linee guida in varie “materie” caratterizzate da questioni ricorrenti. Ci sono inoltre proposte che mirano ad estendere e automatizzare un sistema di filtro in Cassazione delle “controversie che presentano particolare rilevanza, selezionate secondo congrui e predeterminati criteri la fissazione in tempi brevi di udienze dedicate alla loro soluzione”; una proposta che avrebbe sicuramente un effetto molto importante sul potere di nomofilachia della stessa Suprema Corte. Cfr. Prevedibilità, predittività e umanità del giudicare, 2018. 53   A questo proposito si v. l’interessante contributo di M. De Felice, Calcolabilità e probabilità. Per discutere di ‘incontrollabile soggettivismo della decisione’, in A. Carleo (a cura di), Calcolabilità giuridica, cit., p. 37 s. Interessante in questo senso notare che la spinta verso la previsione è più del sapere tecnico-scientifico-economico che del diritto. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

596

Erik Longo

dittività mite»54 intesa come la possibilità di far svolgere alla macchina il risultato automatizzato quando si tratti di verificare la sussistenza di requisiti formali. A questo si deve pure aggiungere che non può esistere una prospettiva one-size-fits-all per l’uso delle tecnologie nel sistema giustizia. Bisogna infatti andare a vedere il tipo di corte, la materia scrutinata, la volontà e la fiducia delle parti, degli avvocati e dei giudici nell’uso delle tecnologie nella soluzione dei casi, la disponibilità e l’affidabilità dei dati, l’impiego di algoritmi che non discriminano e che possono garantire la fiducia da parte del pubblico verso le decisioni automatizzate stesse. L’impiego di algoritmi per prevedere gli esiti di decisioni giudiziarie sulla base della descrizione testuale di un caso è stato l’oggetto di uno studio scientifico molto interessante condotto da un gruppo di ricercatori britannici pubblicato nel 201655. L’articolo espone i risultati di un’indagine che questi ricercatori hanno svolto su 584 decisioni della Corte europea dei diritti dell’uomo analizzate con un potente algoritmo di machine learning. Gli esiti dello studio sono sorprendenti: dopo essere stata allenata con gli elementi principali dei casi provenienti dal dataset indicato56, la macchina riusciva a predire l’esito – per quelle stesse tipologie di controversie – (in media) nel 79% dei casi57. La predizione ottenuta si basava sul testo delle sentenze pubblicate e non sulle richieste o sulle memorie presentate dalle parti. I ricercatori, infatti, specificano nei disclaimer dell’articolo che hanno utilizzato sentenze già pubblicate come proxy per il materiale a cui non potevano avere accesso e che l’esperimento è condotto esclusivamente su casi già decisi e non ha nulla a che fare con previsioni dell’esito di cause da

54   D. Dalfino, Creatività e creazionismo, prevedibilità e predittività, in Foro it., 2018, V. 55   N. Aletras, D. Tsarapatsanis, D. PreoŢiuc-Pietro e V. Lampos, Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective, in PeerJ Computer Science, 2016. 56  Relativo alla giurisprudenza formatasi con riguardo agli artt. 3, 6 e 8 della CEDU. 57   La macchina era stata programmata su diversi elementi costitutivi delle sentenze della Corte: i fatti, l’applicazione della Convenzione europea dei diritti dell’uomo e il dispositivo (binario: violazione o non violazione). La frequenza della presenza di gruppi lessicali coerenti è stata, poi, registrata in una banca dati e confrontata con la violazione (o meno) della Convenzione. Cfr. C. Barbaro, Uso dell’intelligenza artificiale nei sistemi giudiziari: verso la definizione di principi etici condivisi a livello europeo?, in Quest. giust., 2018, IV.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Predizione, profilazione e giustizia

597

decidere58. Da questa notazione si può comprendere un dato assai rilevante quando si parla di «predittività» giudiziale mediante l’impiego di machine learning. Questi sistemi non «predicono» nulla ma si limitano a individuare una correlazione statistica: quindi calcolano delle probabilità. Non c’è nulla di «predittivo», quindi, almeno se usiamo tale termine nel senso di immagine o anticipo del futuro59. Si tratta infatti di sistemi «semi-automatici» per fornire ausili al giudice, i quali al momento non eliminano la necessità del giudizio umano60. Il lavoro dei ricercatori britannici ci consente di porre sul piatto il succo delle questioni attuali relative all’impiego delle tecnologie nel processo. Il problema, per come ci appare, non è se l’uso di una tecnologia dotata di una potentissima capacità di calcolo potrà soppiantare la giustizia umana o se sia possibile modellare matematicamente una legge e impostare così la sua applicazione automatica, ma capire come integrare le funzioni delle macchine con quelle umane e quali nuove configurazioni istituzionali dell’interazione uomo-macchina sono possibili61. L’articolo, inoltre, lascia intendere che la configurazione «migliore» – vista dal punto di vista istituzionale – non è necessariamente quella con l’algoritmo più accurato, ma quella che consente forme

58   Un conto è avere una sentenza già pronta da confrontare, un conto è immaginare che la macchina sulla base del ricorso possa emettere la sentenza. Sui limiti dell’esperimento condotto si v. N. Aletras, D. Tsarapatsanis, D. PreoŢiuc-Pietro e V. Lampos, Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective, cit., p. 4. 59   Il lavoro degli studiosi britannici è stato sottoposto a numerose critiche all’indomani della sua pubblicazione. Si v. ad esempio l’osservazione molto acuta che svolgono J. Morison e A. Harkens, Re-engineering justice? Robot judges, computerised courts and (semi) automated legal decision-making, in Legal Studies, 2019, p. 632 i quali sottolineano che un sistema di questo genere può avere un certo funzionamento per le corti di appello (come è d’altronde la Corte europea dei diritti dell’uomo) ma non potrebbe funzionare per corti di primo grado dove bisogna ricostruire il fatto. Ulteriori e profonde critiche, soprattutto con riguardo alle modalità dell’esperimento ed alle sue conseguenze, sono svolte da F. Pasquale e G. Cashwell, Prediction, persuasion, and the jurisprudence of behaviourism, in University of Toronto Law Journal, supplement, 2018, I, p. 63 ss. 60   J. McGill e A. Salyzyn, Judging by Numbers: How will judicial analytics impact the justice system and its stakeholders?, in Dal LJ, 2020, I. 61   A. Punzi, Difettività e giustizia aumentata. L’esperienza giuridica e la sfida dell’umanesimo digitale, in Ars interpretandi, 2021, I.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

598

Erik Longo

specifiche e previste di governo, controllo e supervisione dell’uomo sulla macchina62. In sintesi rimane fermo che l’IA ancora oggi, con gli avanzamenti determinati dall’impiego del machine learning, rimane capace di fornire esclusivamente risposte a quelle domande per cui è stata programmata, così che l’immagine di un giudice-robot non sarebbe impraticabile perché impossibile ma perché imporrebbe di far decidere alle macchine con certi criteri e valorizzando solo certi dati – soprattutto in una logica conservativa e retrospettiva63. 4. I problemi legati alla predittività delle decisioni giudiziarie attraverso l’uso dell’intelligenza artificiale sono già da tempo apparsi nei radar del Consiglio d’Europa che, in seno alla Commissione europea sull’efficacia della giustizia del Consiglio d’Europa (CEPEJ)64, ha avviato una riflessione approfondita sul tema dal quale emerge l’abbozzo di un nuovo «garantismo» nei confronti delle tecniche di predizione applicate al processo. Durante la sessione plenaria del 3-4 dicembre 2008 il CEPEJ ha adottato la «Carta etica sull’uso dell’intelligenza artificiale nei sistemi giudiziari e nel loro ambiente»65. La Carta «enuncia i principi sostanziali e metodologici applicabili all’analisi ed al trattamento delle decisioni giudiziarie» e si pone come «punto di riferimento per l’attività di soggetti privati e pubblici attivi in questo settore, tanto per quanto riguarda lo sviluppo concreto di applicazioni di intelligenza artificiale

62   Su questo aspetto v. l’interessante e attuale studio di J. Zerilli, A. Knott, J. Maclaurin e C. Gavaghan, Algorithmic Decision-Making and the Control Problem, in Minds and Machines, 2019, IV, p. 557 e il report di C. Villani, Y. Bonnet e B. Rondepierre, For a meaningful artificial intelligence: Towards a French and European strategy, Paris 2018; J. Morison e A. Harkens, Re-engineering justice? Robot judges, computerised courts and (semi) automated legal decision-making, cit., pp. 632-633. 63   A. Garapon e J. Lassègue, La giustizia digitale. Determinismo tecnologico e libertà, cit. 64   Il CEPEJ è un organo tecnico composto da esperti rappresentativi dei 47 Paesi del Consiglio d’Europa con lo scopo di analizzare e monitorare il funzionamento dei sistemi giudiziari europei e promuoverne l’efficienza. Pubblica ogni due anni un report sullo stato della giustizia nei Paesi partecipanti. Sul punto si v. F. Donati, Intelligenza artificiale e giustizia, cit. 65   CEPEJ, Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, 2018.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Predizione, profilazione e giustizia

599

quanto per l’elaborazione di politiche pubbliche riguardanti l’integrazione di tali applicazioni nel sistema giudiziario66». Nella Carta sono fissati cinque principi generali che devono sovrintendere alla elaborazione e applicazione delle tecnologie computazionali avanzate al settore della tutela giurisdizionale e che sono alla base della Carta europea dei diritti dell’uomo: 1) il principio del rispetto dei diritti fondamentali della persona sia in fase di progettazione che in quella di attuazione di strumenti e servizi di IA67; 2) il principio di non discriminazione (su cui si v. la relazione di C. Nardocci), ossia esclusione di soluzioni e prassi discriminatorie fra individui o gruppi di individui68; 3) il principio di qualità e sicurezza, ossia applicazione di criteri di qualità e sicurezza nel trattamento dei dati relativi alle decisioni giudiziarie69; 4) il principio di trasparenza, ossia necessità di improntare gli strumenti di IA alla trasparenza e controllo esterno70; 5) il principio di garanzia dell’intervento umano, ossia necessità di assicurare sempre il controllo umano sulle scelte fatte attraverso l’IA71 66   Come ricorda C. Barbaro, Uso dell’intelligenza artificiale nei sistemi giudiziari: verso la definizione di principi etici condivisi a livello europeo?, cit., già dal 2016 la CEPEJ ha adottato uno studio approfondito sull’uso di queste tecnologie nei tribunali europei e delle Linee direttrici sulla «cybergiustizia». 67   Tra questi principi vi sono la garanzia del «diritto di accesso a un giudice e del diritto a un equo processo», i «principi dello stato di diritto e dell’indipendenza dei giudici nel processo decisionale». Inoltre, si prevede il privilegio degli approcci «etico-fin-dall’elaborazione o diritti-umani-fin-dall’elaborazione» (ethics-by-design). 68   È interessante che non solo si prevede un divieto di discriminazioni ma si stabiliscono le modalità attraverso le quali contrastarle, come le misure correttive e di neutralizzazione dei rischi e l’utilizzo dello stesso apprendimento automatico e delle analisi scientifiche multidisciplinari. 69   Sotto questo aspetto si prevede che gli algoritmi di machine learning utilizzati nel settore giustizia vengano costruiti attraverso una integrazione delle conoscenze dei programmatori insieme a quelle di esperti giuridici (si parla di «squadre di progetto»). Interessante è la puntualizzazione sulla «pulizia» dei dati utilizzati e sul loro utilizzo in un «ambiente sicuro» con garanzia della tracciabilità dei flussi di informazioni. 70   Questo è il profilo più difficile tra tutti. Si tratta di raggiungere un «equilibrio» tra le garanzie connesse alla trasparenza, imparzialità, equità e integrità intellettuale e la proprietà intellettuale delle metodologie. Sotto questo aspetto si prevedono diverse modalità, si va dalla «totale trasparenza tecnica» alla certificazione privata o pubblica. È interessante che questo punto trova eco anche nella necessità che le decisioni algoritmiche, sia giudiziarie sia amministrative, siano «corredate da spiegazioni che la traducano nella regola giuridica ad essa sottesa e che la rendano leggibile e comprensibile, sia per i cittadini sia per il giudice». Cfr. Consiglio di Stato, sent. 8 aprile 2019, n. 2270. 71   Il criterio base è che l’utilizzo degli strumenti di intelligenza artificiale deve rafforzare e non limitare l’autonomia dell’utilizzatore informandolo con un linguag-

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

600

Erik Longo

(forse il principio più importante per tracciare la strada per il nuovo garantismo nell’epoca del digitale). La parte narrativa della Carta sottolinea le principali questioni etico/giuridiche relative all’uso delle tecnologie digitali applicate al processo: rischi di limitazioni dei diritti e di discriminazioni su larga scala; una potenziale mancanza di trasparenza nell’uso di tali tecnologie nel processo; lo spostamento complessivo del potere dall’intuizione umana all’intelligenza artificiale avanzata e, più precisamente, nelle possibili minacce all’indipendenza giudiziaria e alla separazione dei poteri; un sistema giudiziario basato sull’IA potrebbe contribuire in modo significativo all’ascesa di forme di autoritarismo digitale. L’Appendice I alla Carta è di grande utilità per coloro che si approcciano agli studi sulla digitalizzazione della giustizia perché, non solo passa in rassegna gli utilizzi attuali della digitalizzazione nella giustizia, ma offre un quadro dei problemi legati a: - politiche europee sui dati aperti ed effetti che potrebbero derivare da una loro diffusione (quale valore hanno, come vengono acquisiti, chi si incarica di detenerli e dove)72; - le questioni legate alla protezione dei dati personali nell’utilizzo di tali strumenti73; - le funzionalità teoriche dell’intelligenza artificiale applicata al diritto, con riguardo soprattutto all’analisi di cosa si intende per «predizione» (definita come il «tasso di successo (o insuccesso) di una causa in tribunale»)74 e l’abbandono definitivo dell’ambiguo termine «predizione»75;

gio chiaro e comprensibile del carattere vincolante o meno delle soluzioni proposte dall’IA. Si stabilisce inoltre che gli utilizzatori siano adeguatamente alfabetizzati sul piano informatico e che si svolga un adeguato dibattito sull’uso di tali strumenti nella giustizia. Su questi temi si v. le suggestioni di M. Tegmark, Vita 3.0. Essere umani nell’era dell’intelligenza artificiale, Milano 2018. 72   Su questo decisivo profilo si nota ancora un generale arretramento dei paesi del Consiglio d’Europa. Il tema è chiaramente connesso alle tecniche di «anonomizzazione e pseudonimizzazione». Il CEPEJ ricorda come sul punto siamo ancora molto indietro. 73   Si riprendono le caratteristiche della protezione dei dati che fanno parte oramai del patrimonio costituzionale europeo, come la protezione by default e by design. 74   A tale proposito il documento chiarisce che si tratta di previsione e non di predizione. 75   Come si legge nell’Appendice I 38-39: «L’espressione giustizia predittiva dovrebbe essere abbandonata in quanto è ambigua e ingannevole. Tali strumenti sono basati su metodi di analisi della giurisprudenza che utilizzano metodi statistici che ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Predizione, profilazione e giustizia

601

- le caratteristiche operative dell’IA applicata alla giustizia76; - le modalità e le cautele per l’applicazione della IA ai processi civili, amministrativi e tributari con una precisazione molto importante sulle principali garanzie che occorre riaffermare in tali procedimenti77; - specifiche cautele per l’applicazione di tali strumenti nei processi penali78. Nell’Appendice II sono previsti quattro tipi di utilizzo dell’IA nel processo: «utilizzi incoraggiati», comprendenti la valorizzazione del patrimonio giurisprudenziale, l’accesso al diritto e la creazione di nuovi strumenti strategici con riguardo soprattutto alle risorse da impiegare; «utilizzi possibili», tra cui rientrano l’aiuto nella redazione di tabelle per le controversie civili, il supporto alla risoluzione alternativa di controversie in materia civile, la soluzione di controversie online e l’utilizzo di algoritmi nelle indagini penali al fine di individuare dove sono stati commessi i reati; «utilizzi da valutare scientificamente prima di essere usati», come quelli che riguardano la profilazione dei magistrati e l’anticipazione delle decisioni dei tribunali (come nel caso della giurisprudenza CEDU); «utilizzi da valutare con le più ampie riserve»,

non riproducono in alcun modo il ragionamento giuridico, ma possono cercare di descriverlo”. Più avanti si legge che la predizione «produce nella mente collettiva un lento slittamento che ci porta a credere che le macchine, prive di qualsiasi emozione, un giorno saranno in grado di rendere più affidabile l’atto del giudicare. (…) (I) rischi di interpretazioni distorte del significato delle decisioni giudiziarie sono estremamente elevati qualora queste siano basate soltanto sulla modellizzazione statistica. Tale constatazione è ulteriormente avvalorata dall’assenza di una precisa comprensione dei legami tra i dati e l’evidente presenza di false correlazioni non discernibili nelle grandi masse di dati». Si v. anche A. de la Oliva Santos, “Giustizia predittiva”, interpretazione matematica delle norme, sentenze robotiche e la vecchia storia del “Justizklavier”, in Riv. trim. dir. proc. civ., 2019, p. 883 s. 76   Si legge nel punto n. 92 dell’Appendice I: «Per fornire un’accurata spiegazione di una decisione giudiziaria occorre pertanto un’analisi molto più particolareggiata dei dati contingenti di ciascuna causa e delle norme di legge applicabili, piuttosto che il nutrimento di una vana speranza che una massa di connessioni abbia un senso compiuto». 77   Si prevedono come necessariamente interessati sotto questo profilo: «diritto di accesso a un tribunale», «principio del contraddittorio», «parità delle armi», «imparzialità e indipendenza dei giudici», «diritto all’assistenza legale». 78   A tale proposito il documento mette in guardia soprattutto dal non sopravvalutare i benefici in termini di efficienza derivanti dall’uso di tali strumenti e nel ponderare bene i possibili svantaggi. Si riprende allargandone lo scopo quanto previsto dalla Direttiva sulla protezione dei dati nel caso del law enforcement. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

602

Erik Longo

quali quelli compiuti attraverso i software COMPAS e HART o sistemi che impongano di seguire obbligatoriamente alcuni precedenti79. In sintesi, il CEPEJ sembra ribadire – come aveva già fatto in precedenza – la necessaria “umanità” del giudicare contro l’uso degli automatismi generati dall’impiego degli algoritmi nel processo80. 5. L’idea di un diritto prevedibile e calcolabile affascina molti. L’uso dell’intelligenza artificiale nel processo nasconde una esigenza antica che riguarda l’ordinamento nel suo complesso ed esprime l’idea che la giustizia possa servire l’ordine economico al meglio. Tuttavia, l’operazione dovrebbe tenere in conto che il diritto non è mera sotto-struttura del sistema economico e che per il «giuridico» valgono criteri etici e di giustizia sociale non suscettibili di quel genere di misurazione o calcolo tipico delle scienze matematiche e statistiche81. Per molteplici ragioni chi opera nel campo del diritto sa che la im-prevedibilità, in-calcolabilità, in-decidibilità delle decisioni non sono il frutto solo di regole male applicate o di un diritto incerto ma di dinamiche con caratteri molto più ampi e risalenti nel tempo82. Da anni la dottrina parla di una «crisi della fattispecie giuridica» come conseguenza della crisi del modello epistemologico neopositi-

79   Sulla vicenda legata al caso COMPAS si v. A.L. Washington, How to argue with an algorithm: Lessons from the COMPAS-ProPublica debate, in Colo. Tech. LJ, 2018, I. 80   Nel suo parere n. (2011) 14 su «Giustizia e tecnologie dell’informazione (IT)», il Consiglio consultivo dei giudici europei sottolinea che «l’introduzione dell’IT nei tribunali in Europa non dovrebbe compromettere il volto umano e simbolico della giustizia. Se la giustizia è percepita dagli utenti come puramente tecnica, senza la sua funzione reale e fondamentale, rischia di essere disumanizzata. La giustizia è e dovrebbe rimanere umana poiché si occupa principalmente delle persone e delle loro controversie». Cfr. CEPEJ, Guidelines on how to drive change towards Cyberjustice, 2016 che cita il CCJE Opinion No. (2011)14, para 6 (nostra la traduzione). Sulla difesa della umanità del giudicare si v. C.V. Giabardo, Il giudice e l’algoritmo (in difesa dell’umanità del giudicare), in Giustizia insieme, www.giustiziainsieme.it/it/scienza-logica-diritto/1224-il-giudice-e-l-algoritmo-in-difesa-dell-umanita-del-giudicare. In generale sul tema si v. anche S. Hustvedt, Le illusioni della certezza, Milano 2018. 81   R. Rordorf, Editoriale, in Quest. giust., 2018, IV. 82   L’in-calcolabilità e im-prevedibilità non dipendono solo dalla natura umana del decisore così che se si arrivasse a sostituire il giudice-persona con un «robogiudice» verrebbero meno. A. Carratta, Decisione robotica e valori del processo, cit., p. 498. Si v. anche A. Natale, Introduzione. Una giustizia (im)prevedibile, in Quest. giust., 2018, IV; Sul tema in generale si v. N. Irti, Un contratto «incalcolabile», in Riv. trim. dir. proc. civ., 2015, I.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Predizione, profilazione e giustizia

603

vista applicato al diritto83. Gli esiti sono molti: crisi della legalità, tramonto della centralità della legge come modello per eccellenza di fonte del diritto84, perdita della centralità del ragionamento sillogistico e la apertura a nuovi metodi di costruzione delle regole attraverso l’interpretazione85; perdita di valore della gerarchia delle fonti; difficoltà odierna di individuare il diritto applicabile in presenza di sistemi normativi e ordinamenti giuridici in competizione86. La difficoltà di individuare in maniera univoca le fattispecie giuridiche, la mancanza di certezza, la disomogeneità normativa, l’esistenza di lacune normative da colmare attraverso l’interpretazione o addirittura l’analogia frenano la possibilità di prevedere la soluzione di singole controversie e dunque rendono difficile calcolare e prevedere la decisione. È poco credibile, quindi, che in un sistema così complesso, articolato e fallibile sia possibile affidare la decisione ad un algoritmo. Anche a tacere di questi problemi, vi sono fattori che impediscono la applicazione pura e semplice di meccanismi automatici alle decisioni. L’interprete deve sempre procedere a una ricostruzione e selezione dei fatti da sussumere nella fattispecie normativa. Tale attività (ricostruzione della «fattispecie storica») non è mai neutra, ma viene realizzata dal giudice sulla base di ciò che le parti dimostrano e dei suoi poteri istruttori. Questi problemi devono essere riconsiderati alla luce del fatto che la tecnologia ha modificato le strategie conoscitive usate all’interno del processo, grazie a strumenti che prima non esistevano e che stanno rivoluzionando il concetto di prova e di documento87. 83   P. Grossi, Storicità versus prevedibilità: sui caratteri di un diritto pos-moderno, in Quest. giust., 2018, IV; E. Pattaro, Il positivismo giuridico italiano dalla rinascita alla crisi, in U. Scarpelli (a cura di), Diritto e analisi del linguaggio, Milano 1976. 84   P. Grossi, Sulla odierna «incertezza» del diritto, in Giust. civ., 2014, IV. 85   I precedenti mantengono comunque il loro peso nella decisione della singola controversia, ma con un tasso di imprevedibilità e incalcolabilità che non sono compatibili con la mera applicazione algoritmica: «la sentenza crea diritto nel momento stesso in cui lo applica: l’atto giudiziale insieme costituisce ed esaurisce». Cfr. N. Irti, op. cit. 86   Ai problemi della interpretazione e della difficile convivenza di ordinamenti multilivello si accompagna pure la mancanza di un centro unico di normazione per via della comparsa delle autorità amministrative indipendenti dotate di poteri normativi variamente vincolanti (hard e soft law). 87   P. Comoglio, Nuove tecnologie e disponibilità della prova: l’accertamento del fatto nella diffusione delle conoscenze, Torino 2018, spec. Cap. V.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

604

Erik Longo

Vi è inoltre il rischio di un «effetto performativo» nelle operazioni di applicazione degli algoritmi alle decisioni giudiziarie88. Così come rilevato dal Consiglio di Stato con riguardo alle «decisioni amministrative algoritmiche», anche per il processo un diritto troppo calcolabile propenderebbe per la cristallizzazione e la cementificazione dei precedenti e incoraggerebbe il giudice a omologarsi al flusso delle decisioni passate, producendo risultati sempre uguali a sé stessi e, in ultima analisi, producendo un difetto di motivazione per eccessivo affidamento nell’algoritmo89. Le tecnologie, quindi, devono continuare a rimanere serventi90. Ma anche quando sono tali, non possiamo non continuare a porci problemi relativi all’effetto di «aumento» che l’impiego delle risorse digitali produce. L’uso delle tecnologie dell’informazione all’interno del processo mette in crisi il concetto di «documento»91 e la sua «disponibilità», ma determina soprattutto un salto immenso rispetto al passato, perché con esse la quantità di informazioni da processare è così vasta da determinare anche una trasformazione qualitativa del modo con cui gli stessi possono essere analizzati92.

88   Nell’Allegato I alla Carta etica del CEPEJ si mette in guardia contro l’effetto performativo che deriverebbe dall’uso degli algoritmi nelle indagini penali al fine di individuare i luoghi in cui sono stati commessi i reati (di questo aspetto si è parlato supra nel par. 4 della parte I). Con riguardo al processo e all’amministrazione il tema è affrontato oramai in modo molto ampio dalla dottrina. Si v. sul punto C. Napoli, Algoritmi, intelligenza artificiale e formazione della volontà pubblica: la decisione amministrativa e quella giudiziaria, in Rivista AIC, 2020, III, p. 343; M. Luciani, La decisione giudiziaria robotica, in ibidem 2018; R. Bichi, Intelligenza Artificiale tra ‘calcolabilità’ del diritto e tutela dei diritti, in Giur. it., 2019, VII, p. 1777; D. Dalfino, Decisione amministrativa robotica ed effetto performativo. Un beffardo algoritmo per una “buona scuola”, in www.questionegiustizia.it/articolo/decisione-amministrativa-robotica-ed-effetto-performativo-un-beffardo-algoritmo-per-una-buona-scuola_13-01-2020.php. 89   A. Simoncini, Profili costituzionali dell’amministrazione algoritmica, in Riv. trim. dir. pubbl., 2019, IV. 90   Come da più parti autorevolmente auspicato. Cfr. infra multis F. Donati, Intelligenza artificiale e giustizia, cit. 91   Si pensi in questo senso a quanto è accaduto tanto all’interno del processo penale quanto all’intero del processo civile dove hanno assunto la natura di oggetto (e prova) documentale anche oggetti privi di una originaria funzione documentativa. M.K. Buckland, What is a “document”?, in Journal of the American society for information science, 1997, IX, p. 808 ss. 92   G. D’Acquisto, Qualità dei dati e Intelligenza Artificiale: intelligenza dai dati e intelligenza dei dati, in F. Pizzetti (a cura di), Intelligenza artificiale, protezione dei dati personali e regolazione, Torino 2018, p. 265 s.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Predizione, profilazione e giustizia

605

Va detto in chiusura sul punto che a tale conclusione si può arrivare anche seguendo l’interpretazione del diritto positivo. Sulla base della interpretazione del Regolamento europeo n. 679/2016 si deve desumere che le tecniche di IA devono rimanere strumentali e di ausilio rispetto all’attività del giudice, il quale non può essere messo di fronte ad «automatismi applicativi» dipendenti dall’esito di procedure algoritmiche93, anche se fondate sui precedenti giurisprudenziali. Perché queste tecniche siano accettate anche nel contesto giudiziario, dunque, la loro posizione deve rimanere servente rispetto al giudice persona e non cercare di dominarlo.94 6. Questo saggio ha cercato di mettere in evidenza che le applicazioni degli strumenti dell’intelligenza artificiale al diritto rappresentano una possibilità concreta se collocate entro una cornice non solo tecnica ma anche teorica e pratica adeguata. Gli esempi di investimento nella maggiore prevedibilità delle decisioni giudiziarie non va esente da critiche da parte sia dei tecnici che degli studiosi del diritto. Tali critiche non sono contro l’idea di una prevedibilità95, ma contro quel modo di intendere il diritto che per essere al passo con i tempi avvolge la pratica giuridica in una tiepida e rassicurante coltre di vocaboli provenienti dalle scienze computazionali, come appunto la parola «predizione». In realtà si tratta di parole che sono il frutto di una «distopia costituzionale96», più che di una attenta e meditata valutazione della realtà giuridica e delle possibilità tecniche. Non va sottaciuto che anche lad-

93   Il problema della “dittatura degli algoritmi” derivante dai trattamenti automatizzati è stato già evidenziato da S. Rodotà, Il mondo nella rete: quali i diritti, quali i vincoli, Roma-Bari 2014, con riguardo al tema della protezione dei dati. 94   Secondo l’art. 22 del Regolamento UE n. 679/2016 sulla tutela dei dati personali, che abroga la precedente Direttiva (art. 15) «l’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona». Emerge chiaramente la preoccupazione di evitare che l’intero processo decisionale possa essere affidato ad un giudice-robot, utilizzando appunto i dati personali del singolo. 95   Come ben mette in luce R. Rordorf, Editoriale, cit., p. 5: «È sacrosanto […] ricondurre il più possibile le decisioni giurisdizionali a criteri razionali che ne consentano la tendenziale prevedibilità, ma a patto di riconoscere che si tratta pur sempre di una prevedibilità tendenziale, e perciò relativa, destinata eventualmente a recedere di fronte alla necessità di adeguare il giudizio alle peculiarità di ciascun singolo fatto». 96   Prendiamo in prestito l’espressione dal recente volume di A. Cardone, «Decisione algoritmica» vs decisione politica? A.I. Legge Democrazia, Napoli 2021, p. 157 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

606

Erik Longo

dove si dovesse realizzare un effetto predittivo con algoritmi applicati alle decisioni giudiziaria non si parlerebbe di una giustizia che pre-decide ma di algoritmi che riscontrano correlazioni al fine di prevedere accadimenti nel futuro97. Ad oggi, quindi, la possibilità più concreta e corretta è avere un «supporto» o un aiuto che permetta di ricavare più informazioni, di conoscere gli orientamenti esistenti, di capire l’impatto di una decisione, ovvero che permetta di decidere disponendo di tutti gli elementi e con una cognizione incommensurabilmente superiore al passato. Guai però a sottovalutare le prospettive di impiego dell’intelligenza artificiale nel giudicare. I rapidi mutamenti apportati dalla tecnologia ai sistemi giudiziari in tutto il mondo aprono un «nuovo inizio e non una nuova fine»98. La rivoluzione digitale influenza il «pensiero»99 del giurista e la stessa legittimazione del potere giuridico100. L’abbondante letteratura sul tema – soprattutto anglosassone – dimostra che la tecnologia digitale è divenuta un «polmone» esterno di legittimità del diritto. Dopo essersi svincolato dalla trascendenza religiosa e dal diritto naturale, i giuristi hanno acquisito nuove «sovrastrutture» che possono garantire il fondamento del diritto. Dopo la storia, l’economia, la letteratura, oggi è venuta l’ora del paradigma determinista della prevedibilità101, che ha poco a che fare con la certezza del diritto come siamo soliti intenderla, ma che si impone grazie alla mostruosa forza pratica delle scienze computazionali102. In tal modo il diritto cerca il proprio punto di riferimento in una risorsa completamente astratta, che ha poco di umano, e che cerca di ingabbiarlo con i suoi automatismi. La digitalizzazione agisce proprio moltiplicando gli automatismi e imponendoli come vere e proprie regole capaci di una forza maggiore 97   S. Lebreton-Derrien, La justice prédictive. Introdution à une justice «simpement» virtuelle, cit., p. 4. 98   J. Tomlinson, op. cit., p. 17. 99   Si ha quella che una parte della dottrina ha chiamato «espansione del perimetro conoscitivo del giudice». Cfr. P. Comoglio, op. cit., p. 100. 100   S. Mannoni, Millenarismo 2.0: il diritto al cospetto della nuova era digitale, Napoli 2016. 101   Una certa parte della dottrina francese parla con riguardo alla prevedibilità realizzata con la digitalizzazione di una factualisation, intesa come la trasformazione pura e semplice di dati di diversa specie, come i dati giuridici, in meri dati informatici. Cfr. D. Cholet, La justice prédictive et les principes fondamentaux du procès civil, in Arch. phil. droit, 2018, I, p. 233. 102   N. Lettieri, Contro la previsione. Tre argomenti per una critica del calcolo predittivo e del suo uso in ambito giuridico, in Ars interpretandi, 2021, I.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Predizione, profilazione e giustizia

607

delle regole giuridiche. Quando tali tecniche diverranno pervasive occorrerà prestare molta attenzione alle possibili violazioni del principio di eguaglianza e alle discriminazioni che la tecnica può determinare103. Il digitale, infatti, nasconde regole che possono essere molto più intrusive di quanto non lo siano norme che provengono dall’etica o dalle leggi sociali104. Per tali ragioni le regole processuali dovranno necessariamente farsi carico di garantire nuovi diritti fondamentali, come la protezione dei dati, la segretezza delle informazioni, la trasparenza, il diritto di difesa e l’eguaglianza nell’accesso alla difesa, la protezione contro le discriminazioni e le responsabilità nel caso di errore o di cattivo funzionamento secondo una latitudine che implica gli automatismi creati dalle macchine105. È in questa ottica che i documenti internazionali – come la Carta del CEPEJ – o altre iniziative a livello europeo e alcune prese di posizione a livello statale – come quelle messe in atto dalla nostra magistratura amministrativa – sottolineano che gli algoritmi devono rimanere uno strumento di sostegno all’azione del giudice di cui egli stesso può avvalersi per prendere decisioni, ma sono legittimi solo se garantiscono un «contraddittorio». A ciò si aggiunge pure il non trascurabile elemento legato al fatto che molte delle tecnologie impiegate nei sistemi giudiziari sono detenute da aziende private che potranno così interferire in maniera diretta nella tutela dei diritti delle persone. Il digitale non è infatto uno strumento neutro e la capacità di interferire nella vita delle persone deve sempre essere monitorata e controllata adeguatamente. La speranza è, dunque, che si possa sviluppare una regolazione capace di aiutare i cittadini e la società civile a vigilare sull’uso del digitale nella giustizia, monitorandone la conformità alla Costituzione e alle leggi. In-

103   A. Simoncini, Il diritto alla tecnologia e le nuove diseguaglianze, in F.S. Marini e G. Scaccia (a cura di), Emergenza Covid-19 e ordinamento costituzionale, Torino 2020. 104  Secondo A. Garapon e J. Lassègue, La giustizia digitale. Determinismo tecnologico e libertà, cit., p. 95 «l’inestricabile forza espressiva e la performatività di tale approccio è imputabile alle proprietà stesse della scrittura digitale». Il tema si connette anche ai problemi del «digital enforcement», su cui A. Díaz Andrade e A.A. Techatassanasoontorn, Digital enforcement: Rethinking the pursuit of a digitally‐ enabled society, in Information Systems Journal, 2021, I, p. 184 s. 105   G. Lupo, Regulating (Artificial) Intelligence in Justice: How Normative Frameworks Protect Citizens from the Risks Related to AI Use in the Judiciary, in European Quarterly of Political Attitudes and Mentalities, 2019, II.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

sieme a ciò sarà necessario investire in quei sistemi, anche tecnologici, che permettono ai cittadini di tutelarsi ed esercitare un controllo sui possibili abusi derivanti dall’uso dell’IA nel processo106. In tale prospettiva il ruolo del costituzionalista e del diritto costituzionale sarà decisivo107.

106   Interessante in questo senso è il progetto «CLAUDETTE» (CLAUse DETecTEr) di un gruppo di ricercatori italiani. Si v. a tale proposito F. Lagioia, G. Sartor, L’intelligenza artificiale per i diritti dei cittadini: il progetto Claudette, in Ragion pratica, 2020, I; M. Lippi, P. Pałka, G. Contissa, F. Lagioia, H.-W. Micklitz G. Sartor e P. Torroni, CLAUDETTE: An automated detector of potentially unfair clauses in online terms of service, in Artificial Intelligence and Law, 2019, II. 107   A. Simoncini, Amministrazione digitale algoritmica. Il quadro costituzionale, in R. Cavallo Perin e D.-U. Galletta (a cura di), Il diritto dell’amministrazione pubblica digitale, Torino 2020, pp. 39-40.

Filippo Donati*

Trasparenza della giustizia e anonimizzazione dei provvedimenti giudiziari**

Sommario: 1. Premessa. – 2. La prassi in Europa. – 3. La prassi in Italia. – 4. La giustizia trasparente. – 5. Considerazioni conclusive.

1. La digitalizzazione della giustizia rende assai più facile che in passato ottenere informazioni sulle controversie sottoposte alle autorità giudiziarie di ogni ordine e grado, sui nomi delle parti, dei professionisti coinvolti e dei giudici che le hanno decise. La possibilità di accedere alle banche dati attraverso motori di ricerca che impiegano sofisticati sistemi di intelligenza artificiale, pertanto, costituisce ormai un potente mezzo di intrusione nella sfera della vita privata delle persone. Non stupisce dunque che, in nome della necessità di garantire alle persone il controllo dei propri dati personali, si vada diffondendo in tutta Europa la tendenza alla «anonimizzazione» dei provvedimenti giudiziari, ovvero all’oscuramento dei dati che permettono l’identificazione delle persone in essi menzionati. Una tendenza del genere è compatibile con il principio di pubblicità del processo? Come deve essere operato il bilanciamento tra l’esigenza di tutelare la riservatezza dei soggetti che si trovano coinvolti in una vicenda giudiziaria, da una parte, ed i principi in materia di trasparenza della giustizia e di garanzia della libertà di informazione, dall’altra parte? Qui di seguito cercherò di svolgere alcune considerazioni sul rapporto tra trasparenza della giustizia e tutela dei dati personali. Lo scritto è diviso in due parti. Nella prima, richiamerò gli orientamenti che emergono a livello europeo in materia di «anonimizzazione» dei provvedimenti giudiziari. Nella seconda, cercherò di sostenere che, contrariamente alla tendenza oggi in atto, nel bilanciamento tra le contrapposte esigenze che rilevano in materia è al principio di pubblicità della giustizia che dovrebbe essere data la prevalenza, salvo specifiche e circoscritte eccezioni. * Professore di Diritto costituzionale nell’Università di Firenze. ** Il presente scritto verrà pubblicato nel volume Intelligenza artificiale e diritto: una rivoluzione?, a cura di A. Pajno, F. Donati e A. Perrucci. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

610

Filippo Donati

2. L’art. 6 della Convenzione europea dei diritti dell’uomo (CEDU), nell’indicare i requisiti del giusto processo, nello stabilire che «la sentenza deve essere resa pubblicamente», consente di limitare il principio di pubblicità «nell’interesse della morale, dell’ordine pubblico o della sicurezza nazionale in una società democratica» ovvero «quando lo esigono gli interessi dei minori o la protezione della vita privata delle parti in causa» o quando la pubblicità possa portare pregiudizio agli interessi della giustizia. La CEDU, in particolare, contiene apposite previsioni volte a tutelare la libertà di espressione (art. 10) e il diritto al rispetto della vita privata e al controllo sui propri dati personali (art. 8). Le parti contraenti della CEDU, pertanto, sono chiamate a garantire un ragionevole bilanciamento tra i principi sopra richiamati. Anche nel diritto dell’Unione europea trovano riconoscimento e tutela sia i principi di pubblicità della giustizia (art. 47 CDFUE) e di libertà di informazione (art. 10 CDFUE), sia il diritto alla protezione della vita privata e al controllo dei propri dati personali (artt. 7 e 8 CDFUE e art. 16 TUE). Il diritto primario ha rimesso dunque alle competenti istituzioni dell’Unione il compito di individuare regole idonee a bilanciare il principio di trasparenza della giustizia con l’esigenza di protezione dei dati personali. Tuttavia, nessun atto dell’Unione, inclusi il Regolamento generale sulla protezione dei dati personali (GDPR)1, il Regolamento sul trattamento di tali dati da parte delle istituzioni dell’Unione2 e la Direttiva sul trattamento dei dati personali da parte delle autorità competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali (la cosiddetta direttiva polizia)3, ha ad oggi affrontato il tema della anonimizzazione delle sentenze. Anche il GDPR, che pure aspira a tracciare 1   Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016 relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE. 2   Regolamento (UE) 2018/1725 del 23 ottobre 2018 sulla tutela delle persone fisiche in relazione al trattamento dei dati personali da parte delle istituzioni, degli organi e degli organismi dell’Unione e sulla libera circolazione di tali dati, e che abroga il Regolamento (CE) n. 45/2001 e la decisione n. 1247/2002/CE. 3   Direttiva (UE) 2016/680 del 27 aprile 2016 relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorità competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, nonché alla libera circolazione di tali dati e che abroga la decisione quadro 2008/977/GAI del Consiglio. Il GDPR ha escluso dal proprio ambito di applicazione il trattamento dei dati personali da parte delle autorità competenti a fini di

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Trasparenza della giustizia e anonimizzazione dei provvedimenti

611

una disciplina generale in materia di protezione dei dati personali, ha dovuto prendere atto della specificità della funzione giurisdizionale. Il divieto di trattamento dei dati sensibili, infatti, non può operare quando gli stessi siano necessari per l’esercizio di un diritto in sede giudiziaria o per lo svolgimento di funzioni giurisdizionali4. La garanzia di indipendenza della giurisdizione, inoltre, è incompatibile esclude la possibilità di imporre ai magistrati quando esercitano le loro funzioni la nomina di un responsabile esterno per il trattamento dei dati personali5 o di sottoporli alla vigilanza di una autorità di controllo6. Anche il diritto all’oblio può trovare limitazioni non solo per l’esercizio della libertà di espressione e di informazione o per motivi di pubblico interesse, ma anche per l’accertamento, l’esercizio o la difesa dei diritti in sede giudiziaria7. Non stupisce dunque che il GDPR abbia rimesso a futuri atti dell’Unione o degli Stati membri il compito di dettare apposite regole per il caso in cui il trattamento dei dati personali sia effettuato da autorità giurisdizionali8. In mancanza di regole comuni sulla anonimizzazione delle sentenze, emergono sostanziali differenze all’interno dell’Unione e degli Stati prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali (art. 2, lett d) il considerando n. 19 del GDPR). 4   Cfr. l’art. 9 del GDPR, secondo cui il divieto di trattare dati personali che rivelino l’origine razziale o etnica, le opinioni politiche, le convinzioni religiose o filosofiche, o l’appartenenza sindacale, nonché trattare dati genetici, dati biometrici intesi a identificare in modo univoco una persona fisica, dati relativi alla salute o alla vita sessuale o all’orientamento sessuale della persona non si applica quando il «trattamento è necessario per accertare, esercitare o difendere un diritto in sede giudiziaria o ogniqualvolta le autorità giurisdizionali esercitino le loro funzioni giurisdizionali». Analoga previsione è contenuta nell’art. 10, comma 2, lett. f) del Regolamento (UE) 2018/1725. 5  Cfr. gli artt. art. 37 del GDPR. Come precisato nel considerando n. 29 del GDPR, tuttavia, il controllo sul trattamenti di dati delle autorità giurisdizionali potrebbe essere affidato «ad organismi specifici all’interno del sistema giudiziario dello Stato membro, che dovrebbero in particolare assicurare la conformità alle norme del presente Regolamento, rafforzare la consapevolezza della magistratura con riguardo agli obblighi che alla stessa derivano dal presente regolamento ed esaminare i reclami in relazione a tali operazioni di trattamento dei dati». 6   Cfr. l’art. 55 del GDPR. 7   Cfr. l’art. 17, comma 3, del GDPR e l’art. 19, comma 3 del Regolamento (UE) 2018/1725. 8   Cfr. il considerando n. 20 del GDPR, dove si evidenzia che, «sebbene il presente regolamento si applichi, tra l’altro, anche alle attività delle autorità giurisdizionali e di altre autorità giudiziarie, il diritto dell’Unione o degli Stati membri potrebbe specificare le operazioni e le procedure di trattamento relativamente al trattamento dei dati personali effettuato da autorità giurisdizionali e da altre autorità giudiziarie». © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

612

Filippo Donati

membri, che riflettono la difficoltà di trovare un punto di equilibrio tra protezione dei dati personali, da una parte, e libertà di informazione e trasparenza della giustizia, dall’altra parte9. Il Tribunale dell’Unione europea, ad esempio, provvede all’oscuramento dei dati personali soltanto su espressa istanza di parte e in presenza di «ragioni legittime»10. Se il Tribunale accorda prevalenza al principio di trasparenza della funzione giurisdizionale, per la Corte di giustizia priorità va invece accordata all’esigenza di protezione della vita privata delle persone menzionate nei provvedimenti giudiziari e dei loro dati personali. Nonostante che il Regolamento di procedura della Corte di giustizia preveda l’oscuramento dei dati personali solo quando l’anomimato sia stato concesso ovvero sia richiesto dal giudice del rinvio11, dal 1° luglio 2018 la Corte di Lussemburgo sostituisce il nome delle parti con iniziali aleatorie ed elimina negli atti di causa ogni riferimento atto a consentirne l’identificazione12. La Corte di Giustizia ha altresì invitato i giudici comuni a effettuare l’anonimizzazione dei provvedimenti di rinvio pregiudiziale13 e chiede alle parti del procedimento, nelle os9   Cfr. al riguardo Cfr. al riguardo C. Iannone e E. Salemme, L’anonimizzazione delle decisioni giudiziarie della Corte di giustizia e dei giudici degli Stati membri dell’Unione europea, in A. Ciriello e G. Grasso (a cura di), Il trattamento dei dati personali in ambito giudiziario, Scuola Superiore della Magistratura, Quaderno n. 5, Roma 2021, p. 103 ss.; M. Van Opijnen, G. Peruginelli, E. Kefali e M. Palmirani, On-line Publication of Court Decisions in the EU. Report of the Policy Group of the Project ‘Building on the European Case Law Identifier’, 2017, in https://bo-ecli. eu/uploads/deliverables/Deliverable%20WS0-D1.pdf. Cfr. inoltre E. Gruodyte, S. Milčiuvienė, Anonymization of court decisions in the EU: actual and comparative issues, in Law Review, n. 2 (18), 2018, p. 60 ss. 10   Cfr. l’art. 66 del regolamento di procedura del Tribunale (anonimato e omissione di determinati dati nei confronti del pubblico): »Investito di una domanda motivata di una parte presentata con separata istanza o d’ufficio, il Tribunale può omettere il nome di una parte in causa o quello di terzi menzionati nell’ambito del procedimento, oppure determinati dati nei documenti concernenti la causa cui il pubblico ha accesso, qualora ragioni legittime giustifichino che l’identità di una persona o il contenuto di tali dati siano tenuti riservati». Le norme pratiche di attuazione precisano, al punto 72, che la domanda di oscuramento «deve indicare esattamente i dati di cui trattasi e contenere una motivazione in merito alla riservatezza di ciascuno degli stessi». 11  Cfr. l’art. 95 del regolamento di procedura della Corte giust. su cui cfr. G. Grasso, Commento all’art. 95 del regolamento di procedura della Corte di giustizia, in C. Amalfitano, M. Condinanzi e M. Iannuccelli (a cura di), Le regole del processo dinanzi al giudice dell’Unione europea, Napoli 2017. 12   Corte di giustizia dell’Unione europea, A partire dal 1° luglio 2018, le cause pregiudiziali nelle quali sono coinvolte persone fisiche saranno anonimizzate, Comunicato Stampa n. 96/18, 29 giugno 2018. 13   Raccomandazioni all’attenzione dei giudici nazionali relative alla presentazio-

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Trasparenza della giustizia e anonimizzazione dei provvedimenti

613

servazioni scritte o orali, di rispettare l’anonimato concesso alle cause pregiudiziali14. Per la Corte di giustizia vale dunque la regola dell’anonimizzazione, salvo che la pubblicazione integrale delle sentenze o dei provvedimenti sia espressamente richiesta dagli interessati o sia giustificata da particolari circostanze15. Diversamente da quanto avviene davanti alla Corte di giustizia, per la Corte europea dei diritti dell’uomo, come per il Tribunale dell’Unione, vale l’opposto principio dell’integrale pubblicazione delle sentenze. Il regolamento di procedura della Corte EDU impone al ricorrente che desidera conservare l’anonimato di precisarlo e di esporre i motivi che giustificano una deroga alla pubblicità del procedimento davanti alla Corte. Il presidente della Camera decide sulle richieste di anonimato e, dove ritenuto necessario, può disporre d’ufficio l’oscuramento dei dati personali16. La guida pratica all’applicazione del regolamento avverte tuttavia le parti che, in mancanza di un provvedimento che dispone l’anonimato, tutti i documenti depositati in giudizio sono ne di domande di pronuncia pregiudiziale (2019/C 380/01), punto 21. Le raccomandazioni prevedono, al punto 24, che «la domanda di pronuncia pregiudiziale deve pervenire alla cancelleria con tutti i documenti rilevanti e utili per la trattazione della causa da parte della Corte e, in particolare, i recapiti precisi delle parti in causa nel procedimento principale e dei loro eventuali rappresentanti, nonché il fascicolo del procedimento principale o una sua copia. Tale fascicolo (o la sua copia) — che può essere trasmesso per via telematica o postale — sarà conservato per tutta la durata del procedimento dinanzi alla Corte presso la cancelleria, ove, salvo contraria indicazione del giudice del rinvio, potrà essere consultato dagli interessati di cui all’art. 23 dello Statuto». 14   Cfr. il punto 7 delle le istruzioni pratiche alle parti, in merito alle cause promosse dinanzi alla Corte, dove si precisa che «la Corte tratta di norma le cause pregiudiziali in forma anonima. Tale approccio implica in pratica che, salvo circostanze particolari, la Corte procede all’omissione del cognome e del nome delle persone fisiche menzionate nella domanda di pronuncia pregiudiziale e, se del caso, di altri elementi che possano consentirne la reidentificazione qualora tale operazione non sia stata effettuata dal giudice del rinvio, prima dell’invio della sua domanda. Nelle loro osservazioni, scritte o orali, tutti gli interessati di cui all’art. 23 dello statuto sono invitati a rispettare l’anonimato così concesso». 15   Nel citato comunicato stamp. 96/18, la Corte di giustizia ha precisato che, per agevolare la citazione e l’individuazione delle cause anonimizzate, quando la causa vede opposte solo persone fisiche, il nome della causa corrisponderà a due iniziali che rappresentano il nome e il cognome della parte ricorrente, ma che sono diverse da nome e cognome reali di tale parte. Per evitare la proliferazione di cause recanti le stesse iniziali, la Corte aggiunge alle due iniziali un elemento distintivo, tra parentesi. Quando tra le parti in causa ci sono persone fisiche e persone giuridiche, il nome della causa corrisponderà al nome di una delle persone giuridiche. 16   Cfr. l’art. 47, comma 4, del regolamento di procedura della Corte EDU. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

614

Filippo Donati

pubblici e ogni informazione personale fornita nel corso del procedimento, in forma scritta o orale, è resa accessibile al pubblico17. In definitiva, mentre di fronte al Tribunale dell’Unione e alla Corte EDU la regola è la pubblicità e l’anonimato è l’eccezione, per la Corte di giustizia l’anonimato è la regola e la pubblicità è l’eccezione. L’eterogeneità delle prassi vigenti presso le Corti europee trova conferma a livello nazionale18. Nella maggior parte degli Stati membri le sentenze vengono rese anonime prima della loro pubblicazione, di solito a prescindere dall’organo giudicante19, a meno che l’oscuramento dei dati personali possa pregiudicare la corretta comprensione della decisione20. Di regola soltanto i dati delle parti persone fisiche vengono oscurati21; una recente riforma in Francia consente tuttavia di estendere l’anonimizzazione 17   La guida pratica allegata al regolamento di procedura ricorda alle parti che «unless a derogation has been obtained pursuant to Rules 33 or 47 of the Rules of Court, documents in proceedings before the Court are public. Thus, all information that is submitted in connection with an application in both written and oral proceedings, including information about the applicant or third parties, will be accessible to the public». Si aggiunge poi che «any request for anonymity should be made when completing the application form or as soon as possible thereafter. In both cases the applicant should provide reasons for the request and specify the impact that publication may have for him or her». 18   Al riguardo cfr. lo studio della direzione ricerca e documentazione della Corte di giustizia su Anonymity of the parties on the publication of court decisions, in https://curia.europa.eu/jcms/upload/docs/application/pdf/2021-02/ndr_2017-002_ neutralisee-en.pdf. Cfr. inoltre M. Van Opijnen, G. Peruginelli, E. Kefali e M. Palmirani, On-line Publication of Court Decisions in the EU. Report of the Policy Group of the Project ‘Building on the European Case Law Identifier’, cit., dal quale saranno tratte le indicazioni di seguito riportate nel testo. 19   In numerosi Stati, tuttavia, il principio di anonimizzazione riguarda soltanto le pronunce rese da determinati organi giudiziari, di regola le Corti di ultima istanza, ad esclusione delle Corti costituzionali. Per indicazioni al riguardo cfr. C. Iannone, E. Salemme, L’anonimizzazione delle decisioni giudiziarie della Corte di giustizia e dei giudici degli Stati membri dell’Unione europea, cit., p. 119 ss. 20   Secondo lo studio Anonymity of the parties on the publication of court decisions, cit., la regola dell’anonimizzazione dei provvedimenti giudiziari si applica in è questo il caso di Austria, Bulgaria, Danimarca, Paesi Bassi, Finlandia, Germania, Grecia, Ungheria, Lussemburgo, Portogallo, Slovenia, Svezia. In Austria, Germania, Ungheria, Olanda e Slovenia non viene però disposta l’anonimizzazione quando la stessa renderebbe difficile la comprensione della decisione. 21  Cfr. M.Van Opijnen, G. Peruginelli, E. Kefali e M. Palmirani, On-line Publication of Court Decisions in the EU. Report of the Policy Group of the Project ‘Building on the European Case Law Identifier’. Cfr. altresì E. Gruodyte e S. Milčiuvienė, Anonymization of court decisions in the EU: actual and comparative issues, cit., p. 68.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Trasparenza della giustizia e anonimizzazione dei provvedimenti

615

anche ai nomi dei giudici e del personale di cancelleria22. Sono riscontrabili infine ulteriori differenze nelle prassi seguite all’interno degli Stati membri con riguardo all’individuazione di materie rispetto alle quali il principio della anonimizzazione non opera ovvero subisce limitazioni23. Differenze emergono, infine, con riguardo al tipo di anonimizzazione (oscuramento completo dei dati, sostituzione dei nomi con iniziali, utilizzo di indicazioni di fantasia etc.), alle modalità di oscuramento dei dati personali (in via manuale, attraverso l’impiego di un software ovvero in forma mista) e al soggetto cui attribuire il compito di oscurare i dati personali (la stessa Corte che ha adottato il provvedimento, un ufficio giudiziario a ciò preposto ovvero un soggetto esterno all’ordinamento giudiziario)24. Sono pochi gli Stati membri in cui la regola è quella della pubblicazione integrale delle sentenze. In tali Stati, peraltro, viene affidato ai magistrati il compito di disporre l’oscuramento dei dati personali prima della pubblicazione delle sentenze o dei provvedimenti giudiziari, quando ricorrono particolari esigenze di tutela della riservatezza dei soggetti coinvolti, come ad esempio per i procedimenti a porte chiuse e per quelli che riguardano minori o vittime di reati sessuali25. 3. L’Italia rientra tra i (pochi) paesi in cui la pubblicazione integrale dei provvedimenti giudiziari costituisce la regola, mentre l’oscuramento dei dati personali rappresenta l’eccezione26. 22   Cfr. il décret n° 2020-797 du 29 juin 2020 relatif à la mise à la disposition du public des décisions des juridictions judiciaires et administratives. 23   Ciò avviene con riguardo al settore dei marchi in Germania e in Portogallo e nel campo della concoreenza in Germania: cfr. Anonymity of the parties on the publication of court decisions, cit. In Estonia il principio dell’anonimato si applica normalmente solo nell’ambito penale, ma non riguarda i dati relativi alle persone accusate di un reato, tranne nel caso in cui si tratti di minori: cfr. E. Gruodytė, Anonymization Of Court Decisions: Are Restrictions On The Right To Information In “Accordance With The Law”?, in Baltic Journal of Law & Politics, 9:2, 2016, pp. 150-170. 24   Per indicazioni al riguardo cfr. C. Iannone e E. Salemme, L’anonimizzazione delle decisioni giudiziarie della Corte di giustizia e dei giudici degli Stati membri dell’Unione europea, cit., p. 121 ss. e M.Van Opijnen, G. Peruginelli, E. Kefali e M. Palmirani, On-line Publication of Court Decisions in the EU. Report of the Policy Group of the Project ‘Building on the European Case Law Identifier’, cit., p. 24 ss. 25   Il riferimento è agli ordinamenti di Italia, Irlanda e Malta. Anche nel Regno Unito l’anonimizzazione è usata molto di rado e le informazioni che identificano le persone coinvolte in un giudizio sono sempre disponibili. 26  Sulla anonimizzazione dei provvedimenti giudiziari in Italia cfr., fra gli altri, G. Grasso, Il trattamento dei dati di carattere personale e la riproduzione dei

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

616

Filippo Donati

Il codice della privacy27 dispone infatti che gli atti, i documenti e i dati identificativi delle questioni pendenti nonché le sentenze e le altre decisioni dell’autorità giudiziaria di ogni ordine e grado depositate in cancelleria o segreteria sono resi accessibili al pubblico anche attraverso la rete internet28. Due sono le ipotesi in cui si deve procedere all’oscuramento dei dati personali contenuti nei provvedimenti giudiziari. L’anonimizzazione può essere disposta «per motivi legittimi» dall’autorità che ha pronunciato la sentenza o adottato il provvedimento, su richiesta dell’interessato29, ovvero d’ufficio, quando ritenuto necessario per esigenze di «tutela dei diritti o della dignità degli interessati»30. In casi del genere, sull’originale della sentenza o del provvedimento viene apposta un’annotazione volta a precludere, in caso di riproduzione degli stessi, l’indicazione delle generalità e di altri dati identificativi del medesimo interessato riportati sulla sentenza o provvedimento. L’anonimizzazione è invece necessaria, perchè imposta dalla legge, con riguardo alle persone offese da atti di violenza sessuale, ai minori e alle parti dei procedimenti in materia di rapporti di famiglia e di stato delle persone31. Al di fuori di queste due ipotesi, è sempre ammessa la diffusione in ogni forma del contenuto, anche integrale, delle sentenze e degli altri provvedimenti giurisdizionali32. L’impianto normativo sopra richiamato, che trova conferma anche nel codice dell’amministrazione digitale33, offre alle autorità giudiziarie provvedimenti giudiziari, in Foro it., 2018, c. 349 ss.; Id., Il trattamento dei dati di carattere personale e la riproduzione dei provvedimenti giudiziari: dal Codice della privacy all’attuale disciplina, in Scuola Superiore della magistratura, 25 ottobre 2019, in www.corteappello.bari.it/allegato_corsi.aspx?File_id_allegato=3563; P. Patatini e F. Troncone (a cura di), L’oscuramento dei dati personali nei provvedimenti della Corte Costituzionale, Servizio Studi della Corte Costituzionale, dicembre 2020, in www.cortecostituzionale.it/documenti/convegni_seminari/STU%20316_Oscuramento_dati_personali.pdf. 27   D.lgs. 30 giugno 2003, n. 196, Codice in materia di protezione dei dati personali, recante disposizioni per l’adeguamento dell’ordinamento nazionale al Regolamento (UE) n. 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE. 28   Art. 51, commi 1 e 2, d.lgs. n. 196 del 2003. 29   Art. 52, comma 1, d.lgs. n. 196 del 2003. 30   Art. 52, comma 2, d.lgs. n. 196 del 2003. 31   Art. 52, comma 5, d.lgs. n. 196 del 2003. 32   Art. 52, comma 7, d.lgs. n. 196 del 2003. 33   L’art. 56, comma 2, del d.lg. 7 marzo 2005, n. 82 (Codice dell’amministrazioISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Trasparenza della giustizia e anonimizzazione dei provvedimenti

617

un consistente margine di flessibilità. L’art. 52 del codice della privacy, infatti, non specifica quali siano i «motivi legittimi» che possono giustificare la richiesta di oscuramento dei dati personali. Il Garante della privacy ha ritenuto che i «motivi legittimi» ricorrano in presenza di «dati sensibili»34 o di una vicenda particolarmente delicata35. La Corte di cassazione ha inoltre ritenuto che l’espressione «motivi legittimi» possa essere interpretata come sinonimo di motivi di opportunità, la verifica della cui sussistenza è demandata al giudice del caso36. Quella dei «motivi legittimi», in ultima analisi, integra evidentemente gli estremi di una clausola aperta, la cui concreta interpretazione è in definitiva rimessa al prudente apprezzamento dell’autorità giudiziaria. A tal fine il giudice dovrà effettuare «un bilanciamento tra le esigenze di riservatezza del singolo e il principio della generale conoscibilità dei provvedimenti giurisdizionali e del contenuto integrale delle sentenze, quale strumento di democrazia e di informazione giuridica»37. L’anonimizzazione richiede, in definitiva, una decisione da adottare di volta in volta sulla base di un bilanciamento in concreto degli opposti interessi in gioco38. Anche il giudice amministrativo ritiene che la parte interessata debne digitale) prevede che le sentenze e le altre decisioni del giudice amministrativo e contabile, rese pubbliche mediante deposito in segreteria, siano pubblicate anche sul sito istituzionale della rete Internet «osservando le cautele previste dalla normativa in materia di tutela dei dati personali». Il comma 2-bis della medesima disposizione aggiunge che «i dati identificativi delle questioni pendenti, le sentenze e le altre decisioni depositate in cancelleria o segreteria dell’autorità giudiziaria di ogni ordine e grado sono, comunque, rese accessibili ai sensi dell´art. 51 del codice in materia di protezione dei dati personali approvato con decreto legislativo n. 196 del 2003». 34   Cfr. l’art. 4, lett. d) del d.lgs. n. 196 del 2003, secondo cui sono dati sensibili «i dati personali idonei a rivelare l’origine razziale ed etnica, le convinzioni religiose, filosofiche o di altro genere, le opinioni politiche, l’adesione a partiti, sindacati, associazioni od organizzazioni a carattere religioso, filosofico, politico o sindacale, nonché i dati personali idonei a rivelare lo stato di salute e la vita sessuale». La classificazione riprende quella contenuta nell’art. 9, comma 1, GDPR. 35   Linee guida «in materia di trattamento di dati personali nella riproduzione di provvedimenti giurisdizionali per finalità di informazione giuridica», adottate il 2 dicembre 2010 e pubblicate sulla G.U. n. 2 del 4 gennaio 2011. Le linee guida, inoltre, evidenziano il «rischio delle pubblicazioni on-line, suscettibili di indicizzazione, riproduzione decontestualizzata, alterazione, finanche manipolazione e per questo in alcun modo assimilabili alle pubblicazioni cartacee», raccomandando la protezione dei dati personali contenuti nei provvedimenti destinati alla pubblicazione 36   Cfr. Cass. Civ., Sez. V, ord. 7 agosto 2020, n. 16807. 37   Così Cass., Sezione tributaria, ord. 10 agosto 2021, n. 22561. 38   Cfr. Cass. pen., Sez. trib. VI, sent. 15 febbraio 2017, n. 11959. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

618

Filippo Donati

ba provare le oggettive ragioni che legittimano l’oscuramento dei dati anagrafici e che, in mancanza di tale dimostrazione e in assenza degli eccezionali motivi che consentono di oscurare tali dati, le sentenze ed i provvedimenti giudiziari debbano essere pubblicati nella loro interezza, ciò rappresentando «un necessario corollario del principio costituzionale dell’amministrazione della giustizia in nome del popolo»39. Nonostante tali affermazioni di principio, la giurisprudenza ordinaria e amministrativa tende, in determinate materie, ad anonimizzare le sentenze anche in assenza di una richiesta dell’interessato e senza offrire una motivazione circa l’esistenza di ragioni impellenti di tutela dei dati personali che giustificano la deroga al principio di trasparenza della giustizia. Così, ad esempio, le sentenze sul conferimento degli incarichi direttivi e semi-direttivi, sui trasferimenti e sulle valutazioni di professionalità dei magistrati sono pubblicate sul sito della giustizia amministrativa con la cancellazione di ogni riferimento che possa permettere di risalire al nome delle parti coinvolte40. Analogamente, non solo i provvedimenti in materia disciplinare del Consiglio superiore della magistratura, ma anche le sentenze delle Sezioni unite che decidono sui ricorsi avverso gli stessi sono anonimizzati prima di essere resi accessibili al pubblico41. Una siffatta prassi suscita tuttavia notevoli perplessità, perché impedisce alla opinione pubblica una piena comprensione della vicenda oggetto del giudizio e un controllo effettivo sul modo in cui la giurisdizione è stata esercitata nei confronti dei magistrati di volta in volta coinvolti in vicende amministrative e giudiziarie. Così come suscita perplessità l’orientamento del Consiglio superiore della magistratura che, nelle linee guida sulla ricostituzione di una banca dati della giurisprudenza di merito approvate nell’ottobre del 2017, aveva ritenuto opportuno, in assenza di «massima certezza» sulla tutela della privacy, riservarne la consultazione ai soli magistrati42, con un orientamento restrittivo che successivamente pare essere stato abbandonato43. 39   Da ultimo, cfr. TAR Lazio, Sez. III, sent. 1° febbraio 2021, n. 579, su cui E. Concilio, Atti giudiziari e tutela dei dati personali (nota a TAR Lazio, Sez. III, 1° febbraio 2021, n. 579), in Questione giustizia, 29 marzo 2021. 40  Cfr., ex multis, Consiglio di Stato, Sez. V, sentt. 11 maggio 2021, n. 3712 e 3713. 41  Cfr., ex multis, Cass., S.U. civ., sent. 4 agosto 2021, n. 22302. 42   Cfr. le «Linee guida volte alla individuazione delle modalità di ricostituzione di una banca dati della giurisprudenza di merito» (delibera del 31 ottobre 2017). 43   Con delibera del 7 ottobre 2020 il CSM ha dettato ulteriori disposizioni per proseguire il lavoro di costituzione della Banca dati di merito, attraverso l’inserimen-

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Trasparenza della giustizia e anonimizzazione dei provvedimenti

619

Anche la Corte dei conti segue una prassi oscillante. Nei giudizi in materia di contabilità le sentenze vengono pubblicate integralmente, salvo ovviamente la possibilità di applicare le deroghe previste dalla legge. In materia pensionistica, invece, le sentenze vengono anonimizzate prima della loro diffusione su internet. L’esigenza di protezione dei dati personali è particolarmente avvertita anche dalla Corte costituzionale. Nell’ambito dei giudizi incidentali è stata registrata una percentuale di anonimizzazione pari al 52% dei casi nel 2019 e al 58% dei casi nel 202044. La particolare sensibilità della Corte costituzionale per l’esigenza di tutela dei dati personali ha trovato conferma nelle norme integrative, come modificate lo scorso 22 luglio 2021, dove si attribuisce al Presidente, previa deliberazione del collegio, il compito di adottare una nuova disciplina volta a garantire la protezione dei dati personali in sede di pubblicazione e diffusione degli atti di promovimento e delle decisioni della Corte45. 4. Nonostante che l’analisi comparata evidenzi una tendenza, in Europa, verso una l’adozione in via automatica e generalizzata di forme più o meno estese di anonimizzazione delle sentenze e degli altri provvedimenti giudiziari, è quella del legislatore italiano la scelta che pare più equilibrata. A parte i pochi casi in cui sussiste per definizione un interesse preminente alla protezione della vita privata e dei dati to dei provvedimenti nell’archivio di merito di Italgiure web, mediante la piattaforma creata da DGSIA e messa a disposizione dei referenti per gli archivi di merito. Nessun riferimento è tuttavia riportato nella nuova delibera al carattere chiuso dell’accesso alla banca dati. 44   Cfr. P. Patatini e F. Tronconi (a cura di), L’oscuramento dei dati personali nei provvedimenti della Corte costituzionale, Corte costituzionale – Servizio Studi, dicembre 2020, p. 46. Tali percentuali sono state calcolate tenendo conto delle sole pronunce emesse nei giudizi in via incidentale e in sede di ammissibilità conflitto e conflitto tra poteri. Dallo studio è emerso, tra l’altro, che nel settore penale l’anonimizzazione ha interessato la quasi totalità dei casi. L’anonimizzazione viene effettuata tramite sostituzione del nome delle parti con una sigla. La siglatura, a differenza di quella praticata dalla magistratura ordinaria e amministrativa, non è però un’operazione realizzata ex post, cioè in vista della diffusione del provvedimento per fini di studio e ricerca; è infatti la decisione stessa (sia sentenza che ordinanza) a «nascere» con l’omissione dei nomi delle parti. 45   Art. 34 delle Norme integrative: (Protezione dei dati personali). «Al fine di assicurare il rispetto della normativa in materia di protezione dei dati personali, il Presidente stabilisce, con proprio decreto, previa deliberazione della Corte, i criteri e le modalità di pubblicazione e diffusione degli atti di promovimento e delle decisioni della Corte». © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

620

Filippo Donati

personali, come ad esempio per le vittime di reati sessuali o i minori, sembra infatti ragionevole demandare al giudice investito della controversia il compito di stabilire, alla luce della specificità del caso concreto, se l’esigenza di tutela della riservatezza debba prevalere sull’interesse generale alla trasparenza ed alla controllabilità della funzione giurisdizionale. Nel procedere al bilanciamento tra gli interessi contrapposti che rilevano quando si tratta di decidere sull’anonimizzazione dei provvedimenti giudiziari, giusto peso deve essere attribuito al principio di trasparenza della giustizia. Quello della pubblicità del processo, ha sottolineato la Corte costituzionale, è un principio di «garanzia di giustizia e mezzo per allontanare qualsiasi sospetto di parzialità» nell’esercizio della funzione giurisdizionale46. La Corte EDU non ha mancato di sottolineare che la pubblicità della procedura tutela le persone sottoposte a giudizio da una giustizia segreta che si sottragga al controllo del pubblico, e ha aggiunto che la pubblicità è presupposto per preservare la fiducia nelle Corti e nei Tribunali e, rendendo trasparente l’amministrazione della giustizia, concorre a realizzare i principi del giusto processo47. È del resto a tutti noto che l’obbligo costituzionale di motivazione delle sentenze serve non soltanto a garantire l’esercizio del diritto di difesa delle parti nel giudizio, ma anche a permettere un controllo pubblico sull’operato del giudice48. Secondo un antico insegnamento, «la pubblicità è l’essenza della giustizia» perché «perché pone il giudice stesso, mentre giudica, sotto giudizio»49. Le sentenze prive di riferimenti volti a permetterne l’identificazione delle parti sono difficilmente comprensibili. L’anonimizzazione delle sentenze in materia di conferimento di uffici direttivi, trasferimenti, valutazioni di professionalità e provvedimenti disciplinari nei confronti dei magistrati, ad esempio, rende più ardua e talvolta impedisce, per chi non abbia diretta conoscenza della vicenda, l’esatta comprensione

  Corte cost., sentt. nn. 25 del 1965 e 115 del 2001.   Corte eur. dir. uomo, Sez. III, sent. 14 novembre 2000 (definitiva dal 14 febbraio 2001), ricorso n. 35115/97, (Riepan c. Austria), par. 27; I Sez., sent. 28 ottobre 2010 (definitiva dal 28 gennaio 2011), ricorso n. 14040/03, (Krestovskiy c. Russia), par. 24. 48   Corte eur. dir. uomo, Sez. I, sent. 22 febbraio 2007 (definitiva dal 9 luglio 2007), ricorso n. 1509/02, (Tatishvili c. Russia), par. 58. 49   Così, richiamando Jeremy Bentham, E. Bruti Liberati, Il senso della giustizia, in La Stampa, 4 gennaio 2022. 46 47

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Trasparenza della giustizia e anonimizzazione dei provvedimenti

621

della specificità del caso concreto e del modo in cui la giurisdizione è stata esercitata nei confronti dei singoli magistrati. La questione non è solo teorica. L’esperienza di altri ordinamenti, in particolare quello polacco, offre molti casi di corti assoggettate al controllo del potere politico e di magistrati ingiustamente discriminati nell’assegnazione delle sedi o nel conferimento di posizioni direttive ovvero assoggettati a sanzioni disciplinari per le opinioni espresse o per il contenuto delle decisioni rese50. È quindi difficile poter giustificare, in nome della pur importante esigenza di protezione dei dati personali, una rinuncia al controllo democratico sull’esercizio del potere giurisdizionale nei confronti dei singoli magistrati. La conoscenza dei nomi delle parti è il presupposto necessario per stimolare la cronaca giudiziaria. Per catturare l’attenzione del pubblico è solitamente necessario un riferimento ad un caso specifico e alle vicende umane che lo riguardano. Un conto è riportare la notizia dell’annullamento della delibera di conferimento di un incarico direttivo ad un magistrato senza rivelare il nome del magistrato e dell’ufficio direttivo in questione. Tutt’altro conto, ad esempio, è riportare la notizia che la nomina del procuratore di Roma è stata annullata su ricorso di determinati magistrati. L’informazione è presupposto indispensabile per il controllo sull’esercizio del potere e della democrazia. Sotto questo profilo anche la cronaca giudiziaria riveste un importante ruolo. È però difficile che, al di fuori di una ristretta cerchia di operatori del diritto, il pubblico possa interessarsi ad un astratto principio di diritto, se non calato all’interno della vicenda umana che lo stesso è stato chiamato a regolare. Un motivo in più a favore della trasparenza della giustizia. La crescente digitalizzazione delle informazioni, ivi comprese quelle che attengono alla sfera giudiziaria, la creazione di banche dati sempre più complete e la diffusione di potenti motori di ricerca non giustificano differenti conclusioni. Internet ha certamente reso più facile rispetto al passato reperire notizie sulle controversie e sulle parti in esse coinvolte. Non si tratta però di uno sviluppo necessariamente negativo. Se la trasparenza della giustizia risponde ad esigenze di rilievo costituzionale, la maggiore facilità di accesso e di circolazione

50   Per riferimenti cfr., eventualmente, F. Donati, Dal CSM ai Consigli di Giustizia europei. L’incerta diffusione di un modello costituzionale, in Quaderni costituzionali, 2021, II, p. 360 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

622

Filippo Donati

delle sentenze e dei provvedimenti giudiziari rappresenta un fattore positivo. È un bene che, oggi, le decisioni degli organi giurisdizionali possano essere lette e commentate potenzialmente da chiunque, non solo da una ristretta cerchia di operatori della giustizia. Il principio della giustizia aperta è un corollario dello stato di diritto. I giudici, chiamati ad assicurate il rispetto della legge e la tutela dei diritti fondamentali, debbono operare in piena trasparenza. In uno Stato democratico, nessun potere può essere sottratto al controllo pubblico. Il principio di trasparenza nell’esercizio del potere, incluso quello giurisdizionale, implica che la stampa e i media possano liberamente riportare lo svolgimento e l’esito dei processi. La pubblicità è il maggior deterrente contro abusi di potere e comportamenti non corretti. Il principio di apertura e trasparenza della giustizia richiede quindi, come regola generale, la pubblicazione integrale delle sentenze. La trasparenza della funzione giurisdizionale e la pubblicazione integrale dei provvedimenti giudiziari, infatti, sono condizioni indispensabili per permettere alla pubblica opinione di sapere come la legge viene applicata nei casi concreti con riferimento alle singole persone o categorie di persone. Come è stato correttamente sottolineato, per garantire il controllo pubblico sull’esercizio della funzione giurisdizionale occorre permettere ai cittadini di conoscere anche i nominativi delle parti coinvolte, degli avvocati e degli interessi in gioco, così da permettere una comparazione tra le pronunce rese in casi assimilabili e «verificare se il giudice si sia attenuto alla medesima regola di giudizio indipendentemente dalla rilevanza degli interessati»51. Se mancasse la possibilità di accedere al testo integrale delle sentenze, come sarebbe mai possibile scoprire se un determinato organo giurisdizionale, per qualsivoglia motivo, abbia accordato un trattamento deteriore alle persone di un certo orientamento politico o di un determinato genere o di una certa minoranza? Una società aperta e democratica ha interesse a conoscere come viene amministrata la giustizia. Tale conoscenza rappresenta una forma di controllo sull’esercizio del potere dello Stato, uno scudo contro possibili violazioni del principio di eguaglianza dinanzi alla legge. Il principio della giustizia aperta e trasparente, ovviamente, può e deve subire giustificate eccezioni, quando l’interesse pubblico a conoscere 51  Così P. Patatini e F. Troncone (a cura di), L’oscuramento dei dati personali nei provvedimenti della Corte Costituzionale, cit., p. 28.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Trasparenza della giustizia e anonimizzazione dei provvedimenti

623

la sentenza nella sua interezza è superato dalla necessità di proteggere l’identità di una parte, ad esempio un minore, la vittima di una violenza sessuale o il richiedente asilo che teme di essere ucciso o torturato se riportato nel suo paese d’origine. Ma la diffusa tendenza alla anonimizzazione generalizzata dei provvedimenti giudiziari appare una forma eccessiva di protezione dei dati personali che rischia di rendere la giustizia meno trasparente e controllabile. In sostanza, il preminente interesse pubblico a sapere come la giustizia viene amministrata nei singoli casi concreti dovrebbe, in linea di principio e salvo giustificate deroghe, prevalere sull’interesse delle persone a tenere nascosta la propria vicenda giudiziaria52. 5. L’oscuramento dei dati personali contenuti nelle sentenze e nei provvedimenti giurisdizionali accessibili al pubblico rappresenta, sotto molti profili, un problema ancora aperto. La prassi, a livello di Unione europea e dei singoli Stati membri, appare molto variegata. In linea generale, tuttavia, si riscontra una tendenza verso l’anonimizzazione generalizzata delle sentenze e dei provvedimenti giudiziari. La Corte di giustizia e la maggior parte delle giurisdizioni degli Stati membri, infatti, nel bilanciamento tra l’esigenza di tutelare la riservatezza dei dati personali, da una parte, e quella di promuovere la trasparenza della giustizia e di garanzia della libertà di informazione, dall’altra parte, tendono automaticamente a privilegiare la prima. L’Italia costituisce un’eccezione rispetto a tale tendenza. Nel nostro ordinamento la legge individua alcuni limitati casi in cui, per la delicatezza della situazione o per le caratteristiche della persona coin-

52   Per diverse conclusioni cfr. peraltro C. Iannone e E. Salemme, L’anonimizzazione delle decisioni giudiziarie della Corte di giustizia e dei giudici degli Stati membri dell’Unione europea, cit., p. 124, secondo i quali «l’anonimizzazione, e dunque, l’oscuramento dei nomi propri, si presenta come il giusto compromesso tra queste esigenze (…) di accesso alla giustizia e di protezione dei dati personali degli individui coinvolti»; F. D’alessandri, La privacy delle decisioni giudiziarie pubblicate sul sito internet istituzionale della Giustizia Amministrativa (relazione al convegno di Convegno Capri sull’informatica giuridica del 12.10.2019), in www.sipotra.it/wp-content/uploads/2019/10/La-privacy-delle-decisioni-giudiziarie-pubblicate-sul-sito-internet-istituzionale-della-Giustizia-Amministrativa.pdf, secondo il quale, per la tutela della riservatezza delle parti, occorrerebbe «l’anonimizzazione generalizzata (mediante le sole inziali o la semplice eliminazione dei riferimenti delle persone fisiche) dei provvedimenti giudiziari».

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Filippo Donati

624

volta, l’anonimizzazione dei provvedimenti giudiziari è obbligatoria53. In tutti gli altri casi spetta alle singole autorità giudiziarie il compito di effettuare un bilanciamento tra le contrapposte esigenze e, alla luce della particolarità del caso concreto, decidere se disporre o meno l’oscuramento dei dati personali prima che la sentenza o il provvedimento siano resi accessibili al pubblico. Alcune giurisdizioni, però, tendono in certi settori a seguire la tendenza prevalente a livello europeo. È quanto accade, ad esempio, in un settore particolarmente delicato come quello che riguarda i trasferimenti, le valutazioni di professionalità, le promozioni e i provvedimenti disciplinari nei riguardi dei magistrati. Una prassi del genere suscita tuttavia perplessità, perché ostacola il controllo dell’opinione pubblica sull’esercizio della giurisdizione e finisce per limitare eccessivamente l’ambito di applicazione del principio costituzionale della giustizia aperta, che è uno dei fondamenti dello Stato di diritto e della democrazia.

  Art. 52, comma 5, d.lgs. n. 196 del 2003.

53

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Paola Felicioni*

Il trattamento dei dati genetici tra efficacia investigativa e tutela della riservatezza

Sommario: 1. Prova del DNA e procedimento penale: il lungo cammino verso l’attuazione dei princìpi. – 2. Le due anime della legge n. 85 del 2009. - 2.1. Acquisizione di dati genetici e tipologie di prelievo coattivo («processuale», «investigativo», «transnazionale», «istituzionale») - 2.2. Archiviazione e utilizzazione probatoria dei profili genetici. – 3. I princìpi che regolano la banca dati nazionale del DNA. – 4. La consultazione: ricerca e raffronto dei profili del DNA. - 4.1. La consultazione dei dati richiesti in ambito nazionale: le norme di concordanza. - 4.2. La consultazione di dati richiesti in ambito internazionale e cooperazione informativa. – 5. La prospettiva dell’armonizzazione tra legislazioni nazionali in tema di scambio di dati genetici.

1. L’identificazione personale su tracce biologiche, avente lo scopo precipuo di provare un fatto dal quale inferire la reità o meno di una persona sulla base del confronto tra il DNA tratto da quella persona e quello tipizzato da un reperto biologico raccolto dal locus commissi delicti, si raggiunge qualora le sequenze geniche ricavate dal reperto e quelle della persona sottoposta alle indagini coincidano. In caso di coincidenza tra sequenze geniche si passa a calcolare le probabilità che il match sia occasionale: in altri termini, si confrontano i risultati con i dati ottenuti dalla popolazione generale per verificare la frequenza di quel particolare gene1: il calcolo statistico/probabilistico è un elemento essenziale della elaborazione della prova del DNA da parte del genetista, mentre è marginale o addirittura irrilevante in altre discipline della scienza forense2. Appare evidente che la formazione della prova del DNA rivela la necessità di una relazione di corrispondenza biunivoca tra giuristi e scienziati. Trattandosi di una prova che presenta complessi aspetti metodologici e statistici3, occorre individuare l’inquadramento * Professoressa di Diritto processuale penale nell’Università di Firenze.   A. Gargani, I rischi e le possibilità dell’applicazione dell’analisi del DNA nel settore giudiziario, in Riv. it. dir. proc. pen., 1993, p. 1320. 2   S. Presciuttini e R. Domenici, La valutazione probabilistica della prova del DNA nella genetica forense, in Riv. it. med. leg., 2016, p. 267 ss. 3   C. Parziale e S. Spitaleri, Croce e delizia del processo penale: il DNA e le criticità della buona scienza, in IlPenalista.it, 24 novembre 2017. 1

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

626

Paola Felicioni

dogmatico-normativo dell’accertamento genetico previamente scandito sotto il profilo tecnico-scientifico4; isolare determinati aspetti critici della prova del DNA; stabilire se le specifiche disposizioni prevedano, alla luce dell’evoluzione tecnico-scientifica che incrementa l’efficienza delle indagini, limiti (funzionali alla tutela dei diritti inviolabili della persona garantiti dalla Costituzione) e garanzie (necessarie in presenza di un imputato del quale va assicurato il diritto di difesa). Bisogna sottolineare come con riferimento alla prova del DNA trovino evidenza reciproche interferenze tra evoluzione tecnico-scientifica, modalità di ricerca della prova e diritti fondamentali della persona. In particolare, si consideri che la prova penale scientifica mediante il test del DNA comporta un’aggressione alla sfera individuale della persona coinvolta nell’accertamento penale con riferimento sia alla libertà personale, sia alla riservatezza. In altri termini, l’uomo come entità fisica diviene oggetto di ricerca probatoria anche a prescindere dalla sua collaborazione: qualora non occorra alcuna sua attivazione fisica per lo svolgimento dell’indagine, non può impedire l’emergere di elementi di prova dal proprio corpo. Peraltro, qualora tali elementi probatori siano rappresentati da dati sensibili – come nel caso di dati genetici scaturenti dalla prova del DNA – la loro utilizzazione schiude altre prospettive di tutela con riguardo alla riservatezza dell’individuo, latamente intesa come valore a cui ricondurre il diritto di mantenere la propria sfera personale indenne da aggressioni arbitrarie, nonché di contenere la rivelazione e l’uso di dati personali. Sul versante della tutela dei diritti processuali, qualora la ricostruzione del fatto storico si avvalga della prova del DNA, il problema di fondo consiste nel verificare se il ricorso alle leggi scientifiche possa avvenire nel rispetto dei princìpi del giusto processo e, in specie, del diritto di difesa. Peraltro, mette conto evidenziare che oltre alla tutela dei diritti difensivi esiste un altro fronte della riflessione riferibile all’esigenza di at-

4   È stata delineata una sequenza procedurale tecnica, un vero e proprio «metodo», che è volto al confronto fra due frammenti di materiale biologico umano ossia fra tracce opportunamente trattate che rivelano, ognuna, le caratteristiche ereditate dai cromosomi materni e paterni. Alla raccolta del materiale organico segue l’estrazione del DNA utile per il successivo raffronto tra profili genetici. Si vedano U. Ricci, C. Previderè, P. Fattorini e F. Corradi, La prova del DNA per la ricerca della verità. Aspetti giuridici, biologici e probabilistici, Milano 2006, p. 120 ss.; U. Ricci, D.N.A. Oltre ogni ragionevole dubbio, Firenze 2016, p. 195.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il trattamento dei dati genetici

627

tendibilità dell’accertamento apprezzabile con riguardo a tre aspetti: le modalità di acquisizione e di conservazione degli elementi di prova; la qualificazione in termini di ripetibilità o irripetibilità dell’atto investigativo; la necessità di assicurare il contraddittorio in quanto metodo strumentale al controllo delle parti e del giudice sullo strumento scientifico. Ebbene, l’attuale disciplina della prova del DNA è frutto della combinazione di tre elementi: elaborazione giurisprudenziale, interventi legislativi, provvedimenti amministrativi di attuazione. È proprio il tema della salvaguardia dei diritti inviolabili della persona ad imporre il riferimento alla giurisprudenza costituzionale che ha progressivamente chiarito il contenuto della libertà personale precisandone l’ambito di tutela mediante una graduale specificazione delle concettualizzazioni operate in tema di accertamenti corporali coattivi, attraverso tre pronunce che, in tempi non recenti5, hanno affrontato il tema della coercibilità del prelievo ematico. In particolare nel 1996 la Corte costituzionale ha confermato l’intangibilità, già evidenziata in precedenti occasioni, di determinati valori dell’uomo quali l’integrità fisica, la salute psichica e fisica, la dignità, rendendo incoercibile il prelievo ematico come momento dell’attivi5   Corte cost., 27 marzo 1962, n. 30, in Giur. cost., 1962, p. 241 ss., con nota di R.G. De Franco, Ancora in tema di rilievi segnaletici di p.s.: la Consulta dichiarò l’illegittimità dell’art. 4 t.u.l.p.s., in riferimento all’art. 13 Cost., nella parte in cui prevede rilievi segnaletici implicanti ispezioni personali. In particolate la Consulta ha distinto tra rilievi riguardanti l’aspetto esteriore della persona e rilievi che si concretizzano in ispezioni personali. I primi, non comportando alcuna menomazione della libertà personale, vengono qualificati come forme di prestazione imposta per ragioni di giustizia e di prevenzione dei reati (ad es. i rilievi dattiloscopici o quelli compiuti su parti del corpo normalmente esposte all’altrui vista); i secondi, invece, sono rilievi suscettibili di incidere sulla libertà fisica o morale della persona (così il prelievo ematico, le indagini psicologiche o psichiatriche, i rilievi su parti interne o, comunque, non normalmente esposte del corpo) e rientrano nell’ambito delle ispezioni personali, con conseguente applicabilità dell’art. 13 Cost. Nel 1986 la Corte (sent. 24 marzo 1986, n. 54, in Giur. cost., 1986, p.  387 ss.) ha salvato dalla censura di incostituzionalità alcune norme del previgente codice di procedura penale in tema di perizia, ritenendo rispettata la duplice garanzia della riserva di legge e di giurisdizione ex art. 13 Cost. Più precisamente, si è considerata legittima l’esecuzione coattiva del prelievo ematico disposta dal giudice, attraverso lo strumento della perizia medico-legale, per ragioni relative all’accertamento penale. La sentenza in esame ha chiarito che il giudice penale nell’esercizio dei suoi poteri istruttori incontra determinati limiti: la vita, l’incolumità, la salute, la dignità e l’intimo della psiche della persona. Conseguentemente il giudice il quale disponesse mezzi istruttori tali da mettere in pericolo i predetti beni violerebbe l’art. 2 Cost. che tutela i diritti fondamentali della persona e l’art. 32 Cost. che salvaguarda il diritto alla salute.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

628

Paola Felicioni

tà peritale con la dichiarazione della parziale illegittimità dell’art. 224, comma 2, c.p.p., in relazione all’art. 13 Cost.6; infatti, è stato ritenuto lesivo della libertà personale in quanto tecnica invasiva, pure se in minima misura, della sfera corporale e, perciò, non riconducibile all’ispezione intesa quale osservazione esterna della persona7. A questo punto è necessaria una precisazione: secondo la Consulta la tutela dei diritti fondamentali della persona deve essere bilanciata con «l’esigenza di acquisizione della prova del reato» la quale costituisce un «valore primario sul quale si fonda ogni ordinamento ispirato al principio di legalità». Tale affermazione è espressione di un principio fondamentale: stante il diritto alla prova nel processo penale non esiste una materia di per sé non indagabile8. Inoltre, è noto come per ricomporre il quadro di tutela dei diritti fondamentali che vengono in gioco rispetto alla formazione della prova del DNA importanti indicazioni provengano dalla giurisprudenza europea che, per ragioni di economia espositiva, non è possibile ora analizzare9. Tuttavia, si consideri che dalla riflessione dottrinale è emerso un legame, tra Costituzione e diritto europeo, che rinviene nella clausola del giusto processo la copertura costituzionale del principio di proporzionalità, già vessillo del diritto europeo; infatti, non si potrebbe definire giusto un processo che dovesse comprimere i diritti fondamentali coinvolti nell’indagine genetica in misura eccedente la stretta necessità10. Il principio di proporzionalità, di matrice

  C. cost., sent. 27 giugno 1996, n. 238, in Giur. cost., 1996, p. 2142 ss.   In altri termini, bisogna evidenziare il peculiare rilievo assunto dalla nozione di sfera corporale: l’invasione, seppur minima, di quest’ultima, anche se in concreto non risulta lesiva dell’integrità fisica e della salute, costituisce comunque una restrizione della libertà personale: è questo il caso del prelievo ematico. Dunque, l’invasività dell’accertamento, evocata ma non definita dalla Corte costituzionale, è modalità di lesione della libertà tutelata dall’art. 13 Cost. 8  P. Tonini, Informazioni genetiche e processo penale ad un anno alla legge, in Diritto penale e processo, 2010, p. 885. 9   S. Allegrezza, Prova scientifica e dimensione europea, in G. Canzio e L. Luparia (a cura di), Prova scientifica e processo penale, Padova 2019, p. 140. 10   Così, con riferimento all’art. 224-bis, comma 5, c.p.p., che, in caso di prelievo processuale, impone il rispetto della dignità e del pudore del soggetto passivo nonché la scelta delle tecniche meno invasive, A. Camon, La prova genetica tra prassi investigativa e regole processuali, in Proc. pen. e giust., 2015, pp. 168-169. Sull’esigenza che vengano rispettate le clausole del giusto processo ed in specie l’equità processuale in quanto parametro creato dalla Corte europea adottato anche dagli organi legislativi dell’Unione come clausola aperta, v. R.E. Kostoris, Diritto europeo e giustizia pena6 7

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il trattamento dei dati genetici

629

giurisprudenziale nell’ordinamento giuridico tedesco11, è oggetto di esteso interesse dottrinale con riferimento ai più diversi contesti in cui si esplica la potestà pubblica, compreso quello penale. Per quanto qui interessa, viene in considerazione la dimensione applicativa maggiormente estesa del principio, ossia la prospettiva, consolidata in ambito sovranazionale, della proporzionalità come criterio di controllo delle limitazioni imposte dalla pubblica autorità ai diritti fondamentali12. Il test di proporzionalità si è radicato nel ragionamento della Corte di giustizia dell’Unione europea assumendo la struttura tripartita concettualizzata dalla Corte costituzionale tedesca nell’ambito di giudizi di costituzionalità relativi alla tutela di diritti fondamentali13. E’ necessario osservare che il canone della proporzione ricorre anche nel modo di argomentare della Corte europea dei diritti dell’uomo, ma spesso trova una più sfumata espressione nel bilanciamento tra diritti individuali e interesse generale14. In definitiva, il test di proporzionalità, da modello interpretativo germinato dal diritto europeo è divenuto un modello globale applicabile dalle Corti europee e nazionali per valuta-

le, in R.E. Kostoris, (a cura di), Manuale di procedura penale europea, Milano 2017, p. 70. 11   G. Tabasco, Principio di proporzionalità e misure cautelari, Padova 2017, p. 29 ss. 12  A sostegno della valenza generale del principio in questione basti ricordare l’art. 52 della Carta dei diritti fondamentali dell’Unione europea che ha elevato la proporzionalità a metodo di controllo per la tutela dei diritti fondamentali nel processo penale. Un’altra disposizione fondamentale è l’art. 8 CEDU che subordina la legittimità delle misure che derogano al divieto di interferenze da parte delle autorità nazionali nella vita privata dei singoli, accanto al rispetto della riserva di legge e alla sussistenza di uno scopo legittimo, alla necessità della misura in una società democratica: è questo il parametro su cui si fonda lo scrutinio di proporzionalità da parte dei giudici di Strasburgo. Su tali temi V. Manes, Il giudice nel suo labirinto. Profili delle intersezioni tra diritto penale e fonti sovranazionali, Roma 2012, p. 144 ss.; V. Marchese, Principio di proporzionalità, diritti fondamentali e processo penale, in R.E. Kostoris (a cura di), Percorsi giuridici della postmodernità, Bologna 2016, p. 386; R. Orlandi, La riforma del processo penale fra correzioni strutturali e tutela progressiva dei diritti fondamentali, in Riv. it. dir. proc. pen., 2014, p. 1139 ss. 13   In altri termini, lo scenario sovranazionale appare dominato dal modello tedesco che assume la proporzione come criterio di valutazione della legittimità dell’intervento dei pubblici poteri declinato, secondo la teoria dei tre gradini, in sotto-criteri riguardanti l’idoneità, la necessità e la adeguatezza o proporzionalità in senso stretto della misura. 14   M. Gialuz e P. Spagnolo, sub art. 5, in S. Bartole, P. De Sena e V. Zagreblesky (a cura di), Commentario breve alla Convenzione Europea dei Diritti dell’Uomo, Padova 2012, p.  145; V. Marchese, Principio di proporzionalità, diritti fondamentali e processo penale, cit., p. 384. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

630

Paola Felicioni

re la legittimità delle ingerenze dei pubblici poteri limitative dei diritti fondamentali della persona. Quanto all’operatività del principio nel diritto processuale penale interno, l’unica previsione espressa della proporzionalità si rinviene in materia di misure cautelari personali (art. 275, comma 2, c.p.p.), ma l’applicabilità del principio è stata recentemente estesa in via interpretativa alle cautele reali15 per poi coprire tutte le ipotesi in cui esigenze di accertamento giurisdizionale giustifichino la compressione di un diritto inviolabile dell’individuo: la proporzionalità diventa corollario dell’inviolabilità delle sfere di libertà protette dalla Costituzione e implica un ripensamento della disciplina del procedimento penale ogni volta in cui sia necessario operare un bilanciamento tra diritto individuale e interesse della comunità. Peraltro, anche se sul piano giurisprudenziale il test di proporzionalità non è stato ancora teorizzato compiutamente come modello interpretativo16, il canone di proporzione costituisce un fattore di coerenza dell’intero diritto processuale penale. Così, il canone di proporzione informa di sé la disciplina della prova del DNA sia con riferimento alla misura della coercizione probatoria, in ordine al prelievo di materiale biologico, sia con riguardo alla salvaguardia della riservatezza rispetto alla conservazione dei dati genetici e alla cooperazione informativa. 2. La l. 30 giugno 2009, n. 85, ha disciplinato una materia complessa caratterizzata dalla necessitata convivenza tra diritto e categorie concettuali mutuate dalla medicina legale, dalla genetica e dalla biologia18. Intervento normativo che ha trovato esplicazione in un contesto giuridico-operativo caratterizzato da «ritardi legislativi e culturali»19, e 17

15  Ampiamente G. Tabasco, Principio di proporzionalità e misure cautelari, cit., p. 37 ss. 16   V. Marchese, Principio di proporzionalità, diritti fondamentali e processo penale, cit. p. 382 ricorda come, particolarmente nella giurisprudenza costituzionale, il principio di proporzionalità sia evocato quale espressione del canone generale della ragionevolezza (Corte cost., 1° giugno 1995, n. 220). 17   La l. 31 luglio 2005, n. 155, ha disciplinato – per la prima volta nel processo penale – il prelievo coattivo di materiale biologico (capelli o saliva) a fini identificativi dell’indagato (art. 349, comma 2-bis): in ragione della finalità può essere definito come prelievo «identificativo». 18  A. Presutti, L’acquisizione forzosa dei dati genetici tra adempimenti internazionali e impegni costituzionali, in Riv. it. dir. proc. pen., 2010, p. 551. 19   G. Giostra, Gli importanti meriti e i molti limiti della nuova disciplina, in Giur. it., 2010, p. 1220.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il trattamento dei dati genetici

631

infatti nell’ottica di un necessario adeguamento a determinati atti delle istituzioni europee e a specifici accordi internazionali, ha autorizzato il Presidente della Repubblica ad aderire al Trattato di Prüm del 27 maggio 2005 e, a tale scopo20, ha previsto l’istituzione della Banca dati nazionale del DNA e del Laboratorio centrale, due nuovi organismi strumentali alla identificazione personale per l’autorità giudiziaria e alla collaborazione internazionale tra forze di polizia. Bisogna sottolineare che la novella del 2009 ha determinato alcune modifiche del codice di procedura penale nel quale è stata finalmente introdotta la disciplina degli accertamenti tecnici idonei ad incidere sulla libertà personale con specifico riferimento all’acquisizione del profilo genetico di una persona. Inoltre la legge in esame, prevedendo l’istituzione della Banca dati del DNA e disciplinando l’acquisizione e l’utilizzazione probatoria dei profili genetici, è subito apparsa caratterizzata dalla ricerca di nuovi equilibri tra sfera individuale e impiego processuale di strumenti tecnico-scientifici. Proprio dall’impianto normativo emergono nettamente due differenti ambiti di disciplina, ciascuno dei quali esprime un determinato bilanciamento tra l’esigenza di ricostruzione del fatto storico e alcuni valori determinati: la riservatezza, in relazione all’archiviazione nella Banca dati nazionale di profili genetici tipizzati dal Laboratorio centrale (artt. 5 -20); la libertà personale, con riguardo al prelievo di materiale biologico e agli accertamenti medici coattivi disposti dall’autorità giudiziaria nel procedimento penale (artt. 24-29)21. In definitiva, si è previsto l’ingresso nella Banca dati nazionale di determinati flussi di dati genetici di varia provenienza i quali, strumentali rispetto al perseguimento di differenti finalità, configurano collegamenti di intensità diversificata tra Banca dati e procedimento penale. 2.1. Il legislatore del 2009 ha disciplinato l’acquisizione coattiva del campione biologico mediante differenti modelli di prelievo: viceversa, 20   L’adesione al Trattato di Prüm pone due distinte condizioni a carico di ciascuna Parte contraente: l’obbligo di istituire una banca dati nazionale del DNA prima del deposito dello strumento di ratifica (artt. 2.1 e 2.3) e l’onere di alimentare la banca dati (artt. 2.2 e 7): F. Gandini, Il Trattato di Prüm articolo per articolo. Ecco le nuove frontiere per la sicurezza, in Dir. giust., 2006, n. 37, p. 56. 21   Per una sintesi della disciplina sia consentito il rinvio a P. Felicioni, L’Italia aderisce al Trattato di Prüm: disciplinata l’acquisizione e l’utilizzazione probatoria dei profili genetici, in P. Tonini, P. Felicioni e A. Scarcella (a cura di), Banca dati nazionale del DNA e prelievo di materiale biologico, Dir. pen. proc., 2009, XI, Speciali Banche dati, p. 6.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

632

Paola Felicioni

rimane non regolamentata l’ipotesi di prelievo di materiale biologico su consenso del soggetto passivo. Prevalentemente teso alla tutela della libertà personale il modello di prelievo di materiale biologico con finalità probatoria processuale trova collocazione nel codice di rito penale ed è riconducibile alla disciplina degli accertamenti incidenti sulla libertà personale in sede dibattimentale o nelle indagini preliminari22: si tratta della disciplina del prelievo avente ad oggetto il materiale biologico di persona, identificata e vivente (indagato, imputato, persona offesa, terzi23), non ristretta nella libertà personale. Tale attività si inserisce nell’iter formativo della prova del DNA in quanto accertamento necessitato dallo sviluppo della vicenda processuale per la ricostruzione del fatto: si può qualificare come prelievo «processuale» (art. 224-bis c.p.p.)24 quando si verifica in sede di perizia in dibattimento ed «investigativo» qualora venga effettuato nella forma dell’accertamento tecnico del pubblico ministero (art. 359-bis c.p.p). Lo schema procedimentale è fondato sull’alternativa tra consenso25 dell’interessato e coazione esplicabile, nel caso in cui risulti assolutamente indispensabile26, solo con provvedimento del giudice. 22   Cass., Sez. II, 27 novembre 2014, n. 2476, in CED: «In tema di accertamenti tecnici su materiale biologico, ove nell’attività di estrazione dei campioni sia necessario l’intervento coattivo sulla persona, al prelievo può provvedere direttamente il pubblico ministero attraverso la nomina di un consulente tecnico, previa autorizzazione del giudice ai sensi dell’art. 359-bis c.p.p. oppure il perito nominato dal giudice, nel caso in cui all’analisi estrattiva e comparativa del profilo genetico si proceda nelle forme dell’incidente probatorio». 23   Sulla legittimità del prelievo coattivo di materiale biologico nei confronti di terzi non indagati, Cass., Sez. I, 17 gennaio 2019, n. 28538, in Dir.& Giust., 2019, p. 6, con nota di A. Ubaldi. Nel caso di specie, nell’ambito di un procedimento penale per omicidio, il p.m. ha ottenuto dal g.i.p. l’autorizzazione a disporre un prelievo coattivo di materiale biologico nei confronti di un uomo ritenuto vicino all’indagato o, comunque, frequentatore di quest’ultimo nel giorno del delitto: il p.m. aveva fondato la richiesta sul rinvenimento sull’arma utilizzata nel crimine, di materiale biologico non attribuibile all’accusato. 24   Così definito da P. Tonini, Informazioni genetiche e processo penale ad un anno dalla legge, in Dir. pen. proc., 2010, p. 886. 25   Cass., Sez. V, 7 febbraio 2017, n. 12800, in Cass. pen., 2017, p. 3716: «In tema di perizia o di accertamenti tecnici irripetibili sul DNA, al prelievo genetico (nella specie di un campione di saliva) effettuato con il consenso dell’indagato non è applicabile la procedura garantita prevista dal combinato disposto degli artt. 224-bis, 349 e 359-bis c.p.p. e neppure vi è la necessità dell’assistenza di un difensore». 26   In giurisprudenza si veda Cass., Sez. I, 20 novembre 2013, n. 48907, in Dir. & Giust., 6 dicembre 2013, con nota di A. Ubaldi, Campioni biologici reperiti all’insaputa dell’interessato: si può fare?: «In tema di raccolta di materiale biologico non è necessario ricorrere alla procedura prevista dall’art. 224 bis c.p.p. se il campione bio-

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il trattamento dei dati genetici

633

Si noti che questa disciplina trova applicazione anche nel caso in cui l’Italia venga richiesta da un altro Stato europeo di effettuare il prelievo di materiale biologico di un soggetto che si trovi nel territorio italiano (prelievo «transnazionale»27). Vengono in rilievo dati genetici appartenenti a persone identificate che servono (e debbono restare) all’interno del procedimento penale nel quale esauriscono la propria strumentalità alla ricostruzione del fatto storico, senza necessità di inserimento ai fini di conservazione nella Banca dati nazionale del DNA; saranno ivi archiviati soltanto nel caso di esecuzione di condanna a pena detentiva o di un provvedimento restrittivo della libertà personale. In tale ultima evenienza si attiva la procedura riconducibile al secondo modello: si tratta del prelievo «istituzionale» (art. 9 della l. n. 85 del 2009)28 relativo all’indagato o all’imputato ristretti nella libertà personale durante il procedimento penale o dopo la condanna definitiva. In questa ipotesi la disciplina, extracodicistica, delinea un modello di prelievo di materiale biologico con finalità extraprocessuale individuando, altresì, il principale canale di alimentazione della Banca dati del DNA: non vi è la finalità di ricostruzione del fatto storico nel procedimento penale in corso, trattandosi di un prelievo di materiale biologico strumentale a tipizzare profili genetici di soggetti identificati e sottoposti a provvedimenti restrittivi della libertà personale. Tuttavia, poiché tali profili sono destinati a costituire il bacino di dati con i quali raffrontare i profili genetici ignoti provenienti da altri procedimenti penali, si individua una potenziale finalità probatoria della conservazione dei dati genetici. È necessario ora considerare brevemente l’adeguatezza dell’assetto normativo, costruito dal legislatore del 2009, rispetto alle indicazioni fornite dalla Consulta più di tredici anni prima entro una prospettiva di tutela dei diritti fondamentali della persona. In proposito occorre logico sia stato acquisito in altro modo, con le necessarie garanzie sulla provenienza dello stesso e senza alcun intervento coattivo sulla persona». 27   Si veda infra, par. 4.2. 28   Si tratta infatti di un prelievo che avviene per legge ad opera di personale specializzato della polizia giudiziaria o penitenziaria. Il fondamento è ravvisato, dalla Relazione al Disegno di legge, nella considerazione secondo cui la detenzione è la massima limitazione della libertà personale ed è disposta dal giudice; pertanto, il soggetto che si trova in tale situazione può legittimamente subire quella più blanda compressione della propria libertà che si concretizza nel prelievo di campioni di mucosa (rectius saliva) del cavo orale. P. Tonini, Manuale di procedura penale, (2015), cit., p. 532. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

634

Paola Felicioni

sottolineare la previsione dei limiti i quali si caratterizzano come divieti probatori riferiti al giudice oppure come limiti relativi alle modalità esecutive degli accertamenti. I divieti sono delineati dall’art. 224-bis, comma 4, c.p.p., in relazione al prelievo coattivo di materiale biologico e agli accertamenti medici: più precisamente il giudice non può disporre operazioni contrastanti con specifici divieti di legge29 o che possono mettere in pericolo «la vita, l’integrità fisica e la salute della persona o del nascituro oppure che, secondo la scienza medica, possono provocare sofferenze di non lieve entità». Non debbono, invece, essere violate durante l’esecuzione coattiva della perizia (art. 224-bis, comma 5, c.p.p.) la dignità e il pudore del periziando; quale norma di chiusura, si aggiunge che «a parità di risultato devono essere scelte le tecniche meno invasive». Inoltre, rispetto al prelievo «istituzionale» di mucosa del cavo orale, sono previsti i limiti della dignità, del decoro e della riservatezza. (art. 9 della l. n. 85 del 2009). Infine, merita attenzione la nozione di riservatezza intesa come «valore» inglobante il diritto di mantenere la propria sfera personale indenne da aggressioni arbitrarie nonché di contenere la rivelazione e l’uso di dati o informazioni attinenti alla propria persona, sia emersa nel nostro ordinamento giuridico in tempi relativamente recenti. Tuttavia, è opportuno qui precisare che con riguardo al prelievo di materiale biologico non appare molto significativo il richiamo alla riservatezza la quale sembra volta unicamente ad impedire che si diffonda la notizia che si è stati sottoposti a tale attività30. Ovviamente, diverso e maggiore è il peso della nozione se la si riferisce al diritto alla tutela e al controllo dei propri dati personali: questo, però, è il profilo d’interesse che si delinea con riguardo all’archiviazione dei dati genetici e trova salvaguardia nella legge n. 85 del 2009, nonché, soprattutto, in talune disposizioni regolamentari del d.P.R. n. 87 del 2016. 29   Si pensi al caso del prelievo ematico su bambino che sia nato da rapporto incestuoso e che, nel frattempo, sia stato adottato. La Suprema Corte ha dichiarato inammissibile il prelievo coattivo finalizzato all’accertamento del reato di violenza sessuale, ostandovi il diritto di riservatezza circa lo status di figlio legittimo per adozione, tutelato dall’art. 73 della l. 4 maggio 1983, n. 184; v. Cass., Sez. III, 4 marzo 1991, Petrucci, in Cass. pen., 1993, p. 1783, con nota redazionale critica di A. Nappi. 30   Una previsione in tal senso è contenuta nel codice della strada i cui artt. 186 e 187, in punto di accertamento dello stato di ebbrezza o di alterazione psicofisica per uso di sostanze stupefacenti del conducente di autoveicoli, impongono il rispetto della riservatezza personale (unitamente al divieto di pregiudicare l’integrità fisica).

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il trattamento dei dati genetici

635

2.2. Allo scopo di consentire la comparazione tra profili del DNA da prelievo «istituzionale» e profili del DNA tratti da tracce biologiche rinvenute sul luogo del delitto e non attribuiti ad alcuno31, il legislatore del 2009 ha previsto l’istituzione di organismi distinti sul piano strutturale e funzionale, la Banca dati nazionale del DNA e il Laboratorio centrale per la Banca dati nazionale. In sintesi, si può evidenziare che il legislatore, mediante l’istituzione di tali organi, ha iniziato a esplicitare le reciproche relazioni tra protezione dei dati personali e procedimento penale e, inoltre, ha tracciato nuove dinamiche nei rapporti internazionali32, creando un sistema capace di assicurare il controllo sia sulle procedure di immissione dei dati, sia sul corretto impiego degli stessi33. La creazione delle due strutture presso differenti amministrazioni ha permesso di tenere distinti il luogo di raccolta e di confronto dei profili del DNA, ai quali provvede la Banca dati (presso il Ministero dell’interno, Dipartimento della pubblica sicurezza), dal luogo in cui vengono conservati i campioni biologici e tipizzati i profili dei soggetti in vinculis per ragioni processuali, ossia il Laboratorio centrale (presso il Ministero della giustizia, Dipartimento dell’Amministrazione penitenziaria) (art. 5). La distinzione logistica e gestionale delle due strutture risponde ad una ratio garantista34. Più precisamente l’attività della Banca dati comprende la raccolta e il raffronto di profili genetici a fini di identificazione. Infatti, l’archivio genetico deve contenere, per future comparazioni, tre tipologie di profili genetici: quelli attribuiti a persone identificate ristrette nella libertà personale (soggetti arrestati o fermati, indagati, imputati, condannati o internati) (art. 9), quelli appartenenti a persone scomparse o loro 31   Camera dei Deputati, Servizio Studi, Documentazione per l’esame dell’AG 202, Dossier n. 206 - Schede di lettura, 12 settembre 2015. 32   Per un approfondimento: G. Di Paolo, La circolazione dei dati personali nello spazio giudiziario europeo dopo Prüm, in Cass. pen., 2010, V, p. 1969 ss.; C. Fanuele, Lo scambio di informazioni a livello europeo, in L. Filippi, P. Gualtieri, P. Moscarini e A. Scalfati (a cura di), La circolazione investigativa nello spazio giuridico europeo: strumenti, soggetti, risultati, Padova 2010, p. 19 ss.; M. Gialuz, La tutela della privacy nell’ambito del trattamento domestico dei dati genetici e della cooperazione informativa, in A. Scarcella (a cura di), Banca dati del DNA e accertamento penale, cit., p. 176 ss. 33   P. Rivello, Alcune osservazioni in ordine alla banca dati nazionale del DNA, in Dir. pen. proc., 2016, XI, p. 1525. 34   Volendo, P. Felicioni, L’Italia aderisce al Trattato di Prüm: disciplinata l’acquisizione e l’utilizzazione probatoria dei profili genetici, cit., p. 8; P. Rivello, Alcune osservazioni in ordine alla banca dati nazionale del DNA, cit., p. 1526.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

636

Paola Felicioni

consanguinei, a cadaveri e resti cadaverici non identificati (art. 7, lett. c) e, infine, quelli tipizzati da reperti biologici acquisiti nel corso di procedimenti penali (art. 10). Il Laboratorio centrale, invece, ha il compito di tipizzare i profili del DNA da prelievo «istituzionale», ossia dei soli soggetti ristretti nella libertà personale individuati dall’art. 9 e, successivamente, di inviarli con un file alla Banca dati: i relativi campioni biologici sono conservati dal medesimo Laboratorio (art. 8). Dunque, alla Banca dati nazionale i profili genetici differenti da quelli ora menzionati giungono, al fine di essere ivi conservati, da altri laboratori specializzati. Si consideri la finalità della nuova disciplina, esplicitata dal legislatore: si tratta dell’identificazione degli autori dei reati (artt. 5 e 12, comma 2) attraverso il raffronto che è compiuto mediante l’accesso alla Banca dati nazionale. La consultazione dell’Archivio nazionale oltre a ridurre i tempi delle indagini35 è utile per i seguenti motivi: 1) si può individuare l’autore di un reato, al momento sconosciuto, mediante la comparazione tra il profilo genetico, che questi ha lasciato sul luogo del delitto o sulla vittima, ed i profili genetici archiviati nella Banca nazionale del DNA; 2) possono essere messi in relazione più fatti di reato al fine di accertare se sono stati commessi dalla medesima persona; 3) si può produrre un effetto di contenimento della recidiva considerando la facilità di individuazione del colpevole il cui profilo sia conservato nell’archivio genetico36; 4) si può procedere alla identificazione di persone scomparse o ignote o delle quali sono disponibili resti cadaverici. In tutti i casi menzionati, l’esito del raffronto può essere l’acquisizione di un elemento di prova utile sia per affermare, sia per escludere la responsabilità di un imputato di un reato37. Peraltro, qualsiasi impiego difforme è penalmente sanzionato (art. 14)38. 35  R. Biondo, Il DNA come prova di innocenza e la Banca dati nazionale del DNA, in L. Luparia (a cura di), L’errore giudiziario, Milano 2021, p. 707; G. Lago, Banche dati nazionali del DNA a fini forensi: impatto operativo e parametri di efficacia, in L. Scaffardi (a cura di), La banca dati italiana del DNA. Limiti e prospettive della genetica forense, Bologna 2019, p. 123. 36   R.V. O. Valli, Le indagini scientifiche nel procedimento penale, Milano 2013, p. 410. 37  P. Tonini, Manuale di procedura penale, 2020, cit., p. 591. 38   V. Marchese, L. Caenazzo e D. Rodriguez, Banca dati nazionale del DNA: bilanciamento tra diritti individuali e sicurezza pubblica nella legge 30 giugno 2009, n. 85, in Riv. it. dir. proc. pen., 2013, IV, p. 1882. Il quadro è completato dalla previsione di istituzioni di garanzia (art. 15) in funzione di tutela sia della riservatezza, sia dell’attendibilità del dato scientifico: al Garante per la protezione dei dati personali

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il trattamento dei dati genetici

637

A questo punto occorre ricordare che la regolamentazione legislativa della prova del DNA è integrata da alcuni provvedimenti amministrativi39. In particolare Banca dati e Laboratorio centrale sono divenuti operativi a seguito dell’emanazione del Regolamento attuativo (d.P.R. 7 aprile 2016, n. 87)40, il cui oggetto è delineato con riferimento alle modalità di funzionamento e di organizzazione della Banca dati e del Laboratorio centrale, nonché allo scambio di dati sul DNA per finalità di cooperazione transfrontaliera di cui alle Decisioni 2008/615/GAI41 è assegnato il ruolo di vigilanza e controllo sulla Banca dati nazionale scandito in poteri istruttori, prescrittivi e sanzionatori secondo le modalità delineate dal Codice privacy e dal GDPR (Regolamento (UE) 2016/679, attuato con d.lg. 10 agosto 2018, n. 101); al Comitato nazionale per la biosicurezza e le biotecnologie e le scienze della vita (CNBBSV) è attribuito il compito di garantire l’osservanza dei criteri e delle norme tecniche per il funzionamento del Laboratorio centrale e di eseguire, sentito il Garante, verifiche presso il medesimo laboratorio e i laboratori che lo alimentano. In argomento L. Califano, Trattamento di dati genetici e tutela della riservatezza, in L. Scaffardi (a cura di), La banca dati italiana del DNA. Limiti e prospettive della genetica forense, cit., p. 91; A. Lenzi e P. Grammatico, Il Comitato di biosicurezza, biotecnologia e scienze della vita e il suo compito di verifica per la Banca dati nazionale del DNA, ivi, p. 100. 39   Infine, si ricorda che la disciplina in discorso è stata completata con l’emanazione di ulteriori provvedimenti amministrativi di mero carattere tecnico-organizzativo: si tratta del decreto del Ministro dell’interno del 6 agosto 2015 con il quale è stata istituita, nell’ambito della Direzione centrale della polizia criminale, Servizio per il sistema informativo interforze, la Divisione quarta cui sono attribuite le competenze relative alla banca dati nazionale del DNA. Inoltre, il 2 marzo 2016 il Ministro della giustizia ha emanato un decreto con il quale è stato istituito, nell’ambito della Direzione centrale dei detenuti e del trattamento, l’Ufficio VI al quale sono attribuite le competenze relative al Laboratorio centrale per la Banca dati del DNA. Altri provvedimenti sono volti a disciplinare significativi aspetti della materia, in virtù di un espresso rinvio da parte del regolamento di attuazione a futuri decreti dei ministri dell’interno e della giustizia: si pensi al decreto del Ministro dell’interno 8 novembre 2016, recante «Procedure per il trattamento dei dati, da parte della banca dati del DNA e per la trasmissione del profilo del DNA da parte dei laboratori di istituti di elevata specializzazione». L’altro provvedimento da menzionare è il decreto del Ministro dell’interno 12 maggio 2017 relativo alle modalità di cancellazione dei profili del DNA, di distruzione dei campioni biologici, di immissione e aggiornamento dei dati necessari al fine della determinazione dei tempi di conservazione dei medesimi profili del DNA. 40   C. Fanuele, Il regolamento di attuazione della banca dati nazionale del DNA: nuove garanzie e preesistenti vuoti di tutela, in Proc. pen e giust., 2017, p. 121 ss.; P. Felicioni, Il regolamento di attuazione della banca dati nazionale del DNA: scienza e diritto si incontrano, in Dir pen. proc., 2016, VI, p. 724 ss.; P. Rivello, Alcune osservazioni in ordine alla banca dati nazionale del DNA, cit., p. 1521 ss. 41  Nota come «decisione Prüm», si colloca nella direttrice tracciata dal Programma de L’Aia adottato dal Consiglio europeo del 4-5 novembre 2004 il quale ha fissato il «principio di disponibilità delle informazioni». La decisione 615 recepisce © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

638

Paola Felicioni

e 2008/616/GAI del 23 giugno 2008 (art. 1 reg. att.). In altri termini, il provvedimento di attuazione è volto a regolare: le attività di raccolta e di raffronto automatizzato di profili genetici effettuate dalla Banca dati mediante un software organizzato su due livelli rispettivamente impiegati a fini investigativi in ambito nazionale e per finalità di collaborazione internazionale; le attività di tipizzazione del DNA svolte da parte del Laboratorio centrale. In sostanza, dal testo del provvedimento di attuazione emergono determinate linee di tendenza che, entro una prospettiva di tutela sia della riservatezza dei titolari dei profili del DNA, sia dell’attendibilità dell’accertamento genetico, costituiscono aspetti innovativi rispetto al testo legislativo del 200942. In particolare, ai sensi degli artt. 3 e 35 reg. att., la Banca dati nazionale è destinata alla raccolta dei profili genetici con un software organizzato su due livelli: il primo impiegato ai fini investigativi a livello nazionale, il secondo per le finalità di collaborazione internazionale di polizia43. In base all’art. 10 reg. att. sono inseriti al primo livello i profili del DNA che hanno un numero di almeno sette loci; sono inseriti al secondo livello quelli che hanno un numero di loci eguale o superiore a dieci purché ottenuti da laboratori accreditati. Dalla citata disposizione regolamentare emerge l’esigenza della qualità dei dati genetici: nell’archivio nazionale entrano, in base a precisi criteri di inserimento, i profili genetici da prelievo istituzionale e da reperti biologici non attribuiti, soltanto se stati validati a norma UNI CEI EN ISO/ IEC 17025, nelle versioni via via aggiornate: si tratta di uno standard internazionale di elevata qualità cui si deve riferire il metodo di analisi e sulla cui base il Laboratorio centrale e gli altri laboratori di elevata specializzazione (al settembre 2020 se ne contano 17) hanno ottenuto l’accreditamento per la genetica forense rilasciato da Accredia, l’ente unico di certificazione designato dal nostro Governo e riconosciuto a livello internazionale44. l’indicazione optando in favore di uno scambio diretto incentrato sull’accesso online delle banche dati straniere. Così G. De Amicis, La cooperazione orizzontale, in R.E. Kostoris (a cura di), Manuale di procedura penale europea, cit., p. 249. 42   Volendo, P. Felicioni, La prova del DNA nel procedimento penale. Profili sistematici, dinamiche probatorie, suggestioni mediatiche, Milano 2018, p. 299. 43  P. Felicioni, DNA e banche dati europee, in Aa.Vv., Investigazioni e prove transnazionali, Milano 2016, p. 177. 44  R. Biondo, Il DNA come prova di innocenza e la Banca dati nazionale del DNA, in Aa. Vv., L’errore giudiziario, cit., p. 705; P. Felicioni, La prova del DNA nel ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il trattamento dei dati genetici

639

Si noti che l’impianto normativo che regola il sistema della Banca dati del DNA, peraltro, è rimasto inalterato, anche dopo l’emanazione del d.lg. 18 maggio 2018, n. 51, con cui l’Italia ha dato attuazione alla Direttiva (UE) 2016/680 sulla tutela delle persone fisiche45 che, con riguardo al trattamento dei dati personali a fini di prevenzione, indagine, accertamento e perseguimento dei reati, impone di procedere secondo un criterio di proporzione46. 3. Dalle considerazioni finora svolte emerge che l’istituzione di una Banca dati chiama in causa la tutela della riservatezza sia dal punto di vista della acquisibilità degli stessi al processo penale, sia dal punto di vista della conservazione dei dati. Il primo aspetto impone di ricordare che canali di approvvigionamento della Banca dati nazionale del DNA sono quattro e riguardano: 1) i profili genetici tratti da persone ristrette nella libertà personale (in custodia cautelare o in esecuzione di pena o situazioni assimilate) per un delitto doloso o preterintenzionale per il quale è consentito l’arresto facoltativo in flagranza47; 2) i profili genetici tratti dal materiale biologico prelevato da persone scomparse, da loro consanguinei o da cadaveri non identificati; 3) i profili genetici tratti da reperti biologici acquisiti nel corso del procedimento penale sul luogo o su cose pertinenti al reato e dei quali è stato ordinato l’esame48; procedimento penale. Profili sistematici, dinamiche probatorie, suggestioni mediatiche, cit., p. 352; S. Pelotti, L’accreditamento dei laboratori di genetica forense: l’inizio di una nuova fase storica, non senza vittime, in L. Scaffardi (a cura di), La banca dati italiana del DNA. Limiti e prospettive della genetica forense, Bologna 2019, p.143; U. Ricci, D.N.A. oltre ogni ragionevole dubbio, cit., p. 157. 45   Insieme al Regolamento (UE) 2016/679 (GDPR General Data Protection Regulation) la Direttiva (UE) 2016/680 compone il «pacchetto privacy» europeo del 2016: così M. Torre, Privacy e indagini penali, Milano 2020, p. 37 ss. 46  P. Felicioni, La prova del DNA nel procedimento penale. Profili sistematici, dinamiche probatorie, suggestioni mediatiche, cit., p. 96. 47   Ai sensi dell’art. 9, comma 1, l. n. 85 del 2009. I soggetti appena menzionati, identificati attraverso il sistema automatizzato per le impronte digitali Apfis (Automatic palmprint and fingerprint identification system), sono sottoposti al prelievo coattivo di due campioni di mucosa del cavo orale (art. 5 Reg. att.) a cura del personale specificamente addestrato della polizia giudiziaria o penitenziaria. Non è previsto l’intervento dell’autorità giudiziaria: appare chiaro che, ad avviso del legislatore, la restrizione alla quale è sottoposto il detenuto giustifica quella limitazione della libertà personale e della riservatezza che è necessaria a consentire la repressione di altri reati attraverso l’alimentazione della Banca dati. 48   Ai sensi dell’art. 10, c. 1, l. n. 85 del 2009, se, nel corso del procedimento, a cura © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

640

Paola Felicioni

4) i profili genetici tratti da reperti acquisiti in procedimenti penali chiusi con sentenza irrevocabile e mai analizzati. In seconda battuta, al fine di comprendere appieno il rapporto tra riservatezza e diritto alla prova nel processo, occorre evidenziare alcuni canoni posti a base di qualsivoglia disciplina49. Innanzitutto nella materia in esame vige il principio fondamentale secondo il quale non esiste una materia di per sé non indagabile sotto il profilo del diritto alla prova nel processo penale50.Il diritto alla prova, che spetta all’accusa e alla difesa, non deve trovare ostacoli nel diritto alla riservatezza, almeno nel processo penale, ove si discute della libertà e dell’onore di una persona. Lo ha affermato, pure con altri termini, la Corte costituzionale proprio nella sentenza n. 238 del 1996, secondo la quale l’accertamento di un reato costituisce un «valore primario sul quale si fonda ogni ordinamento ispirato al principio di legalità». Dunque, come avviene in qualsiasi bilanciamento tra diritti, aventi rilievo costituzionale, la riservatezza deve essere tutelata successivamente alla raccolta del dato, mediante quelle misure di sicurezza che devono proteggere le informazioni raccolte51. Si tratta

dei laboratori delle forze di polizia o di altre istituzioni di elevata specializzazione, sono tipizzati profili del DNA da reperti biologici a mezzo di accertamento tecnico, consulenza tecnica o perizia, l’autorità giudiziaria procedente (e cioè, il giudice o il pubblico ministero) deve disporre la trasmissione degli stessi alla Banca dati nazionale del DNA per la raccolta ed i confronti. Si consideri inoltre, poiché la legge usa il termine «reperti», come nell’obbligo di trasmissione alla Banca dati nazionale del DNA siano ricompresi soltanto i profili genetici tratti da luoghi o cose pertinenti al reato; si tratta di profili che giungono alla Banca dati senza indicazione nominativa, ma con la precisazione del procedimento penale dal quale provengono. In tale procedimento, stando al tenore letterale della norma, il reperto può essere anonimo o può essere stato attribuito ad una persona (imputato o terzo). Secondo una differente lettura teleologico-sistematica, viceversa, dovrebbero essere archiviati solo i profili «ignoti»: diversamente ragionando, infatti, si legittimerebbe l’elusione delle garanzie predisposte nei confronti dei soggetti «noti» dall’art. 224-bis c.p.p.; il profilo ignoto da reperto deve essere innanzitutto confrontato all’interno del procedimento penale con i profili di soggetti sospettati e, soltanto qualora ne rimanga ignota la paternità, sarà oggetto di raffronto con i profili di indagati, imputati o condannati in vinculis contenuti nella Banca dati nazionale. 49   P. Tonini e P. Felicioni, sub La banca dati nazionale del DNA, in A. Giarda e G. Spangher (a cura di), Codice di procedura penale commentato, Milano, in corso di pubblicazione. 50  P. Tonini, Manuale di procedura penale, (2020), cit., p. 595. 51   In tal senso, Corte cost., 11 giugno 2009, n. 173, in Dir. pen. proc., 2010, 195, che ha riconosciuto il fondamento costituzionale del diritto alla riservatezza. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il trattamento dei dati genetici

641

di misure che devono operare sia nel processo, sia nella Banca dati nazionale del DNA52. La disciplina della Banca dati nazionale si ispira ad alcuni princìpi fondamentali che costituiscono i «fari» della materia53. Si tratta dei principi di pertinenza, di tracciabilità, di riduzione del rischio di un uso scorretto, del minimo sacrificio della riservatezza, di proporzionalità e di non eccedenza rispetto al fine. In base al principio della «pertinenza del dato», la raccolta di un profilo genetico deve perseguire soltanto una finalità di identificazione personale; e, infatti, ai sensi dell’art. 11, comma 3, l. n. 85 del 2009, «i sistemi di analisi sono applicati esclusivamente alle sequenze del DNA che non consentono la identificazione delle patologie da cui può essere affetto l’interessato». Il principio della «tracciabilità» è tutelato nel momento del trattamento e dell’accesso ai dati; e, infatti, l’art. 12, comma 3, della l. n. 85 del 2009, dispone che «il trattamento e l’accesso ai dati […] sono effettuati con modalità tali da assicurare la identificazione dell’operatore e la registrazione di ogni attività» (v. art. 3 reg. att.). Il principio della «riduzione del rischio di un uso scorretto» è perseguito assicurando l’anonimato iniziale tra il dato genetico e la identificazione del soggetto a cui è riferito (altri lo definiscono «separatezza» dei dati). Infatti, ai sensi dell’art. 12, comma 1, della l. n. 85 del 2009 «i profili del DNA e i relativi campioni non contengono le informazioni che consentono la identificazione diretta del soggetto, cui sono riferiti»54. Il principio del «minimo sacrificio della riservatezza» è assicurato mediante la cancellazione del profilo genetico in presenza di una sentenza definitiva di assoluzione con formula ampiamente liberatoria, e cioè perché il fatto non sussiste, l’imputato non lo ha commesso, il fatto non costituisce reato, o il fatto non è previsto dalla legge come reato (art. 13, comma 1, l. n. 85 del 2009). Si tratta di provvedimenti che chiudono in modo definitivo il processo penale; mentre tutte le 52   Per una prospettiva diametralmente opposta, che sembra privilegiare in ogni caso il diritto alla riservatezza, sub specie di «autodeterminazione informativa», C. Fanuele, La prova genetica: acquisire, conservare e ed utilizzare i campioni biologici, in Dir. pen. proc., 2015, p. 106. 53  P. Tonini, Manuale di procedura penale, (2020), cit., p. 596. 54  R. Biondo, Il DNA come prova di innocenza e la Banca dati nazionale del DNA, cit., p. 709.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

642

Paola Felicioni

differenti pronunce liberatorie lasciano aperta la possibilità che il processo prosegua in presenza di nuove prove o di esigenze investigative: si pensi al provvedimento di archiviazione o alla sentenza di non luogo a procedere, pronunciata nell’udienza preliminare. Parte della dottrina ha ritenuto non ragionevole tale opzione legislativa, poiché troppo sbilanciata sul terreno delle esigenze di sicurezza pubblica e poco attenta alla posizione dei soggetti «archiviati» o prosciolti, per i quali dovrebbe valere il principio di presunzione di innocenza55. Il principio della «proporzionalità» tra il sacrificio della riservatezza e la gravità del delitto limita l’inserimento istituzionale al profilo genetico prelevato da tutti coloro che sono stati ristretti nella libertà personale (in base a una condanna definitiva o ad un provvedimento cautelare) per i soli delitti dolosi o preterintenzionali che consentono l’arresto in flagranza. Il principio della «non eccedenza dello strumento rispetto al fine perseguito» riguarda il momento in cui interviene la cancellazione; peraltro, l’impossibilità di una conservazione sine die dei dati genetici, per violazione dell’art. 8 CEDU, è stata affermata a chiare lettere dalla Corte europea56. La disciplina tende a proteggere l’ordinamento rispetto alla possibile recidiva del reo. Ed infatti, l’art. 13, comma 4, impone di cancellare, al termine di 40 anni «dall’ultima circostanza che ne ha determinato l’inserimento», quei profili genetici che sono conservati nella Banca dati nazionale, salvo il termine più breve previsto nel regolamento di attuazione. Detto termine, secondo la Relazione governativa, rappresenta un lasso di tempo congruo per superare il periodo di plausibile recidiva. L’art. 25 reg. att. ha precisato che i profili ottenuti attraverso il prelievo istituzionale (art. 9 della l. n. 85 del 2009) sono conservati per 30 anni dalla data dell’ultima registrazione, elevati a 40 sia in caso di persone condannate con sentenza irrevocabile per uno o più dei reati per i quali la legge prevede l’arresto obbligatorio in flagranza, o per taluno dei reati di cui all’art. 407, comma 2, lett. a), c.p.p., sia in caso di recidiva risultante da condanna irrevocabile. Differente è la normativa che concerne i campioni biologici ottenu55   A.M. Capitta, Conservazione dei DNA profiles e tutela europea dei diritti dell’uomo, in Arch. pen., 2013, p.  160; P. Tonini, Manuale di procedura penale, (2020), cit., p. 591; 56   Corte eur. dir. uomo, Grande Camera, sent. 4 dicembre 2008, S. e Marper c. Regno Unito: v. A. Santosuosso e M. Tomasi, Diritto, scienza, nuove tecnologie, Padova 2021, p. 166.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il trattamento dei dati genetici

643

ti dal prelievo istituzionale. I campioni biologici sono conservati dal Laboratorio centrale per venti anni «dall’ultima circostanza che ne ha determinato il prelievo» (art. 13, comma 4, della l. n. 85 del 2009), salvo il minor tempo stabilito nel regolamento di attuazione. Tale durata si rende indispensabile per consentire nuove analisi ogni qual volta si renda utilizzabile una innovazione scientifica che permetta una migliore tecnica di tipizzazione. Occorre segnalare che l’art. 24 reg. att. ha puntualizzato, al riguardo, che il DNA estratto dai campioni biologici, dopo la sua completa tipizzazione, deve essere distrutto. La parte del campione biologico non utilizzata ed il secondo campione di riserva sono conservati per un periodo di 8 anni. Come sopra evidenziato, attraverso il varco aperto dall’art. 10, comma 1, della l. n. 85 del 2009 possono entrare nella Banca dati nazionale profili genetici tipizzati a partire dal materiale biologico rinvenuto su reperti raccolti in un procedimento penale. Si ritiene applicabile a tali ipotesi l’art. 13, comma. 4, della l. n. 85 del 200957. La conservazione per 30 anni (arg. ex art. 32 reg. att., che rinvia all’art. 25 reg. att.) delle predette informazioni, attesa la estraneità al procedimento dell’interessato, appare non ragionevole e sproporzionata58. Sarebbe stata, viceversa, più opportuna una graduazione dei termini di conservazione a seconda del soggetto preso in considerazione (imputato, persona offesa o terzo)59. 4. La riservatezza appare il bene precipuo al quale il capo III del regolamento di attuazione fa riferimento, dettando varie disposizioni di garanzia che attengono sia alle modalità di consultazione dei dati, sia ai tempi di conservazione dei profili genetici e dei campioni biologici. Il regolamento attuativo del 2016 esplicita che la «consultazione» si concretizza nella ricerca e nel raffronto dei profili del DNA ed è configurata come una facoltà del personale in servizio presso i laboratori

57  P. Felicioni, Questioni aperte in materia di acquisizione e utilizzazione probatoria dei profili genetici, cit., p. 180. 58   A.M. Capitta, Conservazione dei DNA profiles e tutela europea dei diritti dell’uomo, cit., p. 159. 59  V. Abrusci, Cancellazione dei profili e distruzione dei campioni, in L. Marafioti e L. Luparia (a cura di), Banca dati del DNA e accertamento penale, Milano 2010, p. 125; V. Marchese, L. Caenazzo e D. Rodriguez, Banca dati nazionale del DNA: bilanciamento tra diritti individuali e sicurezza pubblica nella legge 30 giugno 2009, cit., p. 1895.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

644

Paola Felicioni

delle Forze di polizia, del punto di contatto nazionale60 e della Banca dati: viene delineata, dunque, come un’attività distinta dalla «conservazione» di profili genetici. La riflessione sul tema deve prendere avvio da una sintesi delle prescrizioni regolamentari sulle modalità di consultazione dei dati richiesti e di raffronto dei profili di DNA sia in ambito nazionale, sia, entro una prospettiva internazionale della circolazione dei dati genetici61, per finalità di cooperazione transfrontaliera62. 4.1. In ambito nazionale la consultazione dei dati può essere effettuata solo caso per caso63: l’esito del raffronto deve essere comunicato per via automatizzata ai laboratori delle forze di polizia che, a fini delle indagini da compiere, hanno inserito il profilo del DNA tramite il portale della Banca dati. Sia le richieste di consultazione, sia le risposte automatizzate devono essere motivate ossia devono contenere il riferimento normativo del reato, l’identificazione dell’ufficio richiedente e dell’operatore, la denominazione dell’ufficio e l’identificativo dell’Autorità giudiziaria, il numero di procedimento penale e l’anno di riferimento (art. 9, reg. att.). L’attività di raffronto tra i profili del DNA è scandita dal regolamento attuativo che ne delinea i criteri e individua le di norme di concordanza. Più precisamente, un criterio di raffronto si rinviene nella disposizione 60   Il punto di contatto nazionale o estero è l’autorità, nazionale o estera, designata per lo scambio di dati e per le finalità di cooperazione internazionale di polizia (art. 2, lett. z), reg. att.). 61  Le istituzioni hanno concepito lo scambio transfrontaliero di informazioni come uno strumento idoneo a rafforzare la cooperazione giudiziaria e di polizia in materia penale. All’ambito di tale cooperazione, che presuppone un reciproco confronto e talvolta il recepimento, pure non acritico, di strumenti ed esperienze di altri Paesi, va ricondotta l’attività di scambio di profili del DNA a fini investigativi: si tratta di una delle numerose azioni promosse dall’Unione europea ai fini della costruzione di uno spazio di libertà, sicurezza e giustizia. 62   Relativamente allo scambio di profili del DNA con finalità probatoria è possibile rinvenire, all’interno dell’ingente produzione normativa sovranazionale, alcuni strumenti tradizionali come le richieste di assistenza giudiziaria e il mandato europeo di ricerca della prova: tuttavia, dal 22 maggio 2017 sia la rogatoria, sia il mandato europeo di ricerca delle prove, sono stati sostituiti dall’ordine europeo di indagine (OEI) in vigore grazie al d.lg. 21 giugno 2017, n. 108 che ne ha trasposto nel nostro sistema la relativa disciplina introdotta dalla Direttiva 2014/41/UE. 63   P. Rivello, Alcune osservazioni in ordine alla banca dati nazionale del DNA, cit., p. 1528.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il trattamento dei dati genetici

645

secondo la quale la comparazione tra profili del DNA è svolta nella Banca dati in base al numero dei loci per i quali in entrambi i profili è disponibile la stessa coppia di valori dell’allele (art. 10, comma 6, reg. att.). Invece, le norme di concordanza sono quei criteri attraverso i quali si può affermare che tra due profili del DNA ci sia compatibilità. In altri termini, si tratta di indicazioni tecniche fondamentali perché garantiscono di individuare una persona in mezzo ad un groviglio di dati disponibili che sarebbero inestricabili se scandagliati mediante una mera ricerca manuale64. Si chiarisce che l’esito del raffronto è positivo quando tra profili del DNA esiste una concordanza; quest’ultima viene in evidenza nel caso in cui i profili genetici abbiano la stessa coppia di alleli ad almeno 10 loci. Inoltre, i commi 7, 8 e 9 dell’art. 10 reg. att. individuano due diversi livelli di concordanza (totale o quasi concordanza) che possono costituire l’esito del raffronto dei profili del DNA. Così, si ha concordanza totale nel caso in cui tutti i valori identificativi degli alleli dei loci raffrontati sono identici; si ha quasi concordanza quando tra due profili genetici un solo allele tra tutti quelli confrontati è di valore diverso65. 4.2. In ordine alla consultazione di dati a fini di cooperazione internazionale di polizia, individuato il punto di contatto nazionale per lo scambio dati nel Servizio per la Cooperazione Internazionale di Polizia della Direzione Centrale della Polizia, del Dipartimento della pubblica sicurezza, sono previste modalità differenti a seconda che la consultazione, il raffronto e la trasmissione di profili del DNA avvenga dall’estero verso l’Italia oppure dall’Italia verso l’estero. Nel primo caso la consultazione dei profili del DNA contenuti nella Banca dati è consentita agli operatori dei punti di contatto nazionali esteri, in possesso delle credenziali di autenticazione ed autorizzazione, per il raffronto con i profili di DNA contenuti al secondo livello della Banca dati. Nell’ipotesi di trasmissione dei dati dall’Italia verso l’estero, la polizia giudiziaria che deve ricercare un profilo del DNA in ambito inter-

64   U. Ricci, Un lampo di consapevolezza nella normativa italiana: il DNA oltre la suggestione e il mito, in Dir. proc. pen., 2016, p. 745. 65   La quasi concordanza, però, è ammessa soltanto in caso di corrispondenza totale di almeno sette loci dei profili esaminati: U. Ricci, Un lampo di consapevolezza nella normativa italiana: il DNA oltre la suggestione e il mito, cit., p. 745.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

646

Paola Felicioni

nazionale consulta le banche dati estere mediante un’applicazione del portale della Banca dati. Con riguardo allo scambio di informazioni sui profili del DNA nell’ambito della cooperazione transfrontaliera meritano un cenno alcune disposizioni in materia di protezione dei dati personali. Innanzitutto, ribadito lo scopo del trattamento ossia le finalità di cooperazione transfrontaliera di cui alle già citate Decisioni 2008/615/ GAI e 2008/616/GAI del 23 giugno 2008, nonché di attuazione degli accordi internazionali resi esecutivi, si specifica che il trattamento dei dati ricevuti è ammesso anche per scopi compatibili con quelli per i quali sono stati trasmessi, previa autorizzazione dello Stato membro che li ha trasmessi, nel rispetto della legislazione nazionale. Occorre menzionare, altresì, le disposizioni del regolamento attuativo inerenti: la verifica della qualità dei dati trasmessi e ricevuti; la cancellazione dei dati inesatti o ultronei che non avrebbero dovuto essere trasmessi, oppure di quelli rispetto ai quali è scaduto il termine massimo di conservazione ai sensi della legislazione nazionale dello Stato membro che li ha trasmessi; l’adozione di specifiche misure di sicurezza come la registrazione delle operazioni svolte in appositi file di log66; la vigilanza e il controllo esercitati dal Garante per la protezione dei dati personali con conservazione per diciotto mesi dei risultati del controllo. Viene qui in evidenza la prospettiva volta alla creazione di uno spazio di libera circolazione delle informazioni nel rispetto delle norme di tutela dei dati raccolti, aperta dal Trattato di Prüm67. Il merito del Trattato, peraltro, non consiste solo nel permettere che le informazioni confluiscano in un unico network di banche dati direttamente consultabile online dalle autorità interne degli Stati membri68 attraverso i punti di contatto nazionali, ma anche nella tendenza a realizzare, sia pure indirettamente, attraverso gli impegni assunti dai 66   Tutte le operazioni sono registrate in appositi file di log ai fini di verifica della liceità del trattamento dei dati. I log possono essere utilizzati esclusivamente per finalità di controllo della protezione dei dati, ivi compreso il profilo della sicurezza e sono protetti con misure idonee contro ogni uso improprio o non conforme alle finalità per le quali sono registrati; sono conservati per due anni e cancellati alla scadenza (art. 17 commi 4-5 reg. att.). 67  A. Marandola, Information sharing nella prospettiva del Trattato di Prüm e della decisione di recepimento nel quadro dell’Unione, in F. Peroni e M. Gialuz (a cura di), Cooperazione informativa e giustizia penale nell’Unione europea, Trieste 2009, p. 168. 68  F. Gandini, Il Trattato di Prüm articolo per articolo, cit., p. 59.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il trattamento dei dati genetici

647

Paesi contraenti sul piano internazionale, un’armonizzazione degli ordinamenti interni dei singoli Stati69. Infatti, i meccanismi di cooperazione informativa delineati dal Trattato di Prüm e dalle correlative disposizioni della decisione n. 615 del 2008 individuano inedite forme e modalità di attuazione del canone della disponibilità70. Vi sono due modalità di cooperazione internazionale: l’una delinea l’accesso online alle banche dati del DNA dei vari Paesi e trova specificazione nel regolamento di attuazione n. 87 del 2016; l’altra prescrive l’effettuazione di un prelievo di materiale biologico di persona identificata, il cui profilo genetico è strumentale allo svolgimento del procedimento penale di un altro Stato. Il primo meccanismo volto ad attuare la cooperazione informativa in tema di prova genetica sconta il riferimento ad un procedimento di consultazione che viene in considerazione quando l’autorità giudiziaria di uno Stato, a fini di un procedimento penale interno, abbia necessità di un profilo di DNA di una determinata persona nella disponibilità di un altro Stato. Una prima fase della condivisione delle informazioni si concretizza nell’accesso automatizzato a determinate categorie di informazioni (indici di consultazione) disponibili online e contenute nelle banche dati DNA: l’autorità richiedente può attingere soltanto ad un indice di consultazione anonimo e ad un numero di riferimento con lo scopo di verificare la mera presenza del dato genetico nel database. Gli scambi avvengono per mezzo di una rete di punti di contatto nazionali: ogni Stato ne designa uno. Rimane non esplicitato dal Trattato se le richieste, di cui i punti di contatto nazionali possono essere destinatari, debbano provenire solo dall’autorità di polizia o anche dall’autorità giudiziaria. L’accesso automatizzato può avvenire con due modalità alternative quali la consultazione (searching) o la comparazione (comparison). Nel primo caso il profilo di cui dispone il richiedente è già riferibile ad una persona identificata e l’accesso ha lo scopo di acquisire ulteriori informazioni su quella persona (art. 3)71. La seconda modalità si realizza nel 69  A. Marandola, Information sharing nella prospettiva del Trattato di Prüm e della decisione di recepimento nel quadro dell’Unione, cit., p. 169. 70  M. Gialuz, La tutela della privacy nell’ambito del trattamento domestico dei dati genetici e della cooperazione informativa, in Banca dati del DNA e accertamento penale, cit., pp. 181-182. 71   La legge n. 85 del 2009 non ha disciplinato l’accesso automatizzato con la finalità sopra descritta: la consultazione, pertanto, è delineata dal regolamento attuativo

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

648

Paola Felicioni

caso in cui l’autorità richiedente disponga solo di un open record, ossia un profilo del DNA anonimo (art. 4): la comparazione coinvolge tutti i profili genetici contenuti nella banca dati, siano essi noti o ignoti. Quando la comparazione ha prodotto un risultato positivo, e dunque si sia riscontrata una concordanza con un profilo già in possesso degli organi inquirenti, la parte richiedente riceve la comunicazione di un indice del profilo DNA, anonimo, corrispondente a quello trasmesso. Si apre quindi la seconda fase del procedimento che si concretizza nella trasmissione all’autorità richiedente delle informazioni personali ricollegabili ai dati di indice. Si sottolinea che la trasmissione verrà effettuata secondo le modalità previste dalla legislazione interna dello Stato richiesto: ad esempio la trasmissione è consentita solo se il procedimento abbia ad oggetto un reato di sufficiente gravità; la trasmissione di profili non attribuibili ad alcuno, invece, può avvenire soltanto nei casi in cui sia consentita dal diritto interno dello Stato richiedente72. Certo, sotto il profilo procedurale la disciplina appare scarna73: l’art. 5 del Trattato si limita a prevedere la necessità di una richiesta esplicita da parte dell’autorità interessata, rinviando per ogni altro aspetto alla normativa interna e alle convenzioni di assistenza giudiziaria che regolano i rapporti tra Paesi dell’Unione europea quali la Convenzione europea di Strasburgo del 20 aprile 1959 e la Convenzione sull’assistenza giudiziaria, adottata dal Consiglio dell’Unione europea del 29 maggio 2009. L’altra modalità di cooperazione internazionale si fonda sull’art. 7 del Trattato e della decisione Prüm che garantiscono la mutua assistenza tra gli Stati anche con riguardo al prelievo di materiale biologico dalla persona, mediante una modalità di cooperazione informativa definita prelievo transnazionale di dati genetici74. Infatti, l’autorità giudiziaria di uno Stato, qualora nell’ambito di un procedimento penale in corso, abbia necessità di acquisire il profilo del DNA di una persona che si trova in un altro Stato, ne fa richiesta a quest’ultimo presentando un apposito mandato, emesso dall’autorità del 2016 come finalizzata unicamente al raffronto dei profili ex prelievo istituzionale con i profili da tracce mute. 72  M. Daniele, Ricerca e formazione della prova. Profili generali, in R.E. Kostoris (a cura di), Manuale di procedura penale europea, Milano 2015, p. 91. 73  A. Marandola, Information sharing nella prospettiva del Trattato di Prüm e della decisione di recepimento nel quadro dell’Unione, cit., p. 171. 74  M. Daniele, Ricerca e formazione della prova, cit., p. 440. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il trattamento dei dati genetici

649

competente, dal quale risulti che prelievo e analisi del DNA sarebbero ammissibili in un analogo caso interno. L’autorità giudiziaria dello Stato richiesto, se non dispone di tale profilo, dovrà procedere al prelievo di materiale genetico, alla tipizzazione del profilo del DNA e alla trasmissione dello stesso. Si tratta di un vero e proprio obbligo di assistenza giudiziaria: lo Stato richiesto, qualora sussistano le condizioni previste dall’art. 7, non può opporre un rifiuto75. Tutte le attività riconducibili allo strumento di cooperazione informativa de quo devono svolgersi secondo le modalità previste dalla legislazione interna dello Stato richiesto e con le forme di tutela dei diritti fondamentali del titolare del profilo genetico compressi da tali attività. Con riferimento a tale modalità di scambio di dati emerge un aspetto critico: si pone la questione della configurabilità o meno di un onere di alimentazione della banca dati. Non è escluso, infatti, che una volta tipizzato il DNA e trasmesso il relativo profilo allo Stato richiedente, quel codice alfanumerico rimanga nel database dello Stato richiesto divenendo potenziale patrimonio di qualunque altro Stato ne faccia richiesta in seguito. Ebbene, considerata l’assenza nel Trattato di Prüm di un’espressa disposizione sul punto, appare corretto sostenere l’inesistenza di un obbligo generico di alimentare la banca dati76. Tuttavia, appare evidente che la soluzione della questione dipende dalla legislazione interna del singolo Paese in materia di alimentazione della banca dati del DNA: in proposito, la disciplina italiana non consente l’operatività di canali di alimentazione della Banca dati diversi da quelli tassativamente previsti. 5. Una breve riflessione conclusiva sulla circolazione transnazionale dei dati genetici non può prescindere dalla valutazione della duplice condizione dell’armonizzazione tra le legislazioni dei diversi Stati, ossia la necessità e la attuabilità del riavvicinamento tra le legislazioni nazionali. Quanto alla condizione della necessità, è innegabile che la mo F. Gandini, Il Trattato di Prüm articolo per articolo, cit., p. 60.  A. Marandola, Information sharing nella prospettiva del Trattato di Prüm e della decisione di recepimento nel quadro dell’Unione, cit., p. 176; diversa l’interpretazione di F. Gandini, Il Trattato di Prüm articolo per articolo, cit., p. 60, secondo il quale dall’art. 7 del Trattato di Prüm si trae, seppure indirettamente, un onere di alimentazione della banca dati a carico di ciascuno degli Stati parte. 75 76

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

650

Paola Felicioni

derna criminalità non può essere efficacemente combattuta con i soli strumenti processuali nazionali: peraltro il contrasto alla nuova realtà globale del fenomeno criminoso non appare attuabile unicamente attraverso il principio del mutuo riconoscimento, ma necessita, invece, dell’armonizzazione delle procedure nazionali. Inoltre, come già sottolineato, è noto che l’armonizzazione tra sistemi penali nazionali volta alla realizzazione di uno spazio giuridico europeo costituisce una necessità sorta con l’entrata in vigore del Trattato di Lisbona. In specie, gli artt. 82 e 83 del Trattato sul Funzionamento dell’Unione Europea, delineando la possibilità di adottare direttive volte a stabilire norme minime comuni in materia processuale penale e penale sostanziale, qualificano l’avvicinamento tra le legislazioni nazionali alla base del rafforzamento della cooperazione giudiziaria77. Occorre notare che proprio in materia di scambio di profili genetici, dalla consapevolezza della distanza tra i modelli di disciplina adottati dai legislatori nazionali per il prelievo di materiale biologico e per l’archiviazione dei profili del DNA, sorge la necessità di individuare regole comuni funzionali al potenziamento dello scambio di informazioni genetiche nel contesto europeo. I singoli archivi genetici, si è sottolineato, dovrebbero adottare disposizioni espressive di un livello minimo comune di sicurezza e di qualità, prendendo spunto dai sistemi processuali che prevedono garanzie elevate, ma anche dai principi proclamati dalla CEDU in materia di libertà individuali78. Tuttavia, e più in generale, non si può affermare esistente in tutti gli Stati un livello minimo ed uniforme di tutela dei diritti umani nei rispettivi procedimenti penali. Ecco l’aspetto critico: un’armonizzazione preventiva, intesa come tecnica normativa idonea ad agevolare la circolazione delle prove, presuppone un bilanciamento tra esigenze di giustizia e tutela dell’individuo79. Viene dunque in considerazione la seconda condizione di armonizzazione ossia l’attuabilità intesa come possibilità di uniformare le regole di diritto interno dei vari Paesi con riferimento, per quanto qui interessa, sia all’esigenza di procurarsi il materiale biologico per l’esa77  V. Campilongo, La circolazione della prova nel contesto europeo, tra mutuo riconoscimento delle decisioni giudiziarie ed armonizzazione normativa, in Cass. pen., 2014, p. 709. 78  V. Marchese, D. Rodriguez e L. Caenazzo, Banche dati forensi, cit., p. 194. 79  V. Campilongo, La circolazione della prova nel contesto europeo, tra mutuo riconoscimento delle decisioni giudiziarie ed armonizzazione normativa, cit., p. 715.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il trattamento dei dati genetici

651

me del DNA, sia all’archiviazione di dati genetici. In proposito si può rilevare che i tradizionali studi di diritto comparato sulle banche dati europee si sono concentrati sull’aspetto della tutela dei diritti fondamentali incisi da tali attività, in particolare libertà personale e riservatezza, correttamente ma, forse, sovrastimando le relative questioni80. Si consideri la vicenda italiana. Ebbene, se non vi è dubbio che la legge n. 85 del 2009 ha rappresentato un passaggio giuridico e culturale obbligato, è altrettanto certo che l’esigenza della cooperazione informativa pone in luce la necessità di un’ulteriore evoluzione alla quale, invero, induce il regolamento di attuazione n. 87 del 2016. In altri termini, tale provvedimento rivela una considerevole portata innovativa sulla quale, nella prospettiva di un effettivo avvicinamento tra legislazioni nazionali, occorre riflettere. Il valore aggiunto del regolamento attuativo si rinviene nella inedita tutela dell’attendibilità del dato analitico che si riverbera sull’attendibilità probatoria dei profili genetici e va oltre alla disciplina interna; infatti, l’esigenza di assicurare la qualità del dato emerge dal testo regolamentare come particolarmente avvertita soprattutto in vista dell’inserimento dei profili genetici al II livello della Banca dati relativo alla consultazione di dati con finalità identificativa anche a fini di collaborazione internazionale di polizia. In ultima analisi, l’uniformità delle disposizioni appare possibile sul piano oggettivo individuato da quelle regole aventi contenuto tecnico-scientifico e che sono volte ad assicurare qualità e attendibilità del dato analitico. In altri termini, l’incontro tra scienza e diritto avviene in un ambiente «sterilizzato» che non risente del contesto socio-culturale in cui si inserisce81. Viceversa non sembra praticabile la prospettiva dell’armonizzazione in ordine alla tutela dei diritti fondamentali. Certo la protezione dei diritti della persona è sacrosanta e rispetto ad essa è auspicabile un idem sentire della coscienza giuridica internazionale; tuttavia, il livello di garanzie del processo penale, che inevitabilmente si inserisce nella storia e nelle tradizioni ordinamentali e culturali proprie di ogni Paese, è in stretto rapporto con l’assetto democratico dello Stato, ma subisce

80   P. Felicioni, DNA e banche dati europee, in Aa.Vv., Investigazioni e prove transnazionali, Milano 2016, p. 211. 81   P. Felicioni, DNA e banche dati europee, cit., p. 212.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

652

Paola Felicioni

l’influenza delle opzioni di politica criminale a loro volta condizionate dalla criminalità e dalla percezione sociale del fenomeno criminoso82. In altri termini, ogni modello di banca dati del DNA è espressione di un bilanciamento tra diritti fondamentali e repressione del reato ed è il prodotto delle ragioni di politica criminale del singolo Stato. Se non appare possibile (né corretto) imporre un generale e condiviso quantum di tutela dei diritti fondamentali, resta però il baluardo del riferimento alla garanzie fissate dalla CEDU e dalla Carta di Nizza così come interpretate dalla Corte europea dei diritti dell’uomo e dalla Corte di giustizia dell’Unione europea: ne discende la necessità di applicare il principio di proporzionalità il quale, con riferimento sia all’accesso diretto on line alle banche dati del DNA dei vari Stati europei, sia al prelievo transnazionale, delinea la linea direttrice per l’attuazione di quel bilanciamento di interessi che costituisce la condizione di legittimità di ogni ingerenza nella sfera dell’individuo.

82  G. Spangher, Considerazioni sul processo “criminale” italiano, Torino 2015, p. 7 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Lorenzo Algeri*

Giustizia predittiva: intelligenza artificiale e processo penale

Sommario: 1. Considerazioni preliminari. – 2. Verso una definizione integrata di Intelligenza artificiale. – 3. Dai neuroni alle reti neurali artificiali. – 4. Intelligenza artificiale e machine learning. – 5. Il c.d. Deep learning. – 6. I software di «polizia predittiva». – 7. Polizia predittiva e diritti fondamentali. – 8. Intelligenza artificiale e processo penale.

1. Lo sviluppo e l’espansione delle nuove tecnologie informatiche hanno comportato cambiamenti profondi sia su un piano sociale sia su un piano giuridico1. In particolare, è sorta la necessità di adeguare le strategie investigative rispetto alle innovazioni scientifiche2. La tecnologia dell’informazione c.d. ICT (Information and Communicatio Technology), attraverso la digitalizzazione, ha portato allo sviluppo esponenziale dello spazio web, denominato Cyberspace3. In proposi* Assegnista di ricerca in Diritto processuale penale nell’Università di Firenze.   Per un’analisi degli effetti della rivoluzione tecnologica sui rapporti sociali e giuridici si veda G. Alpa, Prefazione, in U. Ruffolo (a cura di), Intelligenza artificiale. Il diritto, i diritti, l’etica, Milano 2020, p.  17; S. Dorigo, Presentazione, in S. Dorigo (a cura di), Il ragionamento giuridico nell’era dell’intelligenza artificiale, Pisa 2020, p. 16; L. Picozzi, Cybercrime, in A. Cadoppi, S. Canestrari, A. Manna e M. Papa (a cura di), Diritto penale e tecnologie informatiche: una visione d’insieme, Milano 2019, p. 33 ss. Si veda, altresì, M. Papa, Future crime: intelligenza artificiale e rinnovamento del diritto penale, in S. Dorigo (a cura di), Il ragionamento giuridico nell’era dell’intelligenza artificiale, Pisa 2020, p. 77 ss.; P. Severino, Intelligenza artificiale e diritto penale, in U. Ruffolo (a cura di), Intelligenza artificiale, il diritto, i diritti, l’etica, Milano 2020, p. 531, dove si afferma che: «Siamo infatti al cospetto di un’autentica rivoluzione tecnologica che sta cambiando il volto delle organizzazioni produttive e che già impatta, in misura significativa, sulle modalità di svolgimento di numerose attività umane – si pensi alla crescente diffusione di agenti intelligenti – fino a incidere su difficili processi decisionali, in passato saldamente rimessi in via esclusiva alle determinazioni dell’uomo e oggi, invece, sempre più influenzati dalle risultanze di processi algoritmici». 2   W.L. Perry, B. Mcinnis, C.C. Price, S. Smith e J.S. Hollywood, Predictive Policing: The Role of Crime Forecasting in Law Enforcement Operations, Santa Monica (CA) 2013, consultabile all’indirizzo: www.rand.org/pubs/research_reports/ RR233.html; U. Pagallo e S. Quattrocolo, The impact of AI on criminal law, and its twofold procedures, in W. Barfield e U. Pagallo (a cura di), Research Handbook on the Law of Artificial Intelligence, Cheltenham-Northampton 2018, p. 385. 3   Il termine «cyberspazio» apparve nel 1982, nella sua forma inglese cyberspace, in un 1

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

654

Lorenzo Algeri

to, si parla attualmente del c.d. Internet of Things (IoT)4, espressione che fa riferimento alla moltitudine di «cose», o «oggetti» che, connessi in rete e identificati in modo univoco, sono in grado di comunicare tra di loro, o con altri sistemi, senza richiedere l’intervento umano. L’enorme quantità di dati (Big data)5 prodotta dalle suddette connessioni può essere gestita adeguatamente attraverso l’uso di tecnologie di apprendimento automatico basate su sistemi di intelligenza artificiale (A.I.)6.

racconto di fantascienza dal titolo Burning Chrome (trad. it. La notte che bruciammo Chrome, 1989), pubblicato da William Gibson sulla rivista Omni, per poi essere nuovamente utilizzato due anni dopo nel suo romanzo Neuromancer (1984, trad. it 1986). Costituisce lo spazio virtuale nel quale utenti e programmi connessi fra loro attraverso una rete telematica (come internet) possono muoversi e interagire per gli scopi più disparati, come, ad esempio, la consultazione di archivî e banche dati o lo scambio di posta elettronica. 4   Il termine è stato utilizzato per la prima volta da K. Ashton: That “Internet of Things” Thing, in RFID Journal, 22 luglio 2009, pp. 97-114. Per «cosa» o «oggetto» si fa riferimento a dispositivi, apparecchiature, impianti e sistemi, materiali e prodotti tangibili, opere e beni, macchine e attrezzature. Questi oggetti connessi che sono alla base dell’Internet delle cose si definiscono più propriamente smart objects (in italiano «oggetti intelligenti») e si contraddistinguono per alcune proprietà o funzionalità. Le più importanti sono identificazione, connessione, localizzazione, capacità di elaborare dati e capacità di interagire con l’ambiente esterno. Per un primo inquadramento della tematica dell’Internet delle Cose, v. N. Climer, Il cloud e l’Internet delle cose, in J. Al-Khalili (a cura di), Torino 2018, p. 133 ss. 5   La Commissione Europea [COM (2014) 442 Final] ha definito i Big data come «una grande quantità di tipi diversi di dati prodotti con un’alta velocità da un grande numero di fonti di diverso tipo. La gestione di tali aggregati di dati richiede oggi nuovi strumenti e metodi, come processori potenti, software e algoritmi». I c.dd. Big data hanno le seguenti principali caratteristiche, dette anche «5V». Il «volume», che indica l’enorme quantità di dati; la «velocità», che indica l’accelerazione nell’elaborazione dei dati; la «varietà», che rimanda all’eterogeneità delle fonti da cui provengono; la «veridicità», che sottolinea l’importanza di stabilire la possibile autenticità o inautenticità dei dati; la «variabilità», che è propria dei dati che emergono in formati diversi e che provengono da contesti diversi. La mutevolezza del loro significato è un aspetto da tenere in considerazione nel momento in cui i dati vengono interpretati. Si veda G. Della Morte, Big data e protezione internazionale dei diritti umani. Regole e conflitti, Napoli 2018, p. 178 ss.; L. Palazzani, Dalla bio-etica alla tecnoetica: nuove sfide del diritto, Torino 2017, p. 362; U. Ruffolo, Intelligenza Artificiale, machine learning e responsabilità da algoritmo, in Giur. it., 2019, VII, p. 1689. 6   Per un inquadramento generale della tematica spicca, nel panorama internazionale, S. J. Russel e P. Norving, Artificial Intelligence – A modern Approach, Pearson, Harlow 2010. Tra le opere in italiano, Aa.Vv., Diritto e intelligenza artificiale, G. Alpa (a cura di), Pisa 2020; S. Dorigo (a cura di), Il ragionamento giuridico nell’era dell’intelligenza artificiale, Pisa 2020; Aa.Vv., Intelligenza artificiale-Il diritto, i diritti, l’etica, U. Ruffolo (a cura di), Milano 2020; A. Santosuosso, Intelligenza artificiale e diritto, Milano 2020. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Giustizia predittiva

655

Ci si riferisce, in tale contesto, a quell’operazione tecnica denominata «profilazione»7 dei dati. L’utilizzo strategico dei suddetti dati costituisce, altresì, l’asse portante delle nuove tecnologie predittive finalizzate al mantenimento dell’ordine pubblico e alla prevenzione della criminalità8. 2. Il paradigma dell’intelligenza artificiale affonda le sue radici negli studi sperimentali del secolo scorso. Il primo ad elaborare la teoria che le macchine potessero «pensare» fu Alan Turing nel 19509. Peraltro, l’espressione «intelligenza artificiale» è stata utilizzata la prima volta da John McCarthy in un convegno organizzato nel 1956 da alcuni matematici del Dartmouth College nel New Hampshire10. La svolta in materia si è avuta negli anni ‘90 con lo sviluppo dei processori grafici, le c.dd. Gpu (graphics processing unit), costituite da chip di elaborazione dati molto più veloci e in grado di supportare procedure complesse molto più rapidamente dei sistemi precedenti. La messa a punto di una definizione di intelligenza artificiale costituisce un’operazione complessa a causa della molteplicità di sfaccettature del modello e soprattutto in relazione all’estrema rapidità e plasticità con cui si evolve la tecnologia in esame11. Pertanto, pare opportuno partire dalla definizione contenuta nella 7   Secondo l’art. 4, n. 4, del Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016 relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, per «profilazione» si intende «qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati per valutare determinati aspetti personali relativi a una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica». 8   I dati sono considerati come «la spina dorsale di ogni tecnologia predittiva» («The backbone of any new predictive technology is data»). In tal senso, A.G. Ferguson, Poling Predictive Policing, in Wash. L. Rev., 2017, V, p. 1145. 9   A.M. Turing, Computing, machinery and intelligence, in Mind, 1950, pp. 433460. L’autore a p. 433 si chiede: «Can machines think?». 10   J. Mc Carthy, M.L. Minsky, N. Rochester e C. E. Shanon, A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, 1995, www-foral. standford.edu/jmc/history/dartmouth/dartmouth.html. 11   Sulla generale tendenza della definizione a mutare con il tempo si veda M. Ienca, Intelligenza2. Per un’unione di intelligenza naturale e artificiale, Torino 2019, p. 13; M.B. Magro, Biorobotica, robotica e diritto penale, in D. Provolo, S. Riondato e F. Yenisey (a cura di), Genetics, Robotics, Law, Punishment, Padova 2014, p. 510 s.; R. Calò, Artificial Intelligence Policy: a Primer and Roadmap, in University of Bologna Law Review, 2018, p. 184; C. Trevisi, La regolamentazione in materia di Intelligenza artificiale, robot,

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

656

Lorenzo Algeri

«Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi» – adottata nei giorni 3-4 dicembre 2018 dalla Commissione europea per l’efficienza della giustizia (CEPEJ), istituita dal Comitato dei ministri del Consiglio d’Europa nel 2002 – dove viene espressa come l’«insieme di metodi scientifici, teorie e tecniche finalizzate a riprodurre mediante le macchine le capacità cognitive degli esseri umani. Gli attuali sviluppi mirano a far svolgere alle macchine compiti complessi precedentemente svolti da esseri umani»12. Per completezza, occorre riferirsi anche ad una recente Comunicazione del 2018 elaborata dalla Commissione europea, intitolata “Artificial Intelligence for Europe”, che fornisce la seguente definizione di IA: «l’intelligenza artificiale (IA) indica sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi. I sistemi basati sull’IA possono consistere solo in software che agiscono nel mondo virtuale (ad esempio, assistenti vocali, software per l’analisi delle immagini, motori di ricerca, sistemi di riconoscimento vocale e facciale), oppure incorporare l’IA in dispositivi hardware (ad esempio, in robot avanzati, auto a guida autonoma, droni o applicazioni dell’Internet delle Cose)»13. Partendo proprio da tali presupposti, il gruppo Indipendente di 52 esperti ad alto livello, nominato dalla Commissione europea per svolgere a suo favore funzioni di consulenza sull’intelligenza artificiale ha sviluppato il concetto di Intelligenza artificiale riferendosi a «sistemi software (ed eventualmente hardware) progettati dall’uomo che, dato un obiettivo complesso, agiscono nella dimensione fisica o digitale percependo il proprio ambiente attraverso l’acquisizione di dati, interpretando i dati strutturati o non strutturati raccolti, ragionando sulla conoscenza o elaborando le informazioni derivate da questi dati e decidendo le migliori automazione: a che punto siamo, in Medialaws, 21 maggio 2018, p. 1; D. Schatsky, C. Muraskin e R. Gurumurthy, Demystifying artificial intelligence, 2015. 12   Commissione europea per l’efficienza della giustizia (CEPEJ), Carta etica per l’uso dell’intelligenza artificiale nei sistemi giudiziari e nel loro ambiente, App. III, Glossario, p. 47. Sulla stessa falsariga, si veda lo studio intitolato Artificial Intelligence and life in 2030, One hundred year study on Artificial Intelligence, Stanford University, Stanford 2016, p. 5, in cui gli scienziati dell’Università di Stanford la identificano come «una scienza e un insieme di tecniche computazionali che vengono ispirate – pur operando tipicamente in maniera diversa – dal modo in cui gli esseri umani utilizzano il proprio sistema nervoso e il proprio corpo per sentire, imparare, ragionare e agire». 13   COM(2018) 237 final, del 25 aprile 2018. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Giustizia predittiva

657

azioni da intraprendere per raggiungere l’obiettivo dato. I sistemi di IA possono usare regole simboliche o apprendere un modello numerico, e possono anche adattare il loro comportamento analizzando gli effetti che le loro azioni precedenti hanno avuto sull’ambiente. Come disciplina scientifica, l’IA comprende diversi approcci e diverse tecniche, come l’apprendimento automatico (di cui l’apprendimento profondo e l’apprendimento per rinforzo sono esempi specifici), il ragionamento meccanico (che include la pianificazione, la programmazione, la rappresentazione delle conoscenze e il ragionamento, la ricerca e l’ottimizzazione) e la robotica (che comprende il controllo, la percezione, i sensori e gli attuatori e l’integrazione di tutte le altre tecniche nei sistemi cyberfisici)»14. Alla luce delle suddette puntualizzazioni tecnico scientifiche è possibile, in estrema sintesi, individuare delle caratteristiche specifiche proprie di ogni sistema di I.A. In tale direzione, si può affermare che l’intelligenza artificiale costituisce un sistema dotato di una elevata capacità logico-computazionale in grado di elaborare grandi quantità di dati e informazioni e di prendere decisioni corrette in vari campi di applicazione mediante l’uso di algoritmi15 al fine di produrre un determinato risultato16. 3. Il tessuto «costitutivo» dell’intelligenza artificiale è composto dai c.dd. neuroni artificiali, che ne rappresentano le singole unità elementari. Tali neuroni formano le reti neurali artificiali17, che sono modelli di

14   Una definizione di IA: principali capacità e discipline scientifiche, 2018, p.  6, www.ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines#Top. 15   L’ algoritmo è una sequela finita di istruzioni ripetibili e univoche indicante una combinazione di azioni da compiere per risolvere un problema; comandi espressi con un linguaggio formale di programmazione in grado di essere compreso dal calcolatore e tale da trasformare i dati in ingresso (input) in dati in uscita (output). L’algoritmo, dunque, deve presentare i caratteri della finitezza (condurre alla soluzione in un numero definito di passi), generalità (risolve una classe di problemi e non uno solo), univocità (lo svolgimento delle operazioni deve avvenire sempre allo stesso modo, a prescindere dall’esecutore materiale), ripetibilità (dati gli stessi input, deve fornire gli stessi output). Per un approfondimento, M. Sipser, Introduzione alla teoria della computazione, ed. it. a cura di C. De Felice, L. Gargano e P. D’Arco, Santarcangelo di Romagna 2013, p. 191 ss. 16   Cfr., nello stesso senso, G. Ubertis, Intelligenza artificiale, giustizia penale, controllo umano significativo, in Sistema penale, 11 novembre 2020, p. 4. 17   Voce «neuroni/reti neurali», Commissione europea per l’efficienza della giusti-

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

658

Lorenzo Algeri

calcolo matematico-informatici che traggono ispirazione dal funzionamento delle reti neurali biologiche. Una rete neurale è una rappresentazione artificiale del cervello umano. L’aggettivo «artificiale» indica che le suddette reti sono implementate in programmi informatici in grado di gestire l’elaborazione di un gran numero di dati. Per comprendere come è stato sviluppato il neurone artificiale occorre effettuare una breve descrizione della struttura e del funzionamento dei neuroni biologici. Il neurone si divide in tre componenti: il corpo cellulare, i dendriti e l’assone18. I dendriti, che assomigliano a una folta ramificazione, trasmettono al corpo cellulare l’impulso proveniente da altri neuroni. L’assone, che ha la forma di un filamento allungato che può arrivare molto lontano dal corpo cellulare conduce l’impulso dal corpo cellulare ad altri neuroni, cioè ai loro dendriti o ai corpi cellulari, attraverso numerose biforcazioni e ramificazioni terminali. zia (CEPEJ), Carta etica per l’uso dell’intelligenza artificiale, cit., p. 48: «Le reti neurali sono sistemi informatici ispirati vagamente alle reti neurali biologiche che costituiscono il cervello degli animali [1]. Tali sistemi “apprendono” a svolgere dei compiti prendendo in considerazione degli esempi, generalmente senza essere programmati con regole specifiche per il compito. Per esempio, nell’ambito del riconoscimento di immagini, potrebbero apprendere a identificare immagini in cui figurano gatti analizzando esempi di immagini etichettate manualmente come “gatto” o “non gatto” e utilizzando i risultati per identificare i gatti in altre immagini. Svolgono tale compito senza alcuna preliminare conoscenza dei gatti, per esempio che essi possiedono un pelo, una coda e baffi, nonché un muso da gatto, generano invece automaticamente i tratti distintivi a partire dal materiale di apprendimento che trattano». Le reti artificiali neurali (ANN artificial neural networks) si basano su un insieme di unità connesse o nodi, denominati neuroni artificiali, modellati genericamente sulla falsariga dei neuroni di un cervello biologico. Ciascuna connessione, come le sinapsi di un cervello biologico, può trasmettere un segnale da un neurone artificiale a un altro. Un neurone artificiale che riceve un segnale può trattarlo e inoltrarlo successivamente ad altri neuroni artificiali cui è connesso. Originariamente l’approccio ANN si prefiggeva di risolvere i problemi nella stessa maniera di un cervello umano. Tuttavia, con il passare del tempo, l’attenzione si è spostata sullo svolgimento di compiti specifici, e ciò ha condotto a deviazioni dalla biologia. Le reti artificiali neurali sono state utilizzate per diversi compiti, in particolare per l’eidologia informatica, il riconoscimento vocale, la traduzione automatica, il filtraggio dei social network, i giochi da tavolo e i videogiochi, e la diagnostica medica». 18   Per un approfondimento della materia si veda, volendo, L. Algeri, La prova neuroscientifica nel processo penale, Milano 2020, p.  78 ss. Sui rapporti tra neuroscienze e intelligenza artificiale, M. Bertolino, Problematiche neuroscientifiche tra fallacie cognitive e prove di imputabilità e di pericolosità sociale, in Dir. pen. proc., 2020, I, p. 40 ss. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Giustizia predittiva

659

Tra le terminazioni di un assone di un neurone e i dendriti o il corpo cellulare di un neurone vi è uno spazio vuoto, chiamato sinapsi, attraverso cui avviene la trasmissione dell’impulso nervoso, che è denominato «potenziale d’azione»19. La trasmissione dell’impulso nervoso avviene grazie a trasformazioni chimiche che generano fenomeni elettrici complessi che oramai è possibile studiare con l’utilizzo di elettrodi finissimi. Con tali elettrodi si può registrare l’attività elettrica di un singolo neurone. Nello spazio vuoto, cioè nella sinapsi, compreso tra le terminazioni dell’assone di un neurone (detto presinaptico) e i dendriti o il corpo cellulare di un altro neurone (detto postsinaptico), avviene la trasmissione del messaggio nervoso a causa della liberazione di sostanze chimiche, chiamate neurotrasmettitori, da parte del neurone presinaptico. Il neurotrasmettitore agisce sulla membrana del dendrite o del corpo cellulare del neurone dando avvio a processi chimici che fanno generare un impulso in questo neurone. I neurotrasmettitori possono avere funzioni eccitatorie o inibitorie. Ogni neurone produce uno specifico trasmettitore ed è attivato in modo altrettanto selettivo da un trasmettitore specifico. In modo similare, i neuroni artificiali trasportano le informazioni in entrata (input) sulle proprie connessioni in uscita (output) verso altri neuroni. Le reti neurali artificiali sono strutture non-lineari di dati statistici organizzate come strumenti di modellazione: ricevono segnali esterni su uno strato di nodi, che rappresenta l’unità di elaborazione ossia il processore; ognuno di questi «nodi d’ingresso» è collegato a svariati nodi interni della rete che, tipicamente, sono organizzati a più livelli in modo che ogni singolo nodo possa elaborare i segnali ricevuti trasmettendo ai livelli successivi il risultato delle sue elaborazioni. Le reti neurali artificiali sono organizzate internamente in determinati strati o layer, ognuno con differenti attribuzioni20. L’input layer (lo strato di ingresso), è composto dai neuroni della rete che ricevono

19   M.F. Bear, B.W. Connors e M.A. Paradiso, Neuroscienze. Esplorando il cervello, Milano 2007, p.  75 ss.; A. Marini, Che cosa sono le neuroscienze cognitive, Roma 2016, p. 19. 20   G. Di Stasio, Machine learning e reti neurali nel diritto civile, applicazione del machine learning a casi di diritto condominiale, in Rivista quadrimestrale on-line I-lex.it, p. 13.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

660

Lorenzo Algeri

input dall’esterno21. Questi dati vengono processati e si trasformano in informazioni che vengono trasferite ad altri neuroni che compongono l’Hidden layer (lo strato nascosto). I nodi che compongono tale strato (unità nascoste o hidden) elaborano le informazioni ricevute dalle unità di input e le inviano ad altri strati di hidden, fino ad arrivare all’ultimo strato, quello di output (lo strato di uscita). Ad un maggior numero di strati corrisponde una maggior capacità di elaborazione del sistema. La stessa Carta etica europea sull’utilizzo dell’intelligenza artificiale distingue correttamente tra «intelligenze artificiali “forti” (capaci di contestualizzare problemi specializzati di varia natura in maniera completamente autonoma) e intelligenze artificiali “deboli” o “moderate” (alte prestazioni nel loro ambito di addestramento)»22. L’intelligenza artificiale «debole» consiste in sistemi tecnologici in grado di simulare alcune funzionalità cognitive senza però raggiungere le reali capacità intellettuali tipiche dell’uomo23. L’intelligenza artificiale «forte» rappresenta invece un sistema in grado di sviluppare ragionamenti e risolvere problemi in modo completamente autonomo24. 4. La rete neurale, per poter funzionare, deve ricevere dei dati di partenza e delle istruzioni di base. È necessario, in altri termini, «istruire» la macchina in modo che possa produrre i risultati che si intendono conseguire. In proposito si parla tecnicamente di apprendimento automatico25, il c.d. «machine learning»26.

21   G. Sartor, L’informatica giuridica e le tecnologie dell’informazione, Torino 2012, p. 289. 22   Commissione europea per l’efficienza della giustizia (CEPEJ), Carta etica per l’uso dell’intelligenza artificiale, cit., p. 47. 23   J.R. Searle, Minds, Brains and Programs, in The Behavioral and Brain Sciences, Cambridge 1980, p. 46. 24   S.J. Russel e P. Norvig, Intelligenza artificiale: un approccio moderno, Torino 1998, p. 884. 25   Per alcune riflessioni sul c.d. apprendimento automatico, cfr. E. Finn, Che cosa vogliono gli algoritmi. L’immaginazione nell’era dei computer, Torino 2017, p.  194 ss.; M. Tegmark, Vita 3.0. Essere umani nell’era dell’intelligenza artificiale, Milano 2018, p. 101 ss. 26  Il termine «Machine learning» è stato coniato dall’informatico statunitense A.L. Samuel, Some studies in machine learning using the game of checkers, in IBM Journal of research and development, 1959. Per un approfondimento della nozione, cfr. M. Kubat, An introduction to machine learning, Miami 2017.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Giustizia predittiva

661

La Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi (adottata nei giorni 3-4 dicembre 2018 dalla CEPEJ) definisce così il concetto di machine learning: «L’apprendimento automatico consente di costruire, a partire dai dati, un modello matematico che include un gran numero di variabili non conosciute in anticipo. I parametri si configurano gradualmente durante la fase di apprendimento, che utilizza insiemi di dati di addestramento per reperire e classificare i collegamenti. I diversi metodi di apprendimento automatico sono scelti dai progettisti a seconda della natura dei compiti da svolgere (raggruppamento). Tali metodi sono generalmente classificati in tre categorie: apprendimento supervisionato (da un essere umano), apprendimento non supervisionato e apprendimento per rinforzo»27. Il machine learning è costituito da un complesso di algoritmi che utilizzano metodi matematico-computazionali per apprendere informazioni dall’esperienza, cioè in modo automatico e adattivo. Si è soliti distinguere tre approcci principali di machine learning: l’apprendimento supervisionato (Supervisioned learning), l’apprendimento non supervisionato (Unsupervisioned learning) e, infine, l’apprendimento per rinforzo (Reinforcement learning)28. Nella metodologia dell’apprendimento supervisionato, alla rete neurale vengono forniti sia il set di dati come input sia le informazioni relative ai risultati desiderati con l’obiettivo che la rete identifichi una regola generale che colleghi i dati in ingresso con quelli in uscita; in altre parole vengono forniti degli esempi di input e di output in modo il sistema che impari il nesso tra loro e ne estrapoli una regola riutilizzabile per altri compiti simili. Nel caso dell’apprendimento non supervisionato al sistema vengono forniti soltanto i dati senza alcuna indicazione del risultato desiderato. Lo scopo di questo secondo metodo di apprendimento è «risalire» a schemi e modelli nascosti, ossia identificare negli input una struttura logica senza che questi siano preventivamente etichettati. Il sistema apprende senza ricevere indicazioni o istruzioni dall’esterno. I neuroni artificiali si specializzano mediante una competizione interna al fine di

27   Commissione europea per l’efficienza della giustizia (CEPEJ), Carta etica per l’uso dell’intelligenza artificiale, cit., p. 45. 28   G. Sartor e F. Lagioia, Le decisioni algoritmiche tra etica e diritto, in U. Ruffolo (a cura di), Milano 2020, p. 69 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Lorenzo Algeri

662

discriminare gli stimoli presentati in ingresso. È lasciato all’algoritmo il compito di individuare pattern nascosti o strutture intrinseche nei dati. La tecnica di apprendimento non supervisionato più comune è il particolare tipo di raggruppamento (clustering), attraverso cui si riuniscono i dati con caratteristiche simili. Il programma, non avendo dati categorizzati in precedenza, individua autonomamente una relazione tra i dati che gli vengono sottoposti, andando poi a raggruppare gli input secondo le caratteristiche che determina. L’altra tecnica utilizzata è quella di «associazione». In questo caso si individuano regole che descrivono grandi porzioni di dati attraverso le determinazioni di associazioni, correlazioni o schemi frequenti che vengono riscontrati dall’algoritmo in una base di dati inserita in precedenza. Infine, nell’apprendimento per rinforzo il sistema deve interagire con un ambiente dinamico, che gli consente di avere i dati di input, e raggiungere un obiettivo al raggiungimento del quale riceve una ricompensa, imparando anche dagli errori, identificati medianti «punizioni». Il sistema apprende dai risultati delle azioni proprie o altrui: è in grado di distinguere successi e fallimenti, a seconda di come le azioni incidano sul raggiungimento delle utilità o valori da esso perseguiti. 5. Il Deep learning, o «apprendimento profondo», costituisce una sottocategoria del machine learning (apprendimento automatico) e indica quella branca dell’intelligenza artificiale che fa riferimento agli algoritmi ispirati alla struttura e alla funzione del cervello, le reti neurali artificiali. Si parla di «Deep» learning, perché le reti neurali artificiali in questa applicazione sono «multistrato», quindi sviluppano un’elaborazione «profonda» dei dati. Sono denominate reti neurali profonde (deep artificial neural networks) perché, oltre ai tre livelli basici (input layer, hidden layer, output layer), hanno un altissimo numero di strati nascosti (hidden layers). Tali reti neurali profonde riescono, grazie al loro numero maggiore di strati intermedi, a costruire più livelli di astrazione che permettono alle reti di riuscire a risolvere problemi complessi come, ad esempio, il riconoscimento vocale o delle immagini29.

  G. Sartor e F. Lagioia, Le decisioni algoritmiche tra etica e diritto, cit., pp. 71-

29

72.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Giustizia predittiva

663

6. Il modello dell’intelligenza artificiale è suscettibile di applicazione nell’ambito del procedimento penale sia in sede investigativa sia in sede processuale30. Innanzitutto gli algoritmi sono utilizzati nella c.d. attività di polizia predittiva (predictive policing)31. Nell’ambito dei compiti istituzionali propri delle forze dell’ordine stiamo assistendo ad uno sviluppo su scala sempre più vasta delle tecniche di polizia predittiva che sono preordinate a prevedere il compimento di reati e la loro localizzazione (crime hotspot) o ad elaborare profili criminali individuali (predictive composite), attraverso l’incrocio, mediante algoritmi, di dati immagazzinati attraverso fonti diverse, quali banche dati, databrokers, social networks, impianti di video sorveglianza32. I software di polizia predittiva si dividono in due categorie33. Secondo un primo criterio, si tende ad individuare le c.dd. «zone

30   Per un quadro d’insieme, M. Gialuz, Quando la giustizia penale incontra l’intelligenza artificiale: luci e ombre dei risk assessment tools tra Stati uniti ed Europa, in Diritto penale contemporaneo, p. 1 ss.; G. Ubertis, Intelligenza artificiale, giustizia penale, controllo umano significativo, cit.; J. Nieva-Fenol, Intelligenza artificiale e processo, Torino 2019; A. Traversi, Intelligenza artificiale applicata alla giustizia: ci sarà un giudice robot?, in Questione giustizia online, 10 aprile 2019. 31  Sull’argomento, in chiave fantascientifica, è diventato celebre il romanzo di P.K. Dick, The Minority Report, New York 2002, da cui è stato tratto l’omonimo lungometraggio di S. Spielberg. Nel romanzo e nel film si racconta la storia di John Anderton, responsabile della sezione Precrimine della polizia della città di Washington. Tale sezione di polizia, basandosi sulle premonizioni di tre individui dotati di poteri extrasensoriali di precognizione amplificati, detti Precog, è in grado di impedire gli omicidi prima che essi avvengano e ad arrestare i potenziali «colpevoli». In questo modo non viene punito il fatto (che tuttavia non avviene), ma l’intenzione di compierlo. Dal punto di vista investigative e giuridico, C. Cath, S. Wachter, B. Mittelstadt, M. Taddeo e L. Floridi, Artificial Intelligence and the ‘Good Society’: the US, EU, and UK approach, in Science and Eng. Ethics, 2018; L. Bennett Moses e J. Chan, Algorithmic prediction in policing: assumptions, evaluation, and accountability, in Policing and society, 2018, pp. 806-822. Nel settore della cyberintelligence, anche per effettuare il profiling di potenziali terroristi o autori di reato. Si veda A. Marotta, Terrorismo contemporaneo e profiling potenziale. Valutazione criminologica, in N. Gallo e J. Ochs (a cura di), Sulla scena del delitto. Esperienze professionali e casi pratici in criminologia, Milano 2016, p. 98 ss. 32   A. Ferguson, The Rise of Big Data Policing: Surveillance, Race and the Future of Law Enforcement, New York 2017. Le strategie di polizia predittiva sono definite come «the use of data and analytics to predict crime», così A.D. Selbst, Disparate Impact in Big Data Policing, in Georgia L. Rev., 2017, p. 114. 33   F. Basile, Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, cit., p. 11.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

664

Lorenzo Algeri

calde» (hotspots), cioè i luoghi che costituiscono il possibile futuro scenario di un’eventuale commissione di determinati reati. In base ad un secondo criterio, il c.d. crime linking, si seguono le serialità criminali di determinati soggetti per prevedere dove e quando i medesimi commetteranno il prossimo reato. Il predictive policing basato sulla hotspots analysis è una strategia di prevenzione del crimine che utilizza informazioni e sviluppa analisi avanzate per la previsione delle zone a più alta densità criminale in ambito cittadino34. Questa tipologia di prevenzione degli atti criminali attinge a piene mani alla criminologia ambientale, ovvero l’evoluzione ultima delle teorie criminologiche razionali, che studia come i target criminali si muovano nello spazio e nel tempo, riservando particolare attenzione alla distribuzione geografica del crimine e al ritmo delle attività giornaliere35. Tale teoria sostiene che gli eventi criminali hanno luogo al ricorrere di determinati fattori spazio-temporali, ovvero alla convergenza di delinquenti, vittime o obiettivi in contesti specifici, in un tempo e in uno spazio definiti36. Da questo background teorico che postula, dunque, l’esistenza di schemi ricorrenti nella commissione di determinati atti criminali, deriva la possibilità per le forze dell’ordine di interrompere il meccanismo causale del crimine, anticipandolo. Una volta individuato lo schema criminale, infatti, è possibile sapere tempestivamente quando, dove e come saranno commessi i singoli reati37. Ciò, di conseguenza, incide sul funzionamento concreto della polizia predittiva: anni di dati e informazioni sugli eventi criminali vengono raccolti e catalogati in banche dati integrate e successivamente inseriti in un software che li analizza, col fine ultimo di trasformare tali informazioni dapprima in conoscenza sul dove e quando sia più probabile che avvenga un crimine e, conseguentemente, in una guida

34   C. Uchida, A national discussion on predictive policing: defining our terms and mapping successful implementation strategies, 2014. Testo disponibile al sito internet: Ncjrs.gov. 35   S. Vezzadini, Profilo geografico e crime mapping. Il contributo della criminologia ambientale allo studio del delitto, in R. Bisi (a cura di), Scena del crimine e profili investigativi: quale tutela per le vittime?, Milano 2006. 36   P.J. Brantingham e P.L. Brantingham, Criminality of place: crime generators and crime attractors, in European Journal on Criminal Policy and Research, 1995, pp. 1-26. 37   A. Di Nicola, G. Espa, S. Bressan, M.M. Dickson e N. Marino, Metodi Statistici per la Predizione della Criminalità, in Rassegna della letteratura su predictive policing e moduli di data mining, 2014, p. 1 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Giustizia predittiva

665

per la prevenzione38. Infatti, attraverso l’analisi dei dati relativi ai luoghi di maggiore concentrazione dei crimini avvenuti in passato (hot spots) individuati dal software e l’utilizzo di modelli predittivi (modelli statistici, moduli di data mining39), le forze dell’ordine possono organizzare in maniera più efficiente le risorse a propria disposizione, distribuendosi in modo più mirato sul territorio cittadino40. In questo modo, possono essere presenti nelle zone in cui è previsto che si verifichi un reato quel giorno e in quella fascia oraria. Di conseguenza, hanno la possibilità di condurre interventi mirati e specifici. Il tipo di operazione che la polizia porrà in essere potrà variare a seconda della finalità cui mira, se la semplice deterrenza o, piuttosto, la soluzione definitiva di una questione criminale41. Il software «X-LAW», originariamente predisposto dalla Questura di Napoli, si basa su un algoritmo capace di rielaborare una mole enorme di dati estrapolati dalle denunce inoltrate alla Polizia di Stato nonché dalle banche dati e dai social netwok. Tale rielaborazione consente di far emergere fattori ricorrenti o fattori coincidenti, come ad esempio la ripetuta commissione di rapine negli stessi luoghi, da parte di persone con lo stesso tipo di casco o di moto, e con analoghe modalità. Ciò consente di tracciare una mappa del territorio dove vengono evidenziate le zone a più alto rischio, le c.dd. «zone calde» (hotspot) fino a raggiungere il livello massimo in determinati orari, così consentendo – nelle zone e negli orari «caldi» – la predisposizione delle forze dell’ordine per impedire la commissione di tali reati e per cogliere in flagranza i potenziali autori degli stessi42.

38   C. Beck e C. Mc Cue, Predictive policing: what can we learn from WalMart and Amazon about fighting crime in a recession?, in The Police Chief, 2009, testo disponibile al sito: www.policechiefmagazine.org/magazine. 39   Le tecniche di data mining permettono di «estrarre» dati e di ricavarne informazioni, collegamenti e, soprattutto, proiezioni future. 40   A. Di Nicola, G. Espa, S. Bressan, M.M. Dickson e N. Marino, Metodi Statistici per la Predizione della Criminalità, cit., pp. 1-35. 41   Ibidem. 42   F. Basile, Intelligenza artificiale e diritto penale, cit., p. 12; E. Lombardo, Sicurezza 4P. Lo studio alla base del software XLAW per prevedere e prevenire i crimini, Venezia 2019; C. Morelli, Furti e rapine: a sventarli ci pensa l’intelligenza artificiale!, in Altalex, 6 maggio 2019; S. Signorato, Giustizia penale e intelligenza artificiale. Considerazioni in tema di algoritmo predittivo, in Riv. dir. proc., 2020, p. 607; A. Ziroldi, Intelligenza artificiale e processo penale tra norme, prassi e prospettive, in Quest. giust., 18 ottobre 2019, p. 17. Il presupposto di base è che i reati come le rapine, i borseggi e i furti hanno caratteristiche di ciclicità e sono tendenzialmen-

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

666

Lorenzo Algeri

Il software «Keycrime», programma che trae origine da esperienze investigative presso la Questura di Milano, si fonda invece sull’analisi dei dati di indagine acquisiti in relazione a precedenti reati (input) per fornire un’indicazione probabilistica di future serie criminali (output). In particolare, attraverso l’esame delle variabili di una moltitudine di episodi accaduti in precedenza l’algoritmo perviene a segnalare le serie criminali (crime linking) effettuate dagli stessi soggetti e prevedere dove potranno consumarsi le prossime azioni criminali43. Tale programma è adatto per il monitoraggio dei reati caratterizzati da condotte «seriali», come ad esempio le rapine. Le informazioni e i dati vengono raccolti in base alle dichiarazioni delle persone offese e vengono inseriti nel database del programma unitamente a tutti gli altri elementi oggettivi relativi al fatto (immagini da telecamere, tracce biologiche rinvenute, accertamenti diretti della polizia giudiziaria intervenuta dopo il fatto sul posto. I dati vengono quindi immessi nel sistema e costantemente confrontati tra loro, al fine di localizzare gli eventi e classificare gli stessi in base alle caratteristiche personali dell’autore dei fatti. In questo modo, tutti gli eventi che hanno luogo in una determinata area sono confrontati rispetto a ogni ulteriore episodio, e sono identificate simite stanziali perché messi in atto da soggetti deviati e modestamente organizzati, che usano questi espedienti per costruire un profitto in un arco temporale relativamente breve. In questo modo è possibile individuare delle vere e proprie «riserve di caccia». XLAW impiega il machine learning per sviluppare dei modelli criminali a partire dalle segnalazioni fornite e dai dati disponibili. Vengono segnalate anche le caratteristiche del sospetto come il genere, l’altezza, la cittadinanza, i segni distintivi e altri aspetti biometrici. Gli operatori di polizia ricevono degli alert geo-referenziati ad esempio, riguardo a un potenziale furto, in modo da sorvegliare in anticipo una determinata zona. La soluzione, grazie ad un sistema geografico informativo (GIS) dà al poliziotto una mappa di rischio che raffigura ogni 30 minuti i luoghi e gli orari precisi in cui si potrà consumare un crimine, con un anticipo anche di due ore: descrivendo il tipo di crimine, il modus operandi dell’autore, il tipo di preda e di target. 43   F. Basile, Intelligenza artificiale e diritto penale, cit., p. 12; A. D. Signorelli, Il software italiano che ha cambiato il mondo della polizia predittiva in Wired.it, 18 maggio 2019; per una descrizione di Keycrime, fornita dal suo stesso ideatore, M. Venturi, Profiling, 5, 2014; C. Parodi e V. Sellaroli, Sistema penale e intelligenza artificiale: molte speranze e qualche equivoco, in Dir. pen. cont., 2019, VI, pp. 55-59; S. Signorato, Giustizia penale e intelligenza artificiale. Considerazioni in tema di algoritmo predittivo, cit., p. 607; A. Ziroldi, Intelligenza artificiale e processo penale tra norme, prassi e prospettive, cit., p. 17; G. Santucci, Milano. Il programma anti rapine diventa una startup della sicurezza, in www.corriere.it, 18 aprile 2019; C. Morabito, La chiave del crimine, in Poliziadistato.it, luglio 2015; M. Serra, Rapinatore seriale catturato grazie al software “Key crime”, in Lastampa.it, 5 gennaio 2018. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Giustizia predittiva

667

litudini e dissonanze rispetto a tutti gli altri. Il programma è inoltre in grado di eseguire una verifica tra oggetti e indumenti rappresentati nelle immagini per accertare elementi ricorrenti, comparando altresì le abitudini operative degli autori dei reati44. 7. Gli algoritmi predittivi pongono in essere una pervasiva e incisiva attività di monitoraggio ed elaborazione dei dati. È proprio nel contesto di tali dinamiche che i sistemi di intelligenza artificiale possono entrare in conflitto con i diritti fondamentali dell’individuo. Occorre innanzitutto contenere e minimizzare il rischio di effetti distorsivi, come quello della possibile violazione del diritto alla privacy scaturente da sistemi di sorveglianza generalizzata, e, inoltre, salvaguardare la garanzia della protezione dei soggetti i cui dati vengano in qualche modo interessati nonché, infine, evitare le possibili ricadute discriminatorie implicite nella localizzazione dei fenomeni criminosi oggetto di predizione45. Viene immediatamente in rilievo l’art. 8 della Carta dei diritti fondamentali dell’Unione europea, secondo cui ogni persona ha diritto alla protezione dei dati di carattere personale che la riguardano, già a partire dal momento della raccolta46. Tali dati devono essere trattati secondo il principio di lealtà, per finalità determinate e in base al consenso della persona interessata o a un altro fondamento legittimo previsto dalla legge47. Come si evince dalla normativa comunitaria, la privacy deve essere tutelata anche in ambito preventivo48. L’art. 20 della Direttiva 2016/680/UE49 e l’art. 16 del relativo de44   Per ulteriori approfondimenti, C. Parodi e V. Sellaroli, Sistema penale e intelligenza artificiale: molte speranze e qualche equivoco, cit., pp. 56-57. 45   F. Basile, Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, cit., p. 13; S. Signorato, Giustizia penale e intelligenza artificiale. Considerazioni in tema di algoritmo predittivo, cit., p. 608; G. Ubertis, Intelligenza artificiale, giustizia penale, controllo umano significativo, cit., pp. 6-8; A. Ziroldi, Intelligenza artificiale e processo penale tra norme, prassi e prospettive, cit., p. 17. 46   G. Ubertis, Intelligenza artificiale, giustizia penale, controllo umano significativo, cit., p. 6. 47   Per un approfondimento, M. Bonetti, sub art. 8, in G. Ubertis e F. Viganò (a cura di), Corte di Strasburgo e giustizia penale, Torino 2016, pp. 276-277. 48   Sull’utilizzo dei Big data per fini di polizia predittiva, A. Bonfanti, Big data e polizia predittiva: riflessioni in tema di protezione del diritto alla privacy e dei dati personali, in Medialaws.eu, III, 24 ottobre 2018. 49   La Direttiva 2016/680/UE del Parlamento europeo e del Consiglio del 27 aprile

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

668

Lorenzo Algeri

creto attuativo d.lg. 18 maggio 2018, n. 5150, prevedono la protezione dei dati personali non solo nella fase del trattamento per impostazione predefinita (c.d. privacy by default), ma anche nella prodromica fase di programmazione del sistema di trattamento (privacy by design)51. In particolare, la disposizione di cui all’art. 16 del d.lg. 51 del 2018 stabilisce la responsabilità del titolare del trattamento a mettere in atto misure tecniche e organizzative adeguate riguardo sia alla protezione dei diritti degli interessati attraverso la c.d. pseudonimizzazione52 sia per garantire che, per impostazione predefinita, non siano resi accessibili dati personali a un numero indefinito di persone fisiche senza l’intervento della persona fisica. In materia è stato emanato il d.P.R. n. 15 del 2018, ossia il Regolamento sul trattamento dei dati personali da parte delle forze di polizia nell’esercizio dei compiti di prevenzione dei reati, tutela dell’ordine e della sicurezza pubblica, nonché di polizia giudiziaria53.

2016 è dedicata alla protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorità competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, nonché alla libera circolazione di tali dati. 50   Il d.lg. 18 maggio 2018, n. 51, di attuazione della direttiva (UE) 2016/680 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorità competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, nonché alla libera circolazione di tali dati e che abroga la decisione quadro 2008/977/GAI del Consiglio. Per un approfondimento, G. Baccari, Il trattamento (anche elettronico) dei dati personali per finalità di accertamento dei reati, in Cybercrime, cit., p. 1611 ss. 51  Con il termine privacy by design si intende la necessità di effettuare in via preliminare una valutazione del rischio, prevedendo, già in fase di progettazione dei sistemi informatici, la necessità di tutelare i dati sensibili che vengono trattati, andando a ridurre soltanto a quelli effettivamente necessari, la raccolta e l’utilizzo di dati personali, o introducendo sistemi di «anonimizzazione» dei dati, riducendo così i rischi legati a tale trattamento. Con privacy by default si indica invece la regola per cui devono sempre essere applicate delle procedure di acquisizione e gestione dei dati idonee a garantire il rispetto della normativa sulla privacy, riducendo il rischio di diffusione o trattamento illecito. Per una disamina di tali metodologie, F. Pizzetti, La protezione dei dati personali e la sfida dell’Intelligenza Artificiale, in F. Pizzetti (a cura di), Intelligenza artificiale, protezione dei dati personali e regolazione, Torino 2018, p. 111 ss. 52   La «pseudonimizzazione» consiste in una modalità particolare di trattamento intesa ad impedire che i dati personali possano essere riferiti ad un determinato soggetto senza l’utilizzo di informazioni aggiuntive a loro volta, separatamente gestite [d.lg. n. 51 del 2018, art. 2 comma 1 lett. d)]. 53   Per un commento, G. Baccari, Il trattamento (anche elettronico) dei dati personali per finalità di accertamento dei reati, cit., p. 1614 ss. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Giustizia predittiva

669

Nell’ambito di tali interventi, sono disciplinati specifici termini di conservazione dei dati, differenziati in base al tipo di provvedimento adottato (art. 10, comma 3). I dati personali relativi ad attività di polizia giudiziaria non possono essere conservati oltre venticinque anni dal passaggio in giudicato della sentenza di condanna, oltre venti anni in caso di sentenza di assoluzione o di non doversi procedere o di provvedimento di archiviazione, oltre quindici anni per i dati personali che non hanno dato luogo a procedimento penale. Peraltro, i termini sono aumentati di due terzi quando i dati personali sono trattati nell’ambito di attività preventiva o repressiva relativa ai delitti di cui all’art. 51, commi 3-bis, 3-quater e 3-quinques c.p.p., nonché per le ulteriori ipotesi indicate dall’art. 407, comma 2, lett. a), c.p.p. (art. 10, comma 4). È consentito il trattamento dei dati personali per esigenze temporanee o in relazione a situazioni particolari che sono direttamente correlate all’esercizio dei compiti di polizia di prevenzione dei reati, di tutela dell’ordine e della sicurezza pubblica, nonché di polizia giudiziaria (art. 8, comma 1). I dati personali trattati per esigenze temporanee sono conservati separatamente da quelli registrati permanentemente, per un periodo di tempo non superiore a quello necessario agli scopi specifici per i quali sono stati raccolti e, comunque, non oltre dieci anni dalla cessazione dell’esigenza o della situazione particolare che ne hanno reso necessario il trattamento (art. 8, comma 3). A scopo di cautela, i nuovi sistemi informativi e programmi informatici devono essere progettati in modo che i dati personali siano cancellati o resi anonimi, con modalità automatizzate, allo scadere dei termini di conservazione previsti e in modo da consentire la documentazione in appositi registri degli accessi e delle operazioni effettuati dagli operatori abilitati. Inoltre, si stabilisce che il titolare o il responsabile del trattamento dei dati personali assicurino l’adozione delle misure di sicurezza preventive, tenuto conto anche del progresso tecnologico, della natura dei dati e delle caratteristiche del singolo trattamento, idonee a ridurre al minimo i rischi di distruzione o perdita, anche accidentale, dei dati stessi, di accesso non autorizzato o di trattamento non consentito o non conforme alle finalità di polizia (art. 25, comma 1). Da un altro punto di vista, l’utilizzo di algoritmi predittivi potrebbe generare discriminazioni, in palese conflitto con l’art. 3 Cost., indi© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

670

Lorenzo Algeri

viduando determinati fattori di rischio in base all’appartenenza etnica, sociale o religiosa54. Inoltre, l’affidamento esclusivo e acritico rispetto ai suggerimenti forniti dall’algoritmo potrebbe indurre in determinati errori. Infatti, una volta individuata una «zona calda» (hotspot), si intensificheranno i controlli in detta zona con conseguente crescita del tasso di reati rilevato dalla polizia. Questo risultato potrebbe portare a sorvegliare costantemente la stessa zona lasciando altre aree sguarnite di protezione55. Si verifica così quel fenomeno delle c.dd. «profezie che si autoavverano» (self-fulfilling prophecies), che descrivono il circolo vizioso che si produce per il fatto che i quartieri considerati a rischio attirano più attenzione della polizia e la polizia rileva più criminalità, il che porta a un’eccessiva sorveglianza sulle comunità che vi abitano56. 54   F. Basile, Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, cit., p. 13; P. Severino, Intelligenza artificiale e diritto penale, cit., p. 541; G. Ubertis, Intelligenza artificiale, giustizia penale, controllo umano significativo, cit., pp. 10-11. Per gli stessi rilievi critici nella letteratura straniera, E. Thomas, Why Oakland Police Turned Down Predictive Policing, in Vice.com, 28 dicembre 2016; J. Kremer, The end of freedom in public places? Privacy problems arising from surveillance of the European public space, 2017, in particolare il capitolo 3.4.2, «Prediction», p. 269 ss. 55  Si pensi a un furto commesso «esattamente dove l’algoritmo non si aspetta un’intrusione», così C. Burchard, L’intelligenza artificiale come fine del diritto penale?, in Riv. it. dir. proc. pen., 2019, p. 1928. 56   M.F. De Tullio, La privacy e i big data verso una dimensione costituzionale collettiva, in Pol. dir., 2016, p. 662. Si veda anche F. Basile, Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, cit., p. 13, che osserva come «questi sistemi sollecitano una prevenzione dei reati attraverso l’intervento attivo della polizia, attraverso, quindi, una sorta di “militarizzazione” nella sorveglianza di determinate zone o di determinati soggetti, senza invece minimamente mirare alla riduzione del crimine attraverso un’azione rivolta, a monte, ai fattori criminogeni (fattori sociali, ambientali, individuali, economici, etc.)». In questo senso, cfr. Commissione europea per l’efficienza della giustizia (CEPEJ), Carta etica sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, Strasburgo, 3-4 dicembre 2018, p. 35, punto 121: «Tuttavia, occorre mettere nella giusta prospettiva le capacità predittive di questi strumenti, che mostrano i loro limiti in relazione ai reati di natura meno regolare o che colpiscono luoghi diversi, come gli atti di terrorismo. Un altro punto debole è l’effetto dei “circoli viziosi” e delle “profezie che si auto-adempiono”: i quartieri considerati a rischio attirano maggiormente l’attenzione della polizia, la quale scopre conseguentemente un maggior numero di reati, con il risultato di un’eccessiva sorveglianza da parte della polizia delle comunità residenti in tali luoghi. Infine, negli stessi servizi di polizia non sono del tutto assenti interrogativi su una possibile “tirannia dell’algoritmo” che potrebbe minimizzare o addirittura sostituire progressivamente il giudizio umano anche se, allo stato, la tecnologia è presentata come tutt’ora al servizio degli esseri umani affinché essi siano equipaggiati in modo

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Giustizia predittiva

671

Per quanto riguarda le possibili criticità derivanti dall’applicazione dei sistemi basati sul c.d. crime linking, occorre puntualizzare che la profilazione della persona cui venga addebitato un reato con l’impiego di algoritmi predittivi deve considerarsi inutilizzabile per considerarla responsabile anche di precedenti illeciti, desunti dall’archivio informatico e dalla sua elaborazione. Peraltro, resta la possibilità di utilizzare i risultati delle correlazioni elaborate come mero spunto investigativo, destinato ad essere integrato da altre autonome fonti di prova. In conclusione, gli algoritmi di polizia predittiva rappresentano uno strumento dotato di grandi potenzialità per supportare e incrementare la prevenzione dei reati massimizzando al contempo le risorse umane e materiali disponibili per l’impiego sul territorio. Tuttavia, occorre sviluppare determinate best practice per l’utilizzo degli algoritmi in modo da conciliare le esigenze investigative con il rispetto dei diritti e delle garanzie individuali. 8. Per quanto riguarda la c.d. giustizia predittiva (predictive justice) e le relative applicazioni dell’intelligenza artificiale in sede giudiziaria, si discute in merito ai c.dd. Automated decision system, che potrebbero in futuro conoscere un impiego anche all’interno dei processi penali, sostituendo, in tutto o in parte, la decisione del giudice persona fisica57. Si tratta di sistemi automatizzati che, attraverso tecniche di autoapprendimento (machine learning), simulano le dinamiche dei processi cognitivi e decisori dell’intelligenza umana e sono potenzialmente in grado di formulare la decisione più adeguata58.

migliore per adottare decisioni». Per un approfondimento della Carta etica, S. Quattrocolo, Intelligenza artificiale e giustizia: nella cornice della Carta etica europea, gli spunti per un’urgente discussione tra scienze penali e informatiche, in Lalegislazionepenale.eu, 18 dicembre 2018; M. Gialuz, Quando la giustizia penale incontra l’intelligenza artificiale: luci e ombre dei risk assessment tools tra stati uniti ed europa, in Dir. pen. cont., 29 maggio 2019. 57   Per un’approfondita analisi dei rapporti tra intelligenza artificiale e lo statuto epistemologico e costituzionale del processo penale, G. Canzio, Intelligenza artificiale, algoritmi e giustizia penale, in Sistema penale, 8 gennaio 2021, il quale ricorda, in un’ottica prudenziale, a p. 2 che «Al “Calculemus” di Leibniz (1684) rispose negli anni ’30 del secolo scorso B.N. Cardoso, giudice della Corte Suprema USA, sostenendo che “ancora non è stata scritta la tavola dei logaritmi per la formula di giustizia”». 58   Sulle applicazioni dell’Intelligenza artificiale nel processo penale v. F. Basile, Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, cit.; G. Canzio, Intelligenza artificiale e processo penale, in Cass. pen., 2021, III, p. 797 ss.; A. Carleo, Decisione robotica, Bologna 2019; A. Carratta, Decisione robotica e valori © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

672

Lorenzo Algeri

In alcuni ordinamenti gli algoritmi predittivi sono attualmente impiegati da un lato, per valutare la pericolosità sociale di un soggetto e il relativo rischio di recidiva e, da un altro lato, per applicare le pene commisurate secondo indici di gravità calcolati oggettivamente. Accedendo ad enormi quantità di dati, tali sistemi correlano fattori di rischio statistici a specifici individui, grazie a modelli matematici automatizzati59. In tal modo, è possibile analizzare un numero molto elevato di dati relativi al passato e individuare delle ricorrenze (ossia dei pattern), caratterizzate da una base statistica molto più solida di quelle che stanno al fondo dei giudizi umani60. In materia il leading case è costituito dalla sentenza della Corte Suprema del Wisconsin che del processo, in Riv. Dir. proc., 2020, II, p. 491 ss.; C. Castelli e D. Piana, Giusto processo e intelligenza artificiale, Santarcangelo di Romagna 2019; G. Contissa, G. Lasagni e G. Sartor, Quando a decidere in materia penale sono (anche) algoritmi e IA: alla ricerca di un rimedio effettivo, in Diritto di internet, 2019, IV, p. 619 ss.; B. Galgani, Giudizio penale, habeas data e garanzie fondamentali, in Arch. pen., 2019, I; M. Gialuz, Quando la giustizia penale incontra l’intelligenza artificiale: luci e ombre dei risk assessment tools tra Stati Uniti ed Europa, in Dir. pen. cont., 29 maggio 2019; R. E. Kostoris, Predizione decisoria, diversion processuale e archiviazione, in Dir. pen. cont., 23 luglio 2021; O. Di Giovine, Il judge-bot e le sequenze giuridiche in materia penale (intelligenza artificiale e stabilizzazione giurisprudenziale), in Cass. pen., 1° marzo 2020, p. 951 ss.; V. Manes, L’oracolo algoritmico e la giustizia penale: al bivio tra tecnologia e tecnocrazia, in Discrimen, 15 maggio 2020; J. Nieva-Fenoll, Intelligenza artificiale e processo, traduzione e prefazione a cura di P. Comoglio, Torino 2019; S. Quattrocolo, Intelligenza artificiale e giustizia: nella cornice della Carta etica europea, gli spunti per un’urgente discussione tra scienze penali e informatiche, in Leg. pen., 18 dicembre 2018; S. Quattrocolo, Qualcosa di meglio del diritto (e del processo) penale?, in Discrimen, 26 giugno 2020; S. Quattrocolo, Quesiti nuovi e soluzioni antiche? Consolidati paradigmi normativi vs. rischi e paure della giustizia digitale «predittiva», in Cass. pen., 2019, p.  1752; S. Signorato, Il diritto a decisioni penali non basate esclusivamente su trattamenti automatizzati: un nuovo diritto derivante dal rispetto della dignità umana, in Riv. dir. proc., 2021, p. 101 ss.; G. Tamburrini, Etica delle macchine. Dilemmi morali per robotica e intelligenza artificiale, Roma 2020; A. Traversi, Intelligenza artificiale applicata alla giustizia: ci sarà un giudice robot?, in Quest. giust., 10 aprile 2019, p. 1 ss.; R. Trezza, Diritto e intelligenza artificiale, Etica, Privacy, Responsabilità, Decisione, Pisa 2020; G. Ubertis, Intelligenza artificiale, giustizia penale, controllo umano significativo, cit. 59   Si tratta di algoritmi che utilizzano «socioeconomic status, family background, neighborhood crime, employment status, and other factors to reach a supposed prediction of an individual’s criminal risk, either on a scale from “low” to “high” or with specific percentages», così la definizione contenuta nel rapporto dell’Electronic Privacy Information Center, Algo-rithms in the Criminal Justice System, consultabile in www.epic.org/algorithmic-transparency/crim-justice. Si veda, amplius, V. Manes, L’oracolo algoritmico e la giustizia penale, cit., p. 7. 60   M. Gialuz, Quando la giustizia penale incontra l’intelligenza artificiale: luci e ombre dei risk assessment tools tra Stati Uniti ed Europa, cit., p. 3. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Giustizia predittiva

673

è intervenuta sulla decisione di un tribunale nella quale, per determinare la pena, i giudici avevano tenuto conto dei risultati elaborati dal programma «COMPAS» (Correctional Offender Management Profiling for Alternative Sanctions) 61. 61   In una discussa sentenza del 2016 la Corte Suprema del Wisconsin (Supreme Court of Wisconsin, State of Wisconsin v. Eric L. Loomis, Case no. 2015AP157-CR, 5 April – 13 July 2016) si è pronunciata sull’appello del sig. Eric L. Loomis, la cui pena a sei anni di reclusione era stata comminata dal Tribunale circondariale di La Crosse. Nel determinare la pena, i giudici avevano tenuto conto dei risultati elaborati dal programma COMPAS (Correctional offender management profiling for alternative sanctions) di proprietà della società Northpointe (ora Equivant), secondo cui Loomis era da identificarsi quale soggetto ad alto rischio di recidiva. COMPAS consiste in uno strumento di valutazione concepito, da un lato, per prevedere il rischio di recidiva, dall’altro, per identificare i bisogni dell’individuo in aree quali occupazione, disponibilità di alloggio ed abuso di sostanze stupefacenti. L’algoritmo elabora i dati ottenuti dal fascicolo dell’imputato e dalle risposte fornite nel colloquio con lo stesso. Per quanto riguarda la valutazione del rischio, l’elaborato consiste in un grafico di tre barre che rappresentano in una scala da 1 a 10 il rischio di recidiva preprocessuale, il rischio di recidiva generale ed il rischio di recidiva violenta. I punteggi di rischio sono volti a predire la probabilità generale che gli individui con una storia criminosa simile siano più o meno propensi a commettere un nuovo reato una volta tornati in libertà. L’aspetto da tener presente è che COMPAS non prevede il rischio di recidiva individuale dell’imputato, bensì elabora la previsione comparando le informazioni ottenute dal singolo con quelle relative ad un gruppo di individui con caratteristiche assimilabili. COMPAS si distingue da altri software di calcolo attuariale, in quanto tiene in considerazione anche i fattori di rischio dinamici, oltre a quelli statici, e in quanto fornisce indicazioni non solo sul rischio di recidiva, ma anche sul trattamento più adatto per la singola persona per ridurre tale rischio. Loomis depositava un’istanza di revisione della pena lamentando che la decisione del tribunale circondariale, nel prendere in considerazione i risultati del COMPAS, aveva violato il proprio diritto ad un processo equo. Il Tribunale circondariale rigettava l’istanza di revisione, sostenendo che la pena inflitta sarebbe stata la medesima, a prescindere dalla considerazione dei risultati COMPAS. Loomis impugnava tale decisione e la Corte d’Appello rimetteva la questione alla Corte Suprema del Wisconsin. Nella sentenza, la Corte Suprema ha affermato che seppure il software possa essere impiegato nei giudizi di determinazione della pena, il suo uso deve essere ristretto con limitazioni e cautele. Si mette in evidenza: (i) la sua natura di prodotto coperto da segreto industriale, che impedisce la divulgazione di informazioni relative al suo metodo di funzionamento; (ii) il fatto che le valutazioni sono effettuate da COMPAS su base collettiva, di gruppo, e non individuale; (iii) infine, il rischio di una sovrastima del rischio di commissione di reati a carico di talune minoranze etniche. I giudici supremi hanno stabilito un corollario secondo cui i punteggi di rischio non possono essere utilizzati come fattori determinanti nel decidere se il condannato possa essere controllato in modo effettivo e sicuro all’interno della comunità sociale. I giudici supremi hanno, altresì, citato i risultati di alcuni test effettuati da altri stati americani, i quali avevano concluso che, seppure non perfetto, COMPAS rappresentava un mezzo di calcolo affidabile. In definitiva, la Corte ha concluso che

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

674

Lorenzo Algeri

Gli algoritmi di giustizia predittiva sono invocati, in linea teorica, per stilare decisioni che si assumono immuni dalle fallacie del ragionamento62 e dai bias cognitivi che caratterizzano, invece, i processi cognitivi della mente umana63. A fronte della prospettazione di taluni vantaggi emergono, tuttavia, determinati punti di contrasto tra gli algoritmi predittivi e i principi fondamentali del diritto e del processo penale64. l’uso di COMPAS non aveva violato il diritto di Loomis all’equo processo. Per un commento alla sentenza, S. Carrer, Se l’amicus curiae è un algoritmo: il chiacchierato caso Loomis alla Corte Suprema del Wisconsin, in Giurisprudenza Penale Web, 2019; L. D’agostino, Gli algoritmi predittivi per la commisurazione della pena, in Dir. pen. cont., 2019, p. 354 ss.; S. Quattrocolo, Quesiti nuovi e soluzioni antiche? Consolidati paradigmi normativi vs rischi e paure della giustizia digitale “predittiva”, in Cass. pen., 2019, p. 1748 ss. Negli Stati Uniti, COMPAS è stato peraltro considerato da più parti causa di discriminazioni. Al riguardo, cfr., ad esempio, il noto report dell’organizzazione ProPublica, ove si è affermato che tale algoritmo sarebbe «biased against blacks» (J. Angwin, J. Larson, S. Mattu e L. Kirchner, Machine Bias, in www. propublica.org 23 maggio 2016). Sul dibattito suscitato da tale studio, v. A. Z. Huq, Racial Equity in Algorithmic Criminal Justice, in Duke Law Journal, 2019, p. 1047 ss.; D. Kehl, P. Guo e S. Kessler, Algorithms in the Criminal Justice System: Assessing the Use of Risk Assessments in Sentencing, in Berkman Klein Center for Internet & Society, Harvard Law School, Harvard 2017, p. 28 ss. In giurisprudenza, cfr. la recente decisione della District Court for the Western District del Wisconsin, Henderson v. Stensberg, no. 18-cv-555-jdp. 2020, U.S. Dist. LEXIS 48386 (20 marzo 2020), la quale ha riconosciuto i possibili rischi discriminatori di COMPAS. 62   Per un pregevole approfondimento sulle «euristiche fallaci» e su come evitarle si veda C. Conti, Il BARD paradigma di metodo: legalizzare il convincimento senza riduzionismi aritmetici, in Dir. pen. proc., 2020, VI, p. 829 ss. 63   In materia di bias cognitivi: M. Bertolino, Problematiche neuroscientifiche tra fallacie cognitive e prove di imputabilità e di pericolosità sociale, in Dir. pen. proc., 2020, p. 40 ss.; D. Kanheman, P. Slovic e A. Tversky, Judgement under Uncertainty, Heuristics and Biases, Cambridge 1982; D. Kanheman, Pensieri lenti e veloci, Milano 2012; P. Rumiati, Saper decidere. Intuizioni, ragioni, impulsività, Bologna 2020; P. Rumiati e C. Bona, Dalla testimonianza alla sentenza. Il giudizio tra mente e cervello, Bologna 2019; G. Cevolani e V. Crupi, Come ragionano i giudici: razionalità, euristiche e illusioni cognitive, in disCrimen, 22 ottobre 2018; A. Forza, G. Menegon e P. Rumiati, Il giudice emotivo. La decisione tra ragione ed emozione, Bologna 2017; G. Insolera, Legge, ragione ed emozione nella giustizia penale, in disCrimen, 14 febbraio 2020. 64   L. D’agostino, Gli algoritmi predittivi per la commisurazione della pena. A proposito dell’esperienza statunitense nel c.d. evidence-based sentencing, in Dir. pen. cont., 2019, p. 354: «La valutazione algoritmica della pericolosità lascia aperti numerosi interrogativi sul rispetto delle garanzie difensive dell’imputato, sulla sindacabilità del risultato finale, sulla falsificabilità scientifica del software, sull’attendibilità degli inputs e dell’output, sul residuo dovere di motivazione in capo al giudice, sugli effetti discriminatori dovuti alle generalizzazioni empiriche e ai fattori di condizionamento sociale ed economico processati dall’algoritmo». ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Giustizia predittiva

675

Innanzitutto, strumenti come COMPASS si basano su tutta una serie di caratteristiche di tipo «personologico» che si impattano con il divieto di perizia criminologica di cui all’art. 220 c.p.p. Inoltre, attraverso tale metodologia si apre il rischio di una forma inaccettabile di determinismo penale, per cui dal diritto penale del fatto si passa al diritto penale del tipo d’autore che classifica il soggetto secondo stereotipi65. Dal punto di vista dell’attendibilità tecnico scientifica del risultato, gli algoritmi predittivi non si presentano immuni da errori66. La struttura dell’algoritmo non è neutra: il risultato fornito è necessariamente influenzato dalla qualità dei dati che vengono immessi come input. Peraltro, anche i risultati conseguiti dalla macchina sono oggetto di attività ermeneutica da parte di chi li utilizza. Di conseguenza, è fondamentale evitare il rischio che l’algoritmo possa avere un esito discriminatorio fondato su dati personali sensibili, tra cui la razza e l’estrazione sociale. In particolare, l’algoritmo predittivo – muovendo da una elaborazione di una grande quantità di dati – tende a fornire il provvedimento «più probabile» e non una «decisione». Il software resta una sorta di black-box67, un contenitore nel quale i dati interagiscono senza che sia dato comprendere il percorso attraverso il quale si giunge a un determinato risultato. Il rischio è che la pronuncia guidata dal software predittivo sottenda una sorta di «black box decision», che potrebbe essere paragonata – sotto certi aspetti – ad una decisione priva di motivazione o con motivazione meramente apparente. Questa impostazione risulta contraria al modello legale di motivazione codificato nell’art. 546, lett. e), c.p.p.68. 65   M. Gialuz, Quando la giustizia penale incontra l’intelligenza artificiale, cit., p. 21. 66   Sono noti i criteri enunciati dalla Corte Suprema statunitense nella famosa sentenza Daubert, in base ai quali il giudice deve vagliare l’effettiva affidabilità di una teoria o un metodo e di una expert witness’s scientific testimony, ai fini della loro ammissibilità come prova scientifica nel processo: la controllabilità mediante esperimenti; la falsificabilità mediante test di smentita con esito negativo; la peer review della comunità scientifica di riferimento; la conoscenza della percentuale di errore dei risultati; infine, il criterio subordinato e ausiliario della generale accettazione da parte della comunità degli esperti. La Corte Suprema degli Stati Uniti non si è finora mai pronunciata sulla applicabilità dei criteri Daubert né alle valutazioni rese da sistemi A/IA, né alla fase del sentencing. 67   F. Pasquale, The black box society: The secret algorithms that control money and information, Harvard 2015. 68   «Il codice di rito penale, a sua volta, recependo a grandi linee il sistema accu-

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

676

Lorenzo Algeri

Per quanto riguarda specificamente l’attività valutativa, l’Intelligenza artificiale risulta inadeguata in relazione ai seguenti profili complessi. In primo luogo, l’algoritmo non sembra in grado di valutare se un teste abbia detto la verità, sia stato reticente o abbia mentito. L’Intelligenza artificiale può essere addestrata a riconoscere e interpretare le micro-espressioni facciali ed essere, così, potenzialmente in grado di discernere le emozioni e l’attendibilità delle dichiarazioni. Ma questa operazione è vietata dalla legge art. 188 c.p.p. (così come per il lie detector). In secondo luogo, il sistema predittivo non è strutturalmente predisposto per valutare se determinati indizi possano essere considerati «gravi, precisi e concordanti» ai sensi dell’art. 192, comma 2, c.p.p.69. Infine, sembra pressoché impossibile aspettarsi da un algoritmo la capacità di comprendere e applicare la regola di giudizio, di cui all’art. 533, comma 1, c.p.p., basata sul principio dell’oltre ogni ragionevole dubbio70. A fronte di tali sviluppi tecnologici, occorre assicurare il rispetto dei diritti fondamentali, con particolare riferimento all’applicazione degli strumenti digitali in sede giudiziaria. In proposito, è particolarmente significativa la Carta etica europea per l’uso dell’intelligenza artificiale satorio, traccia i percorsi di verità che guidano il ragionamento probatorio e la decisione giudiziale, sulla base di regole logico-epistemiche (artt. 187, 192, comma 1, 546, comma 1 lett. e), 606 lett. e), che disegnano un vero e proprio modello di motivazione in fatto della sentenza penale», così G. Canzio, Intelligenza artificiale e processo penale, cit., p. 3. «L’attuale previsione dell’art. 546 c.p.p. prevede una motivazione che, raffigurando l’esteriorizzazione formale delle ragioni che hanno condotto il giudice all’adozione della decisione, nel fare riferimento alla «concisa esposizione dei motivi di fatto e di diritto», richiede espressamente una correlazione tra prova e giudizio mediante una previsione destinata a operare in una duplice direzione: in positivo, viene richiesta «la indicazione dei risultati acquisiti e dei criteri di valutazione della prova adottati»; in negativo, viene pretesa «l’enunciazione delle ragioni per le quali il giudice ritiene non attendibili le prove contrarie», così G. Garuti, La specificità dei motivi di appello, in Arch. pen., 2018, III, p. 3. 69   F. Basile, Intelligenza artificiale e diritto penale, cit., p. 16. 70   «La ragionevolezza del dubbio, da etereo attributo contraddistinto più che altro dalla suggestiva portata evocativa, si tramuta in una logica ferrea e implacabile, imperniata su di un costante tentativo di falsificazione. L’assenza o l’erronea applicazione di tale metodo, tutt’altro che innocua, risulta aggredibile con l’impugnazione sia di merito, sia di legittimità. Di qui l’apprezzabile significato giuridico della formula in esame. Non conta che l’ipotesi accusatoria risulti probabile: occorre che si tratti dell’unica ipotesi formulabile in relazione a quell’accadimento alla luce della scienza, della logica e dell’esperienza in ogni suo tassello e nel suo complesso.», così C. Conti, Il BARD paradigma di metodo: legalizzare il convincimento senza riduzionismi aritmetici, cit., p. 836. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Giustizia predittiva

677

nei sistemi di giustizia, la quale è stata adottata il 3 dicembre 2018 dalla Commissione per l’efficienza della giustizia (CEPEJ)71, per cui la coerenza logica del calcolo algoritmico va verificata in un processo d’integrazione fra le misurazioni quantitative, ricche e imponenti, da esso offerte con il percorso cognitivo e decisorio del giudice, nel rispetto dei meta-valori dell’ordinamento. Peraltro, resta fondamentale in materia il criterio della non esclusività del dato algoritmico per la decisione, che dev’essere viceversa riscontrato e corroborato da ulteriori elementi di prova. In particolare, per quanto riguarda il processo penale, la prima parte dell’art. 11 della Direttiva 2016/680/UE stabilisce che gli «Stati membri dispongono che una decisione basata unicamente su un trattamento automatizzato, compresa la profilazione72, che produca effetti giuridici negativi o incida significativamente sull’interessato sia vietata». Analoga disciplina è inoltre contenuta all’art. 8, d.lg. n. 51 del 2018 di attuazione della medesima Direttiva73. In mancanza del controllo umano significativo, il rischio è che i giudici si appoggino totalmente sul dato fornito dall’algoritmo, validandone le risultanze. In tal modo il rischio è quello di incorrere in un bias cognitivo conosciuto come anchoring74, ossia quella tendenza comune per cui gli individui tendono ad affidarsi al mezzo di prova disponibile, senza avere riguardo alla debolezza esplicativa dello stesso, quando si trovino a dover prendere determinate decisioni. La struttura del ragionamento probatorio non si fonda su parametri statistici e meramente quantitativi ma è basata sulla probabilità logica o induttiva e si sviluppa mediante l’applicazione di criteri qualitativi come la falsificazione delle ipotesi. Pertanto, l’unica prospettiva plausibile appare quella in cui l’intelligenza artificiale si inserisce nella dinamica decisoria in funzione di supporto e non di sostituzione del giudizio umano. 71   Per un commento alla Carta etica, M. Gialuz, Quando la giustizia penale incontra l’intelligenza artificiale, cit., p. 12; S. Quattrocolo, Intelligenza artificiale e giustizia, cit. 72   Si veda, supra, la nota 7. 73   «Dal rispetto della dignità umana sembra infatti discendere l’autonomo diritto a decisioni non basate esclusivamentesu trattamenti automatizzati», così S. Signorato, Il diritto a decisioni penali non basate esclusivamente su trattamenti automatizzati, cit., p. 110. 74   F. Lieder, T.L. Griffiths, Q. J. M. Huys e N. D. Goodman, The anchoring bias reflects rational use of cognitive resources, in Psychon Bull Rev., 2018, p. 322 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Marco Torre*

Nuove tecnologie e trattamento dei dati biometrici nel processo penale: il sistema automatico di riconoscimento delle immagini

Sommario: 1. Considerazioni preliminari – 2. Intelligenza artificiale e indagini: i sistemi automatici di riconoscimento delle immagini – 3. Software di riconoscimento facciale e tutela della privacy – 4. Sistemi automatici di riconoscimento immagini e processo penale – 5. Considerazioni conclusive.

1. La profilazione, ossia la individuazione delle preferenze comportamentali di un individuo mediante raccolta e trattamento automatizzato dei suoi dati personali, rappresenta ormai un tratto ineludibile e, direi, identitario della società in cui viviamo. Ciò, innanzitutto, per ragioni di marketing: in ambito commerciale, infatti, la profilazione dell’utente è il mezzo più efficace di vendita di un prodotto o di un servizio, poiché consente di offrire al potenziale cliente, mediante pubblicità personalizzata, beni e servizi mirati, individuati in base al comportamento osservato1. Nel procedimento penale, la raccolta ed il trattamento automatizzato dei dati ha uno scopo ben diverso, coincidente con la necessità di accertare i fatti per giungere ad una verità processuale in grado di stabilire se è stato commesso un fatto di reato, chi lo ha commesso e qual è la conseguenza sanzionatoria di tale comportamento2. Tale fine legittimamente consente agli inquirenti di fare a meno del consenso del soggetto interessato al trattamento dei dati, anche se rientranti nella particolare categoria dei c.dd. «dati sensibili»3. * Professore a contratto di Procedura penale nell’Università di Firenze.   Per «profilazione» si intende «qualsiasi forma di trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati personali per valutare determinati aspetti personali relativi a una persona fisica, in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica». Art. 4, n. 4), del Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016 (c.d. GDPR). 2  P. Tonini e C. Conti, Manuale di procedura penale, Milano 202122, p. 63. 3   «Sensibili» sono i dati in grado di rivelare «l’origine razziale o etnica, le opinioni politiche, le convinzioni religiose o filosofiche, o l’appartenenza sindacale, nonché 1

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

680

Marco Torre

Cionondimeno, le esigenze di giustizia – sia di natura preventiva, sia di natura repressivo-accertativa – non devono far immaginare una zona franca all’interno della quale la gestione automatizzata dei dati è sempre e comunque consentita senza alcun limite nell’an e, soprattutto, nel quomodo. Tutta la stratificazione normativa che ha preso la stura dal pacchetto privacy europeo del 2016 non consente all’interprete una simile conclusione, ma, anzi, spinge nella direzione opposta, una direzione di compromesso tra le legittime aspirazioni degli interpreti del procedimento e del processo penale e le altrettanto legittime esigenze di tutela dei diritti fondamentali dei soggetti a vario titolo coinvolti nell’accertamento processuale. Tra queste esigenze, spicca la tutela della riservatezza della vita privata, in tutte le sue possibili accezioni, la quale rischia di essere definitivamente ed irrimediabilmente compromessa dalla profilazione dell’individuo, conseguenza ineludibile dell’automazione nella raccolta e nella gestone dei dati personali, soprattutto quando tali dati rientrano nel più ristretto cerchio dei c.dd. dati sensibili. Tra i nuovi strumenti investigativi e processuali ad alto contenuto tecnologico in grado di realizzare una vera e propria profilazione delle persone monitorate, rientrano senza ombra di dubbio gli algoritmi di intelligenza artificiale4, i quali rappresentano un sottoinsieme (in verità assai vasto) della nuova prova scientifica di natura informatica5. […] dati genetici, dati biometrici intesi a identificare in modo univoco una persona fisica, dati relativi alla salute o alla vita sessuale o all’orientamento sessuale della persona». Art. 9, par. 1, GDPR. 4   Nonostante il «cangiante» e «controverso» spettro semantico della locuzione «intelligenza artificiale», il minimo comun denominatore di tale concetto deve essere identificato ne «l’insieme di metodi scientifici, teorie e tecniche finalizzate a riprodurre mediante le macchine le capacità cognitive degli essere umani». Fra tali capacità rileva, in particolare, l’attitudine a risolvere problemi specifici in modo completamente autonomo e la possibilità di apprendimento automatico. Così, G. Giostra, Intelligenza artificiale, giustizia penale, controllo umano significativo, in Sistemapenale.it. Le caratteristiche fondamentali di un algoritmo di intelligenza artificiale possono essere così sintetizzate: «a) l’uso di grandi quantità di dati e informazioni; b) una elevata capacità logico-computazionale; c) l’uso di nuovi algoritmi, come quelli di deep learning e dell’autoapprendimento, che definiscono metodi per estrarre conoscenza dai dati per dare alle macchine la capacità di prendere decisioni corrette in vari campi di applicazione». Così, M.B. Magro, Robot, cyborg e intelligenza artificiale, in A. Cadoppi, S. Canestrari, A. Manna e M. Papa (diretto da), Cybercrime, Milano 2019, p. 1181. Cfr., inoltre, Commissione Europea per l’Efficienza della Giustizia (CEPEJ), Carta etica per l’uso dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, adottata dalla CEPEJ nel corso della sua 31a Riunione plenaria (Strasburgo, 3-4 dicembre 2018), in www.rm.coe.int/0900001680993348, p. 47. 5   Per tutti, cfr. O. Dominioni, La prova penale scientifica. Gli strumenti scientifico-tecnici nuovi o controversi e di elevata specializzazione, Milano 2005, p. 90. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Nuove tecnologie e trattamento dei dati biometrici nel processo penale

681

Gli ambiti processuali nei quali ad oggi è possibile impiegare l’I.A. sono molteplici ma possono essere così schematizzati: «le attività di law enforcement e, in particolare, di polizia predittiva, dove i sistemi di IA possono fornire un importante contributo per contrastare, o meglio ancora prevenire, la commissione di reati; il possibile impiego di algoritmi decisionali per risolvere vertenze penali, così da operare una sorta di sostituzione, o per lo meno di affiancamento, del giudice-uomo col giudice-macchina; la valutazione della pericolosità criminale affidata ad algoritmi predittivi, capaci di attingere e rielaborare quantità enormi di dati al fine di far emergere relazioni, coincidenze, correlazioni, che consentano di profilare una persona e prevederne i successivi comportamenti, anche di rilevanza penale; infine, le possibili ipotesi di coinvolgimento – come strumento, come autore, o come vittima – di un sistema di I.A. nella commissione di un reato»6. Senza alcuna pretesa di esaustività, nell’economia di questo contributo verrà preso in considerazione esclusivamente il primo degli ambiti sopra descritti, ossia l’I.A. come supporto di law enforcement. In particolare, l’attenzione si focalizzerà sui c.dd. software automatici di riconoscimento immagini7, al precipuo scopo di valutare l’impatto che tali strumenti hanno rispetto ai diritti fondamentali della persona. L’idea è di individuare un giusto equilibrio tra le opposte esigenze, in nome ed in ossequio ad un fondamentale principio di proporzionalità8. 2. In Italia, già da qualche anno i sistemi automatici di riconoscimento immagini sono impiegati per finalità di ordine e sicurezza pubblica. In particolare, il Dipartimento di Pubblica Sicurezza del Ministero dell’Interno dispone di due differenti sistemi di riconoscimento facciale in grado di svolgere due distinte funzioni. 6  F. Basile, Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, in www.dirittopenaleuomo.org/contributi_dpu/intelligenza-artificiale-e-diritto-penale-quattro-possibili-percorsi-di-indagine/. 7   Per tutti, cfr. G. Mobilio, Tecnologie di riconoscimento facciale. Rischi per i diritti fondamentali e sfide regolative, Napoli 2021, pp. 31 ss. 8  Cfr. European Union Agency for Fundamental Rights (FRA), Facial recognition technology: fundamental rights considerations in the context of law enforcement, in www.fra.europa.eu/en/publication/2019/facial-recognition-technology-fundamental-rights-considerations-context-law, p. 24, dove si può leggere come «conformemente alle vigenti norme dell’UE in materia di protezione dei dati e alla Carta dei diritti fondamentali, l’IA può essere utilizzata a fini di identificazione biometrica remota unicamente ove tale uso sia debitamente giustificato, proporzionato e soggetto a garanzie adeguate».

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

682

Marco Torre

Il primo programma, detto S.A.R.I. Enterprise, risponde all’esigenza di confrontare automaticamente il volto di un soggetto sconosciuto, presente in un’immagine di input, con i volti di soggetti noti, poiché foto segnalati, contenuti nei cartellini foto dattiloscopici memorizzati all’interno della banca dati del Casellario Centrale di Identità del Ministero dell’Interno9. Al fine di operare l’associazione tra i volti, l’algoritmo rileva le c.dd. impronte facciali, ovvero un certo numero di tratti comuni, quali la posizione degli occhi, i lineamenti del naso, delle narici, del mento, delle orecchie, ecc.10. Lo scopo, evidentemente, è quello di «dare un nome ad un volto». Il risultato della ricerca è rappresentato da una lista di volti simili a quello ricercato, ordinata in base ad un «punteggio» che ne indica il grado di similarità. Il secondo programma, detto S.A.R.I. Real Time, è in grado di analizzare in tempo reale i volti dei soggetti ripresi dalle telecamere installate in una determinata area geografica e di confrontarli con i volti contenuti in una banca dati ristretta e predefinita (cd. watch-list), la cui grandezza è dell’ordine delle centinaia di migliaia di soggetti. Quando viene riscontrata una corrispondenza, il sistema genera un alert in grado di richiamare l’attenzione degli operatori. In questo caso, quindi, l’algoritmo di riconoscimento facciale viene implementato dai flussi video ottenuti dalle telecamere installate in molteplici punti di osserva9   Tale banca dati fa parte del sistema AFIS (acronimo di Automated Fingerprint Identification System) che rappresenta di fatto un’evoluzione del sistema S.S.A. (sottosistema anagrafico), è situata presso il Dipartimento della pubblica sicurezza, Direzione centrale anticrimine della Polizia di Stato, Servizio polizia scientifica e contiene attualmente i cartellini segnaletici, comprensivi di dati fotografici e biometrici, di circa diciotto milioni di persone sottoposte a foto segnalamento da parte delle diverse forze di polizia. Cfr. R.V.O. Valli, Sull’utilizzabilità processuale del Sari: il confronto automatizzato di volti rappresentati in immagini, in www.ilpenalista.it/articoli/focus/ sullutilizzabilit-processuale-del-sari-il-confronto-automatizzato-di-volti. 10   «Il riconoscimento facciale […] consta di un processo distinto nelle seguenti fasi: acquisizione dell’immagine, ossia il processo di rilevamento dei tratti del volto di una persona e la conversione in formato digitale; individuazione della presenza di un volto all’interno di un’immagine digitale; attenuazione delle variazioni all’interno delle regioni del volto individuate (si pensi alla conversione in una dimensione standard o all’allineamento delle distribuzioni del colore); estrazione di caratteristiche dell’immagine digitale di una persona; registrazione dell’immagine e/o del modello di riferimento per un successivo confronto; misurazione delle somiglianze tra una serie di caratteristiche del modello con quelle già registrate nel sistema». Così, A. Fonsi, Prevenzione dei reati e riconoscimento facciale: il parere sfavorevole del Garante privacy sul sistema SARI Real Time, in www.penaledp.it/prevenzione-dei-reati-e-riconoscimento-facciale-il-parere-sfavorevole-del-garante-privacy-sul-sistema-sari-real-time, 13 maggio 2021.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Nuove tecnologie e trattamento dei dati biometrici nel processo penale

683

zione a supporto di operazioni di controllo del territorio in occasione di eventi e/o manifestazioni. Ça va sans dire, registrando i flussi video, tale sistema realizza una vera e propria attività di video sorveglianza di massa. Ciò premesso dal punto di vista tecnico, il profilo giuridico consta di due distinti e separati temi di riflessione. Il primo riguarda il problematico rapporto fra i nuovi strumenti tecnologici e la protezione dei dati personali, alla luce del mutato quadro positivo di matrice europea. Tale profilo attiene alla legittimità tout court dei sistemi automatici di riconoscimento immagini, a prescindere dalla spendibilità processuale degli elementi probatori con essi acquisibili, e coinvolge sia l’attività preventiva della polizia di sicurezza «che ha come compito la tutela della collettività contro i pericoli e le turbative a interessi essenziali per la vita di una società civile quali sono l’ordine pubblico (inteso come assenza di reati) e la sicurezza delle persone»11, sia l’attività di polizia giudiziaria, la quale «deve, anche di propria iniziativa, prendere notizia dei reati, ricercarne gli autori e raccogliere quant’altro possa servire per l’applicazione della legge penale» (art. 55 c.p.p.). Il secondo, invece, attiene alle possibilità, o meno, di impiego di questi nuovi strumenti tecnologici all’interno del nostro sistema processuale, la cui risposta dipende dalla loro inquadrabilità, o meno, nell’ampio ma controverso contenitore dei mezzi atipici di ricerca della prova. Da ciò dipende la spendibilità processuale dei risultati ottenuti mediante questo nuovo strumento investigativo, sia in termini di utilizzabilità, sia in termini di attendibilità della prova. 3. I dati personali elaborati mediante i sistemi automatici di riconoscimento immagini sono dati «biometrici»12 e come tali sono tutelati in modo estremamente rigoroso dalla normativa in tema di privacy. In particolare, il trattamento di tale tipologia di dati è consentito al sussi-

 P. Tonini e C. Conti, Manuale di procedura penale, cit., p. 119.   Cfr. art. 9 GDPR, nonché art. 2, comma 1, lett. o) del d.lg. 18 maggio 2018, n. 51, recante l’attuazione della direttiva (UE) 2016/680 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorità competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, nonché alla libera circolazione di tali dati e che abroga la decisione quadro 2008/977/GAI del Consiglio. 11 12

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

684

Marco Torre

stere dei seguenti presupposti: 1) «stretta necessità» del trattamento; 2) «riserva di legge o di regolamento», nel senso che il trattamento deve essere specificamente previsto dal diritto dell’Unione europea o da legge o, nei casi previsti dalla legge, da regolamento; 3) devono essere previste garanzie adeguate per i diritti e le libertà del soggetto interessato dal trattamento13. A ciò si aggiunga un elemento negativo, che deve comunque sussistere affinché il trattamento dei dati possa considerarsi legittimo: non sono mai consentite decisioni basate unicamente su un trattamento automatizzato di dati14. Rispetto a tali previsioni normative, in ragione delle rispettive peculiarità tecniche, i sistemi di riconoscimento facciale sopra descritti si atteggiano in modo assai differente. L’algoritmo noto con il nome di S.A.R.I. Enterprise, ossia quello in grado di leggere i volti da immagini statiche per confrontarli con le fotografie di soggetti già schedati, può contare sulle seguenti fonti normative: articolo 4 del Testo unico delle leggi di pubblica sicurezza e articolo 7 del relativo Regolamento di esecuzione15, in ragione dei quali l’autorità di pubblica sicurezza ha facoltà di ordinare rilievi segnaletici, descrittivi, fotografici, dattiloscopici e antropometrici alle persone pericolose o sospette e a coloro che non siano in grado o si rifiutino di provare la propria identità; art. 5, comma 2-bis, del Decreto Legislativo 25 luglio 1998, n. 286, il quale prevede i rilievi foto dattiloscopici dello straniero che richiede il permesso di soggiorno; art. 349 c.p.p., il quale disciplina l’identificazione della persona nei cui confronti vengono svolte le indagini, prevedendo a tal fine che la polizia giudiziaria possa

13   Cfr. art. 7 del d.lg. n. 51 del 2018. «Le previsioni contenute del Decreto risultano […] coerenti con i principi generali stabiliti dal diritto unionale e, in particolare, dalla Convenzione europea per la salvaguardia dei diritti dell’uomo e delle libertà fondamentali (la “CEDU”) e dalla Carta dei Diritti Fondamentali dell’Unione Europea (la “Carta”)». Così, A. Fonsi, Prevenzione dei reati e riconoscimento facciale: il parere sfavorevole del Garante privacy sul sistema SARI Real Time, cit. 14   Cfr. art. 8 del d.lg. n. 51 del 2018. Le fonti europee di riferimento sono il GDPR e la Direttiva (UE) 680/2016, con particolare riferimento al suo art. 11, il quale vieta le decisioni basate unicamente sui trattamenti automatizzati di dati. Dal punto di vista delle fonti di soft law, invece, rilevano la Carta Etica Europea per l’utilizzo dell’intelligenza artificiale nei sistemi di giustizia, il Libro Bianco dell’Unione Europea sull’intelligenza artificiale del 2020, la Carta della Robotica del Parlamento Europeo del 2017 e la Raccomandazione dell’OCSE del 2019, n. 449. 15   Rispettivamente approvato con r.d. 18 giugno 1931, n. 773, e r.d. 6 maggio 1940, n. 635.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Nuove tecnologie e trattamento dei dati biometrici nel processo penale

685

effettuare, ove occorra, rilievi dattiloscopici, fotografici e antropometrici nonché altri accertamenti. Che tali fonti siano conferenti rispetto al trattamento dati svolto mediante l’impiego di S.A.R.I. Enterprise trova conferma nella circostanza che il sistema non consente di realizzare una nuova e misteriosa raccolta di dati personali, ampliandone il contenuto rispetto a quanto già attualmente previsto per fini di giustizia, ma rappresenta semplicemente una diversa modalità (automatizzata) per trattare dati che sono tuttavia già legittimamente nella disponibilità di chi opera16. Anche perché, com’è ovvio, «[…] il Sistema Automatico di Riconoscimento Immagini (S.A.R.I.), essendo un software e non una banca dati, non contiene alcun dato»17. Le fonti sopra menzionate, ciascuna nel rispettivo ambito, prevedono adeguate garanzie per il diretto interessato, il quale è posto comunque nella condizione di conoscere la descrizione (e, quindi, la motivazione) del trattamento, il titolare del medesimo, nonché le fonti normative di riferimento18. Anche la stretta necessità del trattamento sembra revocata in dubbio: senza l’ausilio dell’algoritmo, il riconoscimento della persona at16   «Il sistema SARI Enterprise, di prossima attivazione, non effettuerà elaborazioni aggiuntive rispetto al AFIS-SSA, ma si limiterà ad automatizzare alcune operazioni che prima richiedevano l’inserimento manuale di connotati identificativi, consentendo le operazioni di ricerca nel data base dei soggetti fotosegnalati attraverso l’inserimento di una immagine fotografica, che sarà elaborata automaticamente al fine di fornire l’elenco di foto segnaletiche somiglianti, ottenute attraverso un algoritmo decisionale che ne specifica la priorità. Pertanto, l’utilizzo del sistema SARI-Enterprise costituisce non un nuovo trattamento di dati personali, già previsto e disciplinato dalle predette fonti, bensì una nuova modalità di trattamento di dati biometrici, che dovrà essere effettuata nel rispetto delle regole previste dalla normativa rilevante in materia di tutela dei dati personali». Cfr. Garante per la protezione dei dati personali, Provvedimento n. 440 del 26 luglio 2018, consultabile sul sito ufficiale del Garante Privacy. 17   Ci si riferisce alla risposta fornita da C. Sibilia (Sottosegretario al Ministero dell’Interno nel governo Conte bis), all’interrogazione parlamentare 5-03482 Ceccanti: Sull’utilizzo da parte delle forze di polizia di sistemi informatici per il riconoscimento facciale, in www.documenti.camera.it/leg18/resoconti/commissioni/bollettini/ pdf/2020/02/05/leg.18.bol0319.data20200205.com01.pdf. 18   Tali fonti sono elencate nella scheda n. 19 allegata al Decreto del Ministero dell’Interno 24 maggio 2017, recante l’individuazione dei trattamenti di dati personali effettuati con strumenti elettronici e i relativi titolari, in attuazione dell’art 53, comma 3, del d.lg. 20 giugno 2003, n. 196, («Codice Privacy»), la cui vigenza è confermata, in via transitoria, dall’art. 49 del d.lg. n. 51 del 2018, fino all’adozione della diversa disciplina da adottarsi in applicazione del medesimo decreto.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

686

Marco Torre

tenzionata partendo dalla sua immagine sarebbe assai difficoltosa e, probabilmente, rischierebbe di avere esiti piuttosto incerti. Infine, essendo un «mero ausilio all’agire umano, avente lo scopo di velocizzare l’identificazione, da parte dell’operatore di polizia, di un soggetto ricercato della cui immagine facciale si disponga», resta ferma «l’esigenza dell’intervento dell’operatore per verificare l’attendibilità dei risultati prodotti dal sistema automatizzato». Il sistema automatico è configurato per mostrare all’utente cinquanta (o più) volti simili trovati, ma sarà poi l’utente a cercare se tra questi vi è un possibile candidato19. L’intervento umano, previsto come necessario dal sistema, consente di fugare ogni dubbio circa il rispetto, da parte dell’algoritmo, del divieto di impiegare sistemi in grado di fornire decisione completamente automatizzate20. Il Sistema automatico basato sul riconoscimento di immagini dinamiche (S.A.R.I. Real Time), invece, pone maggiori problemi, non tanto dal punto di vista della stretta necessità del trattamento o del divieto di utilizzare prove basate su decisioni completamente automatizzate, quanto, piuttosto, dal punto di vista del rispetto della riserva di legge/ regolamento. Al contrario di quanto avviene con riferimento al sistema ad input statico, infatti, in questo caso non siamo di fronte «semplicemente» ad una nuova «modalità» di un trattamento di dati che tuttavia è già previsto e disciplinato da leggi o regolamenti21, ma abbiamo a che fare con 19   «Ovviamente l’immagine proposta come prima nella lista è quella che presenta una somiglianza maggiore. Il sistema indica la percentuale di compatibilità: tanto più la percentuale si avvicina al 100% quanto più è verosimile che il candidato proposto dal Sari e l’indagato siano la stessa persona». Così. R.V.O. Valli, Sull’utilizzabilità processuale del Sari: il confronto automatizzato di volti rappresentati in immagini, in www.ilpenalista.it/articoli/focus/sullutilizzabilit-processuale-del-sari-il-confronto-automatizzato-di-volti. 20   Tale divieto è previsto espressamente a livello domestico dall’art. 8 del d.lg. n. 51 del 2018. A livello europeo, le fonti di riferimento sono il GDPR e la Direttiva 680/2016, con particolare riferimento al suo art. 11, il quale vieta le decisioni basate unicamente sui trattamenti automatizzati di dati. Dal punto di vista delle fonti di soft law, invece, rilevano la Carte Etica Europea per l’utilizzo dell’intelligenza artificiale nei sistemi di giustizia, il Libro Bianco dell’Unione Europea sull’intelligenza artificiale del 2020, la Carta della Robotica del Parlamento Europeo del 2017 e la Raccomandazione dell’OCSE del 2019, n. 449. 21   «Occorre in particolare considerare che il sistema in argomento realizza un trattamento automatizzato su larga scala che può riguardare, tra l’altro, anche coloro che siano presenti a manifestazioni politiche e sociali, che non sono oggetto di “attenzione” da parte delle forze di Polizia; ancorché la valutazione di impatto indica

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Nuove tecnologie e trattamento dei dati biometrici nel processo penale

687

un nuovo e diverso trattamento di dati biometrici non previsto da norme vigenti22. Conseguentemente, il suo impiego comporta alcune criticità difficilmente superabili, almeno sino all’adozione di una idonea previsione normativa23, eventualmente anche di natura regolamentare24. 4. All’interno del codice di rito penale, il riconoscimento facciale automatizzato conosce un incasellamento giuridico diverso a seconda delle diverse «funzioni» che l’algoritmo è in grado di svolgere. In particolare, nel procedimento penale tali sistemi di law enforcement possono servire per fini «identificativi», di «individuazione» o di «ricognizione» di persone. Come strumento di «identificazione» della persona nei cui confronti vengono svolte le indagini, il riconoscimento facciale automatizzato rientra nelle facoltà investigative della polizia giudiziaria, la quale, ove occorra, è espressamente autorizzata dal codice a procedere mediante «rilievi dattiloscopici, fotografici e antropometrici, nonché attraverso altri accertamenti» (art. 349, comma 2, c.p.p.). All’evidenza, tale attività (ad iniziativa della polizia giudiziaria) dovrebbe essere consentita indipendentemente dalla metodologia impiegata: d’altronde, il diritto positivo dovrebbe sempre essere «neutro», per trovare applicazione, al sussistere dei presupposti tipici, «a prescindere dalla tecnologia utilizzata per ottenere un determinato scopo»25. I sistemi automatici di riconoscimento immagini, tuttavia, sembrano in grado di poter svolgere anche funzioni diverse, giuridicamente

che i dati di questi ultimi sarebbero immediatamente cancellati, nondimeno, l’identificazione di una persona in un luogo pubblico comporta il trattamento biometrico di tutte le persone che circolano nello spazio pubblico monitorato, al fine di generare i modelli di tutti per confrontarli con quelli delle persone incluse nella “watch-list”. Pertanto, si determina una evoluzione della natura stessa dell’attività di sorveglianza, passando dalla sorveglianza mirata di alcuni individui alla possibilità di sorveglianza universale allo scopo di identificare alcuni individui». Garante per la protezione dei dati personali, Provvedimento n. 127 del 25 marzo 2021, in www.garanteprivacy.it/ web/guest/home/docweb/-/docweb-display/docweb/9575877. 22   Garante per la protezione dei dati personali, Provvedimento n. 127 del 25 marzo 2021, cit., nonché Provvedimento 54 del 26 febbraio 2020, anch’esso consultabile sul sito istituzionale del Garante Privacy. 23   Ai sensi dell’art. 7 del d.lg. n. 51 del 2018. 24   Ai sensi dell’art. 5, comma 2, del d.lg. n. 51 del 2018. 25   Così, G. Lasagni, L’uso di captatori informatici (trojans) nelle intercettazioni “fra presenti”, consultabile al seguente url: www.archiviodpc.dirittopenaleuomo. org/d/4995-luso-di-captatori-informatici-trojans-nelle-intercettazioni-fra-presenti. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

688

Marco Torre

sussumibili nel genus dell’«individuazione» (art. 361 c.p.p.) o della «ricognizione» di persone (artt. 213 e ss. c.p.p.), a seconda che l’attività di riconoscimento abbia rispettivamente una funzione «meramente investigativa» o, piuttosto, «processuale-probatoria». In entrambi questi casi, ed è questo il punctum dolens, siamo di fronte a prove atipiche, poiché il riconoscitore non è un uomo, ma una macchina26. Ciò non pone problemi a patto che il mezzo di prova o il mezzo di ricerca della prova atipico27 rispetti i seguenti requisiti: 26   «In verità, la nozione di “prova atipica” non è pacifica. In una prima accezione, più radicale, è atipica quella prova che mira ad ottenere un risultato diverso da quelli perseguibili dai mezzi di prova tipizzati dal codice [prova innominata]. Oggi raramente ci si trova dinanzi ad una prova atipica nel senso descritto perché i mezzi di prova tipici sembrano idonei a raggiungere tutte le varietà di risultati probatori. Nel sistema attuale l’atipicità consiste piuttosto nell’utilizzare componenti non tipiche all’interno di un mezzo tipico». Così, P. Tonini e C. Conti, Manuale di procedura penale, cit., p. 283. Si veda anche O. Dominioni, La prova penale scientifica. Gli strumenti scientifico-tecnici nuovi o controversi e di elevata specializzazione, cit., p. 90 che sottolinea come il criterio dell’atipicità dovrebbe avere ad oggetto non solo l’area del praeter legem, concernente ciò che non è disciplinato dal catalogo legale, ma anche la formazione di un mezzo di prova tipico in modo difforme dal modello legale, allorché le regole dettate in merito non portino ad una invalidità. V. inoltre, R. Orlandi, Atti e informazioni dell’autorità amministrativa nel processo penale. Contributo allo studio delle prove extracostituite, Milano 1992, p. 24; P. Tonini, La prova penale, Padova 20004, p. 93; A. Procaccino, Prove atipiche, in A. Gaito (a cura di), La prova penale, Torino 2009, p. 268. 27   Come noto, la dottrina maggioritaria e la giurisprudenza di legittimità, nella sua composizione più autorevole, hanno affermato che è ben possibile ipotizzare mezzi di ricerca della prova atipici attraverso una interpretazione «adeguatrice» dell’art. 189. Secondo tale orientamento, qualora l’atipicità riguardi mezzi di ricerca e non mezzi di prova, il contraddittorio, necessariamente successivo, non riguarderà l’attività di ricerca della prova, ma le modalità di assunzione del relativo elemento, sulle quali il giudice è chiamato a decidere, ammettendo o non ammettendo la prova a seconda che siano stati rispettati o meno i canoni previsti dall’art. 189 c.p.p. Cfr. Cass., Sez. un., 28 marzo 2006, Prisco, in CED on line 234270, con nota di C. Conti, p.  1347, che hanno ritenuto ammissibili come prove atipiche le videoriprese di comportamenti non comunicativi effettuate dalla polizia giudiziaria nei luoghi cd. riservati. Cfr., inoltre, P. Tonini e C. Conti, Manuale, cit., p. 433 ss.; P. Tonini e C. Conti, Il diritto delle prove penali, II ed., Milano 2014, p. 187; V. Grevi, Prove, in G. Conso e V. Grevi (a cura di), Compendio di procedura penale, IX ed., Padova 2018, p. 296; A. Camon, Le riprese visive come mezzo d’indagine: spunti per una riflessione sulle prove incostituzionali, in Cass. pen., 1999, p.  1192, che precisa: «[...] la norma opera in due modi diversi: rispetto alle prove da formare in dibattimento il giudice dovrà sentire le parti affinché queste propongano le modalità acquisitive ritenute preferibili [...] Invece rispetto alle conoscenze atipiche raccolte nella fase delle indagini preliminari [...] il dibattito sulle modalità di formazione della prova assumerebbe il senso di una valutazione ed eventualmente di una critica del procedimento seguito dagli investiganti: ove il giudice, sulla base delle argomentazioni delle parti, si convin-

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Nuove tecnologie e trattamento dei dati biometrici nel processo penale

689

idoneità ad assicurare l’accertamento dei fatti; tutela della libertà morale della persona; contraddittorio28 delle parti davanti al giudice sulle modalità di assunzione (art. 189 c.p.p.). È su tali aspetti che bisogna focalizzare l’attenzione, con particolare riferimento al principio del contraddittorio nella formazione della prova. Da questo angolo di osservazione, il problema fondamentale nell’impiego dei sistemi automatici di riconoscimento immagini è rappresentato dalla cd. «opacità algoritmica» che caratterizza i diversi sistemi29: a tutela degli interessi economici connessi all’opera di ingegno che si cela dietro al suo funzionamento, infatti, il software utilizzato è coperto da segreto. Ciò comporta un problema di trasparenza sul modo mediante il quale il programma giunge a determinati risultati piuttosto che ad altri, nonché sull’origine stessa dei dati con i quali viene implementato l’algoritmo30: «nonostante il sistema SARI sia attivo da circa un biennio, non è finora trapelata alcuna notizia circa l’incidenza percentuale delle comparazioni effettuate con successo mediante lo strumento de quo, e, per converso, neppure del tasso di errore a cui lo stesso statisticamente va incontro»31; inoltre, non ci sono notizie circa eventuali tentativi di affinamento del software da parte dei suoi ideatori, al fine di migliorarne il funzionamento32. cesse che l’iter di assunzione non garantisce un risultato probatorio attendibile sotto il profilo gnoseologico, rifiuterebbe l’ammissione della prova ritenendola non idonea all’accertamento dei fatti [...]». 28   Ex ante o ex post, a seconda che si tratti di un mezzo di prova o di un mezzo di ricerca della prova. 29   In gergo si parla di opacità algoritmica per riferirsi a quelle situazioni dove è noto l’output di un algoritmo, ma non come lo stesso sia stato generato. 30   Chi decide come scegliere i dati? Si tratta di una scelta fondamentale, perché se si parte da dati spuri o viziati il risultato sarà una moltiplicazione dell’errore di partenza. 31  Così, J. Della Torre, Novità dal Regno Unito: il riconoscimento facciale supera il vaglio della High Court of Justice, in Dir. pen, cont., 2020, p. 231 ss. 32   J. Della Torre, Novità dal Regno Unito, cit., p. 243, ritiene giustamente l’aggiornamento del sistema condicio sine qua non affinché esso possa essere ritenuto affidabile, auspicando che anche in Italia, così come già avvenuto oltremanica «un gruppo di esperti (esterni) po[ssa] accedere a tutta una serie di informazioni pratiche, concernenti il funzionamento del sistema SARI, in modo da valutare che interventi eventualmente mettere in campo per migliorare il software di riconoscimento e comprendere se lo stesso sia o meno affetto da bias cognitivi discriminatori». Quanto all’esperienza del Regno Unito, cfr. l’analisi dell’Università di Cardiff sull’utilizzo da parte della polizia gallese dei software in questione (B. Davies, M. Innes e A. Dawson, An Evaluation of South Wales Police’s Use of Automated Facial Recognition, in www.static1.squarespace.com, settembre 2018), nonché la ricerca compiuta da P. Fus© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

690

Marco Torre

Ergo, allo stato attuale è impossibile verificare il livello di affidabilità concreta dell’algoritmo33. In particolare, la controparte non è posta in condizione di: 1) verificare il metodo di accertamento; 2) operare il tentativo di falsificazione; 3) sottoporre il metodo scientifico al controllo della comunità scientifica; 4) conoscere il tasso di errore; 5) verificare la cd. generale accettazione da parte della comunità scientifica di riferimento34. Dal punto di vista processuale, ciò rappresenta senz’altro una complicazione: la mancata conoscenza del metodo scientifico (o perché segreto, o perché il sistema è in grado di svilupparsi autonomamente rispetto alla sua programmazione iniziale) che sta al fondo dell’algoritmo determina l’impossibilità di realizzare un effettivo contraddittorio sulle modalità di formazione della prova. A ciò si aggiunga il fatto che il sistema c.d. Real Time realizza una vera e propria videosorveglianza massiva che riguarda potenzialmente un numero non predeterminato e tendenzialmente non predeterminabile di individui, i cui volti (dati sensibili) sono estrapolati da fotogrammi di video in cui si viene registrati per il solo fatto di essere transitati in una determinata area in un preciso intervallo di tempo. Gli individui sono video ripresi e i loro volti sono sfruttati come elementi di prova senza consenso e senza una specifica ragione, ma solo per il fatto di trovarsi, anche solo casualmente, in un determinato arco spazio temporale35. sey e D. Murray, Indipendent Report on the London Metropolitan Police Service’s Trial of Live Facial Recognition Technology, University of Essex, 2019. 33   «In considerazione dei molti quesiti sollevati sul funzionamento del S.A.R.I., tuttora senza risposta, la garanzia della sua affidabilità ricognitiva specie nei casi di sovrapponibilità altamente incerta è flebile, in quanto esito di una procedura blindata e di dati ignoti». Così, R. Lopez, La rappresentazione facciale tramite software, in A. Scalfati (a cura di), Le indagini atipiche, Torino 2019, p. 257. 34   Si tratta dei c.dd. criteri Daubert, dalla sentenza della Corte Suprema Americana (1993) nel caso Daubert v. Merrel Dow Pharmaceuticals (U.S. 579, 113 S Ct. 2786). La successiva sentenza Kumho Tire e Co. del 1999 ha esteso i ricordati criteri alla ammissione degli esperti in materie che richiedono specifiche conoscenze di tipo non scientifico. U.S. Supreme Court, 23 marzo 1999, Kumho Tire Co. c. Carmichael. In Italia, ovviamente, il riferimento è a Cass. Pen., Sez. un., 10 luglio 2002, n. 30328, Franzese, in Cass. Pen., 2002, 3643, nonché a Cass. pen., Sez. IV, 17 settembre 2010, n. 43786, Cozzini, con nota di P. Tonini, La Cassazione accoglie i criteri Daubert sulla prova scientifica. Riflessi sulla verifica delle massime di esperienza, in Dir. pen. proc., 2011, p. 1341. 35   Nessuno è in grado di sapere con esattezza se e quando la propria immagine facciale verrà captata dal sistema per essere confrontata con quella di soggetti ritenuti ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Nuove tecnologie e trattamento dei dati biometrici nel processo penale

691

Calando tale problematica all’interno del sistema processuale, essa coinvolge il più ampio tema della persona come fonte di prova, alla quale il codice di rito riconosce un diverso standard di garanzie a seconda che la persona rilevi come fonte di prova dichiarativa piuttosto che come fonte di prova reale. Nel primo caso, ossia quando la persona «serve» al processo penale in ragione di ciò che questa può dichiarare in merito ai fatti da accertare, sono previste precise garanzie finalizzate ad incanalare la dichiarazione all’interno del procedimento36. In particolare, l’esercizio del diritto di difesa ed il principio della presunzione di innocenza delineano in capo alla persona indagata il pieno diritto di non collaborare. Nel secondo caso, ossia quando la persona riveste interesse probatorio non per ciò che dice o potrebbe dire, ma per ciò che essa è37, le garanzie tracciate dal codice per consentire all’autorità di «servirsi» di tali tracce sono diverse e minori e dipendono in particolare alle singole libertà che vengono compresse dalla ricerca e dalla acquisizione della prova38, senza alcuna distinzione tra lo status dell’imputato e quello del quivis de populo. All’evidenza, i software automatici di riconoscimento immagini sono strumenti di law enforcement rispetto ai quali la persona sospettata rileva in ragione della conformazione del proprio volto (la posizione degli occhi, i lineamenti del naso, delle narici, del mento, delle orecchie, ecc.) e non per ciò che dichiara. Conseguentemente, la collaborazione del soggetto monitorato non è necessaria ai fini dell’utilizzabilità di tali risorse all’interno del procedimento penale ed il fatto che la videosorveglianza avvenga in luoghi pubblici esclude la compressione di diritti di libertà coperti dalla doppia riserva, di legge e di giurisdizione, circostanza, quest’ultima, che preclude in radice il richiamo alla teoria della prova incosti-

sospetti o pericolosi, poiché «la tecnologia in questione è […] in dotazione delle autorità di law enforcement sull’intero territorio nazionale, senza che la collettività sia in alcun modo informata via web o in altro modo dell’attività captativa». Così, J. Della Torre, Novità dal Regno Unito, cit., p. 242. 36   Dichiarazione che non preesiste rispetto all’attività di indagine, ma ne costituisce proprio il prodotto/risultato. Cfr. P. Tonini e C. Conti, Manuale di procedura penale, cit., pp. 275-276. 37   In questo caso, quindi, ciò che si cerca esiste già, a prescindere dall’attività di indagine. 38   Prima fra tutte, la libertà personale. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

692

Marco Torre

tuzionale39. Con la seguente precisazione: la videosorveglianza grazie alla quale avviene il riconoscimento facciale non nasce nell’ambito dell’attività di indagine, ma preesiste rispetto ad essa ed ha una finalità diversa e distinta, coincidente con la tutela dell’ordine e della sicurezza pubblica. 5. Nonostante quanto appena chiarito, a nostro parere, a causa della mancanza di una normativa ad hoc che ne disciplini l’utilizzo per fini investigativi o addirittura processuali, attualmente l’impiego massivo del sistema automatico dinamico di riconoscimento immagini noto con il nome di S.A.R.I. Real Time rischia di entrare in contrasto con quel principio di proporzionalità che deve caratterizzare in modo trasversale il nostro sistema processuale40. Un approccio rigoroso a molti dei problemi appena segnalati giunge dalla giurisprudenza amministrativa, la quale ha di recente introdotto alcune garanzie ed alcuni principi fondamentali in tema di impiego di algoritmi di intelligenza artificiale. Quali «elementi di minima garanzia per ogni ipotesi di utilizzo di algoritmi in sede decisoria pubblica» emergono innanzitutto la necessaria trasparenza dell’algoritmo e la sicura imputabilità della decisione41. Trasparenza significa garanzia di conoscibilità del funzionamento

39   Sul (controverso) tema della prova incostituzionale, per tutti cfr. V. Grevi, Insegnamenti, moniti e silenzi della Corte costituzionale in tema di intercettazioni telefoniche, in Giur. cost., 1973, p. 341; C. Conti, Annullamento per violazione di legge in tema di ammissione, acquisizione e valutazione delle prove: le variabili giurisprudenziali, in Cass. pen., 2013, 2, p. 487. 40   Cfr. G. Mobilio, Tecnologie di riconoscimento facciale, cit., p. 162 ss., nonché J. Della Torre, Novità dal Regno Unito, cit., p. 243, secondo il quale «la mancanza di una disciplina legislativa specifica, che stabilisca nel dettaglio per quali reati e a fronte di quali garanzie è possibile attivare il sistema SARI Real Time, se collocata in un contesto in cui i tools di facial recgnition sono attivabili in ogni luogo (e senza preavvisare di ciò la collettività) rende assai alto il rischio che la forma di IA in esame sia utilizzata senza rispettare il criterio di “stretta necessità” nella profilazione dei dati personali dei singoli». In generale, sul principio di proporzionalità in relazione allo specifico tema, cfr. Agenzia dell’Unione europea per i diritti fondamentali (FRA), Facial recognition technology, cit., p. 24, dove si può leggere come «conformemente alle vigenti norme dell’UE in materia di protezione dei dati e alla Carta dei diritti fondamentali, l’IA può essere utilizzata a fini di identificazione biometrica remota unicamente ove tale uso sia debitamente giustificato, proporzionato e soggetto a garanzie adeguate». 41   Cons. Stato, Sez. VI, 4 febbraio 2020, n. 881, in Giur. it., 2020, p. 1738, con nota di Orofino e Gallone.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Nuove tecnologie e trattamento dei dati biometrici nel processo penale

693

dell’algoritmo in tutti i suoi aspetti. Da questo punto di vista, «non può assumere rilievo l’invocata riservatezza delle imprese produttrici dei meccanismi informatici utilizzati i quali, ponendo al servizio del potere autoritativo tali strumenti, all’evidenza ne accettano le relative conseguenze in termini di necessaria trasparenza»42. Sul versante della imputabilità, deve essere garantita la verifica a valle della decisione assunta, in termini di logicità e di correttezza dei risultati probatori. Da questo punto di vista, è necessario riconoscere «alla persona il diritto di non essere sottoposta a decisioni automatizzate prive di un coinvolgimento umano […]. Quindi occorre sempre l’individuazione di un centro di imputazione e di responsabilità, che sia in grado di verificare la legittimità e logicità della decisione dettata dall’algoritmo»43. A tali garanzie, il giudice amministrativo affianca i seguenti principi generali fondamentali in favore del soggetto interessato dal trattamento: principio di «conoscibilità», in base al quale «ognuno ha diritto a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino ed in questo caso a ricevere informazioni significative sulla logica utilizzata»44; principio di non esclusività della decisione algoritmica45: nel caso 42   «Sul versante della piena conoscibilità, rilievo preminente ha il principio della trasparenza, da intendersi sia per la stessa p.a. titolare del potere per il cui esercizio viene previsto il ricorso allo strumento dell’algoritmo, sia per i soggetti incisi e coinvolti dal potere stesso». Ciò significa che «il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l’algoritmo) debba essere “conoscibile”, secondo una declinazione rafforzata del principio di trasparenza, che implica anche quello della piena conoscibilità di una regola espressa in un linguaggio differente da quello giuridico. Tale conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. Ciò al fine di poter verificare che i criteri, i presupposti e gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato». Cons. Stato, Sez. VI, 4 febbraio 2020, n. 881, cit. 43   Cons. Stato, Sez. VI, 4 febbraio 2020, n. 881, cit. 44   «Tale diritto alla conoscenza dell’esistenza di decisioni che ci riguardino prese da algoritmi e, correlativamente, come dovere da parte di chi tratta i dati in maniera automatizzata, di porre l’interessato a conoscenza, va accompagnato da meccanismi in grado di decifrarne la logica. In tale ottica, il principio di conoscibilità si completa con il principio di comprensibilità, ovverosia la possibilità […] di ricevere “informazioni significative sulla logica utilizzata”». Cons. Stato, Sez. VI, 4 febbraio 2020, n. 881, cit. 45   «In proposito, deve comunque esistere nel processo decisionale un contributo

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

694

Marco Torre

in cui vi sia una decisione automatizzata, bisogna prevedere un contributo umano capace di controllare, validare ovvero smentire la decisione automatica; principio di non discriminazione algoritmica46. Il rispetto di questi canoni – i quali hanno una palese matrice sovranazionale47 – riveste una importanza fondamentale anche nel diverso ambito processuale penale, dove paghiamo ancora la carenza di una specifica tutela costituzionale del diritto alla protezione dei dati48. Ed allora, consci dell’importanza che tale tecnologia può avere

umano capace di controllare, validare ovvero smentire la decisione automatica. In ambito matematico ed informativo il modello viene definito come HITL (human in the loop), in cui, per produrre il suo risultato è necessario che la macchina interagisca con l’essere umano». Cons. Stato, Sez. VI, 4 febbraio 2020, n. 881, cit. 46   «[…] secondo cui è opportuno che il titolare del trattamento utilizzi procedure matematiche o statistiche appropriate per la profilazione, mettendo in atto misure tecniche e organizzative adeguate al fine di garantire, in particolare, che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori e al fine di garantire la sicurezza dei dati personali, secondo una modalità che tenga conto dei potenziali rischi esistenti per gli interessi e i diritti dell’interessato e che impedisca tra l’altro effetti discriminatori nei confronti di persone fisiche sulla base della razza o dell’origine etnica, delle opinioni politiche, della religione o delle convinzioni personali, dell’appartenenza sindacale, dello status genetico, dello stato di salute o dell’orientamento sessuale, ovvero che comportano misure aventi tali effetti». Cons. Stato, Sez. VI, 4 febbraio 2020, n. 881, cit. 47   Il riferimento, qui, è alla Carta europea sull’uso etico dell’intelligenza artificiale nel settore giustizia, nella quale è possibile leggere i seguenti principi fondamentali: «1) principles of respect of fundamental rights: ensuring that the design and implementation of artificial intelligence tools and services are compatible with fundamental rights; 2) principle of non-discrimination: specifically preventing the development or intensification of any discrimination between individuals or groups of individuals; 3) principle of quality and security: with regard to the processing of judicial decisions and data, using certified sources and intangible data with models conceived in a multi-disciplinary manner, in a secure technological environment; 4) principle of transparency, impartiality and fairness: making data processing methods accessible and understandable, authorising external audits; 5) principle “under user control”: precluding a prescriptive approach and ensuring that users are informed actors and in control of their choices». Cfr. Commissione Europea per l’Efficienza della Giustizia, (CEPEJ), Carta etica per l’uso dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, adottata dalla CEPEJ nel corso della sua 31a Riunione plenaria (Strasburgo, 3-4 dicembre 2018), cit., p. 3. 48   Come noto, tale diritto viene tradizionalmente ricondotto nell’ambito dell’art. 2 Cost. Cfr. S. Rodotà, Persona, riservatezza, identità. Prime note sistematiche sulla protezione dei dati personali, in Riv. crit. dir. priv., 1997, p. 590; A. Barbera, Commento all’art. 2 Cost., in Commentario alla Costituzione. Principi fondamentali, G. Branca (a cura di), Bologna 1975, p. 80 ss., nonché D. Messinetti, Personalità (diritto della), in Enc. dir., 1983, p. 371 e G. Busia, Riservatezza (diritto alla), in Dig. disc. pubbl., Agg., 2000, p. 481. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Nuove tecnologie e trattamento dei dati biometrici nel processo penale

695

nell’attività di prevenzione e repressione della criminalità, la soluzione che si propone non è quella di bandirla dal sistema processuale, ma quella di pretendere una base normativa (eventualmente, anche di natura regolamentare) che disciplini in modo rigoroso almeno i seguenti aspetti fondamentali: 1) la modalità di implementazione delle banche dati contenenti i dati sensibili poi utilizzati dall’algoritmo per il riconoscimento facciale; 2) i casi e i modi della captazione in tempo reale; 3) i tempi e i modi di conservazione dei dati acquisiti. De iure condito, è necessario valorizzare l’art. 13 Cost.: dinanzi alle sfide poste in materia probatoria dalla tecnologia e, in particolare, dall’intelligenza artificiale, è necessario garantire una tutela rafforzata del corpo elettronico, ossia dell’insieme delle informazioni raccolte sul nostro conto, senza la quale la stessa libertà personale è in pericolo. In un’epoca caratterizzata da un’evoluzione tecnologica esponenziale come quella in cui viviamo, forse questa è l’unica strada per tutelare adeguatamente il metavalore che si cela dietro alla protezione della intima sfera di riservatezza di ciascuno di noi, ossia la nostra stessa dignità.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Matteo Gabbiani*

Il processo civile nel prisma dell’intelligenza artificiale

Sommario: 1. Premesse – 2. L’intelligenza artificiale nella fase introduttiva del processo civile – 3. L’intelligenza artificiale nella fase di trattazione – 4. Intelligenza artificiale e fase istruttoria – 5. La decisione robotica tra «interpretazione della legge secondo modelli matematici» e sistemi di giustizia predittiva – 6. Le possibili applicazioni dell’intelligenza artificiale dentro (e fuori) al processo: conclusioni e prospettive

1. «Possono l’elettronica e la cibernetica accostarsi al processo, entrarci con le loro tecniche e le loro macchine, indagarlo con i loro metodi? O invece l’antinomia tra «elettronica» e «processo» è fondamentalmente, inevitabilmente irriducibile, essendo la prima null’altro che una tecnica ed il secondo, invece, uno dei modi più complessi e misteriosi, di atteggiarsi dello spirito umano? E se è vero, come afferma uno dei postulati della cibernetica, che «ciò che è descrivibile è imitabile” (e quindi riproducibile con apparati elettronici), non corriamo il rischio, al limite dell’assurdo, che qualcuno pretenda di schematizzare e riprodurre elettronicamente perfino l’atto stesso del giudicare, che null’altro sarebbe se non una lunga catena di sillogismi?» Se lo chiedeva Luigi Persico in un contributo pubblicato nel 19651 e, dopo quasi sessant’anni, l’interrogativo resta ancora di forte attualità. È cambiato il vocabolario e non si parla più di «verbale magnetico d’udienza», di «schede perforate» o di «registrazioni magnetiche stragiudiziali», perché il linguaggio ha seguito lo sviluppo della tecnica; ma, proprio in virtù dell’evoluzione tecnico-scientifica, la questione dei rapporti tra processo e nuove tecnologie si è fatta sempre più incalzante. È oramai consolidata l’esperienza del processo civile telematico2, della posta elettronica certificata, dei documenti informatici e delle firme digitali, che hanno quasi messo in soffitta * Assegnista di ricerca di Diritto processuale civile nell’Università di Firenze.   L. Persico, Elettronica, cibernetica e processo (dal verbale magnetico al massimario automatico), in Riv. trim. dir. proc. civ., 1965, pp. 1730-1761. 2   Il processo civile telematico, a regime per i giudizi dinanzi ai Tribunali e alle Corti d’appello a partire dal 2012 (v. l. 24 dicembre 2012, n. 228, seguita da d.l. 24 giugno 2014, n. 90), è di recente entrato in funzione anche nei giudizi dinanzi alla Corte di Cassazione (v. art. 221, comma 5, d.l. 19 maggio 2020, n. 34, compiutamente 1

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

698

Matteo Gabbiani

i depositi cartacei in cancelleria di atti e documenti, le stampanti e le fotocopiatrici, la carta e l’inchiostro. La corsa all’innovazione tuttavia non si è fermata e ha indirizzato le proprie mire non più e non soltanto sui supporti materiali di cui gli operatori giuridici si avvalgono, ma sul processo stesso, sul quale aleggia da tempo lo spettro dell’intelligenza artificiale, ultima frontiera dell’integrazione tra diritto e tecnologia e, più in generale, tra uomo e macchina. In questo contesto si inserisce questo contributo, che si propone di analizzare i rapporti tra intelligenza artificiale e processo civile; non come mero esercizio intellettuale, una fantasia sul futuribile, ma nel tentativo di portare alla luce, per differenza, quegli elementi intrinsecamente umani, creativi, che stanno alla base della dimensione processuale e dell’esperienza interpretativa e applicativa del diritto. Davvero non si contano i tentativi di definizione dell’intelligenza artificiale e non ci sembra particolarmente utile, nell’economia di questo scritto, insistere nella ricostruzione del dibattito incentrato sulla questione di che cosa sia l’intelligenza artificiale. Basti qui ricordare che, secondo una felice formulazione, lo studio dell’intelligenza artificiale sarebbe qualificabile come «la scienza intesa a sviluppare modelli computazionali del comportamento intelligente, e quindi a far sì che gli elaboratori possano eseguire compiti che richiederebbero intelligenza da parte dell’uomo»3. In ogni caso, il dato ricorrente in ogni tentativo definitorio è la capacità della macchina di sostituirsi all’uomo nello svolgimento di operazioni che, generalmente, richiederebbero un certo sforzo intellettuale. All’interno del genus dell’intelligenza artificiale viene poi operata tradizionalmente la summa divisio, tra intelligenza artificiale «debole» e intelligenza artificiale «forte». Per intelligenza artificiale debole, l’unica disponibile ad oggi4, si intende una macchina incapace di imitare attuato dal decreto del Direttore generale dei sistemi informatici e automatizzati del Ministero della giustizia del 27 gennaio 2021, a decorrere dal 31 marzio 2021). Anche se il processo civile telematico in cassazione è previsto dalla normativa emergenziale legata all’epidemia (in vigore a oggi fino al 31 dicembre 2022), tutto lascia pensare che difficilmente si possa tornare indietro. 3  G. Sartor, Intelligenza Artificiale e diritto. Un’introduzione, Milano 1996, p. 9, cui si rimanda per un ulteriore approfondimento. Sul dibattito intorno alla definizione del concetto di intelligenza artificiale, v. J. Kaplan, Intelligenza Artificiale. Guida al prossimo futuro, Roma 2018. 4   È lecito dubitare che potrà mai esistere un’intelligenza artificiale forte, una macISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il processo civile nel prisma dell’intelligenza artificiale

699

il pensiero umano ma soltanto in grado di riprodurne i risultati sulla base di una serie di calcoli eseguiti seguendo le istruzioni predeterminate fornite dall’algoritmo5. L’Intelligenza artificiale «debole» è quindi integralmente programmata dall’uomo, a differenza della c.d. intelligenza artificiale «forte», che invece sarebbe in grado di imitare i processi cognitivi umani, pensando come l’uomo ed essendo come l’uomo «autocosciente». Anche i sistemi avanzati di Intelligenza artificiale, che si basano sul machine learning o sul deep learning e che riescono così ad apprendere dall’esperienza6, restano in ogni caso vincolati ai dati che vengono inseriti preventivamente dall’uomo. Se così è, per provare a rispondere all’interrogativo che Luigi Persico ha posto sessant’anni fa e che negli ultimi dieci anni è tornato alla ribalta7, è necessario prestare particolare attenzione a non cadere vittima di scetticismi od ottimismi ideologici. Davanti all’innovazio-

china autocosciente. La creazione da parte dell’uomo di una «coscienza» artificiale presupporrebbe infatti che il pensiero riesca a costruire (e prima ancora pensare) sé stesso, reificandosi. 5   Si intende qui per algoritmo lo «schema esecutivo» che l’intelligenza artificiale segue per elaborare i propri calcoli (v. J. Nieva-Fenoll, Intelligenza Artificiale e processo, Torino 2019, p. 9). 6  Per machine learning si intende la capacità della macchina di migliorare, tramite l’esperienza, le proprie capacità e le proprie prestazioni (v. E. Battelli, Giustizia predittiva, decisione robotica e ruolo del giudice, in Giust. civ., 2020, p. 281 ss.), ricavando in «maniera automatica gli algoritmi che verranno poi impiegati nel proprio funzionamento» (F. Donati, Intelligenza Artificiale e giustizia, in Riv. AIC., 2020, p.  415 ss., p.  416). Il deep learning costituisce l’evoluzione del machine learning e permette alla macchina, sfruttando le c.d. reti neurali, di elaborare una grande mole di dati. Certo è che, nonostante il machine learning e il deep learning, la macchina non «impara» come impara l’essere umano, per cui l’apprendimento implica «assumere, interiorizzare e creare nuove idee» partendo da ciò che viene appreso (J. Nieva-Fenoll, op. cit., p. 10). 7   Oltre che dai numerosi contributi, ad autorevolissima firma, che verranno citati nel prosieguo, l’attualità del tema è testimoniata dall’attenzione che l’Accademia dei Lincei gli ha riservato con l’organizzazione nel 2018 del convegno su «Decisione robotica», i cui scritti sono raccolti nel volume a cura di A. Carleo, Decisione robotica, Bologna 2019. Non solo l’Accademia si è mostrata interessata negli ultimi anni al tema dell’intelligenza artificiale. Si riscontrano infatti diversi interventi normativi e para-normativi: dalla Carta etica europea sull’utilizzo dell’IA nei sistemi giudiziari e negli ambiti connessi, predisposta dalla Commissione europea per l’efficacia della giustizia, al Regolamento 2016/679/UE, il cui art. 22 riconosce la legittimità di processi decisionali automatizzati, subordinandoli a determinate condizioni, o ancora, sul piano delle fonti straniere, la legge francese n. 1321-2016 pur une République numérique del 7 ottobre 2016 sul tema della giustizia predittiva. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

700

Matteo Gabbiani

ne, di ogni tipo e in ogni campo, il rischio è infatti sempre quello di mostrarsi o troppo sospettosi o troppo fiduciosi, inneggiando ora al luddismo ora alla divinizzazione della tecnologia. È necessario allora guardare il rapporto tra intelligenza artificiale e processo con riferimento alle diverse fasi del processo civile e la risposta sarà positiva o negativa a seconda che vi siano o meno ostacoli, di natura normativa o strutturale8, che impediscano di sostituire il giudice (o eventualmente anche l’avvocato) con la macchina nel procedimento giurisdizionale o in un segmento di esso. 2. Il piano logico e cronologico impone di cominciare l’analisi dalla fase introduttiva del processo e, con uno sforzo di fantasia, dobbiamo tentare di immaginare come potrebbe iniziare un processo il cui attore protagonista è la macchina guidata da un’intelligenza artificiale. Potremmo allora pensare a un processo in cui le parti inseriscono le rispettive argomentazioni difensive in un’applicazione, compilando una sorta di modulo prestampato e abbandonando lo stile letterario e discorsivo che oggi contraddistingue gli atti processuali9. La traccia, per l’attore, potrebbe essere fornita dall’art. 163 c.p.c. e, per il convenuto, dall’art. 167 c.p.c., che indicano rispettivamente il contenuto dell’atto di citazione e della comparsa di risposta; il processo civile, del resto, si presta, per sua caratteristica, a un approccio di tipo schematico: cos’altro deve indicare con la domanda l’attore se non le parti, il petitum e la causa petendi della propria pretesa? E cosa il convenuto, con l’atto con cui costituisce, se non le contestazioni, le mere difese, le

8   Eventuali limiti normativi alla automazione processuale devono essere ricercati necessariamente sul terreno delle fonti sovra-legislative, per due ordini di ragioni. In primis, perché eventuali ostacoli derivanti da fonti di rango primario potrebbero essere superati con un intervento del legislatore ordinario, qualora si ritenesse che l’applicazione dell’intelligenza artificiale al processo sia positiva dal punto di vista della politica giudiziaria e del diritto in genere; in seconda battuta, perché il giudice deve necessariamente essere (pre)costituito e il processo regolato per legge ai sensi degli artt. 25 e 111 Cost. Chiaramente, il discorso non vale per quelle disposizioni di diritto positivo contenute nel codice di procedura civile che si presentano come espressioni di necessità meta-positive o che costituiscano esse stesse il precipitato di principi e valori di matrice costituzionale, presentando per loro natura una particolare forza di resistenza passiva alla riforma. Per ostacoli di carattere strutturale si intendono invece quelle caratteristiche della macchina e dell’Intelligenza Artificiale che la rendono logicamente inadatta a guidare il processo. 9   Lo immagina J. Nieva-Fenoll, op. cit., p. 13.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il processo civile nel prisma dell’intelligenza artificiale

701

eccezioni e le domande che a sua volta intende proporre? Il formulario dovrebbe essere poi compilato seguendo uno stile sobrio, preciso, chiaro e sintetico, perché la capacità di analisi della macchina richiede un linguaggio «semanticamente vincolato»10. Così facendo, certamente si mitigherebbe il problema della sinteticità e chiarezza degli atti, sul quale da anni si riflette e che si sta affermando sempre più come principio cardine del processo11. Tuttavia, vi è già chi, pur senza pensare esplicitamente al problema dell’intelligenza artificiale nel processo, si mostra a dir poco inquieto all’idea che «l’esercizio dell’azione giudiziale possa darsi compilando formulari»12. Una simile prospettiva - si dice - andrebbe a ledere irrimediabilmente il diritto di difesa delle parti, che non avrebbero più la possibilità di «raccontare» liberamente le ragioni di fatto e diritto poste a fondamento delle rispettive pretese. Il timore, però, sembra per lo più

10   E. Battelli, Giustizia predittiva, decisione robotica e ruolo del giudice, in Giust. civ., 2020, p. 281 ss., spec. p. 298. 11   Il problema della lingua del diritto e delle tecniche di scrittura degli atti giudiziari sta assumendo negli ultimi anni un peso sempre più importante: se già il codice del processo amministrativo del 2010 aveva sancito il principio per cui «il giudice e le parti redigono gli atti in maniera chiara e sintetica» (v. art. 3), nel dicembre 2015, d’intesa tra la Corte di cassazione e il Consiglio nazionale Forense, è stato redatto il Protocollo sulle regole redazionali dei motivi di ricorso per cassazione e nel febbraio 2016 il Ministero della giustizia ha costituito un gruppo di lavoro con il compito di valorizzare «le potenzialità applicative del principio di sinteticità, funzionali alla realizzazione di processi equi e di ragionevole durata» (così il decreto istitutivo del 9 febbraio 2016). L’attenzione al tema è stata da ultimo rinnovata dalla legge delega per la riforma del processo civile del novembre 2021 (l. 26 novembre 2021, n. 206), che ha previsto che «i provvedimenti del giudice e gli atti del processo per i quali la legge non richiede forme determinate possono essere compiuti nella forma più idonea al raggiungimento del loro scopo, nel rispetto dei principi di chiarezza e sinteticità, stabilendo che sia assicurata la strutturazione di campi necessari all’inserimento delle informazioni nei registri del processo, nel rispetto dei criteri e dei limiti stabiliti con decreto adottato dal Ministro della giustizia, sentiti il Consiglio superiore della magistratura e il Consiglio nazionale forense». In tema, v. I. Pagni, Protocollo Cassazione-C.N.F. sulla redazione del ricorso, in Treccani - Il libro dell’anno del diritto 2017, Roma 2017. 12   G. Scarselli, Contro l’idea che l’esercizio dell’azione giudiziale possa darsi compilando formulari predisposti dal Ministero della Giustizia, in Judicium, p.  2, secondo cui «immaginare che l’esercizio dell’azione (art. 24 Cost.) o la funzione di giudicare (art. 101 Cost.) possano subire regole imposte a vantaggio di mezzi meccanici, addirittura disposte dal Ministero della Giustizia, non sarebbe solo porre in essere una riforma interamente incostituzionale e contro la storia del nostro sistema giuridico, ma sarebbe parimente porre fine alle stesse professioni giudiziarie, nonché fine ad ogni libertà dei cittadini».

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

702

Matteo Gabbiani

indirizzato verso uno scenario nel quale «per introdurre una causa si [debba] compilare dei fogli mettendo tante crocette come si fa nei quiz, riesponendo sì o no a delle domande prefigurate»13. Se così dovesse essere, il timore sarebbe senz’altro fondato. Il fatto è che, però, l’intelligenza artificiale potrebbe (quantomeno con riferimento a certe tipologie di controversie) essere «addestrata» a comprendere il linguaggio umano, anche discorsivo, purché - lo si ripete - lo stile adoperato resti sobrio, conciso e puntuale14. Del resto, l’idea che l’atto introduttivo del procedimento debba seguire un formulario prestabilito non è nuova. L’art. 46 del regolamento della Corte Europea dei Diritti dell’Uomo prevede espressamente che la domanda sia «presentata mediante il formulario di ricorso fornito dalla cancelleria», indicando gli elementi dell’atto alla stessa stregua di come le legislazioni nazionali indicano gli elementi essenziali dell’atto introduttivo del giudizio. La porta all’intelligenza artificiale, sotto questo punto di vista, resta dunque aperta. Se guardiamo alla fase introduttiva del giudizio dal punto di vista della individuazione del giudice che non sia uomo ma macchina, il discorso però si complica. Il primo problema è posto dall’art. 25 Cost., che sancisce il principio per il quale «nessuno può essere distolto dal giudice naturale precostituito per legge». Ora, certamente l’Assemblea Costituente, quando ha formulato il principio del giudice naturale, non immaginava il problema del giudice-robot: il giudice «naturale» non è il giudice «non artificiale»15, ma semplicemente, secondo l’interpretazione che la stessa Corte Costituzionale ha fornito negli anni, il giudice «precostituito per

  G. Scarselli, op cit., p. 1.   J. Nieva-Fenoll, op. cit., p. 81: «l’analisi del linguaggio può essere certamente fatta da un programma di intelligenza artificiale, che può memorizzare efficacemente il vocabolario e le espressioni che sono comuni in ogni contesto». Di diverso avviso pare, invece, R. Bichi, Intelligenza Artificiale tra “calcolabilità” del diritto e tutela dei diritti, in E. Gabrielli, U. Ruffolo, Intelligenza Artificiale e diritto, in Giur. it., 2019, p. 1657 ss. 15   Sembra invece pensarlo F. Donati, Intelligenza Artificiale e giustizia, in Riv. AIC, 2020, p. 415 ss., spec. p. 429, per il quale «lo stesso art. 25 Cost., nel garantire il diritto al “giudice naturale precostituito per legge”, fa evidentemente riferimento ad un giudice-persona». Parimenti dubbiosa F. Santagada, Intelligenza Artificiale e processo civile, in Judicium, 2021, p. 467 ss., spec. p. 485: «il giudice, nella prospettiva dei costituenti, era esclusivamente una persona; è possibile ritenere oggi rispettata la garanzia del giudice naturale, allorché la decisione sia in tutto o in parte delegata ad un succedaneo del giudice, sia esso “un ammasso di metallo e plastica” funzionante sulla base di algoritmi o un agente robotico di sembianze umane?». 13 14

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il processo civile nel prisma dell’intelligenza artificiale

703

legge»16. Anche coloro che non leggono la «naturalità» e la «precostituzione» del giudice come semplice endiadi, ricercando un significato diverso e più ampio per il concetto di «giudice naturale»17, sicuramente non arrivano a intendere quest’ultimo necessariamente umano. Il fatto che l’art. 25 Cost. non escluda a monte la possibilità di un giudice-macchina non esaurisce tuttavia la problematica in questione. Il principio del «giudice naturale precostituito» non vale soltanto a porre il divieto di costituire giudici straordinari per la singola controversia, ma esige la «previa determinazione della competenza, con riferimento a fattispecie astratte realizzabili in futuro, non già a posteriori, in relazione, come si dice, a una regiudicanda già insorta», «una competenza fissata, senza alternative, immediatamente ed esclusivamente dalla legge»18. La questione, allora, si fa particolarmente delicata se rapportata all’intelligenza artificiale nel processo. Nulla quaestio se si potesse pensare che tutti i procedimenti civili siano delegabili alla macchina; ma poiché - come vedremo - questa possibilità è certamente da escludere, allora si dovrà pensare a dei criteri di assegnazione della singola causa al giudice-robot tali per cui si possa dire rispettato il precetto dell’art. 25 Cost. La lettura che si è dato della norma, poi, non è affatto univoca. Il dibattito è molto ampio è non può essere qui richiamato se non per sommi capi. La giurisprudenza costituzionale, in una prima fase, riteneva che fosse sufficiente che ad essere prestabilito per legge fosse l’organo giudicante perché potesse dirsi rispettato il principio del giudice naturale19. Successivamente si è fatta però strada l’idea che per giudice naturale non si debba intendere tanto l’organo giudicante ma il singolo magistrato cui la causa venga assegnata, la cui individuazione deve allora avvenire secondo criteri obiettivi e predeterminati senza che vi sia spazio di discrezionalità per il capo dell’ufficio20. Di qui il problema di disciplinare la «competenza interna» agli uffici giudiziari, 16   V., per prima, Corte cost., 7 luglio 1962, n. 88, in Foro it., 1962, 1, c. 1217 ss. Per ulteriori riferimenti bibliografici, si rimanda a R. Romboli, voce Giudice naturale, in Enc. dir., Agg. II, 1998, p. 365 ss. 17   Per una ricostruzione dettagliata del dibattito dottrinale sui rapporti tra precostituzione e naturalità del giudice nell’ambito dell’art. 25 Cost., v. M.F. Ghirga, Riflessioni sul significato di giudice naturale nel processo civile, in Riv. dir. proc., 2002, p. 805 ss., spec. nota 81. 18   Corte cost., 7 luglio 1962, n. 88, cit. 19   V. Corte cost., 23 maggio 1985, n. 156, in Giur. cost., 1985, p. 111 ss. 20   V. Corte cost., 17 luglio 1998, n. 272, in Foro it., 1999, c. 1407 ss. e Corte cost., 23 dicembre 1998, n. 419, ibidem, p. 760 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

704

Matteo Gabbiani

con l’esigenza di bilanciare il principio della predeterminazione con la necessità di tenere conto nell’assegnazione della professionalità e la specializzazione dei singoli magistrati, compromesso che è stato trovato oggi, sul percorso tracciato a partire dagli anni ’70 dalle circolari emanate dal CSM21, da un lato nel c.d. sistema tabellare, disciplinato agli artt. 7-bis e 7-ter r.d. 30 gennaio 1941, n. 12, e dall’altro nell’organizzazione dei magistrati in sezioni «specializzate»22 competenti per materia. L’esigenza di specializzazione del magistrato viene quindi soddisfatta dal momento che le cause vengono assegnate alla sezione dell’organo giudiziario cui risultano preposti magistrati che vantino una certa esperienza nel settore, mentre l’assegnazione della causa al singolo magistrato interno alla sezione avviene in modo predeterminato sulla base del sistema tabellare. È chiaro come questo sistema non possa funzionare per un processo guidato dall’intelligenza artificiale, se non altro perché la possibilità che una causa venga assegnata al giudice-macchina non può mai essere valutata ex ante ma soltanto a posteriori, una volta studiato il fascicolo e accertato che non vi siano questioni che richiedano giocoforza l’intervento umano. In questo senso, davvero, il principio del giudice naturale, per come interpretato, non può essere rispettato. Tuttavia, potrebbe prospettarsi una lettura meno rigida dell’art. 25 Cost., considerando che la ratio posta a fondamento della norma risiede in fondo nell’esigenza di evitare che il processo venga deliberatamente affidato a un giudice che per posizioni ideologiche, inclinazioni personali o vicinanza alla causa sia in qualche modo pregiudicato nella decisione. Sotto questo punto di vista, infatti, il giudice-robot garantisce sicuramente una maggiore imparzialità rispetto al giudice umano23, per cui non

21   Sul punto, cfr. N. Picardi, Il giudice naturale. Principio fondamentale a livello europeo, in Dir. Soc., 2008, p. 513 ss., spec. p. 540 ss. 22   Non si allude chiaramente alle sezioni specializzate in senso tecnico. 23   In realtà, su un piano più generale, si è discusso molto se effettivamente il giudice-robot possa considerarsi sempre e comunque imparziale e immune da pregiudizi. Si prenda la nota vicenda relativa al programma COMPAS (Correction Offender Management Profiling for Alternative Sanctions), strumento per calcolare il rischio di recidiva e la pericolosità sociale dell’imputato, che si è rivelato affetto da un pregiudizio sistematico nei confronti delle persone di colore (il rischio di recidiva per gli afroamericani era sempre il doppio di quello dei bianchi) derivante dal pregiudizio che i programmatori gli avevano trasmesso (sul punto, v. A. Simoncini, Diritto costituzionale e decisioni algoritmiche, in S. Dorigo (a cura di), Il ragionamento giuridico nell’era dell’intelligenza artificiale, Pisa 2020, p. 37 ss., spec. p. 46 ss.).

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il processo civile nel prisma dell’intelligenza artificiale

705

sembra da escludere la legittimità costituzionale di un meccanismo di assegnazione che passi preventivamente dallo studio della controversia. Indipendentemente dal problema del giudice naturale, con la piena automazione processuale potrebbero perdere «di senso le stesse norme di competenza territoriale, essendo pensabile che, nella maggior parte dei casi, il processo si svolga a distanza»24. La prospettiva sembra quasi scandalosa, tanto che nessuno ha mai ritenuto di dover fondare la necessità di una ripartizione sul territorio della competenza giurisdizionale, che risulta, ad oggi, imposta prima di tutto dall’esigenza, di natura organizzativa, di ripartire il carico di lavoro tra i vari uffici giudiziali. Inoltre, la figura del «giudice di prossimità», dislocato vicino al luogo della materia del contendere, rende meno gravosa l’assunzione delle prove costituende, come l’ascolto della parte o del testimone (che non sono costretti a spostarsi per chilometri e chilometri per rendere le loro dichiarazioni) o lo svolgimento della consulenza tecnica (specialmente se percipiente), e facilita la partecipazione alle udienze da parte degli avvocati. Si tratta, però, di ostacoli non impossibili da superare. L’intelligenza artificiale lavorerebbe in modo centralizzato, senza «costi» di spazio e di risorse umane, né richiederebbe una particolare vicinanza alle fonti di prova, perché il processo si svolgerebbe interamente a distanza senza che vi sia bisogno di spostamenti25. Ciò   Anche in questo caso, lo spunto viene da J. Nieva-Fenoll, op. cit., p. 20.   In verità, l’ordinamento si è già avviato verso la «dematerializzazione” del processo. Nel processo penale, l’art. 146-bis disp. att. c.p.c. prevede, al comma 3, che «quando è disposta la partecipazione a distanza, è attivato un collegamento audiovisivo tra l’aula di udienza e il luogo della custodia, con modalità tali da assicurare la contestuale, effettiva e reciproca visibilità delle persone presenti in entrambi i luoghi e la possibilità di udire quanto vi viene detto. Se il provvedimento è adottato nei confronti di più imputati che si trovano, a qualsiasi titolo, in stato di detenzione in luoghi diversi, ciascuno è posto altresì in grado, con il medesimo mezzo, di vedere ed udire gli altri”. Con riferimento al processo civile, la svolta è invece arrivata con la disciplina volta a fronteggiare l’emergenza sanitaria da Covid-19. Prima con l’art. 83, comma 7, lett. f) e h) del d.l. 17 marzo 2020, n. 18 (conv. con l. 24 aprile 2020, n. 27) e poi con l’art. 221 del d.l. 19 maggio 2020, n. 34 (destinato a restare in vigore fino al 31 dicembre 2022 per effetto del d.l. 30 dicembre 2021, n. 228), si è prevista la possibilità di partecipare alle udienze che non richiedono la partecipazione di soggetti diversi dai difensori delle parti e dei loro difensori «mediante collegamenti audiovisivi a distanza, individuati e regolati con provvedimento del Direttore generale dei sistemi informativi e automatizzati del Ministero della giustizia» (art. 221, comma 6, d.l. 34/2021, cit.); inoltre «in luogo dell’udienza fissata per il giuramento del consulente tecnico d’ufficio ai sensi dell’art. 193 del codice di procedura civile, il giudice può disporre che il consulente, prima di procedere all’inizio delle operazioni peritali, presti giuramento di bene e fedelmente adempiere alle funzioni affidate con dichiarazione sottoscritta 24 25

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

706

Matteo Gabbiani

che invece andrebbe irrimediabilmente persa è l’idea di un giudice di prossimità «faiser de paix vicino ai bisogni dei litiganti, che richiedono soltanto d’essere ascoltati per conseguire una soluzione rapida e assennata della controversia»26. Questa figura è incarnata oggi sicuramente dal giudice di pace (almeno nelle intenzioni), ma, in certo senso, anche dal giudice del lavoro, che deve sempre mostrarsi attento al substrato umano del conflitto, ascoltare le parti ed esperire il tentativo di conciliazione come previsto dall’art. 420 c.p.c. Di questo passo ci addentreremmo però nel problema dei rapporti tra l’intelligenza artificiale e quel fattore umano che si pone a fondamento del processo e del fenomeno giuridico in generale, ma sul punto torneremo più avanti. 3. La radicale dematerializzazione del processo come conseguenza dell’automazione non incide soltanto, come abbiamo visto, sul fattore della competenza territoriale, ma comporta, come evidente, una rivoluzione sul piano della trattazione del procedimento. Verrebbe allora sradicato il principio dell’oralità, da sempre trattato dalla letteratura processualistica una «specie di verità rilevata, addirittura un “dogma”, un vero e proprio “concetto sistematico”»27. «Il processo orale - si dice con firma digitale da depositare nel fascicolo» (art. 221, comma 8). Infine, il giudice può sempre disporre che l’udienza «sia sostituita dal deposito telematico di note scritte» (art. 221, comma 4). Tale disciplina è però destinata a stabilizzarsi: la legge delega per la riforma del processo civile (l. 26 novembre 2021, n. 206 cit.) indica al Governo di «prevedere che il giudice, fatta salva la possibilità per le parti costituite di opporsi, può disporre che le udienze civili che non richiedono la presenza di soggetti diversi dai difensori, dalle parti, dal pubblico ministero o dagli ausiliari del giudice si svolgano con collegamenti audiovisivi a distanza (art. 1, comma 16, n. 6, lett. l). In tema, v. I. Pagni, Le misure urgenti in materia di giustizia per contrastare l’emergenza epidemiologica: un dibattito mai sopito su oralità e pubblicità dell’udienza, in Judicium. Che questo fenomeno di smaterializzazione possa determinare il venir meno delle norme sulla competenza territoriale lo prospetta, inquieto, già G. Scarselli, Contro le udienze da remoto e la smaterializzazione della giustizia, in Judicium, p. 2: «si dirà che se il processo è telematico, e tutto avviene e si realizza a distanza sena più riferimento ad un luogo spaziale, non ha più senso parlare di Tribunale di Roma, piuttosto che di Firenze o Milano. I processi, infatti, non si svolgeranno più né a Firenze né a Roma o Milano, bensì sine loco, fuori da ogni dimensione spaziale. Ci sarà allora un sistema telematico centralizzato gestito dal Ministero della Giustizia, e spariranno così i primi 50 articoli del codice di procedura civile, ormai residui di un passato del quale nessuno deve avere nostalgia». 26   Così, A. Tedoldi, L’homme révolté, ovvero il giudice di pace che vorrebbe, ma non può, astenersi, in Giur. it., 2014, p. 1893 ss. 27   C. Vocino, voce Oralità nel processo (dir. proc. civ.), in Enc. dir., Milano 1980, p. 592 ss., spec. 593. Anche M. Cappelletti, La testimonianza della parte del sistema ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il processo civile nel prisma dell’intelligenza artificiale

707

- ha il suo perno nell’“udienza”, o per dir meglio, nel “dibattimento” che si svolge in quest’ultima e che comprende l’intera trattazione della causa, a cominciare dagli “incidenti” e inclusa specialmente l’istruzione della medesima, affinché le parti, o sia pure i loro procuratori e difensori, vi agiscano coram e compiano in praesenti le loro attività processuali»28. Ma nel processo automatizzato l’udienza scompare e con essa la parola parlata. Quello del tasso di oralità che deve avere un processo - è stato di recente ricordato - è un tema «che è tema di sempre», intorno al quale il dibattito non si è mai sopito29; se la dottrina, da Chiovenda in poi30, si è di volta in volta schierata spada tratta a difesa di un processo che sia un processo orale, la giurisprudenza ha ritenuto31 che l’esclusione della difesa orale non sia di per sé lesiva del diritto di difesa, purché resti assicurata «la garanzia del contraddittorio, necessaria in quanto costituente il nucleo indefettibile del diritto di difesa, costituzionalmente tutelato dagli artt. 24 e 111 Cost.», quanto meno dalla «trattazione scritta della causa, con facoltà delle parti di presentare memorie per illustrare ulteriormente le rispettive ragioni»32. Veniamo quindi al primo, vero, grande punctum dolens dei rapporti tra intelligenza artificiale e processo. Anche immaginando che vi possa essere una fase di trattazione nell’ambito di un processo guidato dalla macchina (trattazione che evidentemente non può essere orale ma soltanto scritta), sarebbe impossibile assicurare che la trattazione avvenga nel contraddittorio delle parti. Il contraddittorio, che - non serve ricordarlo - assurge a pilastro dell’ordinamento processuale non soltanto nella sua declinazione rispetto al diritto di difesa delle parti ma come principium firmissimum in funzione «euristica» e che si presenta come elemento strutturale caratterizzante la species «processo» rispetto al ge-

dell’oralità, Milano 1962, p. 29, parla dell’oralità come di «una specie di verità assoluta e incontrollabile, un “dogma” insomma nel senso più angusto del termine». 28   C. Vocino, op. loc. ult. cit. 29   I. Pagni, op cit., p. 12. 30   L’art.1 del progetto chiovendiano del 1919-1920 per il nuovo codice di procedura civile veniva rubricato «Oralità e concentrazione processuale» e prevedeva testualmente che «le cause si trattano oralmente all’udienza». 31   Nello specifico, il tema era stato posto dal riformato procedimento in cassazione, nel quale, a partire dalla novella del 2012, la regola è diventata la trattazione scritta e l’udienza pubblica l’eccezione (v. art. 380-bis c.p.c.). 32   V. Cass., Sez. VI-3, 10 gennaio 2017, n. 395, in Foro it., 2017, c. 538 ss. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

708

Matteo Gabbiani

nus «procedimento»33, presuppone una struttura dialogica del processo34, dove il giudice e le parti - almeno idealmente - si possano confrontare, parlandosi e ascoltandosi, sulle possibili soluzioni delle questioni che devono essere decise. Per dialogare, a propria volta, si deve presuppore che gli attori di questo dialogo ammettano il «dubbio», che non si riconoscano come portatori di verità; se nessuno fosse pronto a mettere in discussione le proprie posizioni non si avrebbe un dialogo, ma tanti monologhi. Ma la macchina non può conoscere il dubbio perché questo è incompatibile con il linguaggio binario che è l’unico che la macchina può comprendere. La logica binaria potrebbe al più (essere programmata a) riconoscere come «dubbio» un calcolo statistico-probabilistico delle possibili alternative che si assesti sotto una certa soglia percentuale predeterminata35, ma la determinazione di questo tasso di incertezza risulterebbe del tutto arbitraria e, comunque, resterebbe un qualcosa di profondamente diverso da quel dubbio che attanaglia l’uomo e che lo spinge a meditare, riflettere, pensare36. L’intelligenza artificiale non si presta poi alla gestione di procedimenti ove manchi la predeterminazione delle forme e dei termini: si pensi, ad esempio, alla materia del diritto di famiglia o al procedimento sommario di cognizione e al rito cautelare uniforme, nel cui ambito gli artt. 702-ter e 669-sezies c.p.c. prevedono che il giudice «procede nel modo che ritiene più opportuno»37. In questi casi risulta impossibile ricorrere a modelli quantitativi, alla cui logica viene subordinata l’intelligenza artificiale, dal momento che, per far vivere la norma, l’interprete non può ragionare in termini matematici38. Senza considerare che perderebbe di significato la prospettiva di un giudizio a struttura elastica, di origine carneluttiana39, e rilanciata anche di recente come 33  V.E. Fazzalari, voce Procedimento e processo (teoria generale), in Dig. disc. priv., Sez. civ., Torino 1998. 34  V.M. Taruffo, Judicial Decision and Artificial Intelligence, in Artificial Intelligence and Law, 1998, p. 311 ss., spec. p. 314. 35   M. Luciani, La decisione robotica giudiziaria, in A. Carleo (a cura di), Decisione robotica, Bologna 2019, p. 63 ss., spec. p. 88. 36   Come detto in premessa, l’intelligenza artificiale (almeno quella di cui possiamo disporre oggi) non è una coscienza: calcola, ma non sa di calcolare; non sa di sapere e, soprattutto, non sa di non sapere. 37   E. Battelli, op. cit., p. 292. 38   V.L. Viola, L’interpretazione della legge secondo modelli matematici. Processo, a.d.r., giustizia predittiva, Milano 2018, p. 47. 39  V. F. Carnelutti, Lineamenti della riforma del processo civile di cognizione, in Riv. dir. proc. civ., 1929, p. 55 ss.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il processo civile nel prisma dell’intelligenza artificiale

709

strumento utile a correggere «alcune rigidità che impediscono l’utilizzo di quel case management che consentirebbe di adattare il rito alla maggiore o minore complessità della controversia»40. Insomma, nessun abito sartoriale su misura per il processo se guidato dalla macchina, solo capi confezionati. 4. Prima di valutare le possibilità di un ricorso all’intelligenza artificiale con riferimento all’accertamento dei fatti nel processo civile, serve ricordare che, come noto, quello di prova non è un concetto unitario, ma può esprimere, nella lingua del processo, tre significati distinti; per prova intendiamo infatti: (a) le fonti di prova, ossia i mezzi dei quali ci si serve per la dimostrazione del thema probandum, (b) il procedimento attraverso il quale il giudice e le parti acquisiscono al processo le fonti di prova, (c) il convincimento che il giudice si forma sui fatti da provare41. L’impiego dell’intelligenza artificiale nell’attività istruttoria può svolgere un ruolo diverso per ciascuno di essi e dobbiamo affrontarli uno per volta, cercando di capire quali mezzi di prova la macchina sia in grado di acquisire, con quali modalità e quali conseguenze in punto di ricostruzione del fatto possa trarre. Si dice che le fonti di prova si esauriscano, in rerum natura prima che sul piano giuridico, nelle tre categorie del documento, della dichiarazione (orale) di scienza e dell’ispezione (quartum non datur) 42. Sicuramente il documento rappresenta il mezzo di prova d’elezione per il giudice-robot. L’avvento degli strumenti di videoscrittura e la diffusione di Internet (e della posta elettronica) hanno determinato un incremento esponenziale della documentazione digitale43, preparando il terreno per l’impiego di sistemi di intelligenza artificiale nell’analisi delle produzioni documentali. Le dichiarazioni di scienza, al contrario, non sembrano adatte a essere di per sé acquisite dalla macchina. Infatti, affinché le informazioni che intendono veicolare siano fruibili per l’algoritmo, devono in qualche modo «reificarsi» ed essere tradotte in linguaggio scritto e quindi ricondotte al mezzo di

  I. Pagni, op. cit., p. 4.  V. V. Denti, Scientificità della prova e libera valutazione del giudice, in Riv. dir. proc., 1972, p. 414 ss., spec. p. 414; A. Proto Pisani, Lezioni di diritto processuale civile, Napoli 2021, p. 406. 42  V. Proto Pisani, op. loc. ult. cit. 43   F. Santagada, op. cit., p. 477. 40 41

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

710

Matteo Gabbiani

prova documentale44. Stessa cosa per l’ispezione, che certamente non può essere compiuta in prima persona dal giudice-robot ma dovrà essere delegata a un terzo45, il quale redigerà un documento che dia conto delle informazioni acquisite. Dal punto di vista procedimentale, i problemi principali emergono però con riferimento alla consulenza tecnica. In primo luogo, c’è da chiedersi se, già a monte, la macchina sia in grado di individuare la persona dell’esperto e a valutarne l’esperienza e le competenze, e tale valutazione assume un peso specifico importante, dal momento che contribuisce a determinare l’attendibilità e l’autorevolezza dei risultati della consulenza. Ma non è affatto semplice ricondurre sul piano quantitativo e quindi calcolabile le competenze dello scienziato, malgrado gli strenui tentativi in tal senso da parte della comunità scientifica. «Gli indici numerici - è stato giustamente notato - non sono espressivi di qualità, e la novità e la rilevanza di un’idea non possono essere valutate meccanicamente, perché ciò richiede almeno il consenso della comunità scientifica, consenso che è molto difficile da verificare e, quand’anche lo si fosse verificato, è molto difficile da valutare in termini oggettivi»46. Ancora, ammesso pure che la macchina riesca a individuare con profitto la persona dell’esperto, non sembra possibile che questa possa individuare e formulare i quesiti cui il consulente dovrà rispondere, in quanto si tratta di un’attività che presuppone la presa di conoscenza di un deficit di conoscenze tecnico-scientifiche da parte del giudicante e quindi, ancora una volta, la categoria del «dub-

44   A meno che non si voglia immaginare l’impiego dei moderni sistemi di riconoscimento vocale, che sono in grado di comprendere il linguaggio umano parlato e che stanno alla base del funzionamento dei vari assistenti che troviamo nei nostri smartphone. 45   Come del resto accade già oggi nei processi «umani», ove l’ispezione è generalmente assorbita nell’ambito della consulenza tecnica percipiente e quindi delegata all’ausiliario del giudice. 46   J. Nieva-Fenoll, op. cit., p. 84. Di diverso avviso, invece, E. Fabiani, Intelligenza Artificiale e accertamento dei fatti nel processo civile, in Giusto proc. civ., 2021, p. 45 ss., spec. p. 66, per il quale il ricorso all’intelligenza artificiale potrebbe essere di ausilio al giudice in sede di selezione della persona che abbia le competenze professionali più adeguate a ricoprire il ruolo di consulente tecnico per l’accertamento di determinati fatti; l’A. conclude, tuttavia, nel senso che «non sembrerebbero comunque sussistere i presupposti per un’integrale sostituzione del giudice con una “macchina” nell’effettuazione della valutazione di cui si discute» e che quindi «sembrerebbe corretto muoversi nella prospettiva tendente a ricorrere alla “macchina” (non per sostituire ma) per supportare il giudice» (E. Fabiani, op. cit., p. 67).

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il processo civile nel prisma dell’intelligenza artificiale

711

bio», categoria che - lo abbiamo visto - è del tutto aliena rispetto alla logica binaria seguita dall’algoritmo. Inoltre, occorre considerare che il subprocedimento di consulenza tecnica è informato anch’esso dal principio del contraddittorio e quindi, da capo, si ripropongono le medesime problematiche, già evidenziate, che affliggono la trattazione della causa sotto questo punto di vista. Il tema più affascinante è dato dalla valutazione della prova da parte della macchina. La caratteristica principale di un sistema di accertamento dei fatti automatizzato è data dalla centralità del «ragionamento» statistico-probabilistico e da tempo si discute dalla possibilità di affrontare lo studio del diritto delle prove utilizzato modelli formali a base matematica. Il teorema di Bayes ne è l’esempio più noto47. Ma anche seguendo la logica bayesiana, il giudice deve poter valutare la probabilità a priori del probans e del probandum, operazione che in quanto tale è profondamente discrezionale. Del resto, anche chi di recente ha riproposto con convinzione la validità del teorema48, ha escluso che in un ideale processo bayesiano il giudice possa essere sostituito dalla macchina49. Ciò vale anche con riferimento al criterio, apparentemente quantitativo, della «preponderanza dell’evidenza» (meglio 47   Il teorema di Bayes si inserisce in quel filone di pensiero, di matrice prevalentemente angloamericana, che a partire dagli anni ‘60 ha inteso affrontare lo studio del diritto delle prove utilizzando modelli formali a base statistico-probabilistica (v. sul punto, anche per i riferimenti bibliografici, L. Luparia, Introduzione. Prova giudiziaria e ragionamento artificiale. alcune possibili chiavi di lettura, in J. Sallantin e J. J. Szczeciniarz, Il concetto di prova alla luce dell’Intelligenza Artificiale, Milano 2005, p. VII ss.). La formulazione più nota del teorema di Bayes (v. P. Garbolino, A cosa serve il teorema di Bayes? Replica a Michele Taruffo, in Riv. dir. proc., 2016, p. 1227 ss.) è la seguente: considerato A il fatto da provare (probandum) ed E il fatto osservabile che costituisce l’elemento di prova (probans), la probabilità a posteriori di A dato E = [(probabilità a priori di E supposto A) x (probabilità a priori di A)] / probabilità a priori di E, dove: - la probabilità a posteriori di A dato E è la probabilità che A sia vero una volta che si sia osservato E, - la probabilità a priori di E supposto A è la probabilità di osservare E se A è vero, - la probabilità a priori di A è la probabilità che A sia vero indipendentemente dall’osservazione di E, - la probabilità a priori di E è la probabilità di osservare E indipendentemente dal fatto che A sia o meno vero. 48   P. Garbolino, Probabilità e logica della prova, Milano 2014, tra il quale e Michele Taruffo si è accesa una vivace discussione. 49  V. P. Garbolino, op. cit., p. 1229.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

712

Matteo Gabbiani

noto come criterio del «più probabile che non») che governa lo standard di prova richiesto affinché un fatto possa dirsi o meno provato. La giurisprudenza, specialmente con riferimento alla prova del nesso di causalità nell’ambito della responsabilità civile, ha più vote ricordato come lo «standard di “certezza probabilistica” in materia civile non può essere ancorato esclusivamente alla determinazione quantitativa-statistica delle frequenze di classi di eventi (c.d. probabilità quantitativa o pascaliana), che potrebbe anche mancare o essere inconferente, ma va verificato riconducendone il grado di fondatezza all’ambito degli elementi di conferma (e nel contempo di esclusione di altri possibili alternativi) disponibili in relazione al caso concreto (c.d. probabilità logica o baconiana)»50. Inoltre, è da rilevare che un sistema, come il nostro, fondato sul principio del libero apprezzamento delle risultanze istruttorie da parte del giudice si presta meno di un ordinamento fondato sulla prova legale ad essere automatizzato facendo ricorso ad algoritmi. Il canone del libero apprezzamento assegna al giudice un’ampia discrezionalità, incompatibile con il funzionamento dicotomico dell’algoritmo, il cui utilizzo indiscriminato rischierebbe di trasformare ogni prova in prova legale, sottraendola al prudente apprezzamento del giudicante51. Con specifico riferimento ai singoli mezzi di prova, il quadro non cambia granché. Si dice da sempre che la prova orale «vuole l’aria e la luce dell’udienza52» e che «nei labirinti del processo scritto essa si corrompe e muore»53, perché l’attendibilità e la credibilità del testimone si valuta non soltanto da quello che dice, ma anche da quello che non dice, dai silenzi, le pause, gli sguardi o il «tuono della voce»54. L’intelligenza artificiale potrebbe, in un futuro, attingere dalle neuroscienze per verificare la veridicità o meno di una dichiarazione testimoniale, applicando strumenti di lie detection anche molto sofisticati. 50   Il principio è espresso per la prima volta dalla notissima Cass., Sez. un., 11 gennaio 2008, n. 584, in Foro it., 2008, I, c. 451 ss. ed è ripetuto costantemente dalla giurisprudenza successiva (v. ex multis, Cass., Sez. III,14 marzo 2022; Cass., Sez. III, 31 ottobre 2019, n. 27985; Cass., Sez. III, 27 settembre 2018, n. 23197). 51  V. E. Fabiani, op. cit., p. 55; J. Nieva-Fenoll, op. cit., p. 71. 52   Quella che B. Cavallone, Forme del procedimento e funzione della prova (ottant’anni dopo Chiovenda), in Riv. dir. proc., 2006, p.  417 ss. dipingeva come «elioterapia». 53   G. Chiovenda, Sul rapporto fra le forme del procedimento e la funzione della prova (L’oralità e la prova), in Saggi di diritto processuale, Roma 1931, p. 197 ss. spec. p. 209. 54   Per dirla sempre con B. Cavallone, op. loc. ult. cit.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il processo civile nel prisma dell’intelligenza artificiale

713

Lo scenario è sicuramente suggestivo, ma viene da chiedersi se una tale possibilità sia o meno compatibile con la struttura del nostro processo civile e, più in generale, con i principi fondamentali dell’ordinamento giuridico. In proposito si è rilevato come ci si trovi «di fronte ad una prospettiva che si scontra con le peculiarità proprie del processo civile rispetto a quello penale, sia sotto il profilo del suo atteggiarsi degli interessi che vengono in gioco, avendo il processo civile, in conformità con la natura di questi interessi, una struttura “dispositiva”; una struttura che sembrerebbe lasciare ben poco spazio al ricorso a tecniche quali quelle di cui si discute, sia sotto il profilo della identificazione della menzogna del teste che della parte». In ogni caso, andrebbe esclusa la possibilità che si possa ricorrere a strumenti di lie detection contro la volontà della parte o, indipendentemente da questa, qualora la tecnica di indagine sia anche potenzialmente in qualche modo lesiva dell’integrità psicofisica della persona o particolarmente invasiva (come, ad esempio, la risonanza magnetica funzionale)55. Con riferimento alla prova scientifica, immaginiamo poi che la macchina non si sostituisca al consulente ma svolga in prima «persona» il ruolo dell’esperto. Nonostante se ne sia parlato spesso come di un paradosso56, si dice tradizionalmente che il giudice sia peritus peritorum; in quanto tale, questi mantiene sempre e comunque il potere di discostarsi dalle conclusioni cui perviene l’esperto, qualora le ritenga contraddittorie, illogiche o insufficienti, purché motivi adeguatamente tale decisione57. Se la consulenza viene svolta dalla macchina, il verdetto che questa emetterà sarà privo di ogni riferimento (comprensibile dall’uomo) ai passaggi logici seguiti per arrivare alle conclusioni rese58. Il giudice non può così svolgere quel controllo, per quanto estrinseco, sulla coerenza logica del ragionamento seguito dall’ausiliario e quindi sulla l’attendibilità del risultato, dal momento che il carattere scientifico di un certo sapere non è mai dato dal risultato in sé ma dal procedimento seguito per giungervi. Invertendo l’ordine degli addendi e prendendo a ipotesi  V.E. Fabiani, op. loc. ult. cit., p. 73 ss.   Sul paradosso del giudice inesperto che giudica l’operato dell’esperto, v. E. Fabiani, Scienze cognitive e processo civile, Riv. dir. civ., 2016, p. 953 ss.; M. Taruffo, La prova scientifica nel processo civile, in Riv. trim. dir. proc. civ., 2005, p. 975, 57  V., ex multis, Cass., Sez. II, 21 dicembre 2017, n. 30733. 58   Si parla infatti dell’algoritmo come di una black box, in quanto nei sistemi avanzati di intelligenza artificiale «sono osservabili input e output, ma non il funzionamento interno, che resta oscuro anche per gli stessi programmatori» (F. Santagada, op. cit., p. 479, nota 64). 55 56

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

714

Matteo Gabbiani

che sia la macchina a dover valutare il ruolo dell’esperto, il risultato non cambia, perché difficilmente l’algoritmo potrà utilizzare quei criteri che la dottrina e la giurisprudenza59 per valutare la bontà del lavoro del consulente, criteri che non si prestano a riduzionismi quantitativi. In ogni caso, ammesso e non concesso che la macchina sia in grado di valutare il risultato probatorio del singolo mezzo di prova considerato, non sarebbe comunque in grado di valutare il quadro istruttorio complessivamente considerato. La macchina ragiona partendo sempre da un repertorio (che per quanto sterminato che sia è pur sempre finito) sulla cui base innestare un giudizio comparativo. Con riferimento al singolo mezzo di prova potrà darsi che la macchina abbia a disposizione dei casi precedenti di valutazione di testimonianze, relazioni peritali ecc., comparabili a quelli che si sono assunti nella vicenda processuale di specie; per valutare l’insieme delle risultanze istruttorie, però, il numero delle variabili cresce esponenzialmente ed è pressoché impossibile che vi sia un campione statistico che riproduca quelle che caratterizzano la singola fattispecie processuale. E, anche chi sostiene la validità delle teorie quantitative per la valutazione dei risultati istruttori, circoscrive il riscorso al teorema di Bayes nell’ambito della valutazione dei singoli mezzi di prova, e non soltanto per la maggior complessità della c.d. «rete bayesiana»60, ma per la natura essenzialmente «creativa» che caratterizza la costruzione della rete61. 5. Veniamo a questo punto al tema certamente più dibattuto: la decisione robotica. Abbiamo detto che la macchina non imita il pensiero

59   Sul punto basti il rimando ai criteri elaborati dalla celebre sentenza Daubert e a quanto ricorda Michele Taruffo (La prova scientifica. Cenni generali, in Ragion pratica, 2016, p. 338), per cui, per valutare la validità scientifica della consulenza, non si può prescindere da: «1) la conoscenza del margine di errore della tecnica impiegata; 2) la controllabilità e falsificabilità della teoria; 3) la pubblicazione delle ricerche su riviste serie provviste di referee; 4) l’accettazione di tali metodi di indagine da parte della comunità scientifica di riferimento». 60   Per «rete bayesiana» si intende un modello probabilistico che rappresenta un insieme di variabili interdipendenti. 61   V. P. Garbolino, Probabilità e logica della prova, cit., p. 310, per cui «la difficoltà maggiore sta nel disegno della rete, cioè della corretta struttura probabilistica: i calcoli, anche complessi, possono essere eseguiti dal computer, ma se il modello è sbagliato, anche i calcoli non saranno corretti. La costruzione di un’unica rete bayesiana che contenga tutte le prove del caso resta, per così dire, un “atto creativo” vincolato solamente dalle regole per la progettazione di una rete bayesiana». Sul punto v. anche E. Fabiani, Intelligenza Artificiale, cit., p. 58.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il processo civile nel prisma dell’intelligenza artificiale

715

umano, ma al massimo ne riproduce i risultati; la domanda pertanto non deve essere se la macchina può decidere pensando come un giudice umano, ma se può rendere una decisione che sia equivalente a quella che può prendere l’uomo62. Nel nostro caso, astrattamente, la macchina potrebbe decidere, in prima battuta, interpretando direttamente le disposizioni normative e applicandole al caso concreto che le viene sottoposto. In effetti, si può notare una certa affinità nel rapporto fra algoritmo e Intelligenza artificiale e quello fra legge e giudice. L’algoritmo rappresenta infatti il «manuale delle istruzioni» che la macchina segue per fare i propri calcoli, così come la legge può essere letta, ed è stata letta63, come l’insieme delle regole che il giudice deve seguire nel rendere la sentenza. È forse questa affinità che ha ispirato chi ha tentato di costruire un teorema computazionale della legge muovendo dall’art. 12 prel., che secondo tale impostazione avrebbe propria struttura algoritmica, offrendo uno schema «matematico» che il giudice è chiamato a seguire nel momento in cui intende interpretare il dettato normativo. Sarebbe quindi possibile «un’applicazione computerizzata della legge, non già l’accertamento dei fatti, bensì soltanto l’interpretazione uniforme della legge che a quei fatti (accertati nei modi tradizionali dal giudice di 62   Si tratta del c.d. «test di Turing», che prende il nome dal famoso matematico inglese che lo elaborò e che rappresenta un criterio per determinare se una macchina sia in grado o meno di esibire un comportamento intelligente. Secondo il test, una macchina può essere considerata «intelligente» quando la risposta che rende non può essere riconosciuta dall’uomo come artificiale o umana (v. A. Turing, Computing Machinery and Intelligence, in Mind, 1950, p. 433). 63   Ci si riferisce alla lettura che Alf Ross offre delle fonti del diritto, che intende «l’insieme dei fattori che influiscono sulla formulazione della norma che sta a fondamento della decisione del giudice, con la precisazione che questa influenza può variare: da quelle fonti che forniscono al giudice immediatamente una norma che egli non deve far altro che riconoscere valida, a quelle fonti che gli offrono soltanto idee ed ispirazioni dalle quali egli stesso deve trarre la norma di cui ha bisogno» (A. Ross, Diritto e giustizia, Torino 2001, p. 74). L’equiparazione tra legge e algoritmo è poi esplicitata da J. Nieva-Fenoll, op. cit., p. 114: «circa 4000 anni fa, gli esseri umani hanno deciso di stabilire le proprie regole di comportamento per iscritto, in modo da guidare principalmente i giudici, ma anche i cittadini. Si trattava, per così dire, del primo intervento artificiale su larga scala nella libertà di opinione dei giudici, al fine di controllarne, dirigerne o gestirne i criteri. Fu così che si incominciò a rendere il giudizio più prevedibile e, a tal fine, venne prevista una serie di criteri generali di quello che in quel momento era percepito come giusto e doveroso per una moltitudine di casi specifici. […] Si tratta, quindi, dell’esempio più arcaico di applicazione di un elemento artificiale - la legge scritta - al compito di giudicare».

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

716

Matteo Gabbiani

merito) deve essere applicata»64. Si dice poi che lo stesso processo è un algoritmo, «in quanto il singolo provvedimento giudiziale (PG) è determinato da una serie di operazioni predeterminate dalla legge, nascenti dalla composizione del fatto provato (FP) e il diritto per come interpretato (IP), ovvero PG = FP ∧ IP», dove l’unione ∧ «tra quello specifico fatto (con le relative prove) e quelle norme indicate determina il contenuto del provvedimento giudiziale». A sostegno, si rileva che l’interpretazione della legge secondo modelli matematici sarebbe richiesta dall’art. 3 Cost., che nello stabilire il principio di uguaglianza impone di trattare in modo uguale situazioni giuridiche uguali. Così, sulla base dell’art. 12 prel., si è addirittura giunti a formulare una vera e propria equazione matematica in grado di descrivere il procedimento interpretativo65 . Indipendentemente dalla bontà di una simile ricostruzione, il fatto che l’attività interpretativa sia procedimentalizzabile, e quindi sotto questo punto di vista algoritmica, non implica però che possa essere svolta dalla macchina. L’algoritmo può descrivere il percorso, ma non dice niente su quale sia l’attività che viene svolta in ciascuna delle tappe, perché, fuor di metafora, l’attività interpretativa è volta prima di tutto a ricavare significati e solo successivamente a mettere in relazione i significati così ricavati. Il concetto di decisione in ambito giuridico è diverso, infatti, da quello che si intende nel linguaggio comune: «non si riferisce alla sola attività di scelta tra diverse alternative già perfettamente chiare, ma comprende tutte le attività che vengono compiute da   L. Viola, op. cit., p. 34.   IP = (IL ± ILn) ∧ (IR ± IRn) - [IL = o => (AL ± ALn)] - [AL ≈ 0 => (AI ± AIn)], dove - IP è l’interpretazione di una certa disposizione di legge; - IL corrisponde all’interpretazione letterale ex art. 12 prel., comma 1, prima parte; - IR corrisponde all’interpretazione teleogica ex art. 12 prel., comma 1, seconda parte; - AL corrisponde all’interpretazione per analogia legis ex art. 12 prel., comma 2, prima parte; - AI corrisponde all’intepretazione per analogia iurs ex art. 12 prel., comma 2, seconda parte. In linguaggio «analogico», suonerebbe così: l’interpretazione della legge è uguale all’unione tra la somma algebrica delle possibili interpretazioni letterali (che se confliggono si annullano) e la somma algebrica delle possibili interpretazioni teleologiche (che parimenti se confliggono si annullano); ove manchi la possibilità dell’interpretazione letterale o teleologica perché manca in radice una precisa disposizione di legge, l’interpretazione sarà data dalla somma algebrica delle interpretazioni per analogia iuris; nel caso in cui l’interpretazione sia ancora dubbia, si può procedere alla somma algebrica delle interpretazioni per analogia iuris (v. L. Viola, op. loc. ult. cit.). 64 65

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il processo civile nel prisma dell’intelligenza artificiale

717

colui o da coloro che sono preposti alla definizione di un caso dal momento in cui ne prendono per la prima volta coscienza fino a quando lo definiscono»66; comprende cioè anche l’attività di ricostruzione delle possibili alternative sulla cui base impostare la decisione vera e propria67. L’intelligenza artificiale necessita per funzionare che le possibili alternative siano già sul piatto e pronte a essere calcolate68. Ora, il ragionamento giuridico è certamente sorretto dalla logica, è un ragionamento razionale. La logica, infatti, come ricorda Carnelutti69 è «la scienza o meglio l’arte del pensiero». Ma si può davvero sostenere che il momento logico-razionale esaurisca il campo del ragionamento giuridico e dell’interpretazione? Sempre Carnelutti ci avverte che la logica sillogistica, seppur non sbagliata, è comunque parziale, perché tiene fuori l’atto del iudicium, quello che definisce la «cellula del pensiero» e che rappresenta un prius rispetto al sillogismo, in quanto il primo «inventa» (nel senso che scopre) mentre il secondo soltanto giustifica, così come la motivazione della sentenza non scopre la disposizione ma la spiega70. Il giudizio, in fondo, si basa su un atto di fede, intesa non in senso «mistico» ma, nei termini in cui la pensa Paolo di Tarso nella lettera agli Ebrei (11,1), come argumentum non apparaentium, ossia quella capacità (tutta umana) di fondare ciò che non appare. Per interpretazione si allude proprio a questo: l’estrazione dalla lettera della legge di un significato che non è in vista, ma che deve 66   G. Di Federico, L’uso di strumenti elettronici nell’amministrazione della giustizia, in Riv. trim. dir. proc. civ., 1966, p. 626 ss., spec. nota 6. 67   V. M. Taruffo, Judicial Decisions and Artificial Intelligence, cit., p. 312: «the judicial decision can and should be considered as a set of choices among alternative hypotheses of possible decisions. The basic idea is that from the very beginning of a judicial process, and then all along its development, several possible “projects” or “drafts” of decision are submitted to the court by the parties, and some other may built up by the court itself». 68   Non a caso l’intelligenza artificiale ha assunto un ruolo sempre più centrale nel gioco degli scacchi (ormai celebre è la partita giocata da Gary Kasparov e dal motore scacchistico Deep Blue, sviluppato da IMB, che nel 1996 è riuscito a battere il campione russo divenendo così il primo calcolatore a riuscire nell’impresa di vincere una partita contro un Campione del mondo in carica). Negli scacchi, infatti, la scelta tra le possibili mosse da compiere si muove all’interno di un campo di alternative ben definite e non richiede uno sforzo ricostruttivo, ma solo una grande potenza di calcolo. 69   F. Carnelutti, Matematica e diritto, in Riv. dir. proc., 1951, p. 201 ss., spec. p. 202. 70   Il fatto che la motivazione segua e non preceda la decisione è anche la tesi dell’opera di Michele Taruffo La motivazione della sentenza, Milano 1976, spec. p. 118 ss, p. 319 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

718

Matteo Gabbiani

essere creduto e voluto compreso in essa, perché se tale significato fosse evidente non sarebbe interpretazione, ma semplice osservazione71. Per quanto quindi si possa tradurre in segni numerici le parole o gli stessi nessi di correlazione tra le parole, non è possibile rendere in espressioni matematiche, digeribili dall’algoritmo, quella «fede» che rende possibile passare dalla disposizione alla norma. Insomma, il fatto è che il giudizio e l’interpretazione sembrano retti, in primissima battuta, da una sorta di esprit de finesse (per dirla con Pascal) piuttosto che un esprit de géometrie, che interviene soltanto a posteriori per giustificare quell’intuizione non deduttiva72. Si deve poi considerare che il ragionamento giuridico non è lineare, ma circolare, perché presuppone un’interazione reciproca tra fatto e norma che non può essere sciolta in termini deduttivi. Se anche fosse possibili ricondurre a modelli matematici l’interpretazione della norma, la macchina non potrebbe individuare la norma da applicare al caso di specie senza mettere in correlazione il fatto con la norma e viceversa73. Non è tutto. Nonostante i sistemi di machine learning e di deep learning,

71   Così, la «fede» permette al giurista di accrescere l’«esistenza» della disposizione con la «possibilità» dell’»interpretazione»: «quando infatti, viene in giuoco l’intenzione del legislatore, si tratta di qualcosa che, di fronte a chi legge la formula, è nascosto nel regno del possibile: il dubbio intorno a ciò che il legislatore ha voluto dire si risolve, appunto, nella possibilità che abbia voluto dir questo oppure quello; né già da questo profilo elementare, l’esegesi si può compiere senza trarre qualcosa che da quel regno misterioso» (v. F. Carnelutti, op. cit., p. 209). Nel senso poi che «l’atto del giudicare non è peraltro (e per fortuna!) riconducibile semplicemente ad una mera catena di sillogismi», v. L. Persico, op. cit., p. 1731, nota 10). 72   In senso contrario all’idea che le decisioni umane siano guidate in prima battuta dall’intuito, il cognitivismo moderno oppone che, in realtà, non si debba distinguere tra pensiero intuitivo e pensiero deduttivo, ma tra «pensiero lento» e «pensiero veloce». Il «pensiero veloce», che sarebbe ciò che comunemente intendiamo con intuizione, funziona rapidamente, con poco sforzo e con nessun controllo volontario, mentre il «pensiero lento» è deputato allo svolgimento delle attività mentali che richiedono un certo grado di approfondimento cognitivo. L’utilizzo del primo in luogo del secondo sarebbe così soltanto un problema di «risparmio energetico», ma non costituirebbe lo specchio di due attività qualitativamente distinte (v. D. Kahneman, Pensieri lenti e pensieri veloci, Milano 2018, p. 18). 73   Se si guarda al concetto di fattispecie, si nota come «norma» e «fatto» costituiscono un binomio inseparabile e l’uno elemento acquista valore in funzione dell’altro. Il giurista conosce il fatto naturalistico attraverso la lente della norma generale e astratta, mentre lo studio della norma non può prescindere dal prendere in considerazione quei fatti che, posti sui confini esterni della fattispecie, concorrono a determinarne l’ambito applicativo.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il processo civile nel prisma dell’intelligenza artificiale

719

un’intelligenza artificiale risponderà sempre per come programmata, mancando della capacità, solo umana di valutazione delle variabili impreviste o imprevedibili74. Il machine e il deep learning possono al più permettere alla macchina di riscrivere in parte la sequenza logica dell’algoritmo, raffinandola, ma questa resterà sempre vincolata ai dati che le vengono forniti. Non le importerà se questi dati siano parziali o incompleti; la macchina risponderà in ogni caso sulla base di questi, senza essere in grado di avvertirne l’incompletezza o la erroneità delle risposte, anche se del tutto lapalissiana75. Anche il giudizio umano, almeno secondo le dottrine della precomprensione76, risulta (pre) condizionato dalle premesse da cui parte; tuttavia, mentre la macchina rimane passiva nel ricevere le informazioni, l’uomo ha sempre la facoltà di ricercarle attivamente e aggiustare in corsa il tiro nel momento in cui avverte che i risultati cui è giunto non siano soddisfacenti. L’incapacità di gestire l’imprevisto rende inoltre la macchina incapace di cogliere le peculiarità del caso concreto. Il giudice è sempre chiamato a decidere la singola controversia al netto di tutte le sue particolarità, quando l’algoritmo ragiona in termini statistico-probabilistici e non sempre a una percentuale di probabilità quantitativamente elevata deve corrispondere una decisione della vicenda che segua tale calcolo. L’intelligenza artificiale lavorerà sempre con un margine di accuratezza approssimato a un certo valore percentuale, senza che ci possa garantire che in quella percentuale rientra anche il fatto specificamente considerato77. In altre parole, l’analisi statistico-probabilistica   V. E. Battelli, op. cit., p. 286.   Sono note le «cantonate» prese dall’algoritmo che Facebook utilizza per censurare i contenuti pubblicati dagli utenti, che ha oscurato l’immagine di una bimba vietnamita che fuggiva bruciata dal napalm per il solo fatto che fosse nuda e che ha censurato la Dichiarazione di Indipendenza degli Stati Uniti, avendola qualificata come «discorso d’odio» a causa dei riferimenti denigratori in danno dei nativi americani. In entrambi i casi, l’algoritmo è caduto in errore perché i dati inseriti erano incompleti: la macchina ha considerato oscena l’immagine della bambina vietnamita perché non ne «conosceva» la rilevanza storica, come così non ha saputo contestualizzare la Dichiarazione di Indipendenza perché non «conosceva» il fatto che i commenti dispregiativi nei confronti dei nativi americani fossero comuni nel XIX secolo (v. J. Nieva-Fenoll, p. 11). 76  V.J. Esserl, Precomprensione e scelta del metodo nel processo di individuazione del diritto, Francoforte 1972. 77  V.M. Taruffo, La prova dei fatti giuridici, Milano 1992, p. 196 ss, secondo cui «ciò che il giudice deve fare utilizzando il dato statistico è colmare lo scarto che esiste tra la frequenza statistica, che di per sé non riguarda direttamente il fatto specifico da provare, e l’ipotesi su questo fatto specifico che è il vero oggetto dell’accertamento». 74 75

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

720

Matteo Gabbiani

potrà rivelarsi utile per valutare ex post un fenomeno macroscopico, ma non dice molto di per sé quando si tratta di assumere ex ante una decisione su un singolo caso78. La giurisprudenza costituzionale e di legittimità, del resto, hanno più volte ribadito il divieto di ogni automatismo decisionale. Si pensi al settore della responsabilità civile, e segnatamente al campo del danno alla persona, nel quale la Cassazione ha da sempre affermato il principio per il quale il risarcimento del danno deve essere parametrato alle peculiarità del caso concreto e della vicenda umana sottesa79, e ciò in un settore ove la tentazione dell’automatismo risarcitorio è alta stante il frequente ricorso alle c.d. tabelle per la liquidazione del danno80; o ancora alla sentenza n. 198 del 2018, con la quale la Corte Costituzionale ha dichiarato l’illegittimità della norma del d.lgs. n. 23/2015 (il decreto attuativo del c.d. Jobs Act) per aver determinato in maniera «forfettizzata e standardizzata» l’indennità spettante al lavoratore ingiustamente licenziato, privando il giudice del potere/dovere di valutare la misura dell’indennità alla luce delle specificità del singolo caso; oppure, in tema di diritto di famiglia, all’orientamento che afferma il principio per cui «la misura delle indennità dovute al coniuge e ai figli in caso di crisi matrimoniale devono essere determinate attraverso una valutazione globale di tutte le circostanze rilevanti e non sulla base di rigidi criteri matematici»81. Il fatto è che dietro ad ogni fatto giuridico risiede un fatto umano, una storia di vita vissuta di uomini, che solo gli uomini possono

78   Si pensi ad esempio alla distinzione che si pone, con riferimento alla prova del nesso di causalità, tra regole di causalità generale e regole di causalità particolare (sul punto, v. M. Taruffo, La prova scientifica nel processo civile, cit., p. 1004). 79   V. da ultimo Cass., Sez. III, 29 dicembre 2021, n. 41933, con riferimento al danno da morte anticipata, secondo cui «qualora la vittima di un danno alla salute sia deceduta, prima della conclusione del giudizio, per causa non ricollegabile alla menomazione risentita in conseguenza dell’illecito, l’ammontare del risarcimento spettante agli eredi del defunto iure successionis va parametrato alla durata effettiva della vita del danneggiato, e non a quella statisticamente probabile». 80   La Cassazione, pur quando raccomanda che la liquidazione avvenga seguendo le c.d. «tabelle a punti», fa comunque salva «la possibilità di applicare sull’importo finale dei correttivi in ragione della particolarità della situazione» o, quando l’eccezionalità del caso lo imponga, di liquidare direttamente il danno senza ricorrere al meccanismo tabellare (v., da ultimo, Cass., Sez. III, 21 aprile 2021, n. 10579). 81   V. Cass., Sez. Un., 11 luglio 2018, n. 18287.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il processo civile nel prisma dell’intelligenza artificiale

721

comprendere. «Ma questa è materia ribelle ai numeri e anche alle parole»82-83. Dato che l’intelligenza artificiale non può ricostruire in autonomia la norma per deduzione, si potrebbe pensare di farla lavorare per in-

82   F. Carnelutti, op. cit., p. 211 ss.: «A proposito di che sia ben chiaro che la norma giuridica in sé o un complesso di norme, un codice per esempio, è un pezzo del diritto, non tutto il diritto, cioè il diritto vivo, nella pienezza della sua vita. Questa vita si accende, come usiamo dire, quando le norme sono applicate o anche siano violate: nella conclusione d’un contratto o nella commissione di un delitto; e nella celebrazione di un processo soprattutto. Ma un contratto, un delitto, un processo sono degli uomini uno di fronte all’altro. Vuol dire che bisogna capire quegli uomini per capire il diritto». Lo ricorda anche Luigi Persico: «Ciò che, in tutta franchezza, sembra ora (e non voglio dire: sempre) irraggiungibile, irrealizzabile, perché tocca l’essenza stessa del diritto, è una equazione, un confronto tra una “causa” (cioè una completa fattispecie giudiziaria ben determinata e strutturata) ed un “circuito elettronico”. Una massima astratta, teorica, un enunciato logico sarà traducibile, bene o male, in informazioni cibernetiche, ma come codificare, come tradurre in schede perforate l’identità, l’unicità (e qui vorrei dire: ontologica) di una controversia giudiziaria, che non è soltanto un insieme di norme e di precedenti, di fatti e di prove, di deduzioni e di argomentazioni, che non è soltanto una informazione cibernetica complessa, dotata di un grado altissimo di improbabilità, ma è soprattutto una vicenda umana e spirituale, non scomponibile in distinti ed astratti bit d’informazione, nella sua sostanza non paragonabile con nessun fatto umano?» (L. Persico, op. cit., p. 1759). 83   Si potrebbe continuare all’infinito, ricordando come l’intelligenza artificiale non potrebbe operare nel caso in cui la legge preveda clausole generali come la buona fede, l’equità o il buon costume (v., fra i tanti, D. Dalfino, Creatività e creazione, prevedibilità e predittività, in Foro it., 2018, c. 385 ss., spec. c. 392); o che la decisione robotica non potrebbe assolvere all’obbligo di motivazione dei provvedimenti giurisdizionali (perché come abbiamo visto l’algoritmo è come una scatola nera: possiamo conoscere quello che entra e quello che esce ma non quello che accade all’intero) e consentire peraltro la possibilità di un suo controllo nei gradi di impugnazione (perché, in fondo, il diritto di impugnazione si sostanzia «in quel mettere a nudo la giustificazione che il giudice ha l’obbligo di esplicitare al fine di sorreggere la decisione»; v. E. Vincenti, Il «problema» del giudice robot, in A. Carleo, Decisione robotica, cit., p. 111 ss., spec. p. 121); o che ancora non sarebbe possibile riconoscere la natura dei fatti allegati, se costitutiva o impeditiva, e distribuire l’onere della prova quando la legge è muta al riguardo (v. D. Dalfino, op. loc. ult. cit.). Inoltre, queste forme di automatismo decisionale si pongono in controtendenza rispetto alla spinta anti-positivistica che negli ultimi decenni assegna l’interprete, e segnatamente il giudice, un ruolo centrale nel momento applicativo del diritto; spinta esercitata, da un lato, dalle moderne dottrine giustoricistiche (si pensi, su tutto, al lavoro di smantellamento della «ideologia della legge» portato avanti da Paolo Grossi) ed ermeneutiche, e, dall’altro, dall’inesorabile processo di erosione della legge, sia in senso verticale, per effetto dei principi costituzionali ed eurounionali, sia in senso orizzontale, perpetrata dallo stesso legislatore ordinario e dal fenomeno dell’inflazione normativa, che costringe l’interprete allo sforzo di ricomporre un mosaico le cui tessere non sempre risultano combacianti.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

722

Matteo Gabbiani

duzione a partire da un repertorio di decisioni già adottate, di lì ricavando la regula iuris da applicare al caso di specie. In effetti, è proprio questa la strada che si è inteso seguire con i c.d. «sistemi di giustizia predittiva», etichetta che ricomprende tutti quegli «strumenti basati su dati preesistenti e ricavati da banche dati ai fini della decisione del caso concreto in base a criterio statistico-matematici»84. La prospettiva è certamente più concreta rispetto a quella in cui la macchina si fa essa stessa e direttamente ex novo interprete delle norme di legge, ma non meno problematica. In primis, si pone la questione della selezione dei dati da immettere nel sistema e di come costruire quel repertorio sulla cui base l’algoritmo ricaverà la decisione giudiziale. Ci si deve domandare infatti quanto indietro nel tempo si debba risalire nella selezione delle pronunce da inserire nella banca dati, perché più risalenti saranno le sentenze selezionate tanto più completo quanto più superato sarà il repertorio da cui la macchina andrà ad attingere85, soprattutto se non si ha la possibilità di «educare» l’algoritmo a comporre i contrasti tra la giurisprudenza risalente e quella più recente; contrasti che la macchina dovrebbe saper risolvere anche in caso di conflitto tra orientamenti giurisprudenziali «contestuali», qualora manchino pronunce delle Sezioni Unite che li compongano (ma la macchina dovrebbe essere in grado di pesarne il valore, così come dovrebbe saper valutare il diverso peso specifico di una pronuncia del giudice di legittimità rispetto a quella del giudice di merito86, ammesso che si intenda inserire nel sistema anche la giurisprudenza dei tribunali e delle corti d’appello87). L’altro aspetto, decisivo, che deve essere considerato è il rapporto che si va a instaurare tra i sistemi di giustizia predittiva e il valore del precedente giudiziale. Sotto questo aspetto, non si è mancato di evidenziare come con meccanismi che fondino la decisione sulla base di precedenti decisioni si «violerebbe l’art. 101 Cost., subordinando il giudice non più solo alla legge, ma alla giurisprudenza» e che, più in generale, ciò «sarebbe incompatibile con la logica degli ordinamenti di 84   M.R. Covelli, Dall’informatizzazione della giustizia alla «decisione robotica»? Il giudice del merito, in A. Carleo, Decisione robotica, cit. p. 125 ss., spec. p. 131. 85   E. Battelli, op. cit., p. 302. 86  V.M. Luciani, op. cit., p. 86. 87   Secondo però E. Battelli, op. loc. ult. cit., il costo troppo elevato per l’inserimento nel repertorio di tutta la giurisprudenza di merito sarebbe irragionevole e non giustificabile.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il processo civile nel prisma dell’intelligenza artificiale

723

diritto romano, nei quali non può valere (ammesso che valga in quelli di common law) il famoso dictum holmesiano che «the prophecies of what the courts will do in fact, and nothing more pretentious, are what I mean by the law»88. Senza considerare che andrebbe completamente perduta ogni possibilità di un contributo da parte della dottrina alla formazione del c.d. diritto vivente89. Ma la circostanza probabilmente più determinante è che, in una tale prospettiva, l’ordinamento giuridico - lo notano tutti - risulterebbe inevitabilmente ingessato, incapace di dar sfogo a quel «dinamismo propulsivo» che lo muove dall’interno e che viene «alimentato dal mutamento dei fattori ambientali (socioeconomici) regolati»90; nessuna speranza allora di sentenze «rivoluzionarie», capaci di ribaltare orientamenti secolari, come Cass., Sez. un., 26 gennaio 1971, n. 174 (la c.d. sentenza Meroni)91 o Cass., Sez. un., 22 luglio 1999, n. 50092, che per la prima volta hanno riconosciuto la possibilità del risarcimento dei danni ex art. 2043 c.c. per la lesione, rispettivamente, del diritto di credito e dell’interesse legittimo. Si potrà dire che la giustizia predittiva realizza il valore della certezza del diritto, costantemente richiamato come la panacea di tutti i mali del nostro Paese. Ma dobbiamo fare chiarezza e sgombrare il campo da un equivoco di fondo: l’assoluta certezza del diritto rappresenta soltanto un modello cui tendere e che deve necessariamente bilanciarsi con l’esigenza che l’ordinamento giuridico ha di innovare sé stesso. Più che di «certezza del diritto» sembra allora più opportuno parlare, secondo l’ormai nota espressione che Natalino Irti riprende di Max Weber, di «calcolabilità giuridica»93, intesa come possibilità di calcolare, anche in termini

  M. Luciani, op. cit., p. 86.   Se anche si ritenesse di inserire nelle banche dati anche gli orientamenti dottrinali, sarebbe impossibile insegnare alla macchina a saggiare diversamente il peso specifico delle varie opinioni a causa della difficoltà di quantificare il grado di autorevolezza degli autori (per gli stessi motivi che abbiamo visto con riferimento alla scelta del consulente tecnico). Inoltre, la macchina dovrebbe essere in grado di valutare il rapporto tra il formante dottrinale e il formante giurisprudenziale nella determinazione del diritto vivente e il tema è allo stato ancora ampiamente dibattuto (per una ricostruzione dei vari orientamenti della giurisprudenza costituzionale sul punto, v. L. Salvato, Profili del «diritto vivente» nella giurisprudenza costituzionale, in Cortecostituzionale.it, 2015). 90   E. Vincenti, op. cit., p. 117. 91  In Giur. it., 1971, p. 680 ss. 92  In Giur. it., 2000, p. 1380 ss. 93   N. Irti, Per un dialogo sulla calcolabilità giuridica, in Riv. dir. proc., 2016, p. 921 ss. 88 89

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

724

Matteo Gabbiani

statistico-probabilistici, le possibili conseguenze sul piano giuridico delle scelte assunte. C’è differenza, quindi, tra giustizia «pre-vista» e giustizia «pre-detta»: il concetto di «predizione muove infatti dall’idea (illusoria) che il diritto possa essere «certo» e che quindi sia perfettamente possibile anticipare la decisione; la «previsione», invece, consente soltanto una «ragionevole aspettativa» di poter acquisire preventivamente la decisione e che può esprimersi anche in termini probabilistici94. 6. Sulla base di quanto detto, non sembrano esserci grossi margini per immaginare l’integrale sostituzione del giudice con la macchina. Tuttavia, l’intelligenza artificiale, e in particolare quei sistemi di giustizia predittiva che permettono un calcolo di probabilità sull’esito del giudizio, potrebbero svolgere un ruolo importante in funzione deflattiva del contezioso civile. Anche se non sempre vale la regola per cui tanto più è prevedibile l’esito di un processo tanto più è incentivata la composizione stragiudiziale della lite, dal momento che la soluzione bonaria ben potrebbe essere incentivata proprio dalla volontà di evitare il rischio di causa, il riscorso ad applicativi in grado di fornire alle parti una previsione circa le possibilità di successo (o di insuccesso) dell’iniziativa giudiziaria95 o la possibile durata del giudizio potrebbe avere 94  V. D. Dalfino, op. cit., p. 389: «La predittività sembra affacciarsi come attitudine e capacità dell’ordinamento superiore alla prevedibilità, perché maggiormente in grado di assicurare la certezza del diritto. Pre-dire starebbe a significare qualcosa di più di pre-vedere. Come se il “dire prima” comportasse una preventiva acquisizione del risultato, mentre il “vedere prima” ne consentisse soltanto una ragionevole aspettativa di acquisizione.» Inoltre, si consideri che è lo stesso principio di effettività della tutela giurisdizionale a richiedere che non si parli in termini assoluti di certezza del diritto, ma di «instabilità controllata»; infatti, il processo deve dare a quello specifico titolare della situazione soggettiva «tutto quello e proprio quello che il diritto sostanziale riconosce» (G. Chiovenda, Della azione nascente dal contratto preliminare, in Saggi di diritto processuale civile, Milano 1930, p. 101 ss.), visto che anche la Corte di cassazione considera il valore dell’effettività della tutele come il diritto «ad un rimedio adeguato al soddisfacimento del bisogno di tutela di quella unica e talvolta irripetibili situazione sostanziale di interesse giuridicamente tutelato» (Cass., Sez. III, 17 settembre 2013, n. 21255, in Foro it., 2013, c. 3121 ss.). Sul punto, v. L. Breggia, Prevedibilità, predittività e umanità nella soluzione, in Riv. trim. dir. proc. civ., 2019, p. 395 ss., spec. p. 396. 95   Tra tutti si segnala la piattaforma predictice.com, attivata in Francia dalla legge pur une République numérique del 7 ottobre 2016 n. 1321, che promette il calcolo delle probabilità della definizione della causa a partire da una baca dati contenente proncunce della Cassazione e delle Corti d’appello francesi (v. C. Morelli, Giustizia predittiva in Francia: online la prima piattaforma europea, in altalex.com, 3 aprile 2017). Merita, inoltre, di essere ricordato lo studio N. Aletras, D. Tsarapatsanis,

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il processo civile nel prisma dell’intelligenza artificiale

725

un grande impatto come strumento di deflazione del contenzioso civile; strumento che, peraltro, non sarebbe avvertito dalle parti come imposto dal momento che risulterebbe del tutto facoltativo e le stesse parti manterrebbero comunque la possibilità di ricorrere al processo in qualsiasi momento. In alternativa, e di più, si potrebbe immaginare la previsione di una sorta di «decisione predittiva» preventiva obbligatoria in determinate materie, sul modello della mediazione preventiva obbligatoria. Certo, si riproporrebbero le problematiche già sperimentate con riferimento all’introduzione della mediazione obbligatoria e all’impatto di tale previsione sul diritto d’azione garantito ex art. 24 Cost.96, ma in questo modo si supererebbero molti degli ostacoli che si presentano nel momento in cui si immagini di sostituire il giudice con la macchina, dal momento che il verdetto della macchina non si presenterebbe come decisione vera e propria, ma come mera indicazione che le parti sono tenute a prendere in considerazione prima di decidere se avviare o meno il contenzioso in sede giudiziaria97. E, come è stato suggerito, si potrebbe prevedere che la parte che decida di esercitare l’azione e veda poi rigettata la domanda negli stessi termini predetti dalla macchina venga condannata per responsabilità processuale aggravata ai sensi dell’art. 96 c.p.c. oppure al pagamento di un ulteriore importo a titolo di contributo unificato98. Né da scartare sarebbe la prospettiva in cui le parti, D. Preotiuc-Pietro et al., Predicting judical decisions of the European Court of Human Rights. a Natural Language Processing perspective, in PeerJ Computer Science, 2016, p. 1 ss., che espone i risultati di un’indagine svolta su 584 decisioni della Corte EDU, delle quali l’algoritmo è riuscito a prevedere l’esito nel 79% dei casi. 96   V., con specifico riferimento al tentativo obbligatorio in materia di conciliazione nelle controversie individuali di lavoro, Corte cost., 13 luglio 2000, n. 276, in Riv. dir. proc., 2000, p. 1219 ss. 97   In questo senso, un settore in cui l’intelligenza artificiale potrebbe trovare applicazione è quello dell’ABF e dell’ACF, quali strumenti di risoluzione stragiudiziale delle controversie a carattere para-giurisdizionale; anche in questi casi, infatti, le pronunce dell’Arbitro hanno, secondo l’opinione prevalente, soltanto valore orientativo e una «efficacia precognitrice degli orientamenti della giurisprudenza con cui le parti si dovrebbero confrontare se decidessero di rivolgersi al giudice statale (v., sul punto, I. Pagni, L’Arbitro Bancario Finanziario: natura e funzioni di uno strumento particolare per la risoluzione delle controversie, in M. Marinaro, R. Di Raimo, S. Pagliantini, M. Maggiolo, L. Balestra, G. Recinto e D. Maffeis (a cura di), Arbitro Bancario e Finanziario, Milano 2021, p. 3 ss., spec. 5). Considerata inoltre la natura spesso seriale delle controversie che vengono portate all’attenzione dell’ABF e dell’ACF, questi potrebbero in futuro rappresentare il terreno di elezione per l’utilizzo dell’intelligenza artificiale. 98  V.M. Maugeri, I robot e la possibile «prognosi» delle decisioni giudiziali, in A. Carleo (a cura di), Decisione robotica, cit., p. 159 ss., spec. p. 163; contra, F. Donati, © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

726

Matteo Gabbiani

nell’esercizio della loro autonomia negoziale, convengano di sottoporre la controversia alla decisione della macchina e di accettarne il responso, sul modello dell’arbitrato irrituale. Inoltre, l’Intelligenza artificiale può svolgere per il settore giustizia anche un’importante funzione organizzativa; potrebbe infatti trovare impiego nei meccanismi di riparto della competenza interna e rendere così ancor più oggettivo il sistema di assegnazione del giudice persona fisica alla singola causa che oggi è basato sul sistema tabellare, realizzando in termini più radicali il principio della predeterminazione del giudice naturale. In ambito strettamente processuale, si è ipotizzato uno spazio per l’impiego dell’intelligenza artificiale in funzione decisoria con riferimento al procedimento monitorio, nel quale il giudice si limita in fondo a verificare la presenza dei presupposti indicati agli artt. 633 ss. c.p.c., esaminando da un punto più formale che sostanziale le prove documentali presentate dal ricorrente99. Tuttavia, anche in questo settore residuano delle aree importanti lasciate alla discrezionalità del giudice, su tutte la decisione sulla provvisoria esecutività del decreto ingiuntivo che l’art. 642 c.p.c. prevede possa essere concessa in caso di «grave pregiudizio nel ritardo», eventualmente dietro cauzione. Piuttosto si potrebbe immaginare la previsione di un nuovo rito sommario «artificiale», dove si rimetta al convenuto la possibilità di instaurare un procedimento a cognizione piena sulla base di un rivisitato brocardo humanum differtur non aufertur100, con riferimento a giudizi in cui non si renda necessaria l’assunzione di prove costituende e che riguardino le c.d. small-claims, sul modello già diffuso in ambito stragiudiziale dell’Online Dispute Resolution101. op. cit., p. 432, secondo cui «una soluzione del genere non appare certamente condivisibile, perché limiterebbe la tutela dei diritti costituzionalmente garantita» 99   R. Bichi, op. cit., p. 1776. 100   Nel rispetto quindi del principio espresso nella Carta etica europea per l’uso dell’Intelligenza Artificiale nei sistemi giudiziari e nei relativi ambienti che richiede la garanzia dell’intervento umano nei processi decisionali automatizzati, oltre che il rispetto dei diritti fondamentali della persona, la non discriminazione, la qualità e sicurezza nel trattamento dei dati relativi alle decisioni giudiziarie e la trasparenza degli algoritmi impiegati. 101  Con Online Dispute Resolution (ODR) si fa riferimento alla piattaforma, messa a disposizione della Commissione europea e che trova espressa regolamentazione nel Regolamento 524/2013/UE, per la risoluzione stragiudiziale delle controversie di natura consumeristica (in particolare quelle nascenti da rapporti di e-commerce), che utilizzano da tempo sistemi esperti di intelligenza artificiale (sul punto, v. E. Longo, ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il processo civile nel prisma dell’intelligenza artificiale

727

La macchina può inoltre rivelarsi utile come «ausiliario» del giudice quando si tratta di questioni di puro calcolo, come la determinazione dell’indennità dovuta in caso di licenziamento o dell’importo dell’assegno in caso di separazione e divorzio o ancora delle percentuali di invalidità civile102 (tenendo in ogni caso fermo l’insegnamento della giurisprudenza sul divieto di automatismi decisionali103). E ancora, i sistemi di intelligenza artificiale potrebbero rivelarsi utili come «sistemi di allerta» che scattano in caso di inammissibilità del ricorso per cassazione ai sensi dell’art. 360-bis c.p.c. Certamente la macchina non potrebbe valutare la bontà degli argomenti offerti dalla parte che impugna per sollecitare un ripensamento da parte della Corte, ma, salva la valutazione del giudice sull’opportunità di dichiarare l’inammissibilità e confermare l’orientamento oppure di rimeditarlo, l’algoritmo potrebbe comunque segnalare la potenziale inammissibilità analizzando il provvedimento impugnato e il ricorso e confrontandoli con il proprio repertorio, supportando così le sezioni filtro nella individuazione, nel mare magnum dei ricorsi proposti, quelle impugnazioni per le quali ci possa essere un sospetto di inammissibilità104. Questa ultima considerazione ci offre il la per le ultime notazioni finali. La digitalizzazione, eliminando la variabile spazio-temporale nella circolazione dei dati, ha generato un fenomeno inflattivo del numero di informazioni disponibili e potenzialmente rilevanti che devono essere raccolte e processate. L’intelligenza artificiale può svolgere un ruolo determinante nell’aiutare l’uomo a trattare questa mole sterminata di dati. Si è evidenziato (riprendendo le parole dello storico israeliano Harari105) che, se fino a ora «si supponeva che gli uomini distillassero dai dati le informazioni, dalle informazioni la coscienza La giustizia nell’era digitale, in corso di pubblicazione in P. Costanzo, P. Magarò e L. Trucco (a cura di), Il diritto costituzionale e le sfide dell’innovazione tecnologica, Napoli 2022). 102   F. Donati, op. cit., p. 432. 103   V. in particolare supra nota 81, con riferimento alla determinazione dell’assegno divorzile. 104   In effetti, una prima forma di «automazione» di questo procedimento è già in corso: si pensi ai sistemi Certalex e Certanet, che offrono alla Corte di Cassazione uno spaccato, dinamico e diacronico, dell’insieme delle massime e degli orientamenti giurisprudenziali e consentono così una più immediata ricostruzione di quali principi di diritto siano o meno consolidati. Sul punto, v. E. Gabellini, Algoritmi decisionali e processo civile: limiti e prospettive, in Riv. trim. dir. proc. civ., 2022, p. 59 ss., spec. p. 75, nota 62). 105   Y.N. Harari, Homo Deus. Breve storia del futuro, Milano 2015, p. 560. © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

728

Matteo Gabbiani

e dalla conoscenza la saggezza», «oggi si tende ad invertire la tradizionale piramide del procedimento: gli umani non sarebbero più in grado di gestire gli immensi flussi di dati, compito che dovrebbe essere affidato agli algoritmi digitali, le cui capacità eccedono di gran lunga quello del cervello umano». Siamo entrati in una nuova era e con essa è arrivata una nuova religione: il «datismo»106 «Se una volta i dati erano un’entità passiva in attesa di elaborazione, ora è il profluvio di dati da a guidare le operazioni, a dire quale dovrà essere la prossima iniziativa». D’altro canto, «i dati sono ormai una risorsa indispensabile per tutte le nuove applicazioni a servizio della nostra società, tanto da essere considerati come il “petrolio” del nostro secolo»107. Non si tratta quindi, di sostituire la macchina all’uomo, quanto di fornire a quest’ultimo un supporto che lo aiuti a raccogliere e processare i dati (normativi, giurisprudenziali, dottrinali) che (in)formano l’ordinamento giuridico, permettendo all’interprete di decidere sulla base di tutte le informazioni rilevanti108. Emerge così l’idea di una funzione «maieutica» della macchina, «un novello Socrate che, senza sovrapporsi al suo interlocutore, ma anzi svolgendo la funzione di “levatrice”, lo aiuti a far uscire da sé la risposta più informata, efficiente, giusta in relazione al caso concreto»109. Attenzione però che questa nuova forma di intelligenza «aumentata»110 non si limiti a essere una «scorciatoia», un’occasione per illudersi di potersi permettere di smettere di pensare e di approfondire. La tecnologia dovrebbe servire a liberare l’uomo dalle necessità di svolgere compiti che non richiedono quell’apporto creativo che, da un lato, può essere offerto dall’uomo e, dall’altro, consente il «pieno sviluppo della persona umana» (per utilizzare un linguaggio caro alla nostra carta costituzionale). Ben diverso il caso delle professioni lega  L. Breggia, op. cit., spec. p. 396.   F. Donati, op. cit., p. 435. 108  V. Castelli e D. Piana, Giusto processo e intelligenza artificiale, Rimini 2019, p. 44: «Per quanto si vuole ad oggi la possibilità non è sostituire il magistrato o l’avvocato con le macchine o con una futuribile, ma ormai estramente vicina, intelligenza artificiale, ma avere un supporto ed un aiuto che consentano di avere più informazioni, di conoscere gli orientamenti esistenti, di capire l’impatto di una decisione. Ovvero di decidere disponendo di tutti gli elementi e con una cognizione incommensurabilmente superiore al passato». 109  A. Punzi, Judge in the machine. E se fossero le macchine a restituirci l’umanità del giudicare?, in A. Carleo (a cura di), Decisione robotica, cit., p. 319 ss., spec. p. 330. 110  E. Fabiani, op. cit., p. 76 ss. 106 107

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Il processo civile nel prisma dell’intelligenza artificiale

729

li, dove il lavoro è lavoro intellettuale «che ci dà soddisfazione e nel quale ci sentiamo realizzati» e non quello «delle “tre D” del dibattito anglosassone: dull, dirty, dangerous»111. L’intelligenza artificiale allora può e deve contribuire a liberarci dalla fatica del lavoro, ma non può e non deve liberarci dalla «fatica del pensare»112. L’estrema rapidità, quasi istantaneità, che caratterizza il mondo del digitale rischia inevitabilmente di comprimere invece ogni spazio di riflessione, perché ci tenta tutti nella sua comodità. Mi pare, questa, l’unica alternativa per scongiurare il pericolo di essere dominati dalla tecnologia e per riuscire invece a governarla, utilizzandola come prezioso alleato113; per assumere l’immediatezza come un valore-mezzo e non un valore-fine; per non scambiare l’informazione con la conoscenza114.

  M. Luciani, op. cit., p. 65; v. E. Battelli, op. cit., p. 287, nota 16.   «È ormai riconosciuto come uno de’ caratteri della vita moderna che essa tende a procurare agli uomini sempre maggiori comodità, che vuol poi dire a risparmiargli sempre più la fatica. Tra le quali fatiche, da cui ci si va disabituando, è la fatica del pensare» (F. Carnelutti, Giurisprudenza consolidata (ovvero della comodità del giudicare), in Riv. dir. proc., 1949, p. 41 ss., spec. p. 41). 113  Secondo R. Bichi, op. cit., p.  1173, il pensiero filosofico del nostro tempo implicherebbe che da strumento di gestione degli atti del processo e di ausilio nella ricerca di informazioni l’intelligenza artificiale verrebbe a porsi quali strumento (e fine) della decisione, cui deve adattarsi la condotta dei soggetti del processo, con un ribaltamento del rapporto tra mezzi e scopi. Vale notare, invece, che il destino alla dominazione da parte della tecnica messo in luce dalla filosofia contemporanea (v. su tutti E. Severino e N. Irti, Dialogo su diritto e tecnica, Bari 2001) non implica la dominazione da parte della tecnologia (che in quanto «oggetto» resta comunque «strumento») ma dalla logica sottesa alla tecnica guidata dalla scienza moderna, come massima espressione della volontà di potenza. 114  V. M. Fabiani, Per la qualità delle conoscenze giuridiche, tra nostalgia e tutela dei diritti, in Corr. giur., 2016, p. 511 ss. 111 112

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

Lucilla Galanti*

Considerazioni sulla tutela processuale post mortem dei dati personali

Sommario: 1. Introduzione: riferimenti normativi e interessi sottesi al processo nella tutela dei dati personali post mortem. – 2. Accesso ai dati personali del defunto: oggetto della domanda e legittimazione ad agire. – 3. (Segue). La mancanza di condizioni ostative all’esercizio del diritto di accesso. – 4. Accesso ai dati di soggetti terzi nelle controversie successorie di carattere patrimoniale. – 5. (Segue). Bilanciamento tra diritto di azione e tutela dei dati personali. – 6. Limiti al bilanciamento con il diritto di azione. – 7. Alcune considerazioni finali.

1. Per esaminare quali siano, in una prospettiva processuale, le forme di tutela dei dati personali post mortem, si deve partire dalle questioni che la protezione dell’«identità digitale» e la circolazione dell’«eredità digitale» pongono sul versante sostanziale; questioni che, come sempre accade, si riflettono anche nel processo. Di identità si parla infatti ormai al plurale, comprendendo, tra le identità rilevanti per l’ordinamento, anche quella digitale, che l’individuo può assumere nella rete1; allo stesso modo, al patrimonio tradizio-

* Ricercatrice t.d. di Diritto processuale civile nell’Università di Firenze.   Sul punto, e nel senso che l’identità sia ormai «diventata un concetto liquido», v. G. Alpa, L’identità digitale e la tutela della persona. Spunti di riflessione, in Contr. Impr., 2017, p. 723 ss.; cfr. G. Alpa, Code is law: il bilanciamento dei valori e il ruolo del diritto, ivi, 2021, p. 385, ove si mette in rilievo come l’informatica abbia trasformato l’individuo, affiancando alla sua dimensione corporea quella «virtuale». Quando la «persona diviene digitale» «si entra nella dimensione del post-umano», ed emergono, conseguentemente, nuove questioni di tutela dei diritti: sul punto, v. S. Rodotà, Antropologia dell’homo dignus, Lezione tenuta nell’Aula Magna dell’Università di Macerata il 6 ottobre 2010 in occasione del conferimento della Laurea honoris causa, reperibile in civilistica.com; ne deriva la necessità di una indagine sui diritti della persona nella rete, legati all’identità e alla «cittadinanza digitale»: Id., Il mondo nella rete. Quali i diritti, quali i vincoli, Roma-Bari, 2014, p. 13 ss. e p. 33 ss.; nonché Id., Uomini e macchine e Una rete per i diritti, entrambi in Il diritto di avere diritti, Roma-Bari, 2020, rist., p.  334 ss. e 398 ss.; cfr. S. Rodotà, Il nuovo habeas corpus: la persona costituzionalizzata e la sua autodeterminazione, in S. Rodotà e M. Tallacchini (a cura di), Ambito e fonti del biodiritto, in Tratt. biodiritto Rodotà e Zatti, Milano 2010 1

732

Lucilla Galanti

nale si accosta quello esistente online, inteso quale complesso di beni immateriali che possono trasferirsi in via successoria2. Il fenomeno di «dissociazione» tra identità e patrimoni all’individuo, dentro e fuori dalla rete, si perpetua dopo la sua morte3, determinando così il problema di valutare quali forme di tutela processuale risultino ammissibili per la sua eredità digitale, intesa nel senso più ampio, e comprensivo, cioè, anche dei suoi dati personali; rispetto ai quali, in adesione alla prospettiva tradizionale, il carattere strettamente personale comporterebbe l’intrasmissibilità dei diritti che vi afferiscono4. p. 169 ss., in part. p. 218; nonchè già S. Rodotà, Persona, riservatezza, identità. Prime note sistematiche sulla protezione dei dati personali, in Riv. crit. dir. priv., 1997, p.  583 ss. e S. Rodotà, La «privacy» tra individuo e collettività, in Pol. dir., 1974, p. 552. Sulla digital person e sulle relative forme di tutela, v. R. Clarke, The digital person and its application to data surveillance, in Information Society, 1994, p. 77 ss.; D.J. Solove, The Digital Person. Technology and Privacy in the Information Age, New York-London 2004, p. 20 ss.; G. Resta, Identità personale e identità digitale, in Dir. inf., 2007, p. 516 ss.; G. Finocchiaro, La protezione dei dati personali in Italia. Regolamento UE n. 2016/679 e d.lgs. 10 agosto 2018, n. 101, Bologna 2019, p. 469 ss.; G. Finocchiaro, Privacy e protezione dei dati personali. Disciplina e strumenti operativi, Bologna 2012, p. 18 ss.; G. Finocchiaro, Intelligenza Artificiale e protezione dei dati personali, in Giur. it., 2019, p. 1670 ss.; e, sul ruolo «ordinante» del giurista di fronte al c.d. trans-umanismo e alla livellazione della persona, v. C. Consolo, Un approccio al Maestro in dialogo con l’Allievo: Rodotà laico profeta giuridico del domani tecnologico, (forse) non apocalittico, in A. Somma, A. Fusaro, G. Conte e V. Zeno-Zencovich (a cura di), Dialoghi con Guido Alpa. Un volume offerto in occasione del suo LXXI compleanno, Roma 2018, p. 105. 2   Si mette in rilievo che «patrimonio digitale» sia la traduzione preferibile per l’espressione «digital assets», che può essere ripartito in due categorie, la prima delle quali «comprende ogni account in rete protetto da credenziali», mentre «la seconda include i file», rispetto alle quali «il valore dei beni può essere puramente personale-affetivo […] o, invece, economicamente rilevante»: v. M. Cinque, La successione nel “patrimonio digitale”: prime considerazioni, in Nuova giur. civ. comm., 2012, pp. 645-646. 3   Il tema è, infatti, quello della «tendenziale perennità dei dati e delle informazioni immessi nelle reti», producendo «una condizione di dissociazione tra la persona “reale” e il suo doppio “virtuale”»: G. Resta, La ‘morte’ digitale, in Dir. inf., 2014, p. 892. Dopo la morte tale «dissociazione» viene amplificata, proprio in quanto «per l’individuo in vita, la dissociazione interessa la sua identità, che si disarticola in una pluralità di identità digitali, tra loro distinte», ma «per il defunto, alla scomparsa del corpo fisico non corrisponde la scomparsa di quello “elettronico”, il quale, anzi, gli sopravvive»: A. Vigorito, La ‘persistenza’ postmortale dei diritti sui dati personali: il caso Apple, in Dir. inf., 2021, p. 36. 4   Non si dubita infatti che si estinguano i diritti non patrimoniali inerenti alla persona, secondo il brocardo actio personalis moritur cum persona, v. F. Galgano, Diritto privato, XIII ed., Padova 2006, p.  855; L. Ferri, Successioni in generale, in ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Considerazioni sulla tutela processuale post mortem dei dati personali

733

Le concrete declinazioni che la tutela processuale può assumere devono quindi innanzitutto confrontarsi con la natura del diritto per il quale si intende agire in giudizio – il diritto personalissimo del defunto, nel quale in qualche forma si «succeda», o un diritto «nuovo», che sorga a séguito della morte in capo ai suoi eredi5 – e dell’interesse che si pone alla base dell’azione. Comm. cod. civ. Scialoja-Branca, Bologna-Roma 19973, p. 32; A. Cicu, Le successioni per causa di morte, Parte generale, in Tratt. dir. civ. comm. Cicu-Messineo, Milano 1961, p. 34. Mentre il termine eredità «sul piano tecnico giuridico fa riferimento ad un processo di circolazione dei diritti, e dei beni che ne sono oggetto, quali componenti di un patrimonio che — in atto o in potenza — è suscettibile di valutazione economica», e «ciò che si trasferisce agli eredi è tutto quanto sia configurabile come «oggetto» dei diritti del de cuius, restando escluso tutto quanto si possa invece qualificare come un quid inseparabile da lui, ivi inclusi i rapporti giuridici strettamente legati alla sua persona», l’eredità digitale «fuoriesce concettualmente» dai confini dell’eredità tradizionale, ponendo il problema di quale sia «la sorte dei dati personali generati dall’attività on line del de cuius», e, allo stesso modo, di cosa possa trasferirsi mortis causa, in mancanza di atti dispositivi: C. Camardi, L’eredità digitale. Tra reale e virtuale, in Dir. Inf., 2018, p. 65 ss. Merita però sottolineare che non si è mancato di tentare una revisione del principio di intrasmissibilità dei diritti personali; in tal senso, si v. A. Zoppini, Le «nuove» proprietà nella trasmissione ereditaria della ricchezza (note a margine della teoria dei beni), in Riv. dir. civ., 2000, p. 238; cfr. A. Zaccaria, Diritti extrapatrimoniali e successioni. Dall’unità al pluralismo nelle trasmissioni per causa di morte, Padova 1988, p. 23 ss. 5   Si tratta di concetti di tutt’altro che agevole definizione. Si mette in rilievo come l’intrasmissibilità si ricolleghi al «rapporto di inerenza» tra il diritto e la persona, qualificando come intrasmissibili i diritti «personalissimi» che sono «connaturati con la essenza stessa della persona»: L. Ferrara, Istituzioni di diritto privato, I, Torino 1939, p.  140. Ciò che, però, impone di qualificare i diritti «personalissimi»: definizione che viene contrapposta a quella di «diritti sulla propria persona» – criticata in quanto «la persona non può essere soggetto e oggetto allo stesso tempo» – per definire i diritti della persona caratterizzati dal carattere «non-patrimoniale»: F. Messineo, Manuale di diritto civile e commerciale, Milano 19528, II.1, pp. 4-5. Si tratta di diritti che presentano un «nesso strettissimo, da potersi dire organico» con la persona, che hanno un oggetto «non esteriore», e che si caratterizzano, appunto, per la loro intrasmissibilità: A. De Cupis, I diritti della personalità, Milano 1950, pp. 23 e 40. Poiché però vantano un collegamento eventuale con i diritti patrimoniali, potendo cioè essere «fonte di beni patrimoniali» (A. De Cupis, Il valore economico della persona umana, in Studi in onore di Francesco Messineo per il suo XXXV anno d’insegnamento, Milano 1959, p. 108), si pone il problema ulteriore del rapporto tra l’originario diritto personalissimo e quello di carattere patrimoniale che dal medesimo sia originato. Infatti, se alla morte del soggetto si estinguono i diritti personali, «strettamente inerenti alla persona del loro titolare», si trasmettono però agli eredi i diritti derivanti dalla loro lesione, dovendosi ulteriormente distinguere la trasmissione dei diritti sorti in vita della persona da quelli che sorgono a causa della sua morte, acquisiti iure proprio e non iure successionis, nonché i casi ancora diversi in cui, invece, ai congiunti è attribuita la legittimazione a esercitare un «diritto riconosciuto a tutela del pro© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

734

Lucilla Galanti

Rispetto a quest’ultimo profilo, merita subito sottolineare che è duplice la funzione alla quale può assolvere il processo, nell’àmbito latamente successorio in cui si colloca. A venire in rilievo può essere una domanda propriamente rivolta a tutelare la memoria del defunto, nel perseguimento di un interesse non patrimoniale; e di carattere non patrimoniale è l’interesse che sorregge l’azione anche qualora si intenda accedere ai dati personali del defunto per raccogliere informazioni di valore essenzialmente affettivo. In tale contesto, l’accesso ai dati personali rappresenta la «vera» utilità finale che si intende tutelare tramite il processo. La domanda di accesso ai dati personali può però rappresentare anche soltanto una «tutela-mezzo» per ottenere una diversa utilità; il reale bene della vita che si persegue, di natura essenzialmente patrimoniale, è raggiungibile solo subordinatamente all’accesso ai dati, che costituisce allora un bene «mediato». In tal caso, i dati che si aspira a conoscere possono riguardare il defunto, ma anche soggetti diversi; come avviene di fronte alla (pretesa) violazione della quota di legittima realizzata dal de cuius quando ancora in vita, tramite atti di disposizione patrimoniale verso terzi beneficiari, sicché l’accesso ai dati di questi ultimi si pone in funzione di una successiva azione di riduzione da parte dei legittimari. Da un punto di vista normativo, rispetto al primo profilo vengono in rilievo disposizioni di diritto interno; il 27° considerando del Regolamento (UE) del 27 aprile 2016 n. 6796, infatti, esclude dal suo àmbito di applicazione i «dati personali delle persone decedute», precisando che gli Stati membri possono dettare norme riguardanti il relativo trattamento7. Fino al 2018 la previsione di riferimento si rinveniva nell’art. prio sentimento familiare»: F. Galgano, Diritto civile e commerciale, Padova, 20044, pp. 149-150, ed ivi anche alle note 1 e 2. 6   Regolamento del Parlamento Europeo e del Consiglio relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (Regolamento generale sulla protezione dei dati). 7   La giurisprudenza non manca di precisare che ci si trova al cospetto di una normativa di diritto interno, dato che il Regolamento non si applica ai dati personali di persone decedute: v. Trib. Milano, Sez. I, 9 febbraio 2021, est. M. Flamini; Trib. Roma, 10 febbraio 2022, est. M. Luparelli, entrambe in Quotidianogiuridico.it. Come mette in rilievo G. Resta, La successione nei rapporti digitali e la tutela post-mortale dei dati personali, in Contr. Impr., 2019, p. 96, sulla base del considerando 27 del GDPR, a livello nazionale sono state accolte diverse soluzioni, sulla base di tre distinti modelli: l’esclusione dell’applicabilità della normativa in materia di tutela dei dati personali alle informazioni relative a defunti; la mancanza di esplicite disposizioni normative; e ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Considerazioni sulla tutela processuale post mortem dei dati personali

735

9, comma 3, del d. lg. 30 giugno 2003, n. 1968, in ragione del quale i diritti sui dati personali che si riferissero a persone decedute potevano essere esercitati da chi avesse un interesse proprio, oppure agisse a tutela dell’interessato o per ragioni familiari meritevoli di protezione. La norma, abrogata dal d. lg. 10 agosto 2018, n. 101, è stata trasposta e integrata all’interno dell’art. 2-terdecies, specificamente intitolato ai «Diritti riguardanti le persone decedute», che ne ha ripreso e completato la disciplina. Il comma 1 stabilisce in termini del tutto analoghi alla pregressa disposizione che, quando i diritti dell’interessato previsti dal Regolamento si riferiscono ai dati personali concernenti persone decedute9, possono essere esercitati da chi ha un interesse proprio, o agisce a tutela dell’interessato, in qualità di suo mandatario, oppure per ragioni familiari meritevoli di protezione10. La norma prevede inoltre oggi che l’interessato può vietare l’esercizio di tali diritti11, ma il diviel’estensione della tutela, «attribuendo ai congiunti, agli eredi o ad altri soggetti il potere di esercitare i diritti dell’interessato dopo la sua morte», come accaduto in Italia. 8   E, prima ancora, l’art. 13, comma 3, della legge 31 dicembre 1996, n. 675, ove si prevedeva che i diritti riferiti ai dati personali concernenti persone decedute potessero essere esercitati da chiunque vi avesse interesse. 9   La norma rinvia ai diritti previsti agli artt. 15-22 del Regolamento, e cioè al diritto di accesso (art. 15), rettifica (art. 16), cancellazione (diritto all’oblio, art. 17), limitazione di trattamento (art. 18), con il correlativo obbligo, in capo al titolare del trattamento, di notifica in caso di rettifica o cancellazione dei dati personali o limitazione del trattamento (art. 19), e, ancora, il diritto alla portabilità dei dati (art. 20), di opposizione (art. 21), a non essere sottoposto a processi decisionali automatizzati, compresa la profilazione (art. 22). 10   La disposizione, infatti, «si colloca in un’evidente linea di continuità […] con la disciplina previgente», senza però omettere profili di novità, da ravvisare, innanzitutto, «nell’estensione del novero dei diritti suscettibili di esercizio post-mortale», includendo anche la portabilità dei dati; e, poi, «il riferimento, che era assente nella disposizione previgente, al “mandatario” quale soggetto legittimato all’esercizio dei diritti dell’interessato», prendendo in tal modo «atto dell’esistenza di una prassi ormai consolidata nel campo dei rapporti online, in ragione della quale i soggetti “affidano”, generalmente attraverso apposite piattaforme, o sezioni dedicate all’interno dei maggiori social networks, le proprie credenziali di accesso, oppure l’intera gestione della propria identità digitale a soggetti di propria fiducia»: G. Resta, La successione nei rapporti digitali, cit., pp. 99-101. 11   Come precisano i commi successivi, l’esercizio di tali diritti non è ammesso nei casi previsti dalla legge, e, inoltre, quando, limitatamente all’offerta diretta di servizi della società dell’informazione, l’interessato lo ha espressamente vietato con dichiarazione scritta presentata al titolare del trattamento o a quest’ultimo comunicata (comma 2); la volontà deve risultare in modo non equivoco ed essere specifica, libera, informata; può riguardare anche soltanto l’esercizio di alcuni diritti ed è in ogni momento revocabile e modificabile (comma 4). Si tratta di previsioni nuove, che perseguono «l’obiettivo di valorizzare l’autonomia privata, e segnatamente l’autode© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

736

Lucilla Galanti

to non può produrre effetti pregiudizievoli per l’esercizio da parte dei terzi di diritti patrimoniali che derivano dalla morte dell’interessato nonché del diritto di difendere in giudizio i propri interessi12. Quando invece a venire in rilievo siano i dati di soggetti terzi rispetto al defunto, una norma espressa manca, e allora, come si vedrà, si deve operare un bilanciamento tra diritti: quello alla tutela dei dati personali da un lato, e quello ad agire in giudizio dall’altro. In entrambe le accezioni di cui si è dato conto, la tutela post mortem dei dati personali rappresenta un tema che, nei suoi lineamenti processuali, appare certamente nuovo13, e che va costruendosi sulla base del formante giurisprudenziale; è quindi sulla scorta della casistica posta all’attenzione della giurisprudenza che si tenterà una ricostruzione dei profili rilevanti. 2. Rispetto alla domanda di accesso ai dati personali del defunto, la causa «pilota» è senza dubbio quella decisa dal Tribunale di Milano all’inizio del 202114. Al di là delle questioni «occasionali» che il Tribunale si terminazione informativa della persona, bilanciandola con l’interesse dei successori e dei terzi», e imprimendo «alla volontà del soggetto un contenuto prevalentemente negativo»: G. Resta, La successione nei rapporti digitali, cit., pp. 100-103. 12   Così prevede il comma 5. 13   Con riferimento ai profili sostanziali, maggiormente approfonditi in dottrina, si rimanda, invece, ai riferimenti contenuti alla nota 1. 14   Si tratta della già citata pronuncia di Trib. Milano, Sez. I, 9 febbraio 2021, est. M. Flamini, oggetto di attenzione da parte di numerosi commentatori (G. Resta, L’accesso post mortem ai dati personali: il caso Apple, in Nuova giur. civ. comm., 2021, II, p. 678 ss.; S. Bonetti, Dati personali e tutela post mortem nel novellato Codice privacy: prime applicazioni, ivi, I, p. 558 ss.; A. Maniaci e A. d’Arminio Monforte, La prima decisione italiana in tema di “eredità digitale”: quale tutela post mortem dei dati personali?, in Corr. Giur., 2021, p. 661 ss.; F. Mastroberardino, L’accesso agli account informatici degli utenti defunti: una prima, parziale, tutela, in Fam. Dir., 2021, p. 628 ss.; A. Vigorito, La ‘persistenza’ postmortale, cit., p. 36 ss.), e poi ripresa dalla giurisprudenza successiva (così Trib. Roma, 10 febbraio 2022, cit.). Si trattava della controversia instaurata in via cautelare contro la Apple dai genitori di un ragazzo deceduto al fine di recuperare i suoi dati contenuti sull’iCloud. Come si legge nel provvedimento, i ricorrenti, affranti «dal dolore per la tragica perdita del loro unico figlio, avevano espresso la volontà di voler recuperare i dati contenuti all’interno del telefono», anch’esso distrutto a seguito dell’incidente nel quale il giovane aveva perso la vita, per recuperare, in particolare, oltre alle fotografie e ai video registrati nell’ultimo periodo della sua vita, le ricette dallo stesso sperimentate nella sua professione di chef, per realizzare un libro o un simile progetto dedicato alla sua memoria. Merita sottolineare che, a livello internazionale, sono numerose le controversie che hanno affrontato profili simili; basti pensare al conflitto emerso sulla possibilità di accedere ai dati contenuti nell’account Facebook della modella Sahar Daftary, a ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Considerazioni sulla tutela processuale post mortem dei dati personali

737

è trovato a dirimere, con riferimento alla specifica forma cautelare della tutela richiesta15, il caso offre lo spunto per considerazioni di più ampia portata, volte a esaminare i termini in cui una tutela processuale possa essere concessa; a séguito della morte del soggetto, infatti, si deve valutare quale sorte abbiano i suoi dati, che rilevanza giuridica conservino e chi possa esercitare la relativa azione in giudizio, nella necessità di coordinare il carattere personalissimo dei diritti sui dati personali con l’individuazione di un soggetto che, dopo la morte dell’interessato, possa farli valere. Con riferimento al suo oggetto, la domanda con cui si chiede di accedere ai dati post mortem può, in astratto, ricostruirsi come domanda con cui si fa valere un diritto del defunto, oppure un diritto divenuto proprio iure successionis16; accezioni che, entrambe, in una dimensione processuale, non sono prive di criticità. Nella prima prospettiva, infatti, la domanseguito della sua morte improvvisa della stessa (caso N. C 12 – 80171 LHK (PSG) N. D. California, 20 settembre 2012); alla domanda di oscuramento dell’account Facebook della figlia, giornalista morta prematuramente, avanzata della madre dopo che l’account era stato unilateralmente trasformato in «commemorativo» (Trib. Campo Grande Juiz. Esp. Cent. 1 vara, 2 marzo 2013); alla richiesta di accesso alla posta elettronica Yahoo del figlio, marine americano morto in un attacco terroristico in Iraq, da parte dei genitori (Probate Court Oakland Michigan – Mich. Prob. Ct. 2005, no. 2005 – 296, 651 – DE), sui quali si rimanda a G. Resta, La ‘morte’ digitale, cit., p. 895 ss.; e così, pure, alla richiesta di accesso all’account Facebook presentata dai genitori di una ragazza minorenne deceduta in un incidente, giunta alla Suprema Corte tedesca (BGH, 12 luglio 2018, III ZR 183/17), su cui v. F. Wusthöf, Germany’s Supreme Court Rules in Favour of “Digital Inheritance”, in EuCML, 2018, p. 205 ss.; G. Resta, Personal data and digital assets after death: a comparative law perspective on the BGH Facebook ruling, ivi, p. 201 ss.; R. Mattera, La successione nell’account digitale. Il caso tedesco, in Nuova giur. civ. comm., 2019, I, p. 703 ss. Per una compiuta ricostruzione della pregressa casistica sulla tutela dei dati personali post mortem, v. S. Landini, Identità digitale tra tutela della persona e proprietà intellettuale, in Dir. ind., 2017, p. 188. 15   Nel caso di specie era stata fatta valere una domanda cautelare ai sensi dell’art. 700 c.p.c., che nel suo contenuto atipico ha consentito al Tribunale di emettere un provvedimento non rigidamente definito, condannando la Apple a «fornire assistenza […] nel recupero dei dati» all’interno della «procedura denominata “trasferimento” volta a consentire ai ricorrenti l’acquisizione delle credenziali d’accesso all’ID Apple». Quanto alla valutazione dei presupposti per l’emanazione del cautelare, il Tribunale ha rinvenuto il fumus boni iuris in riferimento alle «ragioni familiari meritevoli di protezione» previste dall’art. 2-terdecies. Rispetto al periculum in mora, invece, il pregiudizio grave ed irreparabile si è ritenuto sussistente in re ipsa considerato che, dopo un periodo di inattività dell’account iCloud, i relativi contenuti sarebbero stati automaticamente distrutti. Infine, viene evidenziato il nesso di strumentalità «attenuata» rispetto alla tutela di merito, da qualificare, inevitabilmente, come tutela «sostitutiva» avente ad oggetto il risarcimento dei danni subiti. 16   Sulla contrapposizione tra il carattere personalissimo del diritto, che si collega © Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

738

Lucilla Galanti

da verrebbe a riguardare i dati personali di un soggetto che, proprio in quanto defunto, non è più un soggetto di diritto giuridicamente rilevante per l’ordinamento; riguardando diritti di «nessuno», l’azione si porrebbe quindi, almeno apparentemente, al di fuori del perimetro di una tutela ammissibile. Per poter accedere alla seconda ricostruzione, invece, si dovrebbe ritenere che i diritti sui dati personali siano trasmissibili; tuttavia, poiché alla morte del soggetto non si trasmettono i diritti strettamente personali, che inevitabilmente si estinguono, si dovrebbe inquadrare la tutela ai dati personali alla stregua di un diritto non puramente personale, oppure individuare un correttivo espresso supponendo che, in ogni caso, la trasmissibilità sia disposta ex lege17. A tali inquadramenti se ne può contrapporre un altro, fondato sulla nascita di un diritto «nuovo» in capo ai successori; i quali, dunque, agirebbero in giudizio pur sempre per un diritto «proprio», ma sorto ex novo, a séguito della morte del de cuius18. Il dettato normativo, e in particolare il menzionato art. 2-terdecies, non offre una soluzione univoca; nella misura in cui prevede che i diritti relativi ai dati personali dell’interessato possano essere esercitati anche se riguardano persone decedute, prescrive infatti la persistenza di un diritto, ma non chiarisce se si tratti dello stesso diritto del defunto, del quale sia così stabilita la trasmissibilità, se debba intendersi che la legge ne consenta eccezionalmente la tutela come diritto apparalla sua intrasmissibilità, e l’individuazione di un diritto nuovo, che si acquisti iure proprio, si rimanda ai riferimenti alla nota 5. 17  Sul carattere personale e indisponibile dei diritti dati personali, v. G. Alpa, Identità, cit., p. 725 ss. Si ripropongono, quindi, i problemi legati alla non trasmissibilità dei dati personali, sui quali si rinvia alla nota 4. Si mette infatti in rilievo che l’approccio seguito nel nostro ordinamento è improntato ad un modello «personalistico», diversamente da quello «successorio» di altri ordinamenti: v. A. Vigorito, La ‘persistenza’ postmortale, cit., p. 44. In àmbito tedesco, i diritti della personalità del defunto si trovano attribuiti «attraverso una sorta di investitura fiduciaria, ai soggetti che a lui succedono, chiamati a raccogliere un’eredità che non è soltanto patrimoniale»: P. Rescigno, L’individuo e la comunità familiare, in Persona e comunità, Padova 1987, p. 246. I sistemi di area germanica, infatti, «propendono per una legittimazione fiduciaria dei congiunti, che si spiega in ragione di una Fortwirkung dei diritti della persona»: G. Resta, La successione, cit., 95; cfr. G. Resta, L’oggetto della successione: i diritti della personalità, in Tratt. dir. successioni e donazioni Bonilini, La successione ereditaria, Milano 2008, p. 729 ss. 18   I sistemi di matrice francese, e in particolare il nostro ordinamento, opterebbero infatti «per un meccanismo di acquisto iure proprio di un diritto nuovo, fondato sul legame familiare con lo scomparso»: G. Resta, La successione, cit., p. 95. Nel senso che, proprio in considerazione della sua «natura strettamente personale», quello per il quale si agisce costituisce «un diritto iure proprio, e non iure successionis», v. anche A. Maniaci e A. d’Arminio Monforte, La prima decisione italiana, cit., p. 666. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Considerazioni sulla tutela processuale post mortem dei dati personali

739

tenente ad un soggetto defunto, oppure, ancora se si tratti di un diritto diverso, sia oggettivamente che soggettivamente19. E, infatti, al profilo del diritto di cui si chiede tutela in giudizio si collega quello soggettivo, di chi possa agire per farlo valere e a quale titolo. Le alternative che si ripropongono sono, astrattamente, due: considerare che si agisca per un diritto altrui, e cioè del defunto, oppure per un diritto proprio. Nel primo caso, ad agire per la tutela dei diritti del defunto sarebbe un soggetto che viene a connotarsi come legittimato straordinario, in nome proprio per un diritto altrui; e allora l’art. 2-terdecies dovrebbe fungere da fondamento normativo per una tale legittimazione straordinaria, sempre eccezionale e dunque necessariamente prevista per legge20. Nel secondo caso, si agirebbe invece in nome e per un diritto proprio, come legittimati ordinari; e a riemergere è la questione se si possa succedere in un diritto personalissimo, quale sembrerebbe essere quello sui dati personali, individuando nell’art. 2-terdecies la norma che ne prevede la trasmissibilità, o se si agisca per un diritto nuovo, sorto a séguito della morte in capo ai successori. Nella pronuncia milanese si adotta una soluzione che si potrebbe dire di compromesso; si afferma infatti che la «regola generale prevista dal nostro ordinamento» sia «quella della sopravvivenza dei diritti dell’interessato in séguito alla morte e della possibilità del loro esercizio, post mortem, da parte di determinati soggetti legittimati all’esercizio dei diritti stessi»21. In tale ricostruzione è stata letta un’adesione alla teoria personalistica, nel suo coordinamento con il principio di «persistenza»22; e, seppure esulasse dai compiti spettanti al giudice

19   Si è infatti messo in rilievo che «Italian law does not solve the problems of access to personal data through the general inheritance law»; «[t]he provision does not reveal whether the rights are exercised iure proprio or (at least in some cases) mortis causa. The rule only provides a kind of persistence of the rights beyond the natural person’s life, simply naming a list of persons entitled to exercise rights connected to the personal data of the deceased»: P. Patti e F. Bartolini, Digital Inheritance and Post Mortem Data Protection: The Italian Reform, in European Review of Private Law, 2019, p. 1183. 20   Rinviene una «sorta di ultrattività dei singoli diritti» a cui «si riconnette una legittimazione straordinaria al loro esercizio (sulla falsariga – potrebbe dirsi – dell’art. 81 cod. proc. civ.)»: v. S. Delle Monache, Successione mortis causa e patrimonio digitale, in Nuova giur. civ. comm., 2020, p. 465. 21   Così Trib. Milano 9 febbraio 2021, cit.; ma v. in termini pedissequi anche Trib. Roma, 10 febbraio 2022, cit. 22   La scelta «sistematica» adottata dalla disposizione, nella lettura che ne viene fornita, sarebbe infatti aderente al modello personalistico, con un esplicito richiamo, che la pronuncia compie, alla teoria della persistenza: v. A. Vigorito, La ‘persistenza’

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

740

Lucilla Galanti

quello di prendere posizione specifica sulla dimensione oggettiva e soggettiva dell’azione, non manca, però, una riflessione critica sulla legittimazione ad agire, che si conferma parzialmente irrisolta all’interno della previsione legislativa23. Proprio in quanto il legislatore si limita a stabilire la permanenza dei diritti oltre la vita della persona fisica, infatti, «non chiarisce se si tratti di un acquisto mortis causa o di una legittimazione iure proprio»24, lasciando così aperti problemi che, per il processo, sono tutt’altro che secondari25. La questione della (dubbia) titolarità del diritto per il quale si agisce viene però superata nella sua applicazione pratica in ragione dell’interesse perseguito. Come messo in rilievo dalla pronuncia, infatti, i ricorrenti, che chiedevano di «avere accesso alle informazioni ed ai dati personali riferibili agli account del loro defunto figlio» per realizzare un progetto idoneo a «mantenerne vivo il ricordo», sono stati riconosciuti «legittimati ad esercitare il diritto di accesso» proprio in quanto si è ravvisata «l’esistenza delle “ragioni familiari meritevoli di protezione” richieste dalla norma»26. Del resto, nella misura in cui prevede che i diritti riferiti ai dati personali concernenti persone decedute possono essere esercitati «da chi ha un interesse proprio», «agisce a tutela dell’interessato», o «per ragioni familiari meritevoli di protezione», l’art. 2-terdecies sembrerebbe presupporre che si agisca a tutela di un diritto altrui (appunto, postmortale, cit., pp. 42-43, Come mette in rilievo G. Resta, L’accesso post mortem, cit., p. 679, «nella filigrana di tali affermazioni» si può leggere «la consapevolezza da parte del colto giudice della teorica tedesca della Fortwirkung», su cui si rimanda alla nota 17. 23   In tal senso, si è messo in rilievo come la pronuncia non sia intervenuta, «apertamente, sulla natura giuridica della legittimazione descritta dall’art. 2-terdecies», percorrendo «una strada alternativa (forse soltanto parallela) […] secondo la quale ci troveremmo al cospetto di una persistenza dei diritti dell’interessato»: F. Mastroberardino, L’accesso agli account informatici, cit., p. 630. 24   Così, ancora, Trib. Milano 9 febbraio 2021, cit. Nella stessa direzione si è posta la pronuncia Trib. Roma, 10 febbraio 2022, cit., in cui si mette in rilievo che il legislatore si è limitato «a prevedere la “persistenza” dei diritti di contenuto digitale oltre la vita della persona fisica». 25   Si sottolinea infatti che, «[c]ome già in costanza della disciplina previgente, […] il legislatore non entra nel merito della vicenda acquisitiva», limitandosi invece «a prefigurare una sorta di persistenza (Fortwirkung) dei diritti in questione oltre la vita della persona fisica»: G. Resta, La successione nei rapporti digitali, cit., p. 100. 26   In tal senso, il provvedimento ha valorizzato «il tenore delle allegazioni di parte attrice (la possibilità di recuperare parte delle immagini relative all’ultimo periodo di vita del giovane […] e la volontà di realizzare un progetto che, anche attraverso la raccolta delle sue ricette, possa tenerne viva la memoria) e il legame esistente tra genitori e figli». ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Considerazioni sulla tutela processuale post mortem dei dati personali

741

del defunto), ma in ragione di un interesse proprio, con una figura di legittimazione che sfuggirebbe alle forme ordinarie, per scivolare entro quella straordinaria; se non già connotandosi come legittimazione ordinaria, con la quale si fa valere un diritto affermato come proprio, non acquisito in via successoria bensì, appunto, nuovo27. La conclusione proposta dalla pronuncia milanese è stata ripresa dal Tribunale di Roma, che pure ha risolto il profilo della legittimazione ad agire in ragione dell’interesse alla base dell’azione; nel caso di specie, in capo alla moglie del soggetto defunto, «colpito prematuramente ed improvvisamente dall’evento morte», «la legittimazione all’esercizio del diritto di accesso ai dati personali» si è ritenuta «sorretta da quelle “ragioni familiari meritevoli di protezione” che giustificano l’accesso ai beni digitali dopo la morte del titolare». E, «sulla base di un interesse meritevole di protezione di natura familiare», che «legittima all’esercizio della prerogativa prevista e giustifica il diritto di acquisire i dati riferibili al defunto», si è ritenuto che la ricorrente agisse «iure proprio»28. 27   Proprio quella della legittimazione ad agire ordinaria, per un diritto affermato come proprio, sembra la direzione in cui, infine, si pone la pronuncia di Milano, nella misura in cui ha ritenuto «i ricorrenti, genitori del defunto […] titolari dei diritti relativi ai dati personali del figlio», per quanto «nei limiti oggetto della […] domanda». Le singolari forme in cui si atteggia la legittimazione sono sottolineate da F. Mastroberardino, L’accesso agli account informatici, cit., p. 631, in cui si mette in risalto la «peculiare ultrattività, da riferire […] alla tutela della persona, e alla quale si collega una legittimazione acquisita, eccezionalmente, iure proprio, da parte dei familiari del defunto, espressione di una posizione giuridica, almeno in parte, nuova». Si ripropongono così i problemi legati alla necessità di trasporre, sul piano sostanziale prima ancora che nel processo, le questioni concernenti la circolazione dell’«eredità digitale», espressione che, come quella di «successione nel patrimonio digitale» dovrebbe ritenersi dotata di un «valore soltanto descrittivo», perché manca «un’eredità o un patrimonio di cui si tratti di stabilire la sorte»; sicché il tema riguarda, propriamente, l’individuazione di coloro a cui – non già iure hereditatis, ma iure proprio – competono diritti e prerogative concernenti l’accesso»: S. Delle Monache, Successione mortis causa e patrimonio digitale, cit., p. 468. In tal senso, la «azionabilità dei rimedi a tutela della dignità del defunto p[uò] essere argomentata dogmaticamente anche qualora non si postuli la sussistenza di un fenomeno successorio»; si verificherebbe infatti «un acquisto iure proprio di un nuovo potere di azione o una legittimazione fiduciaria dei prossimi congiunti», imponendo «l’applicazione di un meccanismo di vocazione anomala a favore dei prossimi congiunti, indipendentemente dalla loro posizione di eredi»: G. Resta, La ‘morte’ digitale, cit., pp. 905-906. 28   La richiesta di accesso era infatti finalizzata a recuperare informazioni e dati personali «riferibili agli account del marito e padre» nonché «foto e filmati di famiglia destinati a rafforzare la memoria del tempo vissuto insieme ed a conservare tali immagini a beneficio delle figlie in tenera età».

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

742

Lucilla Galanti

Altrettanto rilevante appare il profilo della legittimazione a contraddire, che nella casistica viene risolto implicitamente; la dottrina, però, non ha mancato di evidenziarne gli aspetti controversi, mettendo in rilievo che la legittimazione passiva dovrebbe ritenersi esclusa qualora il soggetto convenuto non possa disporre dei dati di cui si discute, sì da non connotarsi nemmeno come possibile titolare del trattamento29. Si tratta, a ben vedere, di un tema che coinvolge il rapporto tra legittimazione a contraddire e fondatezza della domanda nel merito; alla stregua della legittimazione ad agire, infatti, anche quella a contraddire si fonda su un principio di prospettazione30. Di conseguenza, legittimato passivo viene a connotarsi il soggetto identificato come titolare del trattamento, salvo verificare che i dati non siano da lui effettivamente conservati; questione che, però, finisce per risolversi nell’infondatezza stessa della domanda, giustificando il rigetto in merito della stessa, anziché la sua inammissibilità in rito. 3. Vi è anche una condizione ostativa all’accesso ai dati post mortem, ossia il divieto che l’interessato può opporre; per poter accedere 29   Come è stato messo in rilievo, la soluzione adottata dal Tribunale di Milano «si regge su un elemento di fatto decisivo, e cioè sulla circostanza per cui i dati oggetto della richiesta di accesso erano conservati da remoto nel sistema cloud di Apple», consentendo di «qualificare Apple come titolare del trattamento, con l’effetto di creare una legittimazione passiva all’esercizio dei rimedi offerti dal GDPR»; tuttavia, in mancanza «di condivisione dei dati in cloud» si esclude la possibilità di immaginare, sotto il profilo della legittimazione passiva, «un analogo ricorso all’art. 2-terdecies […] per la semplice ragione che in tal caso Apple non può essere considerata titolare del trattamento»: G. Resta, L’accesso post mortem, cit., p. 680. Per l’A., si dovrebbe, allora, «argomentare che il chiamato all’eredità possa, ai sensi dell’art. 460, comma 1º, cod. civ., esercitare le azioni possessorie a tutela dei beni ereditari, anche senza bisogno di materiale apprensione del bene», da attivare pur sempre contro Apple, oppure «argomentare che il precetto dell’art. 1375 cod. civ. (nonché dell’art. 1175 cod. civ.) è idoneo a fondare uno specifico obbligo postcontrattuale gravante sul produttore e consistente nel consentire all’acquirente o al suo successore mortis causa l’accesso al bene e il godimento di tutte le sue funzionalità anche in caso di smarrimento delle password». 30   Non è infatti in dubbio che la legittimazione ad agire si fondi sulla titolarità solo prospettata del diritto controverso, rimandando alla carneluttiana «suità» della «pretesa» fatta valere, laddove invece la titolarità effettiva è una questione che attiene al merito: se «questione di merito è quella che riguarda l’esistenza del diritto in capo a una persona», questione di legittimazione è invece «quella che riguarda la possibilità che, se il diritto esiste, esista a suo favore»: F. Carnelutti, Titolarità del diritto e legittimazione, in Riv. dir. proc., 1952, II, p.  122. Similmente, anche ai fini della sussistenza della legittimazione passiva, la parte convenuta deve corrispondere «al soggetto che, secondo la prospettazione dell’attore stesso, è la sua controparte nel rapporto sostanziale dedotto in giudizio»: C. Consolo, Spiegazioni di diritto processuale civile, Torino 201711, I, p. 563.

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Considerazioni sulla tutela processuale post mortem dei dati personali

743

ai suoi dati personali, è infatti necessario che il defunto non lo abbia espressamente escluso. Il divieto viene così a rappresentare un elemento posto a garanzia dell’autonomia della persona ed espressione di un principio di autodeterminazione che si estende oltre la vita, rimarcando il carattere assolutamente personale dei diritti di cui si tratta31. Proprio in quanto può porsi in contrasto con gli interessi di altri soggetti, è stato però introdotto un duplice limite; come si è anticipato, infatti, il divieto non può produrre effetti pregiudizievoli per l’esercizio da parte dei terzi di diritti patrimoniali che derivano dalla morte dell’interessato nonché del diritto di difendere in giudizio i propri interessi32. Il legislatore ha così sancito la prevalenza dei diritti patrimoniali di stampo successorio e della tutela giudiziale rispetto all’autodeterminazione del defunto, ma sembra aver contestualmente delimitato l’àmbito di tale prevalenza, circoscrivendone il perimetro; sicché, se certamente il divieto imposto dal defunto è destinato a soccombere qualora l’accesso sia necessario all’esercizio dei diritti successori, e così pure dell’azione, non altrettanto dovrebbe dirsi rispetto a diversi interessi, sui quali l’autodeterminazione del defunto sembrerebbe dunque prevalere. Così, in particolare, nell’eventuale bilanciamento con le ragioni di natura affettiva o familiare che sorreggono la richiesta di accesso; ragioni che, seppur considerate meritevoli di protezione, non sono state poste dal legislatore tra gli interessi prevalenti rispetto ad un eventuale divieto espresso dal defunto. Analogamente, il diritto di agire in giudizio che giustifica il superamento del divieto non può riferirsi all’azione rivolta puramente e semplicemente all’accesso ai dati, ma deve configurarsi come tutela giudiziale di un diverso diritto, rispetto al quale l’accesso si configuri strumentale; ciò che, in caso contrario, equivarrebbe a vanificare qualsiasi effettiva portata del divieto. La giurisprudenza si è, in effetti, collocata in tale direzione, nella misura in cui, verificata la sussistenza delle ragioni familiari che giustificano la domanda di accesso ai dati post mortem, procede anche ad 31   Si è messo infatti in rilievo che il legislatore ha inteso tutelare i diritti «alla dignità ed all’autodeterminazione (diritti che riguardano sia la dimensione fisica della persona che quella che attiene al rapporto con i dati personali che esprimono e realizzano una parte dell’identità della persona stessa)», valorizzando l’autonomia dell’individuo e attribuendogli «la scelta se lasciare agli eredi ed ai superstiti legittimati la facoltà di accedere ai propri dati personali (ed esercitare tutti o parte dei diritti connessi) oppure sottrarre all’accesso dei terzi tali informazioni»: così Trib. Milano, Sez. I, 9 febbraio 2021, cit. 32   Così prevede il comma 5.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

744

Lucilla Galanti

accertare la mancanza di un divieto espresso da parte del defunto33. Così nel caso sottoposto al Tribunale di Milano, in cui il requisito ostativo è stato ritenuto insussistente in quanto non si era rinvenuta alcuna dichiarazione dell’interessato volta a vietare l’esercizio dei diritti connessi ai suoi dati personali post mortem. In termini rigorosi viene poi inteso il requisito formale, richiedendosi che il divieto, da esprimere in forma scritta, sia, altresì, specifico34. Nella fattispecie posta all’attenzione del Tribunale di Roma, la pronuncia spiega che, seppure fosse «incontroverso […] che le condizioni generali del contratto accettate al momento dell’attivazione del servizio prevede[ssero] la non trasferibilità dell’account e che qualsiasi diritto sull’ID […] e sul suo contenuto si estinguesse con la morte», tuttavia, la «mera adesione alle condizioni generali di contratto, in difetto di approvazione specifica delle clausole predisposte unilateralmente dal gestore» non è stata ritenuta idonea a «soddisfare i requisiti sostanziali e formali» richiesti dalla norma35. 4. Un diverso profilo processuale viene in rilievo quando la domanda di accesso ai dati personali riguardi i soggetti in favore dei quali il de cuius abbia disposto mentre era ancora in vita, designandoli come beneficiari di una polizza assicurativa, di un fondo pensione o di un’analoga forma pensionistica complementare, e la domanda di accesso sia avanzata dai legittimari che si assumono lesi dalla designazione; ciò al fine di conoscere l’identità dei terzi, in via strumentale al successivo esercizio di un’azione di riduzione. Benchè in capo al legittimario sia astrattamente ravvisabile un danno – da riconoscere non rispetto all’indennità eventualmente connessa alla morte del de cuius, che il terzo acquista a titolo originario, bensì nel depauperamento del patrimonio del defunto, limitato al quantum

  Così Trib. Milano, 9 febbraio 2021, cit.; cfr. Trib. Roma, 10 febbraio 2022, cit.  L’art. 2-terdecies prevede infatti che l’esercizio dei diritti non sia ammesso quando l’interessato lo ha espressamente vietato con dichiarazione scritta presentata al titolare del trattamento o a quest’ultimo comunicata (comma 2), volontà che deve risultare in modo non equivoco ed essere specifica, libera, informata, che può riguardare anche soltanto l’esercizio di alcuni diritti ed è in ogni momento revocabile e modificabile (comma 4). 35   La specificità è un requisito richiesto anche dalla dottrina. Come non si manca di rilevare, infatti, «[b]y requesting “unambiguous, specific, freely given and informed” consent, the provision avoids having adherence to generic standard terms constitute the expression of the data subject’s will»: F. P. Patti e F. Bartolini, Digital Inheritance, cit., p. 1189. 33 34

ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Considerazioni sulla tutela processuale post mortem dei dati personali

745

pagato, e cioè all’entità dei premi36–, la giurisprudenza in passato si è mostrata contraria all’ammissibilità di una forma di tutela giudiziale per l’accesso ai dati dei terzi. In tal senso, nel 2015, il «chiaro ed esclusivo riferimento» ai «dati personali concernenti persone decedute» contenuto nel testo legislativo – l’art. 9, comma 3, del d. lg. n. 196 del 2003, ratione temporis applicabile, non diversamente dall’attuale testo dell’art. 2-terdecies –, ha portato la Suprema Corte a ritenere che il diritto di accesso debba avere ad oggetto esclusivamente i dati del defunto; concludendo che, «tra i dati concernenti persone decedute» a cui «hanno diritto di accesso gli eredi» non rientrano «quelli identificativi di terze persone, quali sono i beneficiari della polizza sulla vita stipulata dal de cuius, ma soltanto quelli riconducibili alla sfera personale di quest’ultimo»37. Una prospettiva analoga emerge dai provvedimenti del Garante per la Protezione dei dati personali, per il quale il diritto dell’erede di accedere alle informazioni personali che riguardano il defunto non si estende anche alle informazioni che coinvolgano soggetti terzi38. 36   V. T. Milano, 9 febbraio 2021, cit. Come messo in rilievo dalla pronuncia, i premi per le polizze vita costituiscono donazioni in favore dei futuri beneficiari che devono essere conteggiati nella massa ereditaria; diversamente, l’indennità assicurativa prevista a favore del terzo designato non determina un depauperamento del patrimonio del de cuius e quindi non costituisce oggetto di atto di liberalità ai sensi dell’art. 809 c.c. con conseguente non assoggettabilità alle norme sulla riduzione delle donazioni ai fini dell’integrazione della quota dovuta ai legittimari. Nella stessa direzione si è posta Cass. civ., Sez. I, 13 dicembre 2021, n. 39531, pres. Genovese, rel. Nazzicone, di cui si darà conto nel prosieguo. 37   Così Cass. civ., Sez. I, 8 settembre 2015, n. 17790, pres. Di Palma, rel. Lamorgese. Come statuito dalla pronuncia, in tema di trattamento dei dati personali, tra i dati concernenti persone decedute ai quali hanno diritto di accesso gli eredi, non rientrano quelli identificativi di terze persone, quali sono i beneficiari della polizza sulla vita stipulata dal de cuius, ma soltanto quelli riconducibili alla sfera personale di quest’ultimo. 38   In senso restrittivo si è posto il Garante per la tutela dei dati personali nel provvedimento 27 ottobre 2000 (reperibile, come gli altri di séguito citati, su Garanteprivacy. it), in cui, con riferimento alla normativa pregressa (l’art. 13, comma 3, della legge n. 675 del 1996) è stata ritenuta infondata «la richiesta di conoscere il nominativo del percettore del saldo del deposito», in quanto la disposizione consentiva, «in relazione ai dati concernenti persone decedute, […] di esercitare i diritti di cui al medesimo articolo a chiunque vi abbia interesse ma, pur sempre, in riferimento ai soli dati che possono appunto ritenersi relativi alle persone decedute interessate». Analogamente, nel provvedimento del 31 marzo 2003, il Garante ha ritenuto che l’erede non abbia il diritto di conoscere i dati relativi al terzo beneficiario di una polizza assicurativa stipulata dal defunto, ma possa ottenere solo la comunicazione dei dati concernenti la persona deceduta. Un orientamento simile è ravvisabile nel provvedimento del 24 settembre 2015, in cui il Garante, ai sensi degli artt. 7 e 9 del d. lg. n. 196 del 2003, ha riconosciuto il

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

746

Lucilla Galanti

La giurisprudenza ha, però, progressivamente mutato orientamento. Dapprima, pur continuando ad escludere il diritto di accesso ai dati di soggetti diversi dal de cuius, ha però garantito un risultato analogo ragionando in termini di buona fede nei rapporti contrattuali e di obbligazioni accessorie. Richiamato l’obbligo di rilasciare la polizza ai sensi dell’art. 1888 c.c. ha infatti ritenuto che, «se il contraente assicurato ha diritto di ricevere dalla controparte negoziale la copia integrale del contratto, completa delle indicazioni relative ai terzi beneficiari», tale diritto deve essere riconosciuto «anche agli eredi del contraente medesimo i quali subentrano iure successionis nella posizione del proprio dante causa nei confronti dell’assicuratore»39. Successivamente, è pervenuta specificamente a riconoscere un diritto di accesso anche in riferimento ai dati di soggetti terzi. In mancanza di una previsione espressa, la conclusione estensiva è stata avallata alla luce del bilanciamento degli interessi coinvolti; il diritto di accesso ai dati personali di soggetti terzi, infatti, è stato riconosciuto in ragione di un principio di prevalenza del diritto di azione rispetto alla tutela dei dati personali, desumibile dall’art. 2-terdecies40, ma pervasivo dell’intero impianto normativo del codice e fondato sullo stesso Regolamento UE41. diritto dell’interessato di accedere «ai dati bancari relativi ai rapporti intrattenuti dal de cuius con la società resistente», ma «previo oscuramento dei dati riferiti a terzi qualora il riscontro da parte del titolare avvenga mediante consegna di documenti». Una lettura più estensiva è emersa invece dal provvedimento del 3 aprile 2002, in cui il Garante ha riconosciuto che l’interessata, nella qualità di erede testamentario, avesse «titolo ad ottenere tutte le informazioni di carattere personale relative al de cuius», specificando che «il diritto di accesso può rendere necessario estrarre dagli atti e dai documenti detenuti dal titolare del trattamento tutte le informazioni personali relative all’interessato che le richieda, senza esclusioni di sorta», comprendendo «la necessità di esibire e consegnare copia non solo di singoli dati personali, ma anche di interi atti o documenti che potrebbero riguardare anche terzi. Ciò nel solo caso in cui i dati personali relativi al richiedente ed eventuali altre notizie o informazioni inerenti a terzi siano intrecciati al punto tale da rendere i primi non comprensibili, oppure snaturati nel loro contenuto, se privati di alcuni elementi essenziali per la loro comprensione». 39   Viene così ravvisato un «diritto alla consegna del contratto» che si pone al di fuori del diritto di accesso disciplinato dal Codice Privacy: v. Trib. Marsala, 3 novembre 2020, est. F. Bellafiore, in Dejure.it. Come mette in rilievo la pronuncia, nel diritto di accesso degli eredi non possono farsi rientrare i dati identificativi di terze persone, quali sono i beneficiari della polizza sulla vita stipulata dal de cuius; «la disciplina in materia di accesso riguarda specificamente la persona dello “interessato” vale a dire del soggetto cui si riferiscono i dati personali oggetto di trattamento». 40   Così Trib. Treviso, 27 febbraio 2020, est. A. Fabbro, in Dejure.it, per il quale dalla norma si ricava «la supremazia del diritto di difesa sul diritto alla riservatezza». 41   Come afferma il Tribunale, infatti, il Regolamento «stabilisce la prevalenza del ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Considerazioni sulla tutela processuale post mortem dei dati personali

747

5. Benchè la prospettiva prioritaria in cui il Regolamento e il d. lg. n. 196 del 2003 garantiscono il diritto di agire in giudizio sia volta a far valere la violazione di norme poste a tutela dei dati personali, attribuendo tale potere non solo all’interessato ma pure al Garante per la protezione dei dati personali42, il diritto di agire in giudizio trova anche una considerazione autonoma, oltre che preponderante qualora si trovi contrapposto alla tutela dei dati personali43. diritto di difesa rispetto a quello concernente la riservatezza dei dati personali»: v. Trib. Treviso, 27 febbraio 2020, cit. 42   Così, l’art. 79 del Regolamento prevede che, salvo ogni altro rimedio, l’interessato ha il diritto di proporre un ricorso giurisdizionale effettivo, nei confronti del titolare del trattamento o del responsabile del trattamento, qualora ritenga che i diritti di cui gode a norma del regolamento siano stati violati a séguito di un trattamento. Una disposizione analoga è prevista all’art. 78, ove si assicura il diritto di proporre un ricorso giurisdizionale effettivo avverso una decisione giuridicamente vincolante dell’autorità di controllo, qualora non tratti un reclamo o non lo informi entro tre mesi dello stato o dell’esito del reclamo proposto. Il considerando 129 prevede poi che all’interno degli Stati membri le autorità di controllo dovrebbero avere poteri effettivi, fra cui quello di intentare un’azione e di agire in sede giudiziale o stragiudiziale in caso di violazione del regolamento. Su tali basi, l’art. 58 dispone che ogni Stato debba conferire per legge all’autorità di controllo il potere di intentare un’azione o di agire in sede giudiziale o, ove del caso, stragiudiziale in caso di violazione del Regolamento. In questo contesto, anche il d. lg. n. 196 del 2003, all’art. 154-ter prevede un potere di agire e rappresentanza in giudizio in capo al Garante, legittimato ad agire in giudizio nei confronti del titolare o del responsabile del trattamento in caso di violazione delle disposizioni in materia di protezione dei dati personali. Analogamente, l’art. 152 attribuisce all’autorità giudiziaria ordinaria tutte le controversie in materia di protezione dei dati personali, nonché il diritto al risarcimento del danno. Su tali aspetti, v. P. Mazza, Profili processuali del diritto alla protezione dei dati personali nel regime del Reg. UE 2016/679 (GDPR) e del riformato D.Lgs. n. 196/2003, in Corr. Giur., 2021, p. 959; nonché M.C. Giorgetti, Profili processuali della legge sulla privacy, in Studi in onore di Carmine Punzi, Torino 2008, p. 239 ss. In tal senso, la disciplina in materia di protezione dei dati personali individua «una serie di casi in cui il trattamento può essere effettuato senza il consenso dell’interessato (del soggetto, cioè, cui i dati si riferiscono) e rientra tra i detti casi l’ipotesi in cui il trattamento sia necessario per far valere o difendere un diritto in giudizio»: v. Trib. Marsala, 3 novembre 2020, cit. Analogamente, «[d]al momento che il regolamento riconosce nel caso di trattamento di dati sensibili - e dunque oggetto di una tutela più stringente e puntuale - la possibilità del titolare del trattamento di trattare tali dati qualora il trattamento sia necessario per accertare, esercitare o difendere un diritto in sede giudiziaria a prescindere dal consenso del titolare dei dati personali, a maggior ragione tale potere deve essere accordato al titolare del trattamento in merito a dati personali non sensibili, quali sono quelli richiesti dalla ricorrente»: v. Trib. Treviso, 27 febbraio 2020, cit. 43   Così, il considerando 52 del Regolamento prevede che la deroga al divieto di trattare categorie particolari di dati personali dovrebbe anche consentire di trattare tali dati personali se necessario per accertare, esercitare o difendere un diritto, che sia in sede giu© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

748

Lucilla Galanti

Proprio la rilevanza conferita all’esercizio dell’azione ha portato a riconoscere l’esistenza di un diritto di agire per accedere ai dati di soggetti terzi rispetto al de cuius, pur se non espressamente previsto; e ciò in quanto, nella complessiva lettura del sistema, «il diritto all’azione di cui all’art. 24 della Costituzione» deve prevalere «rispetto al diritto alla riservatezza del dato personale sussistente in capo ai terzi beneficiari»44. In tale direzione si è posta la Suprema Corte sul finire del 2021. Pur senza smentire il pregresso orientamento del 2015 – nella misura in cui ha confermato che il richiamo all’art. 9 è inconferente quando l’accesso ai dati personali riguardi soggetti terzi, al fine di «intraprendere una controversia giudiziale di natura ereditaria o di annullamento degli atti dispositivi del de cuius per incapacità naturale»45 – lo ha tuttavia superato, in ragione del bilanciamento tra tutela del diritto di agire in giudizio e protezione dei dati personali.

diziale, amministrativa o stragiudiziale; e l’art. 9, infatti, dispone una deroga alla disciplina relativa a categorie particolari di dati, tra l’altro, qualora il trattamento sia necessario per accertare, esercitare o difendere un diritto in sede giudiziaria. Il considerando 65, poi, prevede che l’interessato dovrebbe avere il diritto di ottenere la rettifica dei dati personali che lo riguardano e il «diritto all’oblio»; tuttavia, si precisa che dovrebbe essere lecita l’ulteriore conservazione dei dati personali, tra l’altro, qualora sia necessaria per accertare, esercitare o difendere un diritto in sede giudiziaria. E, infatti, ai sensi dell’art. 17, si prevede che l’interessato ha il diritto di ottenere dal titolare del trattamento la cancellazione dei dati personali che lo riguardano, con previsione però di una deroga (comma 3, lett. e) per l’accertamento, l’esercizio o la difesa di un diritto in sede giudiziaria. Ancora, l’esercizio o la difesa di un diritto in sede giudiziaria è preso in considerazione dalla lett. c) dell’art. 18, sul diritto di limitazione del trattamento; e il comma 2 prevede che, se il trattamento è limitato, i dati personali sono trattati soltanto con il consenso dell’interessato oppure, tra l’altro, per l’accertamento, l’esercizio o la difesa di un diritto in sede giudiziaria. Analogamente, l’esercizio o la difesa di un diritto in sede giudiziaria è considerato all’art. 21, in riferimento al diritto dell’interessato di opporsi al trattamento dei dati personali che lo riguardano, prevedendo, tra i casi in cui il trattamento è comunque consentito, anche l’esercizio o la difesa di un diritto in sede giudiziaria. 44   Così un’altra, rilevantissima, pronuncia del Tribunale di Milano, redatta dal medesimo estensore. Si tratta di Trib. Milano, Sez. I, 10 novembre 2021, est. Flamini, in Leggiditalia.it, in cui si mette in rilievo che occorra operare «un bilanciamento tra il diritto alla riservatezza del dato personale del terzo e il diritto all’esercizio dell’azione ex art. 24 Cost.». 45   Così Cass. civ., Sez. I, 13 dicembre 2021, n. 39531, cit., in cui si è escluso ogni dubbio che l’interpretazione offerta dalla Cassazione nel 2015 fosse «corretta, riferendosi la norma ai dati del dante causa», e nel senso che la disposizione concernesse «solo i dati del de cuius medesimo», ma nella fattispecie in esame «non era questione dei dati relativi al dante causa, della rettifica o cancellazione di essi, o di altro diritto a tutela del medesimo: si tratta, invece, di una domanda di accesso a dati di terzi, a fini di difesa giudiziaria». ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Considerazioni sulla tutela processuale post mortem dei dati personali

749

La tutela del diritto di agire in giudizio, infatti, rientra tra le eccezioni per le quali il trattamento dei dati personali può avvenire senza consenso. Così prevedeva l’art. 24 del d. lg. n. 196 del 2003, a norma del quale, tra gli specifici casi in cui poteva essere effettuato il trattamento senza consenso, il comma 1, lett. f) contemplava l’esigenza di far valere o difendere un diritto in sede giudiziaria, sempre che i dati fossero trattati esclusivamente per tali finalità e per il periodo strettamente necessario al loro perseguimento46; e lo stesso dispone oggi la lett. e) dell’art. 2-undecies, ove pure si prevede tra le limitazioni poste all’interessato l’esercizio di un diritto in sede giudiziaria47. Nella stessa direzione si colloca l’art. 2-terdecies, nella parte in cui, come si è già dato conto, al comma 5 afferma che il diritto di difendere in giudizio i propri interessi non può essere pregiudicato dal divieto all’utilizzo dei dati personali posto dal defunto. Ne deriva che l’accesso ai dati personali deve ritenersi sempre ammesso ai fini della tutela giudiziaria dei propri diritti, sancendo il principio secondo cui «l’interesse alla riservatezza dei dati personali deve cedere, a fronte della tutela di altri interessi giuridicamente rilevanti, e dall’ordinamento configurati come prevalenti nel necessario bilanciamento operato, fra i quali l’interesse, ove autentico e non surrettizio, all’esercizio del diritto di difesa in giudizio»48. 46   L’art. 24 del d. lg. n. 196 del 2003, art. 24 (abrogato ad opera del d. lg. n. 101 del 2018) prevedeva alla lett. f), tra i casi nei quali poteva essere effettuato il trattamento senza consenso, il diritto di far valere o difendere un diritto in sede giudiziaria, sempre che i dati fossero trattati esclusivamente per tali finalità e per il periodo strettamente necessario al loro perseguimento. Come messo in rilievo dalla Corte di cassazione, sulla base della norma è escluso che occorra il consenso dell’interessato, «allorchè il trattamento dei dati sia necessario per far valere o difendere un diritto in giudizio, pur se tali dati non riguardino una parte del giudizio in cui la produzione viene eseguita: unica condizione richiesta, invero, è che i dati siano trattati esclusivamente per tali finalità e per il periodo strettamente necessario al loro perseguimento, in quanto, cioè, la produzione sia pertinente alla tesi difensiva e non eccedente le sue finalità, con utilizzo dei dati esclusivamente nei limiti di quanto necessario al legittimo ed equilibrato esercizio della propria difesa»: Cass. civ., Sez. I, 13 dicembre 2021, n. 39531, cit. 47   Prevede infatti il comma 3 che l’esercizio dei diritti dell’interessato può essere ritardato, limitato o escluso con comunicazione motivata, a meno che la comunicazione possa compromettere la finalità della limitazione, per il tempo e nei limiti in cui ciò costituisca una misura necessaria e proporzionata, tenuto conto dei diritti fondamentali e dei legittimi interessi dell’interessato, al fine di salvaguardare, tra gli altri, l’esercizio dei diritti in sede giudiziaria. E limitazioni per ragioni di giustizia sono previste anche dal successivo art. 2-duodecies. 48   Così Cass. civ., Sez. I, 13 dicembre 2021, n. 39531, cit., ove si mette in rilievo che il diritto alla difesa giudiziale non può essere interpretato «in senso restrittivo, correla-

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

750

Lucilla Galanti

Del resto, in mancanza della comunicazione dei dati personali riferiti ai terzi beneficiari, il legittimario «si troverebbe fondamentalmente privato di strumenti giuridici per tutelare i propri interessi di carattere patrimoniale come erede»; sì da ritenere per ciò stesso soddisfatti, altresì, «i requisiti di proporzionalità, necessarietà e […] non eccedenza», «essenziali per la liceità del trattamento»49. 6. La Suprema Corte ha anche specificato i limiti in cui il diritto di agire in giudizio così riconosciuto può trovare tutela, sia sotto il profilo della legittimazione ad agire, sia sotto quello dell’interesse «finale» rispetto al quale l’accesso ai dati personali è strumentale. Con riferimento al primo profilo, la tutela non viene limitata soggettivamente a chi sia già riconosciuto come erede; in tal senso, ai fini della legittimazione ad agire non è richiesto il previo accertamento della qualità di erede, che riguarderà invece il merito dell’eventuale pretesa50. Riguardo al secondo profilo, si deve invece valutare che il diritto per il quale si intende agire – a prescindere da ogni considerazione circa la sua reale fondatezza – possa essere fatto valere solo subordinatamente alla conoscenza dei dati di cui si tratta. Si è esclusa, però, la necessità di un processo pendente: non è cioè necessario che l’azione, rispetto alla quale la domanda di accesso si pone in termini strumentali, sia stata esercitata, e dunque che il processo si trovi già instaurato51. to cioè al solo titolare dei dati soggetti a trattamento: al contrario, anche altri soggetti possono formulare la richiesta di accesso ai dati, sempre se portatori di un interesse tutelabile in sede giudiziaria e per la cui realizzazione sia indispensabile conoscere i dati personali richiesti». Nello stesso senso, v. Trib. Milano. Sez. I, 10 novembre 2021, cit. 49   V. in tal senso Trib. Milano, Sez. I, 10 novembre 2021, cit. 50   Come messo in rilievo da Cass. civ., Sez. I, 13 dicembre 2021, n. 39531, cit., infatti, «non è dovuto, da parte del giudice adito […] né l’accertamento della effettiva qualità di erede in capo al ricorrente […], nè lo stabilire se il beneficiario designato abbia acquistato un diritto proprio neppure entrato nel patrimonio ereditario». Nel medesimo senso, Trib. Marsala, 3 novembre 2020, cit. ha individuato «l’unico limite che la produzione sia pertinente alla tesi difensiva e non eccedente le sue finalità». 51   Si è così esclusa la necessità di una «attuale e preventiva pendenza di un processo, in quanto altrimenti si tratterebbe di domanda “esplorativa”. Al contrario, un attuale giudizio già intrapreso, al momento della istanza di comunicazione dei dati, non è requisito indefettibile», mentre «al giudice del merito compete solo di accertarne e riscontrarne la plausibilità, in quanto essa non si presenti ictu oculi come manifestamente pretestuosa e già astrattamente improponibile o inammissibile. Ogni questione di merito, relativa alla fondatezza in concreto delle domande, oggetto delle cause giudiziarie prospettate dal richiedente l’ostensione dei dati, va invece riservata al giudice del processo»: Cass. civ., Sez. I, 13 dicembre 2021, n. 39531, cit. ISBN 978-88-495-4948-5

© Edizioni Scientifiche Italiane

Considerazioni sulla tutela processuale post mortem dei dati personali

751

Analogamente, non si richiede che l’azione debba apparire anche fondata; al giudice di merito viene infatti demandato un controllo solo «in negativo», quello cioè di «verificare che non si tratti di un’istanza del tutto pretestuosa» o «il richiedente non vanti, neppure in astratto, una posizione di diritto soggettivo sostanziale, che si ricolleghi all’esigenza di conoscenza dei dati per farlo valere»52. 7. I margini di ampliamento che la tutela dei dati personali post mortem ha incontrato nella giurisprudenza recente si accompagnano alla progressiva rilevanza che il tema sta assumendo, anche sul piano processuale, e rispetto al quale le riflessioni che si sono svolte in queste pagine hanno in realtà condotto a sollevare profili problematici, più che a risolverli. Dalla casistica che si è cercato di ripercorrere emergono bisogni di tutela «nuovi», che impongono uno sforzo di coordinamento con le categorie ordinanti entro le quali si è soliti ricondurre gli istituti processuali53: come le vicende sostanziali sono messe alla prova nella loro riconduzione all’interno dell’universo digitale, lo stesso vale, a maggior ragione, per il processo. E, anche nel processo, si dovrà attuare quella necessaria rimeditazione volta a trasporre la domanda giudiziale in una dimensione in cui, al venir meno del soggetto, non consegue necessariamente il venir meno della sua identità digitale, né dei diritti personalissimi che alla stessa si riconnettono.

52   Su tali basi, la Suprema Corte ha enunciato il principio di diritto secondo il quale «è legittima l’ostensione dei dati del beneficiario della posizione previdenziale di un fondo pensione, allorché il richiedente alleghi l’interesse, concreto e non pretestuoso, ad intraprendere un giudizio nei confronti del soggetto in tal modo designato dall’aderente al fondo, come allorché la richiesta provenga dal legittimario del de cuius»: Cass. civ., Sez. I, 13 dicembre 2021, n. 39531, cit. 53   La tutela dei diritti sostanziali è ciò a cui, per natura, tende il processo; sicchè risulta «ovvio che il sistema di tutela giurisdizionale civile» rifletta «il sistema dei diritti così come previsto a livello di legislazione sostanziale»: A. Proto Pisani, La tutela giurisdizionale dei diritti della personalità: strumenti e tecniche di tutela, in Foro it., 1990, V, c. 2. Allo stesso tempo, però, come si mette in rilievo, la «funzione di tutela dei diritti sostanziali» impone di raccordarvi la struttura del processo e di individuare quali siano le «modalità tecniche di tutela di cui [abbiano] bisogno i singoli (titolari dei) diritti previsti dalle norme sostanziali»: A. Proto Pisani, Il bisogno di tutela (e la possibile estensione dell’azione romanistica di manutenzione), in Persona umana e processo civile. Saggi raccolti da Andrea Proto Pisani, Milano 2022, pp. 80-81. È, del resto, il principio di effettività ad imporre che il contenuto della tutela offerta dal processo corrisponda alle utilità garantite dal diritto sostanziale; v., sul punto, I. Pagni, Effettività della tutela giurisdizionale, in Enc. dir., Annali X, Milano 2017, p. 355 ss.

© Edizioni Scientifiche Italiane

ISBN 978-88-495-4948-5

LA BUONA Questo volume è STAMPA stato impresso nel mese di settembre dell’anno 2022 Questo volume stato impresso Questo volume èè stato impresso per le Edizioni Scientifiche Italiane S.p.A., Napoli nel mesein di maggio 2020 nel diItalia aprile/ dell’anno dell’annoin 2020 Stampato Printed Italy perleleEdizioni Edizioni Scientifiche Italiane per Scientifiche Italianes.p.a., s.p.a.,Napoli Napoli red.giando - ftc.attale Stampatoin in Italia Italia // Printed Stampato PrintedininItaly Italy red.nignat - ftc.topint red.rovmar - ftc.desgiu

Per informazioni ed acquisti Edizioni Scientifiche Italiane - via Chiatamone, 7 - 80121 Napoli Tel. 0817645443 - Fax 0817646477 Internet: www.edizioniesi.it