Les défis du numérique: Penser et pratiquer la transition numérique 9782802764595, 2802764594

Alors que les questions liées au numérique imprègnent chaque jour un peu plus notre quotidien, chacun a conscience que l

116 32 1MB

French Pages 140 [121] Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Les défis du numérique: Penser et pratiquer la transition numérique
 9782802764595, 2802764594

Table of contents :
Couverture
Titre
Copyright
Biographies des auteurs
Sommaire
Préface, de Mariya Gabriel
Introduction, par Dalila Rahmouni-Syed Gaffar
PARTIE 1. L’humanité face à l’intelligence artificielle
Donner un sens à l’intelligence artificielle, par Cédric Villani
1. L’imaginaire de l’intelligence artificielle
De la difficulté de définir l’intelligence artificielle
L’IA, entre fantasmes et recherches scientifiques
2. Une nouvelle ère de l’IA
La mise en données du monde
Une domination rampante ?
3. L’IA, clés du pouvoir du monde à venir
Un nouveau levier de pouvoir majeur dans un monde numérique
Un enjeu d’intérêt général, un défi pour la France et l’Europe
4. Comment l’État peut-il donner un sens à l’IA ?
Fixer un cap clair autour d’une stratégie ambitieuse
Donner une signification à l’IA autour de valeurs fondamentales
Expliquer et promouvoir pour une meilleure réflexion collective
Intelligence artificielle : une nécessaire réflexion géopolitique, par Julien Nocetti
1. Un renouvellement de la conflictualité
Vers un bouleversement de la scène internationale
Une évolution de l’art de la guerre
2. Une rivalité avant tout sino-américaine
« Le grand bond en avant » de la Chine
Un effet égalisateur sur la scène internationale
3. Défis internes, conséquences globales
Accroissement des inégalités et risque populiste
De nouveaux rapports de force sur la scène internationale
4. Pour une gouvernance mondiale de l’intelligence artificielle
La nécessité d’une gouvernance mondiale de l’IA : quel rôle pour l’Europe ?
Pour une gouvernance multiacteurs
Intelligence artificielle autonome : qui sera le responsable ?, par Béatrice Delmas-Linel
1. IA autonome et responsabilité juridique : un risque d’impunité ?
Quand l’IA devient autonome
Les règles de responsabilité civile du droit français au regard de l’IA autonome
2. Vers une responsabilité juridique propre à l’IA autonome ?
Une temporisation dans l’adoption de toute réforme globale en Europe et en France
La nécessité à court terme de mécanismes d’indemnisation adaptés à l’IA autonome : vers une approche au cas par cas
PARTIE 2. Pouvoir des plateformes, puissance des données
Le pouvoir des plateformes, Par Yann Bonnet, Camille Hartmann et Judith Herzog
1. Sous l’effet du phénomène de « plateformisation », la société se transforme à travers la mutation des formes de production de valeur
À l’origine de nouveaux monopoles dans la sphère marchande
L’influence des plateformes sur notre perception du monde
Une multiplication des défis pour les régulateurs et les législateurs
2. Le besoin de nouvelles synergies entre régulateurs, chercheurs et société civile pour imposer des contre-pouvoirs et une régulation efficaces
Des solutions endogènes
La plateformisation rend plus difficile la perception par les autorités de ce que les utilisateurs vivent au quotidien
Aménager de nouvelles voies d’interpellation des plateformes
Associer les utilisateurs aux démarches d’évaluation collaborative des pratiques des plateformes
Les nouveaux champs de négociation avec les plateformes : vers une coopération dans la régulation du numérique ?
3. Plutôt qu’ubériser l’État, consolider la composante collective des politiques publiques
La plateformisation, une opportunité pour les politiques publiques ?
Mieux mobiliser les destinataires des politiques publiques pour améliorer leur qualité
Une nouvelle approche des politiques publiques ?
L’État : une future plateforme exemplaire ?
Les données personnelles, « Staple commodities » du numérique, par Edouard Geffray
1. La protection des données personnelles, un droit fondamental pour l’Union européenne
Un droit fondamental ancien au frontispice du système juridique européen
Un droit autonome garanti par des instances indépendantes
2. Une souveraineté individuelle et collective
Une souveraineté individuelle
Une souveraineté collective
3. Vers un droit international de la protection des données ?
La nécessité d’un cadre commun de régulation du cyberespace
Vers des standards mondiaux de protection des données personnelles
L’open data, au croisement de l’ouverture et de la gratuité des données, par Mohammed Adnène Trojette
1. De l’opportunité d’ouvrir les données publiques
De la liberté d’accès aux documents administratifs à l’ouverture des données publiques
Le tournant des années 2010 : vers un État plateforme
2. De l’affirmation progressive du principe de gratuité
Gratuité des données et transparence
Gratuité et commercialisation des données publiques
La consécration du principe de gratuité et du concept de données d’intérêt général
PARTIE 3. La gouvernance de l’Internet : entre fractures et régulations du numérique
Gouverner l’internet ? Du mythe à la réalité de la gouvernance mondiale de l’internet, par Dalila Rahmouni-Syed Gaffar et Laurent Ferrali
1. Le mythe d’une gouvernance unique de l’internet
La confusion historique d’une enceinte unique de gouvernance
L’échec d’un monopole dans le modèle de gouvernance de l’internet
2. La réalité d’une pluralité de gouvernances sur l’internet
La multiplication des enceintes de gouvernance
La perméabilité des modèles de gouvernance
L’Afrique face aux défis de la régulation du numérique, par Emmanuel Adjovi
1. Des pressions variées pour une régulation improbable
La promotion forcenée des standards européens
Les stratégies chinoise et américaine d’endiguement de la régulation en Afrique
2. Se préparer à la compétition mondiale
Générer ses propres standards
Utiliser le numérique comme un vecteur d’intégration économique régionale et sous régionale
Les fractures numériques, par Pierre Bonis
1. Internet, les grandes espérances
Internet, une promesse
Espérances politiques
2. Internet, le temps des réalités : le numérique au défi des fractures et des logiques d’exclusion
Logiques d’exclusion et fractures
Des initiatives locales orientées vers la satisfaction de besoins réels
PARTIE 4. La désinformation et l’exception culturelle face à la transformation numérique
La régulation des fake news est-elle possible ?, par Anne-Thida Norodom
1. Doit-on réguler ?
L’existence d’un droit applicable aux fausses nouvelles
Les « lacunes » du droit applicable aux fausses nouvelles
2. Que régule-t-on ?
Les acteurs de la désinformation
L’équilibre entre droits fondamentaux et régulation des fausses informations
L’exception culturelle à l’ère du numérique : quel rôle pour la France ?, par Lilian Richieri Hanania
1. L’exception culturelle : la reconnaissance de la spécificité des produits et services culturels
2. Les défis pour l’exception culturelle à l’ère du numérique
PARTIE 5. Le régulateur à l’ère du numérique : nouveaux rôles, nouveaux outils ?
De la réglementation à la compliance, encadrer et accompagner la transformation numérique, par Thaima Samman et Marc Drevon
1. La révolution du numérique comme bouleversement social
Les défis du numérique
Les enjeux de régulation du numérique
2. Compliance et numérique : une relation privilégiée
La compliance : outil de régulation du numérique
La compliance outil complémentaire
Le rôle du régulateur à l’ère de la convergence numérique : nouveaux pouvoirs ou nouvelles approches ?, par Jean-Jacques Sahel
1. Rôles et dilemmes du régulateur
Le régulateur : étendre son rôle ou sa manière d’opérer ?
Une multitude de dilemmes
Une multitude de régulateurs
2. Le temps et l’espace du régulateur
La loi doit-elle avancer aussi vite que la technologie ?
Intégrer la dimension mondiale
3. Vers une convergence mondiale ?
Établir des socles fondamentaux communs
Une application évolutive de la réglementation
Une coconstruction à travers une approche multiacteurs
Remerciements
Table des matières

Citation preview

Cette version numérique de l’ouvrage a été réalisée pour Larcier. Nous vous remercions de respecter la propriété littéraire et artistique. Le « photoco-pillage » menace l’avenir du livre.

Pour toute information sur nos fonds et nos nouveautés dans votre domaine de spécialisation, consultez nos sites web via www.larciergroup.com.

© Lefebvre Sarrut Belgium s.a., 2019 Éditions Bruylant Rue Haute, 139/6 - 1000 Bruxelles Tous droits réservés pour tous pays. Il est interdit, sauf accord préalable et écrit de l’éditeur, de reproduire (notamment par photoco-pie) partiellement ou totalement le présent ouvrage, de le stocker dans une banque de données ou de le communiquer au public, sous quelque forme et de quelque manière que ce soit. ISBN 9782802764595

Biographies des auteurs Les auteurs s’expriment ici à titre individuel et personnel. 1. Direction de l’ouvrage Dalila Rahmouni-Syed Gaffar est conseillère politique au ministère de l’Europe et des Affaires étrangères chargée de la gouvernance mondiale de l’Internet. Elle enseigne à SciencesPo Paris les enjeux numériques internationaux. 2. Préface de l’ouvrage Mariya Gabriel est l’actuelle Ccommissaire européen à l’économie et à la société numériques. Elle a été vice-présidente du groupe PPE au Parlement européen de 2014 à 2017. Mariya Gabriel a été membre du Parlement européen, PPE / GERB (Citoyens pour le développement européen de la Bulgarie) de 2009 à 2017. Depuis 2012, elle est vice-présidente d’EPP Women. Auparavant, elle a été secrétaire parlementaire des députés du parti politique GERB au sein du Groupe PPE en 2008-2009. Outre les activités du Collège, elle participe aux travaux préparatoires liés au Marché Unique Numérique, à l’Union de l’énergie, à l’amélioration de la réglementation et les affaires interinstitutionnelles, au budget et aux ressources humaines, et à l’emploi, la croissance, l’investissement et la compétitivité. Ses responsabilités comprennent le lancement de propositions ambitieuses pour l’achèvement d’un Marché Unique Numérique, le soutien au développement des industries créatives et d’une industrie européenne des médias et des contenus prospère, ainsi que d’autres activités visant à renforcer la capacité d’innovation de l’Europe. Elle est engagée dans la promotion des droits et de l’autonomisation des femmes. 3. Contributeurs PARTIE 1 Cédric Villani est un mathématicien français, ancien élève de l’ENS et docteur en mathématiques, titulaire 2010 de la Médaille Fields et lauréat 2014 du prix Doob. Professeur de l’université de Lyon, il a été professeur-invité d’universités étrangères et directeur de l’Institut Henri Poincaré de 2009 à 2017. Il est député de l’Essonne, siège à la commission des Lois et préside l’Office parlementaire d’évaluation des choix scientifiques et technologiques. Membre de l’Académie des sciences, il a publié plusieurs ouvrages dont Théorème Vivant traduit en douze langues. Julien Nocetti est chercheur à l’Institut français des relations internationales (Ifri).

Ses travaux portent sur la diplomatie du numérique, l’intelligence artificielle, la gouvernance de la cybersécurité et les manipulations de l’information. Il a récemment dirigé le dossier « Cybersécurité : enjeux internationaux » dans la revue Politique étrangère (n° 2, été 2018) et « La guerre de l’information aura-t-elle lieu ? » (RAMSES, 2018). En octobre 2017, Julien Nocetti a publié une tribune dans le journal Le Monde appelant à la mise en place d’une gouvernance mondiale de l’intelligence artificielle. Beatrice Delmas-Linel est avocate au barreau de Paris et présidente du bureau parisien du réseau d’avocats d’affaires Osborne Clarke qui regroupe 25 bureaux et plus de 1 200 avocats dans le monde. Forte d’une expérience de plus de 25 ans dans le secteur du numérique dans sa pratique d’avocate et dans ses fonctions de direction juridique au sein de la société Microsoft en Europe et aux États-Unis pendant huit ans, elle conseille les entreprises françaises et étrangères sur tous les sujets liés à la transformation numérique et ses enjeux juridiques et réglementaires. PARTIE 2 Yann Bonnet est directeur de cabinet du directeur général de l’Agence nationale de sécurité des systèmes d’information (ANSSI). Il est l’ancien secrétaire général du Conseil national du numérique (CNNum), instance placée auprès du Premier ministre chargée d’étudier les grandes questions relatives au numérique. Il a piloté la concertation nationale sur le numérique lancée en 2014 qui vise à alimenter l’élaboration de la stratégie numérique de la France au niveau national, européen et international. En 2017, il a accompagné Cédric Villani dans sa mission sur l’intelligence artificielle qui a abouti à la stratégie de la France sur l’intelligence artificielle présentée par le président de la République en mars 2018. Camille Hartmann est ancienne responsable du pôle Inclusion, Innovation et développement au Conseil national du numérique (CNNum). Passionnée de nouvelles technologies, elle a contribué aux rapports sur les plateformes, l’e-santé, l’inclusion, l’éducation et la vie démocratique à l’ère numérique. Depuis 2018, elle s’est engagée dans le collectif Data for Good pour accompagner des projets de data-science au service du bien commun. Elle est diplômée de SciencesPo Paris et d’un master en droit du numérique de l’Université de Strasbourg. Judith Herzog est responsable des affaires européennes et de la prospective du Conseil national du numérique (CNNum). Spécialisée en droit antitrust, elle a rejoint le Conseil en 2013 pour y coordonner les différents travaux relatifs aux plateformes numériques. Elle a en outre été en charge des travaux relatifs à l’inclusion sociale, au travail, à la formation professionnelle. Mohammed Adnène Trojette est ingénieur en informatique et télécommunications de l’École centrale de Paris, ancien élève de SciencesPo Paris et de l’ENA, Mohammed est haut fonctionnaire, expert des enjeux numériques, notamment ceux en lien avec l’intérêt général et la puissance publique. Maître de conférences à SciencesPo et

développeur Debian, il a remis un rapport au Premier ministre en 2013 sur l’ouverture des données publiques en France, qui a fondé la doctrine publique en matière d’Open Data. Edouard Geffray est haut fonctionnaire, membre du Conseil d’État et ancien secrétaire général de la Commission nationale de l’informatique et des libertés (CNIL) de 2012 à 2017. Il est l’auteur, avec Miladus Doueihi, de Rivages numériques (Berger-Levrault, à paraître), un ouvrage qui examine en quoi la mer et sa régulation peuvent aujourd’hui inspirer la régulation de l’univers numérique. PARTIE 3 Pierre Bonis est directeur général de l’AFNIC, entité en charge de la gestion du .fr. Il est engagé depuis quinze ans dans le secteur des technologies de l’information et des communications (TIC) et de la gouvernance de l’internet. Il a exercé au sein du ministère des Affaires étrangères ainsi qu’au cabinet de la ministre en charge de l’économie numérique. Emmanuel V. Adjovi est haut fonctionnaire international. Il a été responsable des programmes numériques de l’Organisation internationale de la francophonie (OIF) et représentant de cette institution au sein du Conseil consultatif intergouvernemental (GAC) de l’Internet Corporation for Assigned Names and Numbers (ICANN). Il a également coordonné l’action des acteurs francophones dans les instances de l’AfriNIC (African Network Information Center). Titulaire d’un doctorat en droit et d’un Certificat d’aptitude à la profession d’avocat, il est expert en cyberdroit, politiques et stratégies du numérique. Il est enseignant invité à Télécom Paris Tech dans le cadre du Mastère en régulation de l’économie numérique et professeur invité à l’École supérieure africaine des TIC (ESATIC) d’Abidjan (Côte-d’Ivoire). Il est l’auteur de plusieurs articles et ouvrages. Laurent Ferrali est directeur des relations avec les gouvernements et les organisations internationales au sein de l’Internet Corporation for Assigned Names et Numbers (ICANN). Avant de rejoindre l’ICANN, il a exercé au ministère de l’Économie et des Finances en tant que chargé de mission sur les négociations internationales relatives à la gouvernance mondiale de l’internet ainsi qu’en tant qu’expert auprès de l’Organisation internationale de la Francophonie, de la Banque mondiale et de différents États africains. PARTIE 4 Lilian Richieri Hanania est avocate au Barreau de Paris et au Barreau de São Paulo, Docteure en droit international de l’Université Paris 1 – Panthéon-Sorbonne, médiatrice agréée auprès du CNMA et praticienne de droit collaboratif. Parmi ses nombreuses publications en droit international économique et droit international de la culture, avec un accent sur les industries créatives, les nouvelles technologies et la Convention de l’UNESCO de 2005, elle a dirigé l’ouvrage Diversité des expressions culturelles à l’ère du numérique.

Anne-Thida Norodom est professeure de droit public à l’Université Paris Descartes. Spécialiste du droit international de l’internet, elle a publié plusieurs articles et dirigé deux ouvrages intitulés Internet et le droit international et Diversité des expressions culturelles à l’ère du numérique, un troisième est en cours de publication et porte sur les cyberattaques et le droit international. PARTIE 5 Thaima Samman est avocate-associée, fondatrice du Cabinet SAMMAN, spécialisée dans les affaires publiques et les affaires réglementaires. Elle intervient tout particulièrement sur l’encadrement législatif et réglementaire du numérique. Avant de fonder le cabinet SAMMAN, Thaima a notamment été avocate chez August & Debouzy et Associate General Counsel chez Microsoft où elle a conduit pendant plusieurs années la stratégie juridique et affaires publiques de Microsoft pour la zone Europe-Moyen-Orient-Afrique. Marc Drevon est avocat au barreau de Paris et spécialiste des questions de régulation. Il intervient notamment dans les secteurs de la protection des données et du développement du numérique, du bâtiment, de l’énergie et de la santé. Avant de rejoindre le cabinet SAMMAN, Marc Drevon a travaillé pendant cinq ans au sein de la direction juridique de la Commission de régulation de l’énergie (CRE), ainsi que dans divers cabinets d’avocats. Jean-Jacques Sahel est directeur général de l’Internet Corporation for Assigned Names et Numbers (ICANN) en Europe. Il est aussi président du chapitre RoyaumeUni et membre du conseil de l’Institut international des communications (IIC). Il est actif depuis plus de 15 ans dans la politique publique de l’internet et la société de l’information, ayant travaillé à la fois dans le secteur privé et public, y compris au sein de forums comme l’OCDE et l’UIT. Il a publié plusieurs articles notamment autour du modèle de gouvernance multiacteurs et la réglementation du secteur télécom et de l’internet.

Sommaire BIOGRAPHIES DES AUTEURS PRÉFACE, de Mariya Gabriel INTRODUCTION, par Dalila Rahmouni-Syed Gaffar PARTIE 1. L’HUMANITÉ FACE À L’INTELLIGENCE ARTIFICIELLE DONNER UN SENS À L’INTELLIGENCE ARTIFICIELLE, par Cédric Villani INTELLIGENCE ARTIFICIELLE : UNE NÉCESSAIRE RÉFLEXION GÉOPOLITIQUE, par Julien Nocetti INTELLIGENCE ARTIFICIELLE AUTONOME : QUI SERA LE RESPONSABLE ?, par Béatrice Delmas-Linel PARTIE 2. POUVOIR DES PLATEFORMES, PUISSANCE DES DONNÉES LE POUVOIR DES PLATEFORMES, par Yann Bonnet, Camille Hartmann et Judith Herzog LES DONNÉES PERSONNELLES, « STAPLE COMMODITIES » DU NUMÉRIQUE, par Edouard Geffray L’OPEN DATA, AU CROISEMENT DE L’OUVERTURE ET DE LA GRATUITÉ DES DONNÉES, par Mohammed Adnène Trojette

PARTIE 3. LA GOUVERNANCE DE L’INTERNET : ENTRE FRACTURES ET RÉGULATIONS DU NUMÉRIQUE GOUVERNER L’INTERNET ? DU MYTHE À LA RÉALITÉ DE LA GOUVERNANCE MONDIALE DE L’INTERNET, par Dalila Rahmouni-Syed Gaffar et Laurent Ferrali

L’AFRIQUE FACE AUX DÉFIS DE LA RÉGULATION DU NUMÉRIQUE, par Emmanuel Adjovi LES FRACTURES NUMÉRIQUES, par Pierre Bonis PARTIE 4. LA DÉSINFORMATION ET L’EXCEPTION CULTURELLE FACE À LA TRANSFORMATION NUMÉRIQUE LA RÉGULATION DES FAKE NEWS EST-ELLE POSSIBLE ?, par Anne-Thida Norodom L’EXCEPTION CULTURELLE À L’ÈRE DU NUMÉRIQUE : QUEL RÔLE POUR LA FRANCE ?, par Lilian Richieri Hanania PARTIE 5. LE RÉGULATEUR À L’ÈRE DU NUMÉRIQUE : NOUVEAUX RÔLES, NOUVEAUX OUTILS ? DE LA RÉGLEMENTATION À LA COMPLIANCE, ENCADRER ET ACCOMPAGNER LA TRANSFORMATION NUMÉRIQUE, par Thaima Samman et Marc Drevon

LE RÔLE DU RÉGULATEUR À L’ÈRE DE LA CONVERGENCE NUMÉRIQUE : NOUVEAUX POUVOIRS OU NOUVELLES APPROCHES ?, par Jean-Jacques Sahel REMERCIEMENTS TABLE DES MATIÈRES

Préface de Mariya Gabriel Commissaire européen à l’économie et à la société numériques En moins de deux décennies, la révolution numérique a bouleversé nos vies, nos sociétés et, plus largement, nos paradigmes de penser et d’action. En tant que Commissaire européenne, je mesure chaque jour les mutations politiques, économiques, sociales et sociétales que nous vivons et, surtout, les bouleversements à venir. Leur rapidité et leur ampleur exigent que nous repensions notre manière de les appréhender sous peine de les subir et de perdre notre capacité de décision. Plus transversale, multidimensionnelle et flexible, notre approche de la transformation numérique se doit plus que jamais d’être plus proche de la réalité, celles des entreprises, des citoyens et des gouvernants, mais également faire l’objet d’une réflexion collective afin d’orienter nos choix. C’est dans cet esprit que l’ouvrage Les défis du numérique. Penser et pratiquer la transformation numérique apporte un éclairage précieux sur plusieurs enjeux déterminants de la transition numérique. D’abord parce qu’il réussit à rassembler au sein d’un même ouvrage les contributions pluridisciplinaires de chercheurs, d’universitaires, d’avocats et d’experts issus des secteurs public et privé pour croiser leurs regards, leurs points de vue et leurs disciplines sur ce phénomène qui nécessite de décloisonner nos cadres de pensée et d’adopter une approche globale. Précieux ensuite, car, en mêlant les approches théorique et pratique, cet ouvrage dessine les pistes de réflexion pour alimenter le débat sur notre avenir numérique. Précieux enfin, parce qu’il adopte un parti pris, s’attaquer à ce qui est notre défi collectif : la régulation. Quels que soient ses formes, ses niveaux ou ses acteurs, elle est au cœur de l’équilibre que nous devons trouver pour construire un numérique à visage humain. Pour la France et l’Europe, ce défi ne sera relevé que si elles affirment une vision commune, propre et ambitieuse, du numérique qui s’enracine dans des valeurs humanistes. Ainsi, en enrichissant la réflexion collective sur la transformation numérique à destination des lecteurs francophones, cet ouvrage fait incontestablement œuvre utile. J’en félicite ses contributeurs.

Introduction Regards croisés sur la transformation numérique

Par Dalila Rahmouni-Syed Gaffar Un ouvrage pluridisciplinaire Alors que les questions liées au numérique imprègnent chaque jour un peu plus notre quotidien, chacun a conscience que la transition numérique que nous vivons est ambivalente. Porteuse d’opportunités souvent inédites, mais également de risques encore difficilement maîtrisables, elle soulève de nombreux défis, individuels et collectifs, qu’il n’est pas toujours aisé d’appréhender. Qu’il s’agisse d’intelligence artificielle, de protection de nos données personnelles, du pouvoir croissant des plateformes, des fractures numériques ou encore des fausses informations, quels sont les outils pour comprendre ces enjeux ? Comment identifier, analyser et apporter des solutions aux problématiques majeures de la transformation numérique ? En d’autres termes, comment penser et pratiquer la transition numérique que nous vivons ? L’ouvrage Les défis du numérique. Penser et pratiquer la transformation numérique vise à apporter des éléments de réponses à ces questions en rassemblant, au sein d’un même ouvrage, les contributions pluridisciplinaires de chercheurs, d’universitaires, d’avocats, de fonctionnaires et d’experts issus du secteur public et du secteur privé avec l’objectif de croiser leurs regards et leurs disciplines sur des enjeux clés. Chacun, avec son regard, sa perspective, et souvent la plume propre à sa discipline, nous propose son point de vue sur les défis que soulève la transformation numérique. Cette diversité traduit la volonté d’adopter une méthode dynamique, et non linéaire, plus adaptée à un tel phénomène. Pour ce faire, l’ouvrage adopte une double approche. Hybride d’abord – « penser et pratiquer la transition numérique » – grâce à des contributeurs proposant une réflexion sur leur expérience pratique et professionnelle du numérique. Thématique ensuite, autour de cinq « défis » majeurs qui, sans prétendre à l’exhaustivité, recouvrent des problématiques essentielles : « l’humanité face à l’intelligence artificielle », « le pouvoir des plateformes et la puissance des données », « la gouvernance de l’internet : entre fractures et régulations du numérique », « l’exception culturelle et la désinformation face à la transformation numérique » et, enfin, « le régulateur à l’ère du numérique : nouveaux rôles, nouveaux outils ? ». Le choix de ces enjeux, parmi tant d’autres, s’explique par leur rôle pivot dans la transformation numérique qui en fait des points d’entrée clés pour une compréhension globale de ce phénomène.

Objectifs de l’ouvrage

Le premier objectif de cet ouvrage est de traiter une diversité de problématiques mais sous un angle spécifique qui en constitue le fil conducteur : la nécessité d’une régulation. Hier ringardisée par les grands acteurs de l’éco-système numérique mondial, l’idée de régulation fait progressivement son chemin comme nous le montre cet ouvrage, sous l’impulsion de certains États, notamment européens dont la France, pour qui la régulation constitue le moyen de construire une « troisième voie » numérique, un modèle propre ni américain, ni chinois. Le second objectif est parti du constat d’un besoin croissant de « penser » la transformation numérique dans sa propre langue, en l’occurrence le français. Pour des raisons historiques, l’anglais domine la réflexion sur le numérique et, par conséquent, la vision que l’on s’en fait. Pourtant, « penser » en langue française ce phénomène est indispensable, non seulement pour rendre accessibles aux nombreux lecteurs francophones les analyses sur ces enjeux, mais également pour se les approprier en les traduisant dans un narratif qui reflète un système de pensée et de valeurs propre. Ce livre a pour troisième objectif de donner à un large public les clés de compréhension d’enjeux souvent complexes et multidimensionnels liés à la transformation numérique sans pour autant trahir la complexité inhérente à un tel sujet. En rendant intelligibles ces problématiques, ce livre a vocation à contribuer à la réflexion collective sur la transformation numérique et ses répercussions sur nos sociétés et ainsi, nous l’espérons, à faire œuvre utile.

PARTIE 1. L’HUMANITÉ FACE À L’INTELLIGENCE ARTIFICIELLE

Donner un sens à l’intelligence artificielle1. Par Cédric Villani 1. L’imaginaire de l’intelligence artificielle De la difficulté de définir l’intelligence artificielle Définir l’intelligence artificielle (IA) n’est pas chose facile. Depuis ses origines comme domaine de recherche spécifique, au milieu du XXe siècle, elle a toujours constitué une frontière, incessamment repoussée. L’intelligence artificielle désigne en effet moins un champ de recherches bien défini qu’un programme, fondé autour d’un objectif ambitieux : comprendre comment fonctionne la cognition humaine et la reproduire ; créer des processus cognitifs comparables à ceux de l’être humain. Le champ est donc naturellement extrêmement vaste, tant en ce qui concerne les procédures techniques utilisées que les disciplines convoquées : mathématiques, informatiques, sciences cognitives… Les méthodes d’IA sont très nombreuses et diverses (apprentissage par renforcement, apprentissage adversarial, réseaux de neurones...) et ne sont pas nouvelles : beaucoup d’algorithmes utilisés aujourd’hui ont été développés il y a plusieurs dizaines d’années. Depuis la conférence de Dartmouth de 1956, l’intelligence artificielle s’est développée, au gré des périodes d’enthousiasme et de désillusion qui se sont succédé, repoussant toujours un peu plus les limites de ce qu’on croyait pouvoir n’être fait que par des humains. En poursuivant son projet initial, la recherche en IA a donné lieu à des vrais succès (victoire au jeu d’échecs, au jeu de go, compréhension du langage naturel…) et a nourri largement l’histoire des mathématiques et de l’informatique : combien de dispositifs que nous considérons aujourd’hui comme banals étaient à l’origine une avancée majeure en IA – une application de jeux d’échecs, un programme de traduction en ligne… ?

L’IA, entre fantasmes et recherches scientifiques Du fait de ses ambitions, qui en font un des programmes scientifiques les plus fascinants de notre époque, la discipline de l’IA s’est toujours développée de concert avec les imaginaires les plus délirants, les plus angoissants et les plus fantastiques, qui ont façonné les rapports qu’entretient le grand public avec l’IA mais également ceux des chercheurs eux-mêmes avec leur propre discipline. La (science) fiction, les fantasmes et les projections collectives ont accompagné l’essor de l’intelligence artificielle et guident parfois ses objectifs de long terme : en témoignent les productions fictionnelles abondantes sur le sujet, de 2001 l’Odyssée de l’espace, à Her

en passant Blade Runner et une grande partie de la littérature de science-fiction. Finalement, c’est probablement cette alliance entre des projections fictionnelles et la recherche scientifique qui constitue l’essence de ce qu’on appelle l’IA. Les imaginaires, souvent ethno-centrés et organisés autour d’idéologies politiques sousjacentes, jouent donc un rôle majeur, bien que souvent négligé, dans la direction que prend le développement de cette discipline.

2. Une nouvelle ère de l’IA La mise en données du monde L’intelligence artificielle est entrée, depuis quelques années, dans une nouvelle ère, qui donne lieu à de nombreux espoirs. C’est en particulier dû à l’essor de l’apprentissage automatique. Rendues possibles par des algorithmes nouveaux, par la multiplication des jeux de données et le décuplement des puissances de calcul, les applications se multiplient : traduction, voiture autonome, détection de cancer… Le développement de l’IA se fait dans un contexte technologique marqué par la « mise en données » du monde (datafication), qui touche l’ensemble des domaines et des secteurs, la robotique, la blockchain2., le supercalcul et le stockage massif. Au contact de ces différentes réalités technologiques se jouera sûrement le devenir de l’intelligence artificielle.

Une domination rampante ? Ces applications nouvelles nourrissent de nouveaux récits et de nouvelles peurs, autour, entre autres, de la toute-puissance de l’intelligence artificielle, du mythe de la Singularité et du transhumanisme. Depuis quelques années, ces représentations sont largement investies par ceux qui la développent et participent à en forger les contours. Le cœur politique et économique de l’intelligence artificielle bat toujours dans la Silicon Valley, qui fait encore office de modèle pour tout ce que l’Europe compte d’innovateurs. Plus qu’un lieu, davantage qu’un écosystème particulier, elle est, pour beaucoup d’acteurs publics et privés, un état d’esprit qu’il conviendrait de répliquer. La domination californienne, qui subsiste dans les discours et dans les têtes, nourrit l’idée d’une voie unique, d’un déterminisme technologique. Si le développement de l’intelligence artificielle est pensé par des acteurs privés hors de nos frontières, la France et l’Europe n’auraient d’autre choix que de prendre le train en marche. Les illustrations sont nombreuses : rien qu’en France, l’accord signé entre Microsoft et l’Éducation nationale sous le précédent quinquennat ou l’utilisation par la DGSI de logiciels fournis par Palantir, une start-up liée à la CIA, ne disent finalement pas autre chose. On observe la même tentation chez les entreprises européennes qui, persuadées d’avoir déjà perdu la course, cèdent bien souvent aux sirènes des géants de la discipline, parfois au détriment de nos pépites numériques.

3. L’IA, clés du pouvoir du monde à venir Un nouveau levier de pouvoir majeur dans un monde numérique Contrairement aux dernières grandes périodes d’emballement de la recherche en intelligence artificielle, le sujet a très largement dépassé la seule sphère scientifique et est sur toutes les lèvres. Les investissements dans la recherche et dans l’industrie atteignent des sommes extraordinaires, notamment en Chine. Les responsables politiques du monde entier l’évoquent dans les discours de politique générale comme un levier de pouvoir majeur : l’emblématique interview à Wired de Barack Obama en octobre 2016 montrait que ce dernier avait bien compris l’intérêt de faire de l’avance américaine en intelligence artificielle un outil redoutable de soft power. Le Président russe Vladimir Poutine a quant à lui affirmé que « celui qui deviendra le leader dans ce domaine sera le maître du monde », comparant l’intelligence artificielle aux technologies nucléaires. S’il s’agissait vraisemblablement pour lui de compenser le retard de la Russie en matière d’intelligence artificielle par un discours musclé sur le sujet, cette affirmation est révélatrice de l’importance géostratégique prise par ces technologies. Dans la mesure où les chaînes de valeur, surtout dans le secteur numérique, sont désormais mondiales, les pays qui seront les leaders dans le domaine de l’intelligence artificielle seront amenés à capter une grande partie de la valeur des systèmes qu’ils transforment, mais également à contrôler ces mêmes systèmes, mettant en cause l’indépendance des autres pays. C’est que l’intelligence artificielle va désormais jouer un rôle bien plus important que celui qu’elle jouait jusqu’alors. Elle n’est plus seulement un programme de recherche confiné aux laboratoires ou à une application précise. Elle va devenir une des clés du monde à venir. En effet nous sommes dans un monde numérique, de plus en plus, de part en part. Un monde de données. Ces données qui sont au cœur du fonctionnement des intelligences artificielles actuelles. Dans ce monde-là, qui est désormais le nôtre, ces technologies représentent beaucoup plus qu’un programme de recherche : elles déterminent notre capacité à organiser les connaissances, à leur donner un sens, à augmenter nos facultés de prise de décision et de contrôle des systèmes. Et notamment à tirer de la valeur des données. L’intelligence artificielle est donc une des clés du pouvoir de demain dans un monde numérique.

Un enjeu d’intérêt général, un défi pour la France et l’Europe Voilà pourquoi il est d’intérêt général que nous nous saisissions collectivement de cette question. Et que la France et l’Europe puissent faire entendre leur voix. Il est nécessaire de tout faire pour rester indépendants. Or la concurrence est rude : les États-Unis et la Chine sont à la pointe de ces technologies et leurs investissements dépassent largement ceux consentis en Europe. Le Canada, le Royaume-Uni et, tout particulièrement, Israël, tiennent également une place essentielle dans cet

écosystème naissant. Parce qu’à bien des égards, la France et l’Europe peuvent déjà faire figure de « colonies numériques »3., il est nécessaire de ne céder à aucune forme de déterminisme, en proposant une réponse coordonnée au niveau européen.

4. Comment l’État peut-il donner un sens à l’IA ? C’est pourquoi le rôle de l’État doit être réaffirmé : le jeu du marché seul montre ses limites pour assurer une véritable politique d’indépendance. De plus, les règles qui régissent les échanges internationaux et l’ouverture des marchés intérieurs ne servent pas toujours les intérêts économiques des États européens – qui l’appliquent trop souvent à sens unique. Plus que jamais, l’État doit donner un sens au développement de l’intelligence artificielle. Donner un sens, c’est-à-dire donner un cap, une signification et des explications.

Fixer un cap clair autour d’une stratégie ambitieuse Donner un sens, c’est tout d’abord donner un cap. Des choix clairs doivent être faits en termes de politique industrielle, autour de secteurs prioritaires : la santé, l’écologie, les transports-mobilités et la défense-sécurité sont ainsi autant de domaines où il est possible pour l’économie française et européenne d’exceller. Ces secteurs sont au service de l’intérêt général et des grands défis de notre époque, ils peuvent constituer un avantage comparatif de la France et de l’Europe et ils ont besoin d’une intervention de l’État pour se structurer. Cette intervention ne pourra avoir d’efficacité réelle que si elle est accompagnée d’une politique offensive de la donnée. Les données, au cœur du développement de l’IA, bénéficient aujourd’hui souvent à une poignée de très grands acteurs, qui tendent à enfermer les capacités d’innovation dans les limites de leurs entreprises toujours plus puissantes. Ce n’est qu’au prix d’une plus grande circulation de ces données, pour en faire bénéficier les pouvoirs publics, mais aussi les acteurs économiques les plus petits, qu’il sera possible de rééquilibrer les rapports de force. La France tient une place décisive dans la recherche en IA : des chercheurs français ont participé à fonder l’IA moderne et l’école mathématique et informatique française rayonne dans le monde entier. Néanmoins l’hémorragie est toujours plus importante : chaque semaine des chercheurs sont recrutés par les entreprises privées et souvent étrangères et quittent les laboratoires publics. Il faudra donc redonner à la recherche publique les moyens de ses ambitions, en pensant des dispositifs allant de la formation au transfert et à l’innovation. Enfin le développement économique du secteur de l’intelligence artificielle doit mettre en son cœur la préoccupation écologique. En tant que secteur, comme évoqué plus haut, c’est essentiel : les innovations en IA pourront servir à optimiser

les consommations d’énergie et le recyclage et à mieux comprendre les effets de l’activité humaine sur l’environnement. Mais il s’agit également de veiller à ce que l’intelligence artificielle que nous développons soit la plus économe en énergie et en ressources.

Donner une signification à l’IA autour de valeurs fondamentales Donner un sens, c’est également donner une signification. L’intelligence artificielle est loin d’être une fin en soi et son développement doit prendre en compte plusieurs aspects. Tout d’abord la nécessité de penser les modes de complémentarité entre l’humain et les systèmes intelligents. Que ce soit au niveau individuel ou collectif, cette complémentarité peut prendre plusieurs formes et peut être aliénante comme libératrice. Au cœur du développement de l’IA doit résider la nécessité de mettre en œuvre une complémentarité qui soit capacitante, en ce qu’elle permet de désautomatiser les tâches humaines. Pour favoriser la transition des tâches et des métiers dans ce sens, des expérimentations pourraient être mises en place sur l’ensemble des territoires, notamment à destination des populations les plus touchées par l’automatisation. Dans un monde marqué par les inégalités, l’intelligence artificielle ne doit pas conduire à renforcer les phénomènes d’exclusion et la concentration de la valeur. En matière d’IA, la politique d’inclusion doit ainsi revêtir un double objectif : s’assurer que le développement de ces technologies ne contribue pas à accroître les inégalités sociales et économiques ; et s’appuyer sur l’IA pour effectivement les réduire. Plutôt que de fragiliser nos trajectoires individuelles et nos systèmes de solidarités, l’IA doit prioritairement nous aider à activer nos droits fondamentaux, augmenter le lien social et renforcer les solidarités. La mixité doit être également au cœur des priorités : la situation est alarmante dans les filières numériques, tant les femmes sont peu représentées. Les algorithmes peuvent en outre reproduire des biais sexistes. Enfin une société algorithmique ne doit pas être une société de boîtes noires : l’intelligence artificielle va être amenée à jouer un rôle essentiel dans des domaines aussi variés que cruciaux (santé, banque, logement,…) et le risque de reproduire des discriminations existantes ou d’en produire de nouvelles est important. À ce risque s’en ajoute un autre : la normalisation diffuse des comportements que pourrait introduire le développement généralisé d’algorithmes d’intelligence artificielle. Il doit être possible d’ouvrir les boîtes noires, mais également de réfléchir en amont aux enjeux éthiques que les algorithmes d’intelligence artificielle peuvent soulever.

Expliquer et promouvoir pour une meilleure réflexion collective Donner un sens c’est enfin expliquer : expliquer ces technologies à l’opinion pour la démystifier – le rôle des médias est de ce point de vue primordial –, mais aussi expliquer l’intelligence artificielle en elle-même en développant les recherches sur

l’explicabilité. Les spécialistes de l’IA eux-mêmes affirment souvent que des progrès importants peuvent être faits sur ce sujet. Parallèlement, la défense et l’illustration de la stratégie française sur l’intelligence artificielle se sont faites via un certain nombre de canaux médiatiques : de nombreuses interviews ont été organisées, non seulement avec la presse française mais aussi avec les médias étrangers : en particulier le reportage de The Verge, consacré à la mission, ou le long entretien accordé par le président de la République au journal Wired. Et le retour vers les institutions a été bien soigné : la mission a ainsi été auditionnée par le Conseil d’État, par plusieurs commissions de l’Assemblée nationale (affaires économiques et affaires étrangères), avec à chaque fois des séances de questions bien plus longues que ce qui avait été initialement prévu, à la fois sur le diagnostic et sur les actions engagées. L’ensemble de ces orientations, présentes dans le rapport sur l’intelligence artificielle remis au président de la République le 28 mars 2018, a fait l’objet d’annonces d’envergure, lors d’un discours fondateur d’Emmanuel Macron : 1,5 milliard d’euros pour les quatre années à venir, dont près de la moitié consacrée à la recherche. À cela s’ajouteront 700 millions consacrés à l’industrie d’architecture électronique, des actions dans de nombreux ministères, des financements privés, et les très nombreux investissements étrangers (DeepMind, Fujitsu, Samsung, IBM, etc.) qui ont été annoncés à cette occasion. La mise en place fait encore l’objet de nombreuses discussions, que ce soit sur la politique de formation, la mise en place des institutions de recherche, ou encore la mise en œuvre des actions en santé et en transports. C’est de manière plus générale une réflexion collective qui doit être menée sur ces technologies : la constante accélération des rythmes de déploiement ne doit pas empêcher une discussion politique sur les objectifs que nous poursuivons et sur leur bien-fondé. 1 Ce texte se base en grande partie sur l’introduction du rapport Donner un sens à l’intelligence artificielle, remis par Cédric Villani au président de la République le 28 mars 2018. 2 La blockchain correspond à un registre distribué qui permet d’éviter de recourir à un tiers de confiance lors de transactions et qui est notamment au fondement du bitcoin. 3 Cette expression, traduite de l’anglais cybercolonization, est issue d’un rapport d’information de Catherine Morin-Desailly fait au nom de la commission des Affaires européennes en 2013 (« L’Union européenne, colonie du monde numérique ? »).

Intelligence artificielle : une nécessaire réflexion géopolitique Par Julien Nocetti L’analyse de l’essor et de la sophistication croissante de l’intelligence artificielle (IA) s’est essentiellement portée sur sa dimension socioéconomique – la raréfaction du travail – ou sécuritaire – le potentiel extraordinaire que ces technologies recèlent en matière de surveillance ou de transformation de la guerre. Les imaginaires collectifs associés à cette rupture technologique majeure ont fait passer au second plan les implications du développement de l’IA sur la scène politique et stratégique internationale, pourtant significatives. Le propos qui suit vise à éclairer les enjeux internationaux de l’IA : levier de puissance dans la concurrence entre États, celle-ci aura un effet « égalisateur » puisque de nombreux acteurs privés et de « petits » États acquerront une influence globale. L’IA renforce les nombreuses incertitudes du monde qui vient. La lutte pour sa maîtrise, civile et militaire, n’en est qu’à ses prémices ; l’Occident sera-t-il en mesure d’opérer une « révolution culturelle » face à une Chine qui parvient à « désoccidentaliser » la géographie du numérique ?

1. Un renouvellement de la conflictualité Vers un bouleversement de la scène internationale Il n’a échappé à personne que l’IA est de plus en plus débattue à l’échelle internationale. Lors d’un sommet des BRICS1. en Chine à l’été 2017, Vladimir Poutine déclarait que le pays qui deviendra leader de ce secteur « sera celui qui dominera le monde ». Le constat fait par le président russe – comme par d’autres acteurs que les États – est que comme chaque rupture technologique, l’IA bouleversera les rapports interétatiques et la scène internationale. Ses applications duales – civiles (commerciales) ou à finalité sécuritaire et militaire – attisent les rivalités entre puissances, au premier rang desquelles les États-Unis et la Chine. Ces dernières années, Washington et Pékin ont dépensé des milliards de dollars dans le développement de systèmes d’armes autonomes (drones, missiles, etc.), qui viendront considérablement élargir le spectre de la guerre traditionnelle. Le renseignement américain, dans un rapport de 2016, estimait que l’IA risque de bouleverser les conflits armés de la même manière que les armes nucléaires le firent en leur temps. L’hypothèse de dérive malveillante d’intelligences artificielles sophistiquées est

aujourd’hui régulièrement évoquée dans le contexte de la voiture autonome, des drones et systèmes armés autonomes, du trading à haute fréquence ou de la cybersécurité des robots domestiques. Le plus souvent, il ne s’agit que de formuler l’hypothèse de malveillance comme une éventualité à prendre en compte dans un futur mal défini où l’IA aurait atteint un niveau de développement et d’autonomie très supérieur à ce qu’il est aujourd’hui. La majorité de tels propos alarmistes provient, par ailleurs, des dirigeants de la tech américaine : d’Elon Musk (patron de Tesla et SpaceX), avertissant du risque possible du déclenchement d’une « troisième guerre mondiale », à Bill Gates (Microsoft) ou Eric Schmidt (ex-Google), dont l’inquiétude porte davantage sur les conséquences à moyen terme de l’IA sur l’emploi.

Une évolution de l’art de la guerre L’art de la guerre évolue également dans son versant « cognitif ». Dans un contexte international où la rivalité pour les récits a une influence déterminante au plan stratégique, les potentialités de l’IA apparaissent éminentes. Certains pays, comme la Russie, ont su déployer une propagande algorithmique sophistiquée et sous-traitée à des acteurs (para-)privés. Les modes d’action de la « guerre de l’information » sont ainsi profondément renouvelés par la computational propaganda (combinaison des usages des réseaux sociaux, des métadonnées et de l’IA), permettant une désinformation très personnalisée, tous azimuts, et difficilement maîtrisable pour la victime2..

2. Une rivalité avant tout sino-américaine « Le grand bond en avant » de la Chine À la différence de l’administration de Donald Trump, qui a diminué les budgets fédéraux consacrés à la recherche fondamentale depuis sa prise de fonction, les autorités chinoises ne cherchent pas à dissimuler leurs investissements massifs en intelligence artificielle et robotisation. Pékin a lancé, à l’été 2017, un plan visant au leadership mondial de la Chine sur l’IA en 2030, doté de 148 milliards de dollars. Une spécificité de l’IA en Chine est de lier étroitement le développement civil et militaire de celle-ci, via une synergie entre l’État, le Parti et les géants nationaux du numérique. Baidu, Alibaba, Tencent participent ainsi de la sophistication croissante du développement de l’IA en Chine en coopérant activement avec les autorités3.. Par contraste, les partenariats des acteurs de la Silicon Valley avec le complexe militaro-industriel américain, s’ils se développent, en particulier par l’entremise du Defense Innovation Board, présidé par l’ancien président du conseil d’administration d’Alphabet Eric Schmidt, restent mal perçus par les salariés de la tech. En avril 2018, plus de 3.000 salariés de Google ont contesté un projet d’IA de la société à finalité

militaire, réclamant publiquement que l’entreprise mette un terme à son partenariat avec le Département de la Défense. À moyen terme, une conséquence prévisible est le creusement du fossé entre les autorités fédérales et les pôles d’innovation (Silicon Valley, Boston), avec le risque que l’avenir de l’IA soit bâti par et pour les plateformes californiennes. Le « grand bond en avant » de la Chine dans l’IA présente également un versant interne. Pékin possède un avantage substantiel sur ses rivaux occidentaux : une absence de retenue à collecter les données de ses 772 millions d’internautes, lesquelles alimentent de gigantesques bases de données utilisées à l’« éducation » des intelligences artificielles. Cette politique contribue en retour à affiner le système de surveillance numérique chinois, tout particulièrement en matière de reconnaissance faciale. Prévoir les rassemblements de foule, les cyberattaques ou les scènes de crime, identifier les utilisateurs d’applications mobiles, etc. : les technologies d’IA revêtent une dimension politique logiquement sensible dont les autorités semblent s’affranchir, même si le respect de la vie privée commence à faire l’objet de revendications citoyennes4.. S’il est aisé de souligner les efforts entrepris par Pékin, plus délicat est de nuancer la portée des ambitions chinoises. Deux lectures se font jour. Une première approche met en avant l’essor inexorable de la Chine, qui rattraperait et dépasserait technologiquement les États-Unis, dominerait sans partage l’IA, avec un risque élevé de conflictualité internationale, tout particulièrement avec les États-Unis. C’est la vision portée notamment par Eric Schmidt, qui conseille néanmoins de conserver des formes de coopérations avec la Chine5.. La seconde approche avance, à grands traits, que l’argent chinois ne se traduira pas nécessairement par une « domination mondiale ». Ainsi, dans un passé récent, les grands plans annoncés pour l’automobile en particulier, ou pour les semi-conducteurs, ne se sont pas matérialisés par une hégémonie de la Chine sur ces industries. En outre, la coopération sino-américaine reste encore ouverte dans l’intelligence artificielle, au moins du côté américain. Les géants chinois comme Baidu (dans la Silicon Valley) et Tencent (à Seattle) ont ouvert des laboratoires de recherche aux États-Unis.

Un effet égalisateur sur la scène internationale En dehors de la Chine et des États-Unis, certains pays ont effectué des investissements significatifs en matière d’IA et de recherche et développement sur des secteurs ou applications spécifiques. Des pays comme le Canada, Israël, la Corée du Sud ou la Grande-Bretagne, apparaissent idéalement positionnés, de par le développement de leur écosystème et la culture du capital-risque. La maîtrise de l’IA devrait avoir un effet égalisateur sur la scène internationale pour des « petits pays » qui à l’heure actuelle ne disposent pas d’une influence diplomatique ou militaire considérable. Bien qu’en retard par rapport aux États-Unis et à la Chine, la

Russie a lancé un programme de modernisation militaire qui a permis de nouveaux investissements en matière de robotisation et d’IA. Cependant, Moscou apparaît plus désireux d’en faire usage pour son appareil de propagande, de renseignement et de hacking que dans une finalité géoéconomique.

3. Défis internes, conséquences globales Accroissement des inégalités et risque populiste Pour les États, les conséquences de l’IA sont aussi internes, avec de possibles répercussions globales. Un rapport remis aux autorités américaines en 2016 avançait que la part croissante de la robotisation et de l’IA dans l’économie nationale risque de provoquer la mise au chômage de la moitié des hommes de 25 à 54 ans d’ici à 2050. Cette donnée doit être replacée dans le contexte plus large des conséquences des mutations du travail. En Europe et en Amérique du Nord, les ruptures technologiques en cours attisent les craintes de destruction massive d’emplois et de creusement des inégalités sociales, ayant pour conséquence, à plus ou moins brève échéance, une scission des sociétés occidentales entre, d’une part, une population de « nantis » accédant à des emplois à haute valeur ajoutée et jouissant d’un pouvoir d’achat élevé ; et d’autre part, une population de « laissés-pour-compte », sans emploi ou n’ayant accès qu’à des emplois peu rémunérés et dépendants de l’aide sociale pour survivre. Une telle situation pourrait engendrer des troubles sociaux, voire de sérieux conflits internes. Les classes moyennes – socles des sociétés démocratiques –, subissant le coût le plus élevé en matière de transformation du travail, peuvent manifester leur insécurité et leur perte de confiance dans le système politique occidental et ses valeurs par un recours accru aux discours et au vote populistes, voire à une demande accrue d’autoritarisme6..

De nouveaux rapports de force sur la scène internationale De manière plus générale, des problématiques considérées jusqu’à présent comme relevant de la gouvernance socioéconomique traditionnelle – l’éducation et la formation, la protection sociale, la fiscalité numérique et la taxation des robots – acquerront une dimension de « haute politique » et cristalliseront de nouveaux rapports de force en Occident. Sur ces enjeux, l’agenda politique des dirigeants occidentaux, encore faiblement étayé selon les pays, se heurtera frontalement au discours de plus en plus construit des grands acteurs du numérique. Aussi, les PDG de ceux-ci n’hésitent-ils plus à se positionner publiquement sur les enjeux de l’éducation et de l’emploi7.. La gestion

de la transition vers de nouveaux modes de travail, de nouveaux métiers et tâches, dans des environnements en mutation constante, fera donc de la formation une arme stratégique pour les États. La vitesse d’adaptation du capital humain sera la « clé » du développement au cours des prochaines décennies, tout en représentant un puissant ferment de tensions sociales.

4. Pour une gouvernance mondiale de l’intelligence artificielle La nécessité d’une gouvernance mondiale de l’IA : quel rôle pour l’Europe ? Négocier les « règles du jeu » est urgent pour l’Europe qui, malgré l’éclosion récente et bienvenue de débats publics et de réflexions stratégiques8., pâtit d’un sous-financement de l’investissement et de la recherche, surtout en comparaison des États-Unis et de la Chine. Le développement de l’IA ne fait pour l’heure l’objet d’aucune gouvernance – la technologie évoluant plus rapidement que le temps diplomatique. Les institutions multilatérales qui se sont penchées sur l’IA l’ont fait jusqu’à présent sous la pression de la société civile et du secteur privé, notamment sur les armes autonomes. Les initiatives restent aussi en très grande majorité anglo-saxonnes. Les premières discussions formelles sur les armes autonomes, par exemple, ont suivi un activisme soutenu d’organisations comme le Comité international pour le contrôle des armes robotisées et la campagne internationale « Stop Killer Robots ». La Fondation XPrize, basée dans la Silicon Valley, s’est associée avec l’Union internationale des télécommunications (UIT) pour organiser, en juin 2017, le AI for Good Global Summit.

Pour une gouvernance multiacteurs En outre, l’accession de plus en plus d’acteurs – étatiques comme non-étatiques – aux potentialités de l’IA requiert l’élaboration d’une gouvernance dite « multiacteurs », qui fasse interagir gouvernements, société civile et acteurs privés – comme pour l’internet. Deux écueils seront toutefois à éviter. D’une part, parvenir à un mode de gouvernance réellement pluraliste et non seulement participatif, afin d’éviter les logiques d’influence des grands acteurs privés du secteur. D’autre part, réaliser que le centre de gravité numérique et technologique de la planète se déplace inexorablement vers l’Asie. À la différence de l’internet, dont les standards techniques, les normes, ont été élaborés principalement par les Américains, ou du moins par une constellation d’instances de droit privé, agissant notamment par la voie du droit souple (soft law), l’IA est « désoccidentalisée » dès le départ. À l’évidence, le potentiel de l’IA pour la croissance, le développement et le bien

public exigera l’adoption de normes techniques et de mécanismes de gouvernance qui maximisent la libre circulation des données dans des services à forte intensité de données. Ce besoin vient heurter la nécessité d’une réglementation rigoureuse des données afin de garantir la protection de la vie privée et le consentement éclairé. Penser stratégiquement l’IA imposera donc en contrepoint d’avoir une politique des données cohérente avec les objectifs fixés, en plus de mener une rigoureuse réflexion philosophique et éthique de cette rupture technologique majeure. 1 Ce forum associe le Brésil, la Russie, l’Inde, la Chine et l’Afrique du Sud. 2 W. KNIGHT, « Fake News 2.0: Personalized, Optimized, and Even Harder to Stop », MIT Technology Review, 27 mars 2018. 3 Ch. CAMPBELL, « Baidu’s Robin Li is helping China win the 21st century », Time, 18 janvier 2018. 4 P. MOZUR, « Internet users in China expect to be tracked. Now, they want privacy », New York Times, 4 janvier 2018. 5 J. VINCENT, « Eric Schmidt says America needs to “get its act together” in AI competition with China », The Verge, 1er novembre 2017. 6 J. NOCETTI, « L’Europe face à la numérisation du travail », Notes de l’Ifri, 2018. 7 Mark Zuckerberg, dans un discours à Harvard en mai 2017, a ainsi prôné le revenu universel et la couverture santé étendue. 8 Voy. en particulier C. VILLANI (dir.), Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne, Rapport remis au Premier ministre, mars 2018 (https://www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_accessible.pdf).

Intelligence artificielle autonome : qui sera le responsable ? Sujet tabou ou non sujet ? Par Béatrice Delmas-Linel Les médias bruissent chaque jour de nouvelles applications d’intelligence artificielle (IA) qui gagnent notre quotidien et tous les secteurs de la vie collective : les transports avec la voiture, les avions et les hélicoptères dits « autonomes », les plateformes internet et le marketing numérique de plus en plus automatisés, la robotisation croissante de l’industrie ou encore la sophistication toujours plus poussée des applications d’IA dans le domaine de la santé, de la justice et de la police prédictives. Ce traitement médiatique se fait ainsi souvent de manière verticale, sur une industrie, un produit ou un scénario d’usage spécifique alors que l’IA a bien une vocation horizontale en touchant de manière transversale tous les domaines. En parallèle, les débats font rage sur l’impact de l’IA sur le monde du travail, sur les libertés publiques, sur l’économie nationale et la compétitivité de la France au plan international. C’est dans ce dernier contexte que s’inscrit la mission confiée au mathématicien et député Cédric Villani qui a débouché sur le rapport présenté le 28 mars 20181.. Comme il le démontre dans sa contribution au présent ouvrage, Cédric Villani explique à juste titre que, si l’IA elle-même n’est pas si nouvelle puisque les premières recherches dans cet espace datent de plus d’un quart de siècle, l’accélération indéniable des applications et des capacités d’autonomisation des technologies qui y sont liées ont rendu ce sujet aujourd’hui central comme marqueur de la transformation numérique. Ainsi, grâce aux progrès des puissances de calcul qui ont aussi permis l’informatique en nuage (le fameux « cloud »), au traitement de volumes croissants de données (dit « big data ») et à la diffusion de technologies de reconnaissance vocale et faciale, l’avenir de l’IA tient au développement d’applications de plus en plus autonomes, c’est-à-dire, sans intervention ou contrôle humain. Au-delà des aspects sociaux et éthiques qui sont au cœur des problématiques induites par cette IA dite « autonome », les questions soulevées du point de vue du droit sont tout aussi essentielles : comment déterminer les règles de responsabilité juridique qui s’appliqueront à ces robots « autonomes » afin de limiter les risques d’impunité ? Qui doit porter la responsabilité ultime en cas de dommage et sur quel fondement juridique ? Comment garantir une réparation adéquate de la victime ? En

d’autres termes : qui sera le responsable ? S’il n’est pas question aujourd’hui de réformer les grands principes de la responsabilité civile du droit français, ni de faire de l’IA autonome un « troisième type » de sujet de droit doté d’une responsabilité propre entre l’homme et la chose, la question de la réparation due aux victimes est incontournable car elle va se faire de plus en plus prégnante. Le législateur, tant national qu’européen, semble préférer à ce stade tester la résistance, ou la souplesse, du régime de responsabilité civile en place en l’adaptant au cas par cas.

1. IA autonome et responsabilité juridique : un risque d’impunité ? Quand l’IA devient autonome L’IA est définie dans la norme ISO 2382-282. comme la « capacité d’une unité fonctionnelle à exécuter des fonctions généralement associées à l’intelligence humaine, telles que le raisonnement et l’apprentissage ». Initialement cantonnée au périmètre d’un programme et de fonctions déterminées, elle bénéficie progressivement d’une faculté croissante d’apprentissage automatique (« machine learning ») et profond, à savoir une capacité d’apprendre à l’infini de ses propres expériences de manière autonome (on parle aussi d’une intelligence artificielle dotée de facultés cognitives de réseaux de neurones profonds ou « deep learning »). L’IA pourra ainsi de plus en plus prendre des décisions et générer des actions de manière « autonome » c’est-à-dire, indépendamment de toute intervention ou de tout contrôle humain et, surtout, sans possibilité pour son ou ses concepteurs d’anticiper et de prévoir ces décisions et ces actions. Dès lors, qui sera responsable des actes, potentiellement dommageables, de ces intelligences autonomes , qu’elles s’incarnent dans des supports physiques, tels les robots ou toute machine, qu’elles s’inscrivent dans des solutions technologiques dématérialisées, tel par exemple un programme de diagnostic en matière médicale ? À ce stade du droit, il existe un réel risque que l’application des règles actuelles débouche sur une absence de responsabilité du fait de l’intelligence artificielle autonome, et, partant, sur une absence de réparation des dommages qu’elle peut causer.

Les règles de responsabilité civile du droit français au regard de l’IA autonome L’accident mortel survenu le 19 mars 2018 aux États-Unis, dans lequel une femme a été percutée par un véhicule autonome expérimental de la société Uber, est symptomatique des questions de responsabilité. Si cet accident était intervenu sur le

sol français, qui aurait été tenu responsable sur le plan juridique, la société Uber ou bien la société Nvidia, éditrice du logiciel de conduite autonome Nvidia Drive ? La réponse à cette question ne va pas de soi. En effet, si le droit français de la responsabilité civile3. commande une obligation de réparer tout préjudice subi dès lors qu’il existe une preuve de ce préjudice et de son lien de causalité avec une action fautive, principe renforcé en matière de produits par le droit européen4. – qui prévoit que le producteur est responsable de tout produit « défectueux » –, ces règles ne répondent qu’imparfaitement aux problématiques délicates que vont potentiellement soulever les innovations issues de l’IA5.. Car déterminer l’existence d’une faute ou d’un défaut ne sera ni facile ni pertinent. En cas de mise en œuvre d’une intelligence artificielle strictement fonctionnelle, sans autonomie et sans boite noire, il peut être imaginé de remonter à l’origine même du programme pour identifier les dysfonctionnements et les failles dans le codage et ainsi remonter au responsable qui serait le concepteur. Pour la réparation elle-même, toute victime peut mettre en cause la responsabilité de celui qui lui a causé un dommage, par exemple le conducteur d’un véhicule autonome ou le propriétaire d’un robot, ou qui a fourni le produit ou le service incorporant l’IA. Ce dernier pourra se retourner contre son propre fournisseur et ainsi de suite, classiquement, jusqu’à l’ultime responsable. Ce raisonnement, à première vue simple, pose toutefois de nombreuses questions lorsque la situation implique une intelligence artificielle d’apprentissage profond, imprévisible et opaque pour ces concepteurs mêmes. D’abord, comment qualifier la nature même de l’IA et identifier celui qui est responsable des actes dommageables causés par ces machines ? Autonomes mais dénués de toute personnalité juridique, ces intelligences sont-elles des « choses » liées à leur propriétaire, à leur concepteur, à leur fabricant ou bien à leur utilisateur ? Ensuite, comment distinguer une décision ou une action fautive de nature à fonder un devoir de réparation des dommages alors même que l’IA autonome, tout comme le cerveau humain, ne peut prétendre à l’infaillibilité ? Comment apporter la preuve d’un défaut du programme ou de logiciel, voire des algorithmes ? Enfin, faudra-t-il opter pour des règles spécifiques, au-delà du droit commun de la responsabilité, du fait des produits défectueux, car comment caractériser le « défaut du produit » dans l’action ou la décision prise en toute autonomie par l’intelligence artificielle ? Si ces questions témoignent de la difficulté de déterminer les modalités dans lesquelles le régime de responsabilité civile s’applique à l’IA autonome, ces problématiques ne sont pas spécifiques au droit français naturellement puisque des réflexions sont aussi menées au niveau de l’Union européenne qui suggèrent de ne pas lancer de réforme globale à ce stade mais d’ajuster la réglementation existante au cas par cas.

2. Vers une responsabilité juridique propre à l’IA autonome ? Une temporisation dans l’adoption de toute réforme globale en Europe et en France En Europe, le Parlement européen a adopté le 16 février 2017 une Résolution à l’attention de la Commission européenne, priée de se pencher sur le sujet afin d’adopter la réglementation nécessaire et de permettre l’harmonisation des systèmes de responsabilités civiles des États membres en la matière6.. Cette Résolution est dénommée Règles de droit Civil sur la Robotique, une désignation quelque peu réductrice car, à côté des robots, elle vise bien l’IA, y compris dans sa forme avancée d’autoapprentissage, qui, comme on l’a vu, indépendamment du robot ou de tout support qui la contient, pose directement la question de la responsabilité civile qui en résulte. La Résolution indique en effet très clairement que, plus un robot est autonome, moins il peut être considéré comme un simple outil contrôlé par d’autres acteurs (tels que le fabricant, l’opérateur, le propriétaire, l’utilisateur, etc.) et qu’à cet égard se pose la question de savoir si les règles ordinaires en matière de responsabilité sont suffisantes ou si des principes et règles nouveaux s’imposent pour clarifier la responsabilité juridique des divers acteurs7.. La Résolution estime que les régimes de responsabilité civile existants présentent des insuffisances et va jusqu’à poser la question de la reconnaissance d’une personnalité juridique des robots, et partant, celle d’une personnalité juridique à une IA autonome, qui deviendrait alors nouveau sujet de droit. Elle estime qu’il est aujourd’hui nécessaire pour l’Europe, à travers une proposition législative, d’adopter des nouvelles règles sur les aspects juridiques du développement et de l’utilisation de la robotique et de l’intelligence artificielle. En réponse, la Commission européenne8. a décidé de lancer une évaluation de la directive 85/374/CEE relative à la responsabilité du fait des produits défectueux afin de déterminer dans quelle mesure elle est adaptée aux nouvelles avancées technologiques ou si une nouvelle législation européenne est nécessaire. Le Comité économique et social européen (CESE) a publié dans le même temps un rapport le 31 mai 20179. dans lequel il s’oppose à la mise en place d’une forme de personnalité juridique pour les robots ou pour l’IA, mesure inefficace voire dangereuse selon lui10., et prône d’examiner plutôt comment adapter le droit existant aussi bien celui de l’UE que celui des États membres tout en affirmant la nécessité pour l’Europe de jouer un rôle moteur dans l’établissement d’un cadre normatif clair au niveau mondial. En France, dans le cadre de la stratégie nationale sur l’IA lancée en 2016, le

rapport du groupe de travail sur les enjeux juridiques de l’intelligence artificielle du 21 mars 2017 a considéré qu’il n’existe pas, à ce stade, de vide juridique sur la question de l’application des règles actuelles de responsabilité civile aux applications d’IA autonome puisque les instruments du droit positif existants sont mobilisables11.. Dans le même sens, la stratégie nationale pour l’IA rendue le 28 mars 2018 n’a pas fait de ce thème un chantier prioritaire. Évoquée au titre des défis éthiques12. posés par l’IA, cette responsabilité juridique est toutefois énoncée comme principe général notamment au regard du nouveau règlement général de la protection des données personnelles (RGPD)13., tout en soulignant la responsabilité principale, et ce, dès la conception de ceux qui conçoivent et commercialisent ces technologies (« by design »)14.. Du côté du ministère de la Justice, l’avant-projet de la justice portant réforme de la responsabilité civile déposé en mars 2017 ne contient pas non plus de disposition spécifique à l’IA autonome. Ainsi, le mot d’ordre semble bien être de temporiser tout projet de réforme globale sur le sujet de la responsabilité civile au regard des conséquences encore incertaines de l’IA autonome.

La nécessité à court terme de mécanismes d’indemnisation adaptés à l’IA autonome : vers une approche au cas par cas Si les fondements mêmes de la responsabilité civile n’appellent pas de réforme dans l’immédiat, c’est bien sur la mise en œuvre de cette responsabilité et, partant, la réalité de la réparation des préjudices en cas de dommage, que les positions devraient être amenées à évoluer. Le cas pratique des véhicules autonomes, déjà prêts au plan technique, montre le frein à la mise sur le marché que constitue la question de l’indemnisation des dommages qu’ils sont susceptibles de causer. Ainsi, les véhicules autonomes font déjà l’objet d’un début de réglementation spécifique puisqu’une ordonnance du 3 août 2016, prise en application de la loi n° 2015-992 du 17 août 2015 relative à la transition énergétique pour la croissance verte, autorise l’expérimentation de véhicules autonomes sans conducteur ou disposant de systèmes d’aide à la conduite dans des conditions réduites. Un plan a été annoncé par le gouvernement le 6 avril 2018 qui devrait étendre le cadre de ces expérimentations, notamment sur la voie publique, pour des voitures autonomes et des robots de livraison, toujours sous autorisation. Ces mesures font partie de la loi PACTE (plan d’action pour la croissance et la transformation des entreprises). Ainsi, c’est la société ayant sollicité et obtenu l’autorisation nécessaire pour ces expérimentations qui serait pécuniairement responsable du paiement des amendes en cas de contravention et pénalement responsable en cas d’accident et de dommage corporel à un tiers, et non pas le conducteur pouvant se trouver à bord du

véhicule15.. Ce choix législatif semble se rapprocher, dans sa philosophie, d’une solution à la problématique de responsabilité basée sur la gestion du risque. Cette solution vise en effet à faire peser la réparation sur la personne qui est en mesure de gérer les risques associés à l’intelligence artificielle et d’absorber d’un point de vue économique les conséquences de ces risques. Une telle approche, fondée sur une responsabilité civile basée sur la gestion du risque16., illustre vraisemblablement l’évolution du droit à venir aussi bien en France que dans l’UE. Ainsi, la Commission européenne envisage de faire peser la responsabilité sur l’acteur du marché le mieux placé pour réduire au minimum les risques, c’est-à-dire celui qui, indépendamment de toute faute ou négligence, est en mesure de gérer les risques associés à l’IA autonome et d’absorber d’un point de vue économique les conséquences de ces risques17.. Très logiquement, une telle approche devra être complétée par une réflexion poussée sur les mécanismes d’assurance, tels que la création de régimes d’assurance obligatoire pour les acteurs économiques de l’intelligence artificielle destinés à couvrir les dommages éventuels, ou celle de fonds de garantie ou fonds de compensation. Mais il semble bien que cette réflexion prendra du temps, elle aussi. Au total, en temporisant l’adoption de nouvelles règles de responsabilité spécifiques à l’IA, c’est bien l’exigence de concilier la sécurité juridique nécessaire pour le développement des nouvelles technologies avec le besoin croissant d’éclaircir les responsabilités entre les différents acteurs du marché dans le cas de l’IA autonome qui semble marquer le pas. Non sujet ou sujet tabou, l’avenir nous dira si cette position permettra de rassurer les usagers et les acteurs économiques de solutions intégrant une IA de plus en plus autonome, opaque et imprévisible. 1 C. VILLANI (dir.), Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne, disponible sur : https://www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_accessible.pdf. 2 Norme ISO/IEC 2382-28:1995, Technologies de l’information – Vocabulaire – Partie 28 : Intelligence artificielle – Notions fondamentales et systèmes experts, révisée par ISO/IEC 2382:2015. 3 Pour rappel, l’article 1240 du Code civil énonce le principe général que : « tout fait quelconque de l’homme, qui cause à autrui un dommage, oblige celui par la faute duquel il est arrivé à le réparer ». L’article 1242 précise pour sa part qu’ : « on est responsable non seulement du dommage que l’on cause par son propre fait, mais encore de celui qui est causé par le fait des personnes dont on doit répondre, ou des choses que l’on a sous sa garde ». 4 Notamment la directive 85/374/CEE en ses articles 1245, 1245-3 et 1245-8. 5 A. DE STREEL et H. JACQUEMIN (coord.), L’intelligence artificielle et le droit, collection du Crids, Bruxelles, Larcier, 2017. 6 Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL) P8_TA-PROV(2017)0051) disponible sur : http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML+TA+P8-TA-20170051+0+DOC+PDF+V0//FR. 7 Ibid. 8 La Commission a réagi le 16 mai 2017 au rapport adopté par le Parlement européen par un communiqué disponible sur : http://www.europarl.europa.eu/oeil/spdoc.do?i=28110&j=0&l=fr.

9 https://www.eesc.europa.eu/fr/our-work/opinions-information-reports/opinions/lintelligence-artificielle. 10 Le CESE prône plutôt d’examiner « dans quelle mesure les législations, réglementations et jurisprudences nationales et européennes actuelles en matière de responsabilité (pour les produits et risques) et de faute propre apportent une réponse suffisante à cette question et, si ce n’est pas le cas, quelles sont les solutions envisageables sur le plan juridique ». 11 http://www.strategie.gouv.fr/sites/strategie.gouv.fr/files/atoms/files/ia_annexe2_21032017.pdf. 12 Partie 5 du rapport. 13 Le rapport rappelle que « parallèlement, il faut s’assurer que les organisations qui déploient et utilisent ces systèmes demeurent responsables devant la loi des éventuels dommages causés par ceux-ci. Si les modalités de ce régime de responsabilité restent à définir, la loi informatique et libertés (1978) et le RGPD (2018) en posent déjà les principes ». 14 Le rapport précise qu’« il est donc essentiel que les “architectes” de la société numérique – chercheurs, ingénieurs et développeurs – qui conçoivent et commercialisent ces technologies prennent leur juste part dans cette mission en agissant de manière responsable. Cela implique qu’ils soient pleinement conscients des possibles effets négatifs de leurs technologies sur la société et qu’ils œuvrent activement à les limiter ». 15 L’article 43 de la loi PACTE modifie l’article 2-2 de l’ordonnance de 2016 précitée comme suit : « Art. 2-2. – Si la conduite du véhicule, dont le système de délégation de conduite a été activé et fonctionne dans les conditions prévues au premier alinéa de l’article 2-1, contrevient à des règles dont le non-respect constitue une contravention, le titulaire de l’autorisation est pécuniairement responsable du paiement des amendes. Si cette conduite a provoqué un accident entraînant un dommage corporel, ce titulaire est pénalement responsable du délit d’atteinte involontaire à la vie ou à l’intégrité de la personne prévus par les articles 221-61, 222-19-1 et 222-20-1 du code pénal lorsqu’il est établi une faute au sens de l’article 121-3 de ce code dans la mise en œuvre du système de délégation de conduite ». 16 Cette responsabilité basée sur une approche d’exposition des risques a pour but d’attribuer les responsabilités respectives aux acteurs du marché générant un risque majeur pour les autres et bénéficiant de la technologie d’IA. 17 Communication de la Commission européenne du 16 mai 2017 disponible sur : http://www.europarl.europa.eu/oeil/spdoc.do?i=28110&j=0&l=fr.

PARTIE 2. POUVOIR DES PLATEFORMES, PUISSANCE DES DONNÉES

Le pouvoir des plateformes Par Yann Bonnet, Camille Hartmann et Judith Herzog En une vingtaine d’années, plusieurs plateformes ont affirmé leur hyperprésence numérique et dans l’économie en général. Elles façonnent notre expérience quotidienne d’internet, en créant parfois des externalités sociales aux antipodes des aspirations utopiques d’une partie des fondateurs du web. Si leur domination pose bien sûr question, l’enjeu est ici de mieux appréhender ce phénomène plus global de plateformisation de l’économie, qui transforme et bouscule nos modes de régulation et nos façons d’élaborer les politiques publiques.

1. Sous l’effet du phénomène de « plateformisation », la société se transforme à travers la mutation des formes de production de valeur Ces dernières années, l’apparition d’une nouvelle génération d’entreprises dites « plate-formisées » – à l’instar d’Airbnb, Blablacar, Twitter, Google ou encore Amazon – a profondément remodelé nos modes d’accès aux services. En se nourrissant de la massification des usages du Web et des terminaux mobiles, ces dernières ont su imposer de nouvelles approches de la consommation. Leur poids économique est d’autant plus considérable qu’elles sont devenues un vecteur essentiel de l’activité économique de millions d’entreprises. Les progrès technologiques et la mondialisation ont apporté un nouveau degré de sophistication des formes d’externalisation de la production des services. L’avènement des plateformes de microjobbing comme Amazon Mechanical Turk (« AmazonTurk ») qui fournissent pour de nombreuses entreprises des moyens de sous-traiter une variété de tâches – de la note technique jusqu’au simple clic en passant par la traduction ou le développement – illustre ce fait. L’expansion de ces modèles tire directement parti du fonctionnement du Web, où chacun peut librement contribuer à une tâche, puisqu’Internet est accessible à tous, aux professionnels comme aux usagers lambda. Ce développement des usages amateurs et self-service a néanmoins eu pour conséquence de brouiller les frontières usuelles entre consommateur, entrepreneur, salarié, collaborateur, journaliste en herbe, chercheur et citoyen. Ainsi, les plateformes leaders ont permis de créer une nouvelle manière d’externaliser des services pour les entreprises, en agrégeant autour d’elles des groupes d’usagers contributeurs et en déployant des bouquets de services complémentaires qu’elles créent elles-mêmes ou qu’elles référencent. Dans ce

contexte, la plateforme ne se place ni en haut, ni en bas, ni au milieu de la chaîne de valeurs mais au centre d’un écosystème d’acteurs et de flux d’activités. Par exemple, lorsqu’Apple ou Google ouvrent des accès à leurs bases de données via des API1. que des développeurs utilisent pour créer des applications mobiles compatibles, ils renforcent la richesse de leur offre sans avoir à en supporter les coûts de R&D, tout en organisant une concurrence interne indolore, puisque interdépendante2.. Ces modèles inspirent désormais bon nombre d’entreprises, de mouvements civils, voire d’États, qui cherchent à les reproduire intégralement ou en partie, si bien, qu’à l’échelle mondiale, ils participent à faire évoluer les formes du travail, la division internationale de l’emploi3. et la redistribution.

À l’origine de nouveaux monopoles dans la sphère marchande Quelles sont les conséquences de ces mutations sur l’organisation de la concurrence à long terme et la concentration du pouvoir économique ? À mesure que les usages numériques progressent, certaines plateformes deviennent en effet des intermédiaires critiques aux clients finaux. Cette position privilégiée leur permet parfois d’exercer d’importantes pressions sur les marges des contributeurs4.. Pour les PME, les plateformes peuvent ainsi constituer un levier de croissance considérable pour trouver des clients, notamment à l’international, ainsi que pour accéder à des services marketing, de gestion ou de reporting statistique autrefois réservés aux grands groupes. À ce titre, l’affaire Google Shopping illustre comment les plateformes pouvaient se muer en concurrents redoutables pour leurs propres clients lorsqu’elles décident d’investir des marchés en amont ou en aval de la chaîne de production de valeur5.. Les préoccupations que soulèvent de tels déséquilibres entre les plateformes, initialement prestataires de services, et les entreprises clientes qui se voient directement concurrencées ne sont pourtant pas sans rappeler les difficultés rencontrées dans le secteur de la grande distribution, dans lequel la question de l’intensité de la concurrence, des rapports de force entre intermédiaires et producteurs ou du partage de la valeur restent des enjeux délicats. Au-delà de ces rapports verticaux entre acteurs, des préoccupations émergent, traduisant la remise en cause du monopole exercé par un groupe resserré de multinationales du numérique sur le reste de l’économie. Il est plausible que, dans un environnement où les géants du web se taillent la part du lion, le développement de l’économie de l’information6. rende durablement incontournable les effets winner takes all7. qui ont pour effet de monétiser des externalités de réseau aux seules entreprises qui ont su acquérir des bases d’audience massives. Les plateformes, par lesquelles transitent ces flux d’activités, sont en effet placées dans une position

idéale : en recueillant des quantités inédites d’informations sur les marchés desservis8., qu’elles exploitent ensuite pour influer sur la demande et acquérir une connaissance exceptionnellement détaillée de l’offre « intermédiée », les plateformes peuvent se doter d’un avantage considérable et ainsi s’enrichir facilement par la vente de services publicitaires et informationnels très rentables. Pour s’en convaincre, il suffit de remarquer que les plateformes nord-américaines occupent aujourd’hui le classement des premières capitalisations boursières mondiales9.. Face à cette position quasi monopolistique des géants nordaméricains, et dans une certaine mesure asiatiques, ainsi que leur avance en matière d’investissements dans la R&D, l’Europe ne peut plus rester dans l’indifférence. Par conséquent, la dépendance du vieux continent ainsi que son retard dans ses capacités à traiter et exploiter la masse d’informations qui circule sur le Web éveillent des craintes légitimes.

L’influence des plateformes sur notre perception du monde Les quelques centimètres carrés d’écran par lesquels nous gérons des pans entiers de nos vies quotidiennes constituent autant de fenêtres ouvertes sur nos vies privées sur lesquelles se penchent entreprises, acteurs politiques, artistes, journalistes mais aussi d’autres utilisateurs d’Internet. Notre environnement cognitif10. est de plus en plus façonné par la manière dont les plateformes articulent l’abondance des offres disponibles en ligne et la rareté de notre attention. Et comme le business model des plateformes repose sur l’attention qu’un utilisateur leur accorde, l’objectif de rentabilité commerciale peut parfois engager une plateforme à faire des choix qui vont à l’encontre des intérêts de ses utilisateurs. C’est le cas, par exemple, lorsque les plateformes organisent la rareté des espaces monétisables pour capter davantage de recettes publicitaires11.. Des stratégies d’incitation à l’achat peuvent également s’intégrer dans la conception informationnelle des services, en exacerbant l’impression de rareté (les mentions sur Booking invitant à se presser de réserver car « il ne reste plus que 3 chambres ») ou d’abondance (exemple des voitures « fantômes » sur l’application d’Uber, qui signifie une grande disponibilité de voitures, qui disparaissent après réservation) de l’offre. Or, si ces pratiques de manipulation de l’attention et leurs conséquences jugées préjudiciables sont aujourd’hui mieux connues, notamment à la suite des prises de position publiques d’anciens ingénieurs repentis12., un autre phénomène reste à expliciter : le développement de métriques sociales incitatives (comme les mentions « j’aime » ou « vu », les commentaires, les étoiles, ou la durée de visionnage) applicables aux services et aux contenus des entreprises et individuels. Ces métriques, devenues omniprésentes à mesure que l’engagement des utilisateurs dans les modèles économiques du Web s’est accru, exercent désormais une

influence bien tangible qui va bien au-delà de nos seuls choix de consommation. Par exemple, certaines entreprises sous-traitent pour des marques la priorisation les réponses des community managers en fonction du « capital réputationnel » des consommateurs mécontents (nombre de « followers », capacités d’influence, etc.). Il peut d’ailleurs être plus facile d’obtenir une révision d’une décision de censure de contenu ou de suppression de compte prise par erreur lorsque l’on dispose de moyens pour voir son cas médiatisé13.. Certains États comme la Chine vont même jusqu’à expérimenter des systèmes de scoring social qui sont pris en compte pour l’accès à certains services publics. Si ces recours aux nudges14. pour exploiter les biais non rationnels de nos comportements ne sont pas nouveaux, ils prennent une ampleur nouvelle dans le contexte de la société numérique. En ce sens, selon la chercheuse Shoshana Zuboff, le pouvoir ne réside plus dans la propriété des moyens de production, mais dans celle des outils de modification comportementale15. tels que les métriques sociales ou les instruments cognitifs16.. C’est aussi la raison pour laquelle la participation des citoyens à la définition de modèles de plateformes vertueux est un enjeu géopolitique, à l’heure où des plateformes d’envergure mondiale dotées d’une gouvernance propre ont la capacité de projeter et faire adopter par la société leurs propres métriques de valeur économique et morale. Enfin, les enjeux de limitation de la propagande terroriste ou d’autres contenus illicites ont suscité une augmentation des demandes faites aux plateformes telles que YouTube ou Facebook de s’impliquer plus activement dans la modération des contenus. En plus de l’encadrement des contenus qu’elles décident déjà contractuellement via leurs conditions générales d’utilisation (CGU), les plateformes doivent donc aussi évaluer préventivement l’illicéité d’un contenu, au risque d’exercer une censure abusive, pour éviter des poursuites ultérieures. L’un des arguments couramment avancé pour justifier cette délégation est l’impossibilité pour des tribunaux de traiter une telle masse de contenus. Mais, s’il est essentiel pour l’effectivité des règles que les plateformes mobilisent des ressources pour la modération de leurs espaces, cela ne remplacera pas les investissements nécessaires pour permettre à la justice de faire face au défi de la préservation de la liberté d’expression dans la société numérique.

Une multiplication des défis pour les régulateurs et les législateurs Le premier est celui de réussir à élaborer des règles communes à l’échelle européenne et internationale. Les plateformes les plus influentes étant de dimension internationale, les règles nationales unilatérales peuvent en effet s’avérer inopérantes, voire contre-productives, en l’absence d’un environnement fiscal hétérogène. Le deuxième est celui de la transparence des systèmes à l’égard des usagers et de la société. Pour faire face à une concurrence mondiale, les

plateformes s’adaptent en permanence pour rester dans la course et se différencient en créant chacune leur univers spécifique. Elles investissent pour cela dans le développement de technologies propres pour protéger leur avance industrielle. Il devient dès lors crucial de mieux articuler ce besoin économique de secret avec le besoin démocratique de rendre des comptes sur les effets de ces systèmes techniques sur la société mais le degré élevé de technicité technicisé et l’évolution continue des technologies rendent l’évaluation des pratiques difficile. Le fonctionnement des plateformes questionne également les politiques publiques, souvent simultanément, et interroge ainsi leur cloisonnement. Deux pistes de réflexions doivent être citées. D’une part, il semble difficile d’entamer une réflexion de façon complètement indépendante sur les standards de protection des données sans buter immédiatement sur la question des règles de concurrence dans une économie de flux internationaux de données. Comment par exemple fixer l’optimum du consommateur sur des marchés où il n’existe que peu de signaux de prix visibles pour l’usager de services dits gratuits ? D’autre part, il semble également difficile de dresser des frontières étanches entre les protections dues aux usagers qui consomment les services des plateformes et les indépendants qui y sont référencés puisque tous sont impactés par le fonctionnement des algorithmes et que tous concourent d’une certaine façon à la production de valeur. Le fait que ce modèle de production consiste précisément à articuler plusieurs « faces » de marché, c’est-à-dire plusieurs groupes d’intérêts particuliers et les intérêts individuels en leur sein, provoque un besoin de reformalisation des articulations entre le particulier et le général. C’est pourquoi penser ces articulations excède le seul périmètre des régulations sectorielles ou verticales et relève du débat démocratique. Il y a dès lors urgence à développer des modes d’intervention complémentaires à nos outils juridiques traditionnels, non seulement pour s’assurer de la conformité des pratiques des plateformes en tant qu’entreprises mais surtout, de la compatibilité de leur modèle productif avec notre idéal démocratique et nos valeurs de justice sociale et d’équité économique.

2. Le besoin de nouvelles synergies entre régulateurs, chercheurs et société civile pour imposer des contrepouvoirs et une régulation efficaces Des solutions endogènes La transformation numérique porte en elle les germes des solutions aux défis qu’elle soulève. Le crowdsourcing, la coproduction de connaissances ou encore l’apparition de nouvelles formes d’engagement, constituent autant de moyens précieux permettant de dynamiser la vie démocratique et de consolider les contre-

pouvoirs. Il est ainsi possible de disposer de puissants leviers pour construire de nouvelles capacités d’observation, d’interpellation et de médiation avec les plateformes.

La plateformisation rend plus difficile la perception par les autorités de ce que les utilisateurs vivent au quotidien En dehors des enquêtes ciblées et des espaces centralisés de remontée des plaintes, les autorités disposent de peu de moyens pour capter les signaux faibles de la société numérique. Or, certains citoyens ont développé des pratiques contributives de plus en plus intenses et diverses. De la présence sur les réseaux sociaux, à la participation au recensement des savoirs, aux débats publics, jusqu’aux sciences participatives, aucun domaine ne semble y échapper. Ainsi, en 2017, c’est plus de 100 000 citoyens qui ont contribué à des consultations en ligne et l’encyclopédie Wikipédia en langue française comptait plus de 2,8 millions d’utilisateurs enregistrés, dont environ 1,9 million étaient basés en France17.. Cet état de fait est une chance pour les régulateurs qui peuvent tirer profit de cette culture de la contribution caractéristique du Web pour développer de nouvelles capacités d’observation sur les plateformes, plus dynamiques et distribuées. Cela permettrait aux régulateurs de mieux comprendre les préoccupations des consommateurs, des entreprises, et plus largement des citoyens. Elle aiderait aussi à saisir la diversité des pratiques des plateformes, et à permettre ainsi d’actualiser en temps réel leurs grilles d’analyse pour une meilleure prise de décision publique. Cependant, force est de constater que s’appuyer sur la multitude pour produire des connaissances partagées sur les plateformes n’est cependant pas sans présenter des défis propres. Tout d’abord, comme il s’agit, au fond, de gagner l’attention publique, c’est-à-dire sensibiliser et mobiliser sur le long terme, la première difficulté consiste à inciter les citoyens à signaler une pratique dérangeante pour la collectivité alors même que cette dernière procure une satisfaction ou utilité immédiate pour le consommateur. Cela est dû au fait qu’à l’échelle individuelle, nos intérêts à long et court terme peuvent diverger (par exemple, entre l’utilité à voir un service se souvenir de nos préférences et la crainte d’une surveillance, voire d’un enfermement à terme dans des bulles de sociabilité endogames ou d’un profilage préjudiciable pour accéder plus tard à un service). L’engagement citoyen peut en outre être limité par l’apparente technicité des sujets liés aux plateformes. L’enjeu est donc de politiser ces questions, et d’investir dans de nouveaux formats de débats publics pour impliquer davantage les citoyens. Cela suppose de dépasser l’image parfois simpliste d’un grand public globalement désintéressé des enjeux numériques pour recueillir la diversité d’expertises issue du rapport que chacun développe. La seconde difficulté est d’ordre méthodologique. Les processus centralisés de

remontée des plaintes sur les sites institutionnels ont montré leurs limites. Pour un internaute, le manque de connaissance des dispositifs existants, les difficultés à qualifier juridiquement un problème et à identifier sur cette base l’interlocuteur pertinent, la crainte de perte de temps, le sentiment d’inutilité de telles démarches peuvent vraisemblablement expliquer certaines formes de découragement et de non-recours aux démarches de signalement. Dans ces conditions, les régulateurs auraient plutôt tout intérêt à déployer des dispositifs qui embrassent la diversité de formes et d’objectifs des usages contributifs en ligne. Les travaux du Conseil national du numérique (CNNum) sur l’évaluation des plateformes ont par exemple fait émerger l’idée selon laquelle les usagers seraient plus susceptibles de contribuer, si cela ne leur demandait pas au préalable de préqualifier le type de problèmes qu’ils rencontrent selon un formalisme qu’ils ne maîtrisent pas. En d’autres termes, les autorités de régulation gagneraient à adapter leurs procédures et leurs formes à la diversité de ce qui existe déjà. Pour cela, ils pourraient s’inspirer ou bien s’associer à certaines initiatives préexistantes, émanant de la société civile et des communautés académiques, à l’instar de DarkPatterns.org – qui référence les pratiques de design déloyales – ou encore du projet Algoglitch du MediaLab de SciencesPo – qui recense les expressions informelles sur Twitter sur les perturbations algorithmiques (glitchs). Des dispositifs de signalement confidentiels (espace chiffré en ligne, point de contact, etc.) pourraient aussi être prévus pour les signalements issus d’entreprises et de whistleblowers internes. Des solutions existent donc, mais le principal enjeu pour le régulateur réside dans l’analyse des signalements pour orienter ses actions. Pour ce faire, des capacités d’analyse et de traitement des données doivent ainsi être développées au sein des autorités, ou entre elles, dans une logique de mutualisation. Dans cette perspective, la création à l’échelle européenne d’un observatoire sur les pratiques des plateformes à l’égard des autres entreprises pourrait jouer un rôle précurseur dans la construction d’indicateurs et/ou de référentiels de bonnes pratiques18.. Pour des raisons de faisabilité, il convient toutefois de dissocier cette logique de signalement de celle d’une saisine officielle ou d’une enquête formelle qui lierait les pouvoirs publics. En effet, l’objectif n’est ni d’entraver le fonctionnement des autorités de régulation sous un nombre inquantifiable de requêtes ni de compromettre leur indépendance par une obligation à agir sur la base de ces remontées. Il s’agit plutôt de construire des formes plus efficaces de prises en compte des préoccupations des utilisateurs (entreprises, utilisateurs et citoyens) quant au fonctionnement et aux effets de la plateformisation et de mieux documenter ces mutations.

Aménager de nouvelles voies d’interpellation des plateformes Il existe en effet un espace de communication intermédiaire à combler entre, d’un

côté, des interventions nécessairement simplifiées et ponctuelles des représentants politiques de haut niveau et, de l’autre, l’expression publique des autorités de régulation, plus technique, mais circonscrite aux cas qu’elles ont instruits. Dès lors, il faut aménager de nouvelles voies d’interpellation des plateformes afin d’obtenir de leur part des explications et/ou des engagements concrets sur des problématiques précises remontées du terrain ; le tout sans avoir à engager de longues procédures d’instruction au préalable ni devoir réguler au pixel près les comportements. Pour cela, il est possible de s’appuyer sur la société civile – à l’instar du journal d’investigation Propublica, qui mène des investigations sur des cas très médiatisés, ou de TeamUpTurn, qui accompagne techniquement les watchdogs traditionnels dans leurs enquêtes aux États-Unis concernant le profilage algorithmique discriminant et au credit scoring – dans le but d’obtenir une réaction publique de la part des acteurs concernés. L’autre possibilité est de s’appuyer sur les plateformes et leurs dirigeants. D’une part, les plateformes ont déjà pour habitude de s’adresser directement à leurs utilisateurs pour leur gestion quotidienne (mécanisme interne de signalement de problème) et le community management est déjà au cœur de leur modèle. D’autre part, leurs dirigeants ont plus généralement pris pour habitude de médiatiser leurs décisions et leurs projets. Tout porte donc à croire que les plateformes seront amenées à prendre leurs responsabilités en suivant une démarche pédagogique similaire et en justifiant à l’avenir leurs choix. Mais à l’heure actuelle, les utilisateurs – particuliers et professionnels – disposent de peu d’informations pour faire des choix éclairés concernant les services proposés. Très souvent, les rares informations disponibles dans les conditions générales d’utilisation (CGU) ou sur les plateformes demeurent souvent absconses et illisibles pour l’utilisateur lambda. D’après le Conseil des consommateurs norvégien, il faudrait environ 32 heures pour lire les 900 pages de conditions générales d’utilisation des 33 applications web les plus populaires19.. Cette complexité nuit considérablement à l’« encapacitation » (empowerment) des utilisateurs vis-à-vis des services proposés. Plus généralement, une start-up, une PME ou une collectivité locale souhaitant cadrer sa stratégie d’utilisation ou de coopération avec plateformes ne disposent pas des moyens nécessaires en termes de gouvernance, d’architecture technique ou de politique commerciale. Au moment même où les plateformes investissent des domaines traditionnellement réservés à la puissance publique tels que la santé ou l’éducation, cette opacité revêt un enjeu démocratique. Les délégations de services publics opérées devront en ce sens intégrer des garanties de vérification des engagements des plateformes délégataires. Ces défis exposent en somme une double exigence : d’une part, de transparence – dire ce que l’on fait – et, d’autre part, de loyauté – donner les moyens aux tiers intéressés

de vérifier ces dires – pour garantir la confiance dans les relations avec les plateformes. À ce titre, certains pans du droit européen (règlement général sur les données à caractère personnel, directive e-commerce, etc.) et national (loi Informatique et libertés, loi pour une République numérique, etc.) en ont posé les premières bases.

Associer les utilisateurs aux démarches d’évaluation collaborative des pratiques des plateformes Depuis quelques années, de nombreux experts plaident pour faciliter, en complément des audits sur pièce des systèmes qui pourraient advenir dans le cadre judiciaire, le recours à des tests externes ou des techniques de rétro-ingénierie permettant d’observer le comportement des plateformes. Mais les initiatives de ce type se heurtent à de sérieux obstacles juridiques. Elles sont généralement limitées par les conditions générales d’utilisation des plateformes au motif de la protection des utilisateurs, de la propriété intellectuelle ou du secret des affaires20.. Elles sont en outre confrontées à des limites méthodologiques. Par exemple, la génération de fausses requêtes n’est pas suffisante pour tester l’existence ou non d’une discrimination due à une personnalisation algorithmique. Une équipe de chercheurs de l’université de Columbia a en effet conclu à la nécessité, pour que ces tests soient probants, de s’appuyer sur de vrais profils d’utilisateurs21.. Les travaux du CNNum sur les plateformes ont en ce sens invité à développer des protocoles de coopération entre chercheurs et utilisateurs volontaires pour partager leurs données sur les résultats de requêtes, de personnalisation et de discriminations. Dans ce cas précis, la puissance publique pourrait encourager de telles démarches en relayant des appels à contribution citoyenne et en mettant à disposition des moyens ou des compétences techniques permettant de promouvoir ces coopérations. Plus largement, les pouvoirs publics ont un rôle à jouer pour sécuriser ces démarches, en négociant avec les plateformes les conditions de leur audit externe (rétroingénierie, observation effets) et/ou interne (bases de données, code, homologation d’experts, création d’un corps d’experts en algorithmes).

Les nouveaux champs de négociation avec les plateformes : vers une coopération dans la régulation du numérique ? Les positionnements des plateformes à la suite des révélations de l’affaire Snowden, la rapide application par Google de la jurisprudence sur le droit à l’oubli ou la prise en compte des problèmes de manipulations lors des élections américaines ont montré que les plateformes pouvaient se conformer promptement aux intérêts de leurs utilisateurs lorsque leur réputation et la confiance en leur système sont en jeu. Ainsi, la possibilité de proposer et d’ouvrir de nouveaux champs de négociation avec des plateformes est fortement conditionnée à la mobilisation de l’opinion publique

sur ces sujets. À mesure que la plateformisation progresse dans nos vies, tout porte à croire que ces quelques rares cas médiatisés devraient se multiplier. En Europe, la proposition de règlement de la Commission européenne sur les relations B-to-B va conduire le régulateur européen à encadrer les dispositifs de résolution des conflits entre les plateformes et leurs partenaires commerciaux, en incluant la possibilité d’un recours à une médiation externe. C’est dans cette optique, que la création d’instances paritaires de représentation des utilisateurs pourrait être envisagée. L’idée serait d’expérimenter des formes de représentations d’intérêts qui excèdent le périmètre traditionnel du seul consommateur particulier ou professionnel, voire le seul périmètre national. Il va en particulier devenir crucial d’assurer l’effectivité des droits humains face aux stratégies actuaires22., en développant des voies d’exercice collectif de certains droits individuels à l’égard des données, et en rendant plus praticables la syndication et le croisement des revendications qui sont aujourd’hui atomisées. La possibilité de peser collectivement sur les usages faits des données pourrait ainsi être développée en justice, autour du droit à la portabilité, ou par le recours à des licences d’exploitation. Dans le cadre des échanges avec Airbnb, la mairie de Paris a su faire de l’instauration d’une licence share alike sur les données locatives une condition sine qua non de l’exercice de leurs activités dans la capitale. Cela leur permet d’actualiser les informations détenues sur le parc d’hébergement locatif parisien, tout en conservant des capacités de négociation en cas d’évolution. Des dispositifs mutualisés entre collectivités territoriales pourraient par exemple voir le jour : guides d’aide à la contractualisation sur l’accès aux données utiles pour la bonne conduite des politiques publiques, aménagement d’accès conjoints, etc. Une meilleure compréhension du fonctionnement des plateformes est essentielle pour maîtriser leurs effets, mais aussi dans la perspective des politiques de modernisation de l’action publique, pour tirer profit de ces enseignements et ne pas reproduire leurs externalités négatives.

3. Plutôt qu’ubériser l’État, consolider la composante collective des politiques publiques La plateformisation, une opportunité pour les politiques publiques ? Dans un contexte de remise en cause de l’efficacité des politiques publiques, l’essor des plateformes peut constituer une opportunité pour les améliorer. Certaines caractéristiques des plateformes peuvent ainsi être des sources d’inspiration pour les politiques publiques : contribution ouverte, conception abordable, évolutive et en principe orientée usager, ou encore coordination multiagents en temps réel sont autant d’aspects que les politiques publiques gagneraient à intégrer. Du reste, les

plateformes multinationales ne sont pas en charge de l’intérêt général ou de la sécurité sociale de leurs utilisateurs, ni tenues de proposer des modèles économiques assurant la redistribution équitable de leurs recettes. En réalité, elles peuvent être des modèles autant que des sources d’enseignement quant aux écueils dont il faudra se prémunir. Dès lors, il est donc possible de concevoir l’État comme « État-plateforme » dans la mesure où celui-ci est précisément chargé de la coordination de multiples catégories d’agents et de flux d’activités.

Mieux mobiliser les destinataires des politiques publiques pour améliorer leur qualité Si le logiciel, la recherche en algorithmes ou encore les outils cognitifs basés sur la collecte des données peuvent renforcer les capacités d’analyse, ils ne peuvent garantir la pertinence des informations utilisées. Or, nous manquons justement d’indicateurs pour maîtriser les facteurs d’exclusion sur lesquels le numérique agit. De plus, il existe une multiplicité de sources potentielles trop peu exploitées chez les réseaux d’acteurs qui sont au contact des usagers (associations, organismes d’action sociale, etc.) et qui gagneraient à être croisées avec les connaissances acquises par les observatoires qui traitent de données numériques (approches sectorielles, mobilités, instances territoriales, laboratoires de recherches, instances de formation, etc.). Ainsi, des architectures de collaboration plus performantes autour de la donnée sont requises pour adapter l’offre de services publics et les politiques sociales aux besoins individuels, locaux ou temporels. Dans ce contexte, une conception centrée sur le citoyen serait donc aux antipodes d’une simplification administrative one size fits all, dont les externalités négatives finiraient par avoir un effet néfaste sur l’objectif initial de performance. Une telle stratégie qui englobe tout l’écosystème numérique permettrait de tirer profit de la diversité d’expertises, de parcours et de disponibilité. L’émergence de politiques d’open data, les diverses expériences d’ateliers de coconception, de hackathons ou de consultations en ligne sont autant d’exemples pertinents permettant d’imaginer des modes plus inclusifs et transparents d’élaboration des politiques. Mais la crainte de la part des autorités de voir ces modes participatifs instrumentalisés par des intérêts particuliers a rendu les ambitions trop timides. Dans ces conditions, le risque est que les formats d’implication participative restent au stade du crowdsourcing, c’est-à-dire embryonnaire, ne touchant qu’une minorité de personnes déjà acquises à la cause. À une époque où la peur d’une polarisation de l’opinion par l’effet de bulles filtrantes23., de propagandes ciblées24. et de propagation de fausses nouvelles (ou fausses informations), il convient donc d’investir davantage dans des formats participatifs et ne pas dépendre des filtres algorithmiques et publicitaires des médias sociaux comme courroies de conversation principales avec l’opinion publique25.. Ceci serait également une opportunité pour

construire une société plus réflexive puisque, comme le souligne Pierre Rosanvallon, on ne pourra réduire la défiance qu’en associant plus en amont les citoyens à la définition du sens et de la direction à prendre26.. Bien au-delà de l’ergonomie des interfaces et des « process », la propagation du numérique dans l’action publique va donc nous pousser à revisiter l’ensemble des fonctions par lesquelles les administrés interagissent avec l’État27.. La fonction de médiation doit être pensée non seulement pour remédier aux disparités de compétences numériques face aux vagues de dématérialisation des services publics28., mais, plus encore, comme composante essentielle pour la structuration d’écosystèmes plus ouverts qui orienteront les politiques publiques et contribueront à améliorer in fine la qualité de la décision publique.

Une nouvelle approche des politiques publiques ? Face à l’accélération des cycles d’innovation et aux flux massifs d’informations, les stratégies de planification millimétrées se révèlent de plus en plus inefficaces. Une nouvelle approche des politiques publiques semble donc nécessaire. En effet, les politiques publiques sont fondées sur les principes de prévisibilité et de responsabilité qui s’accommodent mal des processus complexes et opaques des nouvelles technologies. Cet enjeu est d’autant plus complexe que l’opacité du processus de prise de décision automatisée n’implique pas une confiance des personnes concernées29.. L’essor de l’intelligence artificielle, par exemple, soulève des préoccupations sur la responsabilité juridique entre les différents acteurs comme pour la voiture autonome. En outre, la relation transitive (binaire) que le code entretient avec la réalité fait craindre la formation de rigidités comme des biais discriminants30.. Par ailleurs, ce souci de transparence des algorithmes augmente symétriquement les attentes à l’égard de la prise de décision humaine. Le logiciel d’affectation des vœux post-bac nous en fournit une parfaite illustration. L’évaluation ex post de l’algorithme utilisé a en effet montré comment la teneur politique d’un outil pouvait être sous-estimée ; le biais découvert avait été négligé dans la conception de la plateforme. Résultat, en réponse aux critiques formulées par les intéressés, l’administration – qui était manifestement mal préparée à en rendre compte – a décidé d’adopter une position défensive. Cette impression de citadelle assiégée peut être renforcée par le rapport mesuré qu’entretient l’expertise d’État avec les instruments de redevabilité politique qui se sont développés avec le numérique à travers la capacité d’interpellation directe sur les réseaux sociaux, par exemple.

L’État : une future plateforme exemplaire ? Pour l’instant, bien que les récentes évolutions dans la législation aient permis de

développer les obligations d’information sur les décisions automatisées, des difficultés d’ordre pratique entravent la possibilité pour un individu lambda d’identifier et de contacter les dépositaires des obligations de transparence chez les entreprises ou au sein de l’État. Ainsi comme le suggèrent la CNIL31. ou la FING32., il sera donc essentiel de mobiliser des ressources dédiées à la médiation envers les usagers de services et les associations qui les représentent. Il est nécessaire de développer des dispositifs permettant de joindre, de manière rapide et effective, les responsables de systèmes algorithmiques pour leur signaler des problèmes, afin d’obtenir directement des explications sur les décisions automatisées. Plutôt que de privilégier le repli, l’ambition pourrait être d’encourager plus activement l’évaluation des politiques publiques par la société civile. Plusieurs pistes peuvent être avancées. Par exemple, en outillant ces requêtes et en proposant de les exercer de façon groupée, en favorisant par des appels à projets la structuration de communautés citoyennes autour du droit à l’information sur leurs données en structurant des canaux d’accréditations d’accès sécurisés aux données pertinentes (data rooms), mais non ouvertes au grand public, en finançant des accompagnements académiques en ce sens, etc. En donnant l’exemple et en soutenant la généralisation des démarches d’évaluation citoyennes à son égard, l’État développera collatéralement une plus grande vigilance des consommateurs à l’égard des usages qui sont faits de leurs données. Les politiques et réseaux de médiation numérique peuvent ainsi intervenir en support de la régulation traditionnelle, en étant conçus comme des réseaux-courroies de collecte des préoccupations et des demandes des citoyens. Des dispositifs tels que l’enquête Capacity33. sur les usages numériques pourraient en outre être consolidés et augmentés pour mieux faire ressortir les problèmes et constituer ainsi des bases plus équilibrées de négociations des marchés publics portant sur des services numériques afin de stimuler le développement d’alternatives vertueuses. Le recueil actif des préoccupations citoyennes permettrait d’armer l’UE dans le cadre des négociations portant sur l’accès aux données détenues par les acteurs privés. Une telle démarche s’inscrit dans la promotion de l’intérêt général et peut concerner de nombreux domaines tels que l’amélioration des politiques publiques de préservation de l’environnement, de lutte contre les discriminations et pour l’égalité des chances, ou encore celui les grandes causes sanitaires. Il paraît urgent de négocier des conditions équitables d’accès aux données pour assurer la pérennité et l’indépendance de la recherche publique. En effet, des acteurs de la statistique publique française et européenne se joignent désormais aux voix critiques formulées par les chercheurs en sciences sociales qui s’inquiètent de l’utilisation dévoyée des données comme levier d’influence politique direct ou indirect34..

Les grandes plateformes coopèrent déjà volontairement avec des États35. ou avec certaines associations et différents consortiums pour définir des modèles économiques qui permettraient une sécurisation de ces partages de données. C’est précisément la raison pour laquelle il est nécessaire de peser sur l’élaboration de ces standards en vue de coordonner les démarches et de prévenir tout phénomène de dépendances ou d’inégalités d’accès entre les collectivités, universités, hôpitaux ; et veiller à y inclure la société civile. Ces différents objectifs s’insèrent dans des priorités stratégiques plus globales qui s’intéressent à la politique des données, au sein du marché intérieur et dans le cadre des négociations internationales. Il devient en effet de plus en plus clair que l’horizon d’une société de la connaissance fixé avec le Traité de Lisbonne ne sera pas atteint sans la définition en Europe d’un positionnement stratégique qui permette de consolider des gages de confiance plus tangibles envers les citoyens. Cet objectif ne doit pas être subsidiaire, mais bien moteur de nos considérations géostratégiques, pour ne pas suivre une direction imposée en cherchant à rattraper le mouvement économique impulsé par les États-Unis et la Chine. 1

En l’occurrence, interfaces de programmation et d’applications, https://fr.wikipedia.org/wiki/Interface_de_programmation. 2 Voy. par exemple M. VAN ALSTYNE, Platform Revolution – How Networked Markets Are Transforming the Economy - and How to Make Them Work for You. 3 Voy. par exemple Banque Mondiale, The global opportunity in online outsourcing, 2015, http://documents.banquemondiale.org/curated/fr/138371468000900555/The-global-opportunity-in-onlineoutsourcing. 4 Cela s’est par exemple illustré avec le relèvement continu des commissions pratiquées par Uber sur les chauffeurs, ou les conditions imposées par Booking aux hôteliers. 5 Cette affaire a montré comment une relation de clients à prestataire de services pouvait se muer en concurrence frontale (entre des comparateurs de prix qui recouraient aux services publicitaires de Google, et Google Shopping, service intégré et concurrent de comparaison de prix). L’amende, de 2,4 milliards d’euros, infligée à Google pour avoir mis en avant ses propres services au détriment des autres, a aussi montré le risque de formation de stratégies rentières chez les acteurs dominants http://www.lemonde.fr/economie/article/2017/06/27/bruxelles-punit-google-d-une-amenderecord_5151710_3234.html. 6 C. SHAPIRO et H. R.VARIAN, Information Rules - A Strategic Guide to The Network Economy, Synthèse disponible ici : https://www.researchgate.net/publication/200167344_Information_Rules_A_Strategic_Guide_to_The_Network_Econom 7 Voy. Effets de réseau, https://fr.wikipedia.org/wiki/Effet_de_r%C3%A9seau ; et winner takes all, https://en.wikipedia.org/wiki/Winner-take-all_market et “effet Pavarotti” http://oeconomia.over-blog.com/effetpavarotti.html. 8 Plus d’un milliard d’articles sont par exemple expédiés sur Amazon pendant les fêtes de Noël en provenance des quatre coins du monde [https://www.usatoday.com/story/tech/news/2016/12/27/amazon-ships-more-than1-billion-holiday-gifts-including-lots-echo-dots/95869160/] et Google search reçoit plus de trois milliards de requêtes par jour [https://www.lesechos.fr/tech-medias/hightech/030446273497-tout-le-monde-ment-googlerevele-nos-recherches-secretes-2102153.php.] 9 Apple : 557,75 milliards de dollars ; Alphabet : 544,49 milliards de dollars ; Microsoft : 445,14 milliards de dollars ; Facebook : 400 milliards de dollars ; Amazon : 365,5 milliards de dollars ; disponible sur : https://www.lesechos.fr/09/03/2017/lesechos.fr/0211864023907_facebook-passe-le-cap-des-400-milliards-dedollars-en-bourse.htm. 10 Voy. par exemple l’explication de ce rôle par Y. CITTON, Pour une écologie de l’attention, Paris, Seuil, 2014.

11 Par exemple, Google search est organisé en plusieurs pages plutôt qu’en une seule (comme sur Google Images), ce qui contraint à charger une nouvelle url, y compris en navigation mobile, où la connexion n’est pas toujours stable. 12 Voy. par exemple : https://www.nouvelobs.com/rue89/rue89-le-grand-entretien/20160604.RUE3072/tristanharris-des-millions-d-heures-sont-juste-volees-a-la-vie-des-gens.html ; https://usbeketrica.com/article/temoignages-ingenieurs-facebook-google-economie-attention-addictionreseaux. 13 Voy. par exemple : https://www.dailydot.com/irl/facebook-breast-cancer-survivor-scar-project/ ; https://wp.nyu.edu/howtoseetheworld/2015/09/01/auto-draft78/ ; http://www.huffingtonpost.com/2015/03/27/rupi-kaur-period-instagram_n_6954898.html ; https://www.aclu.org/blog/naked-statue-reveals-one-thing-facebook-censorship-needs-better-appealsprocess?redirect=blog/free-future/naked-statue-reveals-one-thing-facebook-censorship-needs-better-appealsprocess ; http://time.com/money/3954390/ethiopian-lgbt-activist-banned-facebook-real-name/. 14 Voy. par exemple R. CALO, Digital market manipulation, 2014 : http://www.gwlr.org/wpcontent/uploads/2014/10/Calo_82_41.pdf ; C. SUNSTEIN et R. THALER, Nudge : la méthode douce pour inspirer la bonne décision, 2008. Voy. égal. les réflexions d’Henri Verdier : http://www.henriverdier.com/. 15 Big Other: Surveillance Capitalism and the Prospects of an Information Civilization, https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2594754. 16 CNNum, Ambition numérique, 2015, https://cnnumerique.fr/files/2017-10/CNNum--rapport-ambitionnumerique.pdf. 17 https://labo.societenumerique.gouv.fr/2017/12/21/pratiques-contributives-francais-sommes/. 18 https://www.contexte.com/article/numerique/info-contexte-les-nouvelles-propositions-de-la-commission-surles-relations-plateformes-to-business-document_84298.html. 19 https://www.slate.fr/story/118523/norvege-lire-integralite-conditions-generales-utilisation. 20 Le droit américain comprend en outre des dispositions (Computer fraud and abuse act) qui font peser des risques de poursuites pénales sur les auteurs de ce type de techniques. C’est notamment pourquoi, à l’Université de Stanford, le chercheur Christian Sandvig a engagé une action en justice pour avoir droit d’observer par rétroingénierie le fonctionnement de Facebook sans risquer des poursuites : https://www.theguardian.com/commentisfree/2016/jun/30/cfaa-online-law-illegal-discrimination. 21 https://columbia.github.io/sunlight/. 22 Politiques de minimisations du risque mises en œuvre à l’aide d’outils statistiques, dans les domaines privés ou publics. Par exemple, aux États-Unis en matière de prévention de la délinquance ou les politiques pénitentiaires. Dans le domaine assurantiel pour la catégorisation des segments de risques ou encore sur Internet pour l’optimisation des prix et la personnalisation des offres. 23 E. PARISER, https://www.theguardian.com/media/2017/jan/08/eli-pariser-activist-whose-filter-bubble-warningspresaged-trump-and-brexit. 24 Cambridge Analytica : https://www.theguardian.com/uk-news/2018/mar/22/cambridge-analytica-scandal-thebiggest-revelations-so-far. 25 Voy. à ce sujet l’avis pour la confiance dans la vie publique : https://cnnumerique.fr/files/201710/Avis_CNNum_Confiance_Vie_Publique_vF.pdf. 26 Invité de Guillaume Erner le 26 février 2018 pour Démocratie, l’heure de vérité, France culture https://www.franceculture.fr/emissions/linvite-des-matins/democratie-lepreuve-de-verite. 27 Voy. par exemple les réflexions de Nicolas Colin et Henri Verdier dans L’âge de la multitude, http://www.henriverdier.com/2012/06/lage-de-la-multitude-entreprendre-et.html. 28 Nous savons par exemple que la dématérialisation des démarches renforce la marginalisation des personnes précarisées lorsqu’elle est conçue sans capacités de médiation humaine. Voy. par exemple : Défenseur des droits, Accueil téléphonique et dématérialisation, 2016 ; ou La Cimade, À guichets fermés, Enquête sur l’accueil des migrants en préfecture, 2016 ; CNNum, Rapport Citoyens d’une société numérique, 2013. 29 Voy. à ce titre les réflexions sur l’information des individus quant aux décisions automatisées les concernant : dispositions prévues par le Règlement européen sur la protection des données (art. 22 et s.) ; le décret n ° 2017-330 du 14 mars 2017 relatif aux droits des personnes faisant l’objet de décisions individuelles prises sur le fondement d’un traitement algorithmique ; le rapport de la CNIL sur les enjeux éthiques des algorithmes et de l’intelligence artificielle ; les travaux de la FING sur le projet Nos Systèmes relatif à la régulation des algorithmes ou le Code of standards for public sector algorithmic decision de Nesta, agence britannique pour l’innovation.

30 Voy. par exemple les réflexions du physicien Giuseppe Longo sur la discrétisation dans les sciences informatiques, https://pdfs.semanticscholar.org/b863/908ca0712238d1166f0026429f4a0c437b42.pdf ; ou les alertes de la mathématicienne Cathy O Neil dans Weapons of Math Destruction, https://weaponsofmathdestructionbook.com/. 31 https://www.cnil.fr/fr/comment-permettre-lhomme-de-garder-la-main-rapport-sur-les-enjeux-ethiques-desalgorithmes-et-de. 32 http://fing.org/IMG/pdf/FicheProjet2017_NosSystemes.pdf. 33 https://labo.societenumerique.gouv.fr/2017/03/23/premiers-resultats-capacity/. 34 Voy. par exemple : D. BOYD et K. CRAWFORD, Six provocations for Big Data, 2011 ; D. BOULLIER, Facebook et la recherche : le quasi État, Internet Actu, mars 2018 ; ou la restitution du colloque organisé par le Conseil national de la statistique publique le 7 mars à Bercy. Plus généralement, l’exemple du licenciement d’un économiste américain qui avait analysé positivement l’amende antitrust infligée à Google en Europe est un signal peu encourageant. Son employeur, le think tank New America Foundation était bénéficiaire de financements par Google : https://www.nytimes.com/2017/08/30/us/politics/eric-schmidt-google-new-america.html?mcubz=3. 35 Google a par exemple procuré à la ville d’Amsterdam des statistiques pour mieux identifier les populations qui ne recourent pas aux aides sociales mais y sont éligibles : https://ec.europa.eu/digital-singlemarket/en/news/workshop-access-public-bodies-privately-held-data-public-interest.

Les données personnelles, « Staple commodities » du numérique Par Edouard Geffray Il est d’usage de lire, depuis plusieurs années, que les données personnelles seraient le « carburant » ou « le pétrole » du numérique. Indéniablement, ces données tiennent autant de l’or noir qu’elles sont un actif financier potentiellement fondamental quoiqu’un peu volatil. Il suffit de regarder l’évolution des plus grandes capitalisations boursières aux États-Unis depuis 2000 pour comprendre le poids qu’ont acquis les GAFAM, non pas tant à cause de leurs immobilisations ou des matériels qu’ils vendent, qu’à cause de la connaissance toujours plus fine qu’ils ont des individus, c’est-à-dire des consommateurs. Mais si les données personnelles sont une source de vie pour l’économie numérique, elles ne présentent pas les limites du pétrole : ressource infinie, réplicable, à la valeur exponentielle, elles ne peuvent être exclusivement « appropriées » par aucune entité, tout en offrant des perspectives et des risques inédits à la personne à laquelle elles se rattachent. Dans cet univers fluide, infini, valorisé, volatil, parfois qualifié de « big data », l’enjeu de la régulation à laquelle nous sommes collectivement confrontés est donc d’assurer un juste équilibre entre protection des droits des personnes et potentialités d’innovation. C’est l’objectif poursuivi par le Règlement général sur la protection des données (RGPD) qui est entré en vigueur le 25 mai 2018 et qui renouvelle profondément le cadre juridique applicable.

1. La protection des données personnelles, un droit fondamental pour l’Union européenne Un droit fondamental ancien au frontispice du système juridique européen L’Union européenne, et singulièrement la France et l’Allemagne, sont dans une situation historiquement exemplaire en matière de protection des données : ces deux pays, et l’Union par la suite, ont en effet porté dès la fin des années 1970 la protection des données au rang de priorité nationale et européenne. Ce fut le cas, en France, avec la loi « informatique et libertés » du 6 janvier 1978 et la création de la Commission nationale de l’informatique et des libertés (CNIL). L’Union européenne s’est emparée de la question pour, d’une part, procéder à une première

harmonisation des législations grâce à la directive de 1995, d’autre part, inscrire au frontispice de l’ordre juridique communautaire, à savoir dans la Charte des droits fondamentaux, le droit à la protection des données personnelles. Sans revenir sur la genèse de ces dispositions, il faut en mesurer la portée juridique et philosophique : au sein de l’Union européenne, et dans son ordre juridique, la protection des données personnelles constitue un droit fondamental à part entière, au même titre que le droit de propriété ou la liberté d’expression, inscrit au chapitre des « Libertés » de la Charte.

Un droit autonome garanti par des instances indépendantes Les conséquences juridiques et opérationnelles de cette approche sont nombreuses : d’une part, il existe un droit « autonome » de la protection des données, avec un corpus dédié, là où d’autres pays, comme les États-Unis, ne peuvent appréhender la question qu’en convoquant d’autres pans du droit (droit de la consommation, droits politiques, etc.). La conception française et européenne de la protection des données se traduit donc par l’application d’un standard commun attaché à la personne, quel que soit le type ou l’usage des données. L’exigence est de ce fait élevée ; elle peut aussi paraître singulière à des systèmes juridiques qui n’y voient pas un droit fondamental. D’autre part, le contrôle du respect de ce standard est confié, dans toute l’Union, à une autorité indépendante, à l’instar de la CNIL en France. Concrètement, les régulateurs ont donc, dès 1995, été organisés en un réseau de coopérations. Si ce réseau, constitué en un groupe dénommé « G29 » devenu le « CEPD » (Comité européen de la protection des données) avec le RGPD, ne disposait pas de prérogatives coercitives, il avait néanmoins un pouvoir d’avis qui a permis aux doctrines des régulateurs de converger sur la base d’une directive commune. Il en résulte donc que le dispositif mis en place en Europe, bien avant la naissance des géants du numérique, est en fait particulièrement adapté à l’univers numérique, en ce que, loin d’offrir un cadre de régulation vierge, il présente au contraire un corpus juridique et opérationnel préalable.

2. Une souveraineté individuelle et collective Deux objectifs apparaissent au cœur du système européen de protection des données : la maîtrise par l’individu de ses données ; et la capacité de régulation des pratiques des acteurs par des autorités administratives indépendantes (art. 8 de la Charte des droits fondamentaux). En d’autres termes, l’Union européenne a découvert avant l’heure ce qu’il est désormais convenu d’appeler la « souveraineté numérique », qu’elle a récemment renforcée par le règlement européen sur la protection des données.

Une souveraineté individuelle S’agissant tout d’abord de la maîtrise de ses données par l’individu, l’ensemble du corpus des droits « informatique et libertés » y concourt et, surtout, a été renforcé en ce sens par le RGPD. Schématiquement, il repose sur un miroir entre obligations du responsable de traitement et droits de la personne. Du côté des obligations pesant sur les entreprises, on notera à ce titre le principe de finalité – qui oblige à déterminer, avant le traitement des données, l’objectif poursuivi par leur usage –, le principe de proportionnalité – qui interdit la collecte et le traitement excessifs de données – ou encore l’obligation d’information – qui oblige à informer la personne des points précédents ainsi que de ses droits. Ceux-ci, connus, comprennent le droit d’accès – qui permet à tout moment de connaître la situation de ses données –, le droit d’opposition – qui permet de s’opposer au traitement de données qui ne serait plus justifié au regard de sa finalité ou de sa base légale, ou encore de retirer son consentement –, le droit de rectification et le droit d’effacement – qui permettent de faire corriger les données erronées ou détenues de manière illicite. L’ensemble de ce corpus a encore été renforcé, d’une part, par la loi du 7 octobre 2016, dite loi « Lemaire », et d’autre part, par le RGPD. La première a inscrit au frontispice de la loi informatique et libertés l’autodétermination informationnelle ; le second a notamment renforcé les droits de l’individu en manière de consentement, d’accès et d’effacement, ainsi que l’obligation d’information de la part du responsable de traitement, notamment quant à la durée de conservation des données. Quelles peuvent être les conséquences concrètes de ce régime juridique pour les personnes concernées ? La première est d’ores et déjà réelle, même si la plupart de nos concitoyens ne s’en aperçoivent guère : elle porte sur le devenir des données qui circulent en dehors des frontières de l’Union. Le droit européen a en effet posé le principe d’interdiction de transfert de données en dehors de l’Union, sauf si, d’une manière ou d’une autre, le niveau de protection européen « suit » la donnée. Plusieurs mécanismes peuvent être convoqués : l’adéquation du pays importateur (qui suppose qu’il ait une législation protectrice et un contrôle conforme au standard européen) ; une base contractuelle type ou spécifique ; ou encore une autorisation ponctuelle des autorités de contrôle (CNIL). Concrètement, le droit européen a donc créé une sorte de « bulle juridique » qui suit la donnée, et prolonge ainsi les droits personnels au-delà des frontières de l’Union européenne. Cette « bulle juridique » n’est pas théorique : dans son célèbre arrêt Schrems du 6 octobre 2015, la Cour de justice de l’Union européenne (CJUE) a invalidé la décision de la Commission européenne du 26 juillet 2000 qui reconnaissait l’adéquation du Safe Harbor, c’est-à-dire d’un mécanisme d’adéquation propre aux États-Unis. Ce mécanisme avait pour particularité de ne pas reconnaître

l’adéquation des États-Unis en tant que telle, mais d’un dispositif juridique au sein duquel pouvaient s’abriter les sociétés américaines. La Cour a invalidé ce dispositif au double motif que la Commission européenne ne s’était pas assuré, d’une part, de l’absence de captation massive et indifférenciée de données des résidents européens par les autorités publiques américaines, et, d’autre part, de l’absence de droit au recours effectif dans une telle hypothèse. Le Safe harbor est donc « tombé » à l’instant même de la lecture de la décision de la CJUE, donnant lieu à plusieurs mois de négociations entre l’Union européenne et les États-Unis. En attendant, la décision de la CJUE a constitué un acte d’autorité sans précédent dans l’univers numérique, et a confirmé que le standard européen s’appliquait aux données des Européens. La seconde conséquence est sans doute à venir, et porte sur le big data. Nombre d’entreprises collectent aujourd’hui des données sans nécessairement être certaines de leur usage à long terme. La finalité à court terme est claire (et généralement corrélée au service rendu au client), mais nul ne peut prévoir, ni les évolutions technologiques, ni en quoi les données collectées les rendront possibles. Il faut donc inventer une sorte de « clause de rendez-vous », et un design de service correspondant, qui permette à la personne concernée, en temps réel, de savoir à quoi servent ses données et de pouvoir, le cas échéant, s’opposer à tel ou tel usage. Une telle fluidité de la relation client nous paraît à la fois favorisée par le numérique, et indispensable à son développement. Dans un univers dont la donnée est la fois le fondement et le principal facteur de fragilité, toute attaque, faille ou mauvais usage de la donnée cause un préjudice commercial et d’image plus que proportionnel à l’atteinte réelle. Le retentissement médiatique et politique de l’affaire Cambridge Analytica montre à cet égard que les internautes sont désormais plus que sensibles au retraitement de leurs données, que ce soit par les mêmes acteurs ou par des tiers. L’un des principaux enjeux en termes de compétitivité des services numériques sera donc de proposer des prestations de type « dashboard » par lesquels les internautes pourront adapter l’utilisation de leurs données en fonction des finalités proposées. Au-delà de la souveraineté individuelle, le droit européen de la protection des données répond ensuite à l’exigence de souveraineté de l’Union et des États à l’ère numérique.

Une souveraineté collective Le principal enjeu en la matière est d’asseoir une régulation territorialisée d’un phénomène qui se présente comme très largement déterritorialisé. Il est banal d’affirmer que le numérique remet profondément en cause la notion de frontière, ce « dépassement » apparent des cadres nationaux étant généralement associé au caractère « disruptif » qui lui est attribué. La disruption est cependant toute relative : d’une part, parce que les entreprises numériques sont bien des entreprises

« nationales », comme toute société, dont certaines ont d’ailleurs une certaine intimité avec leurs pouvoirs publics respectifs ; d’autre part, parce que les États n’ont pas attendu le numérique pour réguler la dématérialisation et la désintermédiation des flux, à commencer par les flux financiers, notamment dans les années 1980. L’objectif pour les Européens est donc de construire une régulation territoriale « intégrée » qui permette de répondre d’une seule voix à des acteurs transnationaux qui sont souvent aussi prompts à se souvenir des frontières lorsqu’elles permettent d’échapper à des obligations nationales, qu’à prétendre les dépasser lorsqu’ils proposent un service commun à l’ensemble de l’humanité. C’est la portée réelle du RGPD à nos yeux : au-delà du renforcement des droits ou du changement de paradigme dans le modèle de régulation, passant d’un mode de contrôle administratif à un régime d’accountability, le RGPD permet, pour la première fois, une régulation européenne unique. Concrètement, depuis le 25 mai, lorsque les « CNIL » des différents pays de l’Union européenne seront confrontées à des pratiques problématiques de la part d’une entreprise transnationale, elles codécideront, à partir des plaintes de leurs citoyens respectifs, d’une éventuelle sanction. L’entreprise ne recevra, pour toute l’Union, qu’une seule décision, applicable sur l’ensemble du territoire concerné, tandis que chaque citoyen sera resté en relation exclusive avec son régulateur national. Ce système inédit de codécision entre autorités administratives indépendantes préfigure assez bien ce que pourrait être la régulation de l’Europe du numérique : une régulation indépendante, décentralisée et intégrée.

3. Vers un droit international de la protection des données ? La nécessité d’un cadre commun de régulation du cyberespace Dans un univers fluide et déterritorialisé, la seule réponse territoriale, fût-elle à l’échelle européenne, pourrait cependant ne pas suffire. Tout comme les États ont régi la mer en leur temps, en fixant un droit international applicable à cet espace de libre communication, ils devront sans doute fixer, à terme, un cadre commun de régulation du cyberespace. Tout y conduit : les acteurs, tout d’abord, qui fournissent un service unique mondial, dont les déclinaisons locales ne sont que la simple interface d’un traitement partagé entre tout ou partie du globe. Les citoyens, ensuite, qui affirment à travers le monde des attentes comparables. Il en va ainsi en matière de droit à l’oubli, depuis que la CJUE a, la première, consacré un tel droit pour les résidents européens par l’arrêt Costeja du 13 mai 2014. Le débat a émergé ensuite aux États-Unis sur le « right to darkness », ainsi qu’en Amérique du Sud ou en Asie. Le droit, enfin : l’un des principaux apports du RGPD, passé largement inaperçu, réside dans son critère d’applicabilité : l’applicabilité territoriale de la législation européenne dépendait,

jusqu’à présent, du critère d’installation de l’entreprise qui traitait des données, qui devait soit avoir un établissement en Europe, soit y disposer de moyens de traitements. Il combinait donc un critère physique, ce dont le numérique prétend s’affranchir, et une approche par le responsable de traitement, et non par la personne concernée. Tirant à notre sens toutes les conséquences de la consécration de la protection des données comme droit fondamental, le règlement européen promeut une approche différente : non seulement le droit européen de la protection des données s’appliquera désormais à tout traitement réalisé par un responsable de traitement implanté en Europe, mais il devra également être respecté par toute entreprise qui, installée à l’extérieur de l’UE, traiterait des données de résidents européens.

Vers des standards mondiaux de protection des données personnelles L’avancée, majeure, est la prolongation de la « bulle juridique » que nous évoquions précédemment. Mais elle risque également de créer des conflits de normes entre des droits nationaux différents, que les entreprises ne seront peut-être pas toujours à même de résoudre. Par ailleurs, les Européens sont confrontés à d’autres types de législations extraterritoriales, à l’instar des législations américaines sur l’accès aux données par les autorités publiques. Les données personnelles se trouvent donc au cœur d’extraterritorialités croisées, les unes générales, à l’instar du modèle juridique américain, les autres limitées à la seule protection de la personne concernée, conformément au modèle juridique européen. La rencontre, et probablement les quelques frictions, de ces ordres juridiques concurrents impliquera nécessairement, à nos yeux, l’émergence de standards mondiaux, à l’image de ceux que nous avons su créer pour le droit de la mer ou le droit de la propriété intellectuelle. * Les données personnelles sont donc à l’économie du XXIe siècle ce que les denrées de base étaient à l’économie du XVIIIe siècle : non pas un carburant épuisable et exclusif, mais des matières premières produites quotidiennement et réplicables à l’infini. Pourtant, elles en diffèrent sur un point : elles ne constituent pas un simple élément « matériel ». Elles touchent à l’intimité de la personne humaine, dont elles révèlent, agrégées, les goûts, opinions, sensibilités, sentiments, filiation, fragilités, tentations, qualités, convictions, habitudes, localisation, amis ou liens sociaux. Dans ce gigantesque magma, émerge une peur : celle que l’individu ne s’appartienne plus, faute de ce « quant-à-soi » qui rend possible l’intériorité. Le seul moyen de la conjurer est de faire émerger une régulation puissante, internationale, qui redonne à l’être numérique ce qui définit sa condition d’Homme : sa souveraineté sur lui-même.

L’open data, au croisement de l’ouverture et de la gratuité des données Par Mohammed Adnène Trojette Il y a maintenant cinq ans, je concluais un rapport remis au Premier ministre sur l’ouverture des données publiques en rappelant que « les informations publiques ont parfois été comparées à des ressources naturelles attendant d’être exploitées ». C’est la métaphore de la « mine d’or », qui illustre combien, lorsqu’il s’agit d’évoquer les données publiques, au moins deux questions font peur : l’ouverture et la gratuité1.. La question de l’ouverture des données publiques fait peur, dans ce qu’elle semble restreindre les prérogatives de ceux qui la collectent, qui la détiennent, qui la maîtrisent. L’information, c’est le pouvoir, a-t-on l’habitude d’entendre. Ouvrir ses données, ce serait nécessairement perdre son pouvoir. Pendant longtemps, si longtemps, le secret d’État n’a-t-il pas fait office de principe ? La question de la gratuité des données publiques aussi fait peur, d’autant que s’est désormais répandue la petite phrase selon laquelle « si c’est gratuit, c’est que vous êtes le produit ». Identifier celui qui paie n’est pas évident mais c’est essentiel, pour les administrations, la question étant d’importance dans le contexte budgétaire actuel contraint. La question se pose de savoir ce que recouvre cette notion de gratuité : pour qui ? Pour quels usages les données publiques sont-elles gratuites ? Le sont-elles absolument, exclusivement, définitivement ? *

1. De l’opportunité d’ouvrir les données publiques De la liberté d’accès aux documents administratifs à l’ouverture des données publiques La doctrine de l’État, en matière d’ouverture des données publiques, a oscillé entre fermeture absolue et tentatives d’ouverture. Avant les années 1970, ces tentatives sont rares et timides. Le principe est davantage celui du secret administratif, censé protéger l’efficacité du service public, la vie privée des administrés, la sûreté nationale et l’administration elle-même. Ce n’est qu’en 1974 qu’émerge l’idée d’un droit général à la communication de productions de l’administration. La liberté d’accès aux documents administratifs est finalement consacrée par la loi n° 78-753 du 17 juillet 1978 portant diverses mesures

d’amélioration des relations entre l’administration et le public et diverses dispositions d’ordre administratif, social et fiscal. Elle est aussi appelée loi « Cada », du nom de la Commission d’accès aux documents administratifs qu’elle crée. Il faut attendre 2002 pour une formulation jurisprudentielle du droit d’accès comme liberté publique. Avec le développement des technologies de l’information et des capacités de traitement des données, la question s’est posée des modalités d’accès aux documents administratifs, puis aux données publiques. Confronté à l’ambiguïté de cette expression, le secrétaire général du Gouvernement a décidé de considérer le terme « donnée » comme synonyme du terme « information », c’est-à-dire incluant « aussi bien les données brutes, élémentaires, que les données élaborées, enrichies de plusvalues successives ». Il a retenu « que doit être tenue pour “publique” [...] la donnée produite usuellement par un service au sens large, sans limiter l’expression aux données “qui sont dans le domaine public”. Est publique la donnée “créée sur fond public”, ainsi que la donnée “mise à disposition du public” par l’administration, soit en vertu d’une obligation découlant de sa mission de service public, soit en vertu d’une décision délibérée alors qu’elle n’était pas tenue de le faire ». À la fin des années 1990, le développement des usages d’Internet, les débats portant sur les modèles d’accès aux contenus et à la culture, les succès de modèles ouverts (premières initiatives collaboratives telles que les logiciels libres) font émerger des aspirations en faveur d’une société de la connaissance ouverte, libre et partagée. Ressources pour la société, les données publiques sont de plus en plus regardées comme vectrices d’externalités positives pour l’économie2.. Le 25 août 1997, dans son discours d’Hourtin, le Premier ministre Lionel Jospin, constatant « la généralisation de l’usage des technologies et des réseaux d’information » et que « l’évolution technologique est de plus en plus rapide et s’accompagne d’un développement exponentiel du marché », affirme que « les données publiques essentielles doivent désormais pouvoir être accessibles à tous gratuitement sur Internet ». Il fait en particulier référence au contenu du Journal officiel de la République française. Pour se conformer à cette « conception ambitieuse du droit à l’information du citoyen », selon le Premier ministre, « la diffusion internationale de nos documents publics doit à cet effet être favorisée ». Cette orientation est confirmée par le Programme d’action du gouvernement pour la société de l’information (PAGSI), dans un développement consacré aux « technologies de l’information au service de la modernisation des services publics » : « les informations produites par l’administration constituent une richesse importante qui concourt à l’information des acteurs du marché et à la compétitivité de notre économie. Une politique active de numérisation et de mise en ligne des données publiques constitue donc un enjeu de première importance »3.. La circulaire du 7 octobre 1999 relative aux sites internet des services et des établissements publics de l’État va plus loin, omettant le qualificatif « essentielles » :

« Le programme d’action gouvernemental [...] a prévu de faciliter l’accès des citoyens à l’administration par l’internet, de généraliser la mise en ligne des données publiques, de dématérialiser les procédures administratives et de rendre l’administration accessible par voie électronique ». La transposition de la directive 2003/98/CE du Parlement européen et du Conseil du 17 novembre 2003 concernant la réutilisation des informations du secteur public (directive « ISP »), par l’ordonnance n° 2005-650 du 6 juin 2005 relative à la liberté d’accès aux documents administratifs et à la réutilisation des informations publiques et le décret n° 2005-1755 du 30 décembre 2005 relatif à la liberté d’accès aux documents administratifs et à la réutilisation des informations publiques (décret « Cada »), a défini juridiquement la notion d’information publique et les modalités de sa diffusion. La directive « ISP » de 2003 assigne aux États membres l’objectif général de veiller à rendre leurs documents administratifs réutilisables, à des fins commerciales ou non. Elle demande que leur mise à disposition soit, si possible, prévue sous forme électronique. .

Le tournant des années 2010 : vers un État plateforme Au tournant des années 2010, en phase avec un mouvement de réflexion sur les nouveaux modes de gouvernance publique et les nouvelles formes d’action publique, des expressions apparaissent telles que « gouvernement ouvert », « gouvernement 2.0 » ou « gouvernement comme plateforme », la construction française de l’accès et de la réutilisation des données publiques connaît une nouvelle inflexion. En effet, dès son investiture, le 21 janvier 2009, Barack Obama, président des États-Unis, signe un mémorandum sur « la transparence et le gouvernement ouvert ». En 2010, l’éditeur Tim O’Reilly publie un ouvrage sur le « gouvernement ouvert », qui a suscité des débats nourris, y compris en France. La même année, dans Les dix règles d’or pour la communication publique, Pierre Zemor et l’association « Communication publique » affirment que « l’accès à l’information et la mise à disposition des données publiques sont les premiers devoirs d’une institution publique ». Dans la continuité de ces réflexions, le 21 février 2011, un décret du Premier ministre François Fillon crée la mission Etalab, chargée de la création d’un portail unique interministériel des données publiques. À l’alternance de 2012, avec la création du Secrétariat général à la modernisation de l’action publique (SGMAP) et le rattachement de la mission Etalab à cette nouvelle structure, le Premier ministre inscrit les principes d’ouverture et de partage libre et gratuit des données publiques dans le chantier de modernisation de l’action publique lancé fin octobre 2012. Le séminaire gouvernemental sur le numérique du 28 février 2013, qui aboutit à la « Feuille de route du Gouvernement en matière d’ouverture et de partage des

données publiques », et plusieurs interventions du Premier ministre offrent de nouvelles occasions de rappeler le « principe d’accès libre et gratuit du citoyen à des données publiques », qui est au cœur de la charte signée le 18 juin 2013 par les chefs d’État du G8 réunis à Lough Erne, en Irlande du Nord. En 2017, le Conseil d’État a adopté, dans son étude annuelle, l’expression « État plateforme ». Ce faisant, elle a repris le concept expliqué dans l’ouvrage d’Henri Verdier et Nicolas Colin L’Âge de la multitude (Armand Colin, 2012). Il est rappelé dans le rapport Colin et Collin sur la fiscalité du numérique (2013) et je l’ai promu dans mon rapport de 2013 sur l’ouverture des données publiques. Cette stratégie de plateforme, c’est une stratégie ancienne qui s’appuie sur un espace de centralité, susceptible de permettre l’apparition et la diffusion d’effets de réseau. La stratégie de plateforme consiste à fournir des services de base, attirer à soi un écosystème innovant et le laisser prendre des initiatives bénéfiques à la collectivité, donc à l’opérateur de la plateforme. Hier, les ports, les universités et les marchés étaient les principales plateformes. Aujourd’hui, ce sont les plateformes numériques qui accueillent des centaines de millions d’utilisateurs, pourvoyeurs de données en grand volume. Conceptuellement, le rôle de l’État, tel qu’il résulte du contrat social, est bien de fournir un ensemble d’infrastructures et de services essentiels permettant aux citoyens de produire, d’innover, de créer, en sécurité. L’État plateforme, c’est l’idée d’un État opérateur de plateformes numériques de service public, à l’image de data.gouv.fr, portail collaboratif de mise à disposition et d’exploitation de données publiques, infrastructure informationnelle essentielle à l’ère du numérique.

2. De l’affirmation progressive du principe de gratuité Gratuité des données et transparence Si la loi « Cada » n’a pas été modifiée, à l’époque, pour intégrer le principe de gratuité, une circulaire du Premier ministre du 26 mai 2011 met en avant son importance. Lors de l’alternance de 2012, ce principe est non seulement confirmé mais réaffirmé, dès le premier conseil des ministres de la nouvelle mandature. Le président de la République fait signer à chaque membre du Gouvernement une charte de déontologie qui les rappelle à leur « devoir de transparence », leur « scrupuleux respect des dispositions garantissant l’accès des citoyens aux documents administratifs » et leur engagement à « mener une action déterminée pour la mise à disposition gratuite et commode sur Internet d’un grand nombre de données publiques ». Le Gouvernement réaffirme « le principe de gratuité de la réutilisation des données publiques » et souhaite « l’étendre, en concertation, aux collectivités, aux délégataires de service public, à la sphère sociale et aux autorités administratives

indépendantes ». Il décide de « confier au SGMAP, en lien avec le ministère du Budget, la mission d’évaluer les modèles économiques des redevances existantes, notamment en auditant les coûts et les recettes associés ».

Gratuité et commercialisation des données publiques C’est en mars 2013 que, pour l’application de cette décision, le Premier ministre m’a demandé de porter un coup de projecteur sur la réalité de la mise à disposition payante des données publiques, en précisant les montants réellement perçus, les modèles économiques de tarification retenus et les systèmes retenus à l’étranger, afin de positionner les pratiques administratives françaises. Malgré l’existence de data.gouv.fr, plusieurs services publics administratifs ouvraient en effet leurs données, sous réserve que leur soit payée une rémunération spécifique, improprement appelée redevance de réutilisation. Pourtant, le principe, politique, est déjà celui de la gratuité des données publiques, qui ne trouve pas de traduction juridique dans la loi. Ce principe politique a été affirmé par le Premier ministre François Fillon, puis réaffirmé par son successeur, Jean-Marc Ayrault. Dans les décennies précédentes, c’est un mouvement de balancier qui présidait aux destinées de la mise à disposition des données publiques, entre les tenants de la gratuité et ceux d’une commercialisation. Pour répondre aux interrogations qui m’étaient soumises, j’ai notamment demandé aux services publics concernés, lorsqu’ils en vendaient, la nature des données commercialisées, la raison de l’édiction d’une tarification et ce qui justifiait de ne pas passer à la gratuité. Ce sont les réponses à cette dernière question qui, à mes yeux, ont apporté le principal enseignement à tirer de mon travail. C’est pourquoi le soustitre de ce rapport était « Les redevances de réutilisation sont-elles toutes légitimes ? ». Les principales réponses qui m’ont été apportées ne le sont pas forcément toutes. La première réponse correspondait au motif budgétaire : depuis de nombreuses années, les administrations centrales et les opérateurs de l’État ont été encouragés à développer des ressources propres. Les ressources budgétaires contraintes de l’État ayant conduit les autorités à rechercher des marges de manœuvre supplémentaires – on peut éventuellement entendre ce motif. Toutefois, nombreuses sont les administrations qui ont ajouté que le produit de la redevance était indispensable à la collecte ou la production des données vendues. C’est un peu plus gênant, dès lors que cette collecte ou cette production sont précisément l’objet de leur mission de service public administratif, confiée par le législateur ou le pouvoir réglementaire. Cette logique de tarification correspond à une logique de « coût complet », retenue par de nombreuses administrations. N’ayant pas les moyens de mener à bien leur mission statutaire ou n’étant pas parvenues à négocier les montants nécessaires

avec le ministère chargé du budget, elles ont souhaité mettre à contribution le réutilisateur de leurs informations publiques. Cela pose une question de droit budgétaire : dans quelle mesure une mission de service public peut-elle être financée par une redevance de réutilisation ? Cette question est toujours d’actualité. Le collectif Regards Citoyens a posé cette question au Conseil d’État sous la forme d’un recours pour excès de pouvoir et d’une question prioritaire de constitutionnalité qui a été rejetée. La logique de l’Open data est une logique dite de « coût marginal », ce coût marginal tendant vers zéro tandis que le nombre de réutilisateurs augmenterait. C’est pourquoi la directive européenne de 2013 modifiant celle de 2003 sur l’information du secteur public consacrait un principe de gratuité. Un deuxième motif, particulièrement singulier dans un contexte où l’objectif, affirmé puis réaffirmé par deux Premiers ministres successifs – l’ouverture la plus large possible et si possible gratuite pour favoriser une réutilisation massive –, était mis en avant par les administrations pour justifier la permanence leurs redevances. Elles souhaitaient tout simplement « réguler la demande », soit qu’elles ne voyaient pas l’utilité de cette demande, soit qu’elles n’étaient pas en mesure d’y répondre. Troisième motif, problématique d’un point de vue juridique, de maintien d’une redevance : la protection d’un écosystème d’acteurs économiques qui, par ailleurs, consentaient à payer. La mise en avant d’un consentement à payer exprimé par plusieurs acteurs avait pour effet, en pratique, d’exclure de facto les acteurs non marchands, notamment les associations, les étudiants, les chercheurs, et d’ériger une barrière à l’entrée pour les acteurs marchands les moins dotés financièrement, comme les start-ups, qui n’ont par ailleurs pas été invitées à formuler leur avis sur le montant demandé. Cette pratique est d’autant plus problématique que le modèle économique retenu était souvent celui d’une tarification dégressive, sur le modèle « au gros » : une unité de donnée supplémentaire coûte moins cher que les unités de données précédentes. C’est une nouvelle barrière pour les acteurs qui ne disposeraient pas d’autant de moyens qu’un acteur établi pour accéder à une base de données publiques dans toute sa valeur, c’est-à-dire dans sa totalité. Cette situation favorise ainsi des acteurs économiques par rapport à d’autres et porte une atteinte à la concurrence. Le quatrième motif que je veux évoquer est un motif qui peut sembler tout à fait légitime, celui de la protection des données à caractère personnel. Or l’ouverture de données à caractère personnel n’est possible, en droit, que si les personnes concernées ont explicitement donné leur consentement à cette mise à disposition, lors de la collecte de ces données. Dans les autres cas, ce n’est pas la question de la mise à disposition qui se pose, en réalité, mais bien celle de l’anonymisation ou de la pseudonymisation et du coût associé à ces opérations. Par ailleurs, si la mise à disposition de ces données fait partie des missions de service public de

l’organisme concerné, on est en droit de s’interroger sur les modalités de couverture de ce coût.

La consécration du principe de gratuité et du concept de données d’intérêt général La loi de décembre 2015 sur la gratuité des données publiques, puis la loi d’octobre 2016 pour une République numérique ont balayé la plupart des motifs justifiant prétendument un accès payant ou l’absence d’accès aux données publiques. Plus encore, cette dernière loi a consacré le principe de gratuité des données publiques, elle a instauré la gratuité des échanges d’informations publiques entre administrations de l’État et un service public de la donnée. Elle a défini le concept de données d’intérêt général, dont la mise à disposition ne peut se heurter à aucune limitation. Dans ce même esprit, cette loi a consacré un droit à la communication des codes sources des applications numériques de service public, assimilé au régime de l’accès aux documents administratifs. Ces avancées juridiques doivent encore connaître une mise en œuvre conforme à l’esprit du législateur, y compris à travers les textes d’application adoptés par le Gouvernement. Il faut néanmoins reconnaître les progrès réalisés en cinq ans, ne serait-ce que dans les mentalités. * Ainsi, le contexte a bien changé depuis 2013. De nombreuses redevances de réutilisation ont été supprimées ces dernières années, notamment celles de la direction de l’information légale et administration (Dila) qui portaient sur le corpus juridique français (Legifrance, Journal officiel de la République française) et sur certaines décisions juridictionnelles. La compréhension des enjeux a considérablement progressé. Le cadre juridique a lui-même évolué, avec la transposition de la directive de 2013 dans la loi de décembre 2015 sur la gratuité des données, avec la loi d’octobre 2016 pour une République numérique et avec le décret de juillet 2016 relatif au principe et aux modalités de fixation des redevances de réutilisation des informations du secteur public. Ce cadre juridique national consacre un principe de gratuité mais aussi un principe d’ouverture par défaut. Pour autant, la consécration juridique de ces principes n’est pas suffisante en soi. Les autorités publiques vont avoir à garantir l’application effective de la loi et de ses récentes évolutions. Des recours vont permettre aux juridictions de préciser la manière d’interpréter la loi. Des perspectives sont aussi ouvertes en ce qui concerne le service public de la donnée, qui prend du temps et nécessite un minimum d’accompagnement des administrations qui le mettent en œuvre. Par ailleurs, les débats sur l’ouverture et la gratuité des données ne doivent pas occulter d’autres débats, aussi essentiels, notamment celui des formats des

données, celui des licences sous lesquelles les données sont mises à disposition et, naturellement, celui sur la qualité des données. Culturellement, ces débats sont loin d’être consensuels. À cet égard, la conclusion de mon rapport de 2013 reste d’actualité : La métaphore de la « mine d’or » connaît cependant des limites. En effet, les données publiques sont des biens immatériels non rivaux. Elles ne s’épuisent pas quand elles sont réutilisées. Elles gagnent même peut-être en valeur. Elles ne pourraient s’épuiser que si les collectivités publiques cessaient de les produire. La métaphore du « grain de blé », bien qu’elle porte sur un bien matériel dont l’usage est rival et qu’elle omette, elle aussi, les effets de réseau liés à la réutilisation des informations publiques semble plus adéquate : elle reflète le choix à faire entre monétisation immédiate et investissement fructueux. Le grain peut donner tout de suite un peu d’herbe, il peut être transformé en farine mais il peut aussi, s’il est mis en culture, réaliser son potentiel et se démultiplier4.. 1 Cet article s’inspire de plusieurs interventions de l’auteur sur le sujet notamment son audition au Sénat par la mission commune d’information sur l’accès aux documents administratifs (20 mars 2014) et son propos lors du colloque organisé sur l’open data par la Cour de cassation le 14 octobre 2016. 2 M. RONAI et J.-P. CHAMOUX (dir.), Exploiter les données publiques, Le Communicateur, n° 32, 1996. 3 Préparer l’entrée de la France dans la société de l’information, programme d’action gouvernemental, 1998. 4 La métaphore de la bougie, proposée par Thomas Jefferson, illustre les effets de réseau d’un bien immatériel non rival : « celui qui allume sa bougie à partir de la mienne a reçu de la lumière sans me plonger dans l’obscurité » (1813).

PARTIE 3. LA GOUVERNANCE DE L’INTERNET : ENTRE FRACTURES ET RÉGULATIONS DU NUMÉRIQUE

Gouverner l’internet ? Du mythe à la réalité de la gouvernance mondiale de l’internet1. Par Dalila Rahmouni-Syed Gaffar et Laurent Ferrali La notion de gouvernance mondiale de l’internet, si souvent usitée, constitue pourtant un mythe. En effet, l’esprit et la genèse de l’internet se sont opposés jusqu’à présent à l’instauration d’une gouvernance unique, c’est-à-dire à une forme de centralisation et d’institutionnalisation où seraient, dans une enceinte unique, définies et mises en œuvre les règles régissant le réseau au niveau mondial2.. Ce paradoxe traduit « l’idéologie » de la « communauté » internet composée d’acteurs techniques et économiques imprégnés d’un fonctionnement historiquement décentralisé, ascendant et collaboratif peu compatible avec les modèles traditionnels de gouvernance internationale, notamment le modèle multilatéral fondé sur un processus centralisé et vertical. Pourtant, l’idée selon laquelle l’internet serait gouverné, ou devrait l’être, par l’entremise d’une seule et unique instance, continue à être présentée par certains comme la solution aux problématiques du cyberespace. Or, après trois décennies de diffusion rapide de l’internet et de fortes mutations de l’écosystème numérique mondial, on assiste au contraire à une multiplication des instances de gouvernance – techniques, thématiques, géographiques – qui traduit le besoin d’instaurer un minimum de cadre et de règles communes. Cette pluralité de gouvernances traduit au fond l’exigence croissante de mieux « réguler » l’internet amenant de plus en plus d’organisations à s’impliquer dans ces problématiques. À la faveur de l’ampleur croissante prise par les enjeux numériques, cette tendance, qui n’est pas nouvelle mais qui se renforce aujourd’hui, voit le développement, aux côtés des organisations de gouvernance de l’internet d’instances de gouvernance sur internet qui visent la régulation des usages et des contenus. Dès lors, au-delà du mythe d’une gouvernance unique de l’internet (1), l’enjeu est d’identifier les phénomènes de multiplication des enceintes et d’hybridation des modèles de gouvernance aujourd’hui à l’œuvre (2).

1. Le mythe d’une gouvernance unique de l’internet La confusion historique d’une enceinte unique de gouvernance L’idée selon laquelle il existe une gouvernance unique de l’internet est une idée largement répandue qui doit tout autant à l’usage trompeur du singulier de cette

notion qu’à sa complexité. Elle résulte surtout de la concomitance historique entre la création en 1998 de la première organisation chargée de la gestion des ressources critiques de l’internet – l’Internet Corporation for Assigned Names and Numbers (ICANN)3. – et l’émergence, à la même période, de la notion même de gouvernance de l’internet, même si d’autres instances techniques existaient auparavant. En effet, sous l’influence de l’ICANN et de son fonctionnement alors novateur dit multistakeholder (multiacteurs), le concept de gouvernance de l’internet s’est confondu avec cette instance probablement parce qu’elle fût la première tentative d’instaurer un cadre de gouvernance technique pour le réseau tout entier. Pourtant, même si l’ICANN a été perçue comme « la pièce maîtresse de la gouvernance du réseau »4., plusieurs autres instances techniques de standardisation ont joué un rôle déterminant, qu’il s’agisse de l’Internet Society, de l’Internet Engineering Task Force (IETF), de l’Internet Architecture Board (IAB) ou du World Wide Web Consortium (W3C). Il n’a donc jamais existé dans la réalité de gouvernance unique de l’internet d’un point de vue technique. Ce mythe a tout de même continué à prospérer au fur et à mesure de la diffusion de l’internet mais sous une nouvelle forme : celui d’un monopole dans le modèle de fonctionnement de cette gouvernance.

L’échec d’un monopole dans le modèle de gouvernance de l’internet Là aussi, la confusion historique explique pourquoi la gouvernance de l’internet, dans son utilisation au singulier, se confond souvent avec le modèle multiacteurs qui est considéré par la communauté internet comme un « dogme universel »5.. Laissant une place centrale aux acteurs privés et à un fonctionnement ascendant de type bottom-up, le modèle multiacteurs a été non seulement à l’origine même de la création et de la gestion, alors embryonnaire, de l’internet, mais aussi de sa diffusion à l’échelle mondiale. Cette réussite à développer l’internet partout dans le monde a donné une solide légitimité au modèle multiacteurs, et donc aux entités privées techniques et économiques qui l’ont développé, au détriment des gouvernements. Cette légitimité a contribué à la multiplication d’enceintes multiacteurs, en particulier le Forum sur la gouvernance de l’Internet (FGI) créé lors du Sommet sur la société de l’information (SMSI) en 2005, qui a pu laisser croire que ce modèle détenait le monopole de la gouvernance de l’internet. Dans la pratique, on constate le mouvement contraire, à savoir une multiplication des enceintes et une perméabilité des modèles de gouvernance, du fait de l’extension continue de ce concept qui ne se limite plus aux enjeux techniques de l’internet mais de plus en plus à ses usages6..

2. La réalité d’une pluralité de gouvernances sur l’internet

La multiplication des enceintes de gouvernance En effet, l’usage au pluriel de la notion de « gouvernances » de l’internet traduit plus justement la réalité d’une mosaïque d’enceintes distribuées et décentralisées. En plus des organisations techniques qui ont accompagné le développement de l’internet (ICANN, IETF, IAB, W3C), d’autres enceintes constituent la constellation de la gouvernance de l’internet : l’Union internationale des télécommunications (UIT) qui, malgré le lancement du SMSI, peine à asseoir sa légitimité du fait de son positionnement institutionnel et politique ; le FGI dont l’efficacité et la pertinence sont remis en cause ; l’UNESCO qui adopte une approche thématique culturelle et linguistique, ou encore l’OCDE qui, avec son « projet horizontal », veut se placer à la fois comme une enceinte de référence sur les mutations de la transformation numérique mais aussi comme une organisation consensuelle entre les modèles multiacteurs et multilatéral. À cela s’ajoute de très nombreuses initiatives régionales, telles que la conférence chinoise de Wuzhen ou encore la conférence indienne « CyFy » qui ont une influence grandissante sur les enjeux de la gouvernance de l’internet.

La perméabilité des modèles de gouvernance Nombreuses, ces enceintes adoptent des modèles de gouvernance de plus en plus perméables, empruntant à la fois au modèle multiacteurs et au modèle multilatéral. L’usage au pluriel de la notion de « gouvernances » de l’internet traduit ainsi plus justement l’existence dans la pratique d’un « nuancier » de modèles de gouvernance autour des deux principaux modèles. Par exemple, la réforme de l’ICANN menée de 2014 à 2018 a conduit à faire évoluer son modèle multiacteurs en y intégrant des dispositifs et des mécanismes qui empruntent à l’approche multilatérale tels que la constitutionnalisation des principes fondamentaux ou encore la reconnaissance du respect des droits de l’homme par l’ICANN dans l’exercice de ses missions. De la même manière, la création du FGI dont le fonctionnement est multiacteurs tout en faisant partie d’une enceinte multilatérale, les Nations Unies, démontre cette perméabilité croissante. Cette évolution de fond s’explique en partie par le contexte politique, diplomatique et international dans lequel évolue la gouvernance de l’internet et qui la façonne largement7.. En effet, depuis l’affaire Snowden et la conférence Netmundial qui s’en est suivie, la remise en cause croissante du modèle historique multiacteurs de gouvernance de l’internet historiquement largement dominé par les États-Unis8. a initié une nouvelle réflexion sur la nécessité de rééquilibrer, voire de réinventer, un nouveau modèle de gouvernance qui ne soit ni exclusivement multiacteurs ni multilatéral. Les rapports de force au sein de cette gouvernance entre les différents acteurs conduisent en effet les États à remettre en cause la légitimité des acteurs privés qui assurent historiquement le fonctionnement de l’internet du fait des

conséquences négatives de l’absence de mécanismes efficaces de régulation du numérique. Les récentes avancées en matière de protection des données personnelles ainsi que de lutte contre les contenus haineux réalisées grâce à une collaboration entre les gouvernements et les entreprises du numérique laissent entrevoir les prémisses d’une gouvernance à géométrie variable en fonction des enjeux. * La multiplication des enceintes et l’hybridation des modèles de gouvernance de l’internet constituent des mouvements de fond qui vont vraisemblablement s’intensifier au fur et à mesure que les enjeux de la transformation numérique prendront de l’ampleur et cristalliseront encore plus les tensions politiques internationales. Dès lors, comme l’évoque Evelyne Lagrange, peut-être que la « gouvernance en réseau du réseau des réseaux serait-elle en effet l’idéal à poursuivre et pas seulement une élégante mise en abyme »9.. Encore reste-t-il à trouver les voies d’une mise cohérence de cette gouvernance en réseau. 1 Cet article est inspiré en partie des travaux de recherche de Dalila Rahmouni-Syed Gaffar sur les modèles de gouvernance de l’internet et le droit international. 2 La gouvernance de l’internet est définie comme « l’élaboration et l’application par les États, le secteur privé et la société civile, dans le cadre de leurs rôles respectifs, de principes, normes, règles, procédures de prise de décisions et programmes propres à modeler l’évolution et l’utilisation de l’Internet », voy. Sommet mondial sur la société de l’information, « Agenda de Tunis pour la société de l’information », WSIS05/TUNIS/DOC/6(Rév.1)- F, 18 novembre 2005, pt 34. 3 L’ICANN gère les paramètres de protocoles, les ressources de numéros de l’internet et des noms de domaine, ce qui implique la gestion de la zone racine du système des noms de domaine. Chaque ordinateur ou « objet connecté » à Internet est doté d’un numéro IP (Internet Protocol), qui, à l’instar d’un numéro de téléphone, est unique et permet de l’atteindre depuis n’importe quel autre nœud du réseau, n’importe où dans le monde. Le système qui crée le lien entre ces adresses chiffrées et leurs équivalences alphanumériques, ou « noms de domaines », porte le nom de DNS (Domain Name System). 4 E. LAGRANGE, « Panorama des institutions impliquées dans la “gouvernance de l’Internet” », in Internet et le droit international, SFDI, 2014, p. 208. 5 Ibid., p. 204. 6 E. LAGRANGE, « Panorama des institutions impliquées dans la “gouvernance de l’Internet” », op. cit., p. 204. 7 Stratégie internationale de la France pour le numérique, disponible sur https://www.diplomatie.gouv.fr/fr/politique-etrangere-de-la-france/diplomatie-numerique/strategieinternationale-de-la-france-pour-le-numerique/, p. 3. 8 D. RAHMOUNI, « Gouvernance mondiale de l’Internet et réforme de l’ICANN », Entertainment, 2017/4, p. 284. 9 E. LAGRANGE, « Panorama des institutions impliquées dans la “gouvernance de l’Internet” », op. cit., p. 201.

L’Afrique face aux défis de la régulation du numérique Entre eldorado et pressions de souveraineté Par Emmanuel Adjovi La onzième Conférence ministérielle de l’Organisation mondiale du commerce (OMC) qui s’est tenue du 10 au 13 décembre 2017 à Buenos Aires a un goût amer pour les pays en développement en général et pour l’Afrique en particulier. La Conférence a consacré l’impasse du cycle de négociation de Doha enclenché en 2001. La plupart des pays occidentaux considèrent que ce cycle est périmé depuis l’annonce de son échec en 2018 et en appellent à un nouveau cap intégrant les questions numériques, notamment celles liées au commerce électronique et à la facilitation des investissements dans le numérique. L’OMC indique ainsi clairement son entrée dans les enjeux de la transformation numérique mondiale, en plaçant l’Afrique face à l’un des défis qu’elle devra relever dans le cadre des nouvelles régulations du numérique. Ces nouveaux besoins de régulation se sont fait particulièrement sentir avec la plateformisation de l’économie et son corollaire que constitue l’ubérisation. En effet, le développement par les grandes plateformes technologiques de nouveaux modèles d’affaires, portés par de puissants effets de réseau et l’exploitation des données à grande échelle, bouscule les réglementations établies et plus particulièrement la régulation. Bien qu’il soit polysémique et chargé d’ambiguïtés, le concept de régulation renvoie à l’idée d’un mode d’action ou de gestion qui vise à apporter ou maintenir l’équilibre dans le fonctionnement d’un système ou d’un marché. C’est pourquoi, Bertrand du Marais le définit comme étant « l’ensemble des techniques juridiques et institutionnelles qui permettent d’instaurer et de maintenir un équilibre économique optimal qui serait requis sur un marché qui n’est pas capable, en lui-même, de produire cet équilibre »1.. Cette régulation se traduit par une « intervention des personnes publiques en vue d’organiser, d’orienter ou de contrôler un objet social pour en assurer le fonctionnement optimal dans un cadre concurrentiel, poussant donc plus loin l’exigence de simple respect de la réglementation » quand bien même les moyens de la régulation ne se limitent pas à la sphère du droit positif2.. Comment mener une telle action dans un écosystème où Internet et les TIC ont aboli les frontières, favorisé la dérégulation et accéléré le mouvement sans

précédent d’intégration à l’économie de marché de pays émergents comme l’Inde ou encore les pays de l’ancien bloc communiste3. ? La combinaison de cette mondialisation économique et de l’internet remet en cause le modèle westphalien de l’État au profit d’un modèle global où des entreprises privées émergent comme des superpuissances économiques. L’Europe a commencé à apporter des réponses régulatoires à cette interrogation cruciale, car la concentration des marchés qui découle du fonctionnement de l’économie numérique nourrit des inquiétudes qui renvoient à des enjeux essentiels : la désintermédiation des acteurs économiques en place, la fragilisation du modèle social avec la fin programmée du salariat, les distorsions fiscales, les clauses abusives des contrats proposés à l’internaute par les géants de l’internet, la protection des données à caractère personnel des citoyens consommateurs ou encore la préservation des infrastructures critiques des pays et des secrets d’affaires. Si les régulateurs africains ne sont pas étrangers à ces défis que le cyberespace impose à tous les pays (à l’exception des États-Unis et de la Chine qui sont les principaux acteurs de la modélisation de l’environnement numérique mondial), les États africains sont confrontés à des pressions internationales pour l’adoption de normes, règles, principes, procédures, textes, pratiques et vision de régulation du numérique qui ne sont pas toujours endogènes. L’Afrique étant l’un des points de frottement des rapports de force mondiaux, elle est devenue l’objet de toutes les attentions depuis qu’elle est considérée comme l’horizon de la croissance mondiale. Comment se manifestent ces pressions ? Et que faire pour sortir de cette situation afin d’adopter et de mettre en œuvre une régulation du numérique qui réponde avant tout aux intérêts de l’Afrique et à ses besoins, tout en contribuant à un nécessaire dialogue international permettant de trouver de nouveaux équilibres profitables à tous ? Face aux pressions variées (I), l’Afrique peut utiliser le numérique pour accélérer son intégration économique afin de relever les défis de la régulation (II).

1. Des pressions variées pour une régulation improbable Les pressions pour faire établir en Afrique des dispositions réglementaires et régulatoires du numérique conçues ailleurs proviennent de l’Europe, des États-Unis et de la Chine. Elles visent à défendre les intérêts et valeurs de ces acteurs dans un contexte où le numérique rebat les cartes de la géopolitique internationale. Les modalités de pression sur les pays africains prennent des figures différentes suivant les stratégies des uns et des autres. Si l’Europe s’efforce de promouvoir ses standards juridiques dans le champ de la régulation, les États-Unis et la Chine s’emploient à endiguer les tentatives de régulation, chacun selon des perspectives différentes.

La promotion forcenée des standards européens

Le modèle de régulation du numérique actuellement en place en Afrique est issu de la réforme du marché des télécommunications, imposée vers la fin des années 1990 par les institutions financières internationales dans le cadre des PAS (Plans d’ajustement structurels). Dans un contexte de crise économique grave des États et de raréfaction de l’aide publique internationale, la Banque mondiale et le Fonds monétaire international ont mis en œuvre une politique de conditionnalité qui propose des prêts contre les mesures de libéralisation. Ce « linkage financier » a conduit les États africains à adhérer à l’accord de l’OMC sur les télécommunications de base signé en 1997 et annexé comme quatrième protocole à l’AGCS (Accord général sur le commerce et les services). Dès lors s’est imposé, en Afrique, le standard américain européanisé d’une régulation des télécommunications par un organe spécialisé. Le mode de fonctionnement et les outils de régulation sont inspirés du « paquet télécoms » européen. Dans certains pays africains francophones, l’imitation est allée jusqu’à épouser la dénomination du régulateur français. Pour renforcer l’expansion de ses modèles, la Commission européenne a financé en 2008 le projet HIPSSA (Appui à l’harmonisation des politiques relatives aux TIC en Afrique subsaharienne) de l’Union internationale des Télécommunications (UIT). Ceci a abouti à l’adoption des lois types de la Communauté Économique des États de l’Afrique Centrale (CEEAC), du « paquet télécoms » de la Communauté économique des États de l’Afrique de l’Ouest (CEDEAO), des lois types de la SADC (Afrique australe) et d’un cadre juridique harmonisé de la Communauté des États de l’Afrique de l’Est. Sur un autre plan, la doctrine internationale européenne sur la Convention sur la cybercriminalité, dite « Convention de Budapest » est également emblématique de la volonté de l’Europe d’étendre ses normes à travers le monde et plus particulièrement en Afrique. Compte tenu de la difficulté à mettre en place une convention onusienne universelle en la matière, le Conseil de l’Europe a conçu celle de Budapest comme « le premier traité international » sur la criminalité en ligne. Le texte est ouvert à la signature des États membres et des États non membres qui ont participé à son élaboration et à l’adhésion des autres États non membres. En soutenant de nombreux projets conjoints de lutte globale contre la cybercriminalité4., l’Union européenne et le Conseil de l’Europe font la promotion de la Convention de Budapest, à travers des actions de renforcement de la législation et des capacités institutionnelles des pays prioritaires, dont ceux d’Afrique. Sous couvert d’harmonisation législative, des campagnes sont menées en faveur de l’adhésion des pays africains au texte de Budapest, mais également à la Convention 108 sur la protection des données personnelles. Pour l’instant, seuls l’Île Maurice et le Sénégal (2017) ont signé et ratifié la Convention de Budapest, tandis que l’Afrique du Sud, tout en ayant signé, n’a pas encore ratifié le texte. Pour autant, l’Europe ne désarme pas. Elle a réussi à faire inscrire, dans la stratégie de développement des Télécommunications/TIC dans l’espace CEDEAO pour la période 2018-2023, la

mise en œuvre de la Convention de Budapest comme l’un des projets-phares, alors même que l’Afrique dispose depuis juin 2014 d’une Convention sur la cybersécurité et la protection des données à caractère personnel, dite « Convention de Malabo » qui attend toujours les quinze ratifications nécessaires pour entrer en vigueur. Une étude comparative des deux conventions menée par le Conseil de l’Europe a abouti à la conclusion que les deux textes sont complémentaires concernant la cybercriminalité. Mais, pour les réformes législatives en Afrique, il serait souhaitable de s’inspirer, dès le départ, de la Convention de Budapest afin de faciliter l’adhésion à cet instrument. À l’opposé de l’Europe, la Chine et les États-Unis développent d’autres façons d’agir pour, au contraire, endiguer les initiatives de régulation.

Les stratégies chinoise et américaine d’endiguement de la régulation en Afrique Les États-Unis prônent une politique de libéralisation du secteur des TIC qui limite au maximum le rôle des instances de régulation. L’objectif est de favoriser les intérêts de ses champions qui dominent l’économie numérique mondiale. Le premier champ d’expression du néolibéralisme américain est celui de la téléphonie avec la généralisation de l’utilisation des services VoIP par des réseaux principalement américains que sont WhatsApp, Skype, Viber ou encore Facebook qui permettent de communiquer à la fois par message, par voix et par vidéo via le protocole Internet (IP) usuel. Or, cette pratique phagocyte les revenus des voix et SMS et accroit le trafic vidéo sur les réseaux 3G/4G au moment où les opérateurs télécom doivent investir dans les infrastructures pour maintenir un trafic de qualité et répondre à sa hausse. Ces derniers se plaignent des pertes considérables5. qu’ils connaissent à cause des OTT (Over The Top, les grandes plateformes technologiques mondiales) qui ne réalisent aucun investissement, ne payent pas les impôts, taxes et redevances aux États et ne répondent pas de la qualité du service. Pour relever ce défi posé par les opérateurs OTT, plusieurs pays ont pensé pouvoir réguler le phénomène en agissant sur les réseaux. Il leur a été opposé le principe de la neutralité du Net et la nécessité de ne pas entraver l’innovation. Ainsi, en 2016, l’Agence nationale de la régulation des télécoms du Maroc a considéré que les services de voix sur IP fournis par les OTT entraient dans le champ des services de téléphonie dont l’exploitation est soumise à des licences, et a demandé aux opérateurs de suspendre ces services OTT. Mais, face aux pressions de toutes sortes, en commençant par une fronde de la jeunesse marocaine, et des exhortations internationales au respect des libertés sur Internet, le régulateur marocain est revenu sur sa décision. Au bout de quelques semaines de contestation des internautes, le gouvernement béninois a abandonné la mise en œuvre d’une mesure instaurant une contribution de 5 francs CFA (0,8 centime d’euro) par

mégaoctets pour l’accès à internet utilisant un service par contournement ou une plateforme de réseau social. Seuls les gouvernements ougandais et zambien ont réussi à imposer une taxe quotidienne sur les services OTT (200 shilling, soit 4 cts d’€ pour l’Ouganda et 30 ngwee, soit 3 cts d’€ pour la Zambie). De la même manière, l’Afrique du Sud et le Nigéria, qui ont envisagé sérieusement la possibilité de bloquer les OTT, ont renoncé à leur projet. Aujourd’hui, les géants du numérique vont même jusqu’à encourager les gouvernements africains à traiter les opérateurs des télécommunications comme les OTT, ce qui revient à ne plus leur appliquer les lois nationales de régulation. Cette approche de la régulation se rapproche de l’action des États-Unis dans le cadre du processus d’adoption de la Convention africaine sur la cybersécurité et la protection des données à caractère personnel. Dès la fin des travaux d’élaboration de la Convention, le Département d’État américain a invité plusieurs parties prenantes dont la Commission de l’Union africaine et plusieurs pays africains pour les convaincre de la nécessité d’introduire dans le texte le principe de « liberté de circulation des données à caractère personnel » avec la possibilité de transfert de données vers un pays tiers non-membre de l’Union africaine, sous réserve de réciprocité. Désormais partie intégrante de la Convention africaine, ce principe renvoie à la notion anglo-saxonne, devenue une réelle doctrine numérique des États-Unis, du « free flow of data » qui encourage à supprimer toutes les barrières, y compris les règles de régulation, à la libre circulation des données qui est au cœur du modèle économique de ses grandes plateformes. La Chine est sur la même ligne que les États-Unis. Qui mieux que Jack Ma, le fondateur de la plateforme Alibaba peut énoncer la position de la Chine en matière de régulation du numérique. « Nous venons, mais ne réglementez pas » a-t-il demandé aux pays africains lors de la 11e Conférence ministérielle de l’OMC à Buenos Aires en décembre 2017. Il a manifesté publiquement son intérêt pour le développement des activités de son entreprise en Afrique et a promis de visiter deux pays africains par an à partir de 2018. Jack Ma a réaffirmé sa position le 11 décembre 2017, lors du lancement d’une nouvelle initiative dénommée « Enabling E-commerce » destinée à stimuler un dialogue public-privé sur le commerce électronique par l’OMC, le Forum économique mondial et la Plateforme électronique mondiale du commerce (eWTP), en soulignant que l’objectif de profitabilité économique, notamment pour le développement des petites entreprises, devait l’emporter sur les demandes de réglementation du commerce électronique. Dans le domaine de la Télévision numérique terrestre (TNT), c’est également la Chine, à travers l’entreprise StarTimes qui gagne l’Afrique avec une stratégie de contournement de la régulation qu’elle déploie activement. Pour s’assurer le monopole de la TNT dans plusieurs pays d’Afrique, StarTimes propose de leur construire entièrement leurs infrastructures de migration vers la TNT avec un prêt au taux de 1 à 2 % sur vingt ans octroyés par des acteurs publics chinois notamment le

Fonds de développement et de la coopération sino-africaine, la banque d’exportimport Eximbank ou encore la Banque de Chine. Contre ce prêt, les États signent une convention de coentreprise avec StarTimes qui assure à cette dernière la gestion exclusive des multiplexes de la TNT pendant la durée du prêt. Cet accord lui donne également le droit d’exploiter un bouquet de chaînes payantes. Ces contrats aux clauses d’exclusivité et d’exonération spéciales, signés avec une quinzaine de pays permettent même à StarTimes de déterminer le calendrier de l’extinction des signaux analogiques. Après avoir conduit tout le processus de la TNT, le groupe chinois se met en position de force face aux régulateurs de l’audiovisuel avec des clauses exorbitantes de droit public dont il bénéficie. Ces relations asymétriques sont loin d’être profitables à l’Afrique. Il est difficile de soutenir que la greffe de la « tropicalisation » des standards européens a pris et que la régulation du numérique fonctionne efficacement. En effet, le modèle actuel de régulation spécialisée des TIC est loin d’être satisfaisant, dans la mesure où le jeu des acteurs des marchés des TIC a limité sa portée en termes de transparence, d’avantages pour l’utilisateur, d’équité entre les opérateurs et d’indépendance du régulateur. Ce constat souligne à quel point il importe désormais de réagir pour proposer des alternatives crédibles.

2. Se préparer à la compétition mondiale Le numérique et Internet induisent une nouvelle redistribution des cartes mondiales à travers une nouvelle compétition internationale où les règles sont à définir. Dans ce contexte, l’Afrique se doit de s’y préparer en générant ses propres standards et en se servant du numérique pour assurer son intégration économique.

Générer ses propres standards Pour réguler efficacement le numérique, l’Afrique doit chercher son propre chemin en prenant en compte son environnement, ses écosystèmes, ses besoins d’équilibre et ses intérêts stratégiques. Elle doit concevoir des outils de régulation adaptés à ses réalités propres. Car, comme nous l’enseigne le prix Nobel d’économie Jean Tirole, « il n’y a pas de régulation “passe-partout” »6.. Aujourd’hui, lorsque l’on parle de régulation du numérique, il convient de distinguer la régulation du réseau internet de la régulation du contenu et plus particulièrement de l’économie numérique. Dans le premier cas, on connaît le rôle écrasant que jouent la société de droit californien ICANN (Internet Corporation for Assigned Names and Numbers) et les organisations atypiques alliées que sont l’IAB (Internet Architecture Board), l’IETF (Internet Engineering Task Force) et W3C (World Wide Web Consortium). Les régulateurs africains doivent mobiliser des ingénieurs et des juristes pour investir ces organismes afin d’influer sur leurs politiques publiques de

normalisation, de standardisation et d’allocation des ressources critiques d’Internet. En s’engageant dans les processus et procédures que ces structures mettent en place pour assurer la gouvernance technique et politique d’Internet, les régulateurs d’Afrique pourront travailler ensemble pour faire évoluer les règles de fonctionnement, de gestion ainsi que les politiques publiques d’Internet notamment en s’appuyant sur l’AfriNIC (African Network Information Center) en charge de l’allocation des adresses IP et des numéros de systèmes autonomes en Afrique. Concernant la régulation du contenu et plus particulièrement de l’économie numérique, les perspectives sont plus délicates. Les pays africains ont été habitués pendant deux décennies à la régulation des réseaux selon des standards essentiellement conçus dans des contextes extérieurs. Or actuellement, les paradigmes de la régulation changent sous la poussée des grandes plateformes mondiales dont les modèles économiques modifient les chaînes de valeur. Elles instaurent une économie de la donnée dont la particularité première est le développement des marchés bifaces. Ce nouveau fonctionnement de l’économie appelle une reconsidération des principes classiques du droit de la concurrence pour adopter des règles et principes de régulation adaptés de ces marchés. L’Europe a d’ores et déjà pris conscience de ce besoin d’adaptation de la régulation et initie une sorte de droit spécial des plateformes en ligne pour répondre aux défis de l’ubérisation7.. Peut-on transposer ce droit en Afrique où l’ubérisation est un phénomène marginal dans la mesure où les économies africaines fonctionnent déjà avec peu d’intermédiaires ? De la même manière, en matière de protection des données personnelles, que signifient les principes de consentement éclairé et de droit à l’information dans un pays comme le Niger où le taux d’analphabétisme est de 74 % au sein de la population âgée de plus de 15 ans ? La meilleure réponse à ces interrogations est que les spécialistes africains du numérique doivent travailler pour dégager les règles et principes adéquats permettant de réguler l’économie numérique sans pour autant brider l’innovation. Si l’Europe souhaitait accompagner l’Afrique dans ce processus, elle pourrait faciliter et appuyer le dialogue entre universitaires, chercheurs et autres spécialistes de l’économie numérique des deux côtés de la Méditerranée. En dehors de ces questions émergentes, les régulateurs africains sont appelés à s’occuper de problématiques cruciales comme celle de la régulation des réseaux de fibres optiques qui se déploient sur le continent. La plupart des États africains investissent dans ce secteur au même titre que des opérateurs privés et confient la gestion de leurs infrastructures à des sociétés d’État. Il est important que les régulateurs interviennent très rapidement pour faciliter la mutualisation et l’ouverture de ces réseaux à des acteurs privés locaux afin de favoriser le développement des usages. L’économie numérique représente au plan mondial 22,5 % du PIB contre 5 % en

Afrique. Pour rattraper ce retard, des efforts sont attendus. Non seulement dans les pays, mais aussi en termes d’intégration économique pour passer à l’échelle supérieure.

Utiliser le numérique comme un vecteur d’intégration économique régionale et sous régionale Le numérique est l’un des domaines où l’Afrique est la moins prise en otage dans les rets des enjeux internationaux puisqu’elle n’a pas encore signé de traités internationaux qui limitent considérablement ses marges de manœuvre8.. Cette situation est une opportunité unique que doivent saisir les pays africains pour faire du numérique le principal moyen d’accélération de leur intégration économique régionale à la faveur du développement des nouveaux centres de décision supranationaux qu’induit progressivement la transformation numérique mondiale. En effet, aucun État africain ne dispose des capacités techniques et financières pour gérer tout seul des enjeux liés à des technologies émergentes comme le big-data, le cloud computing, les objets connectés, l’intelligence artificielle et la biométrie ainsi que la complexité des modèles économiques des grandes plateformes qui dominent l’économie numérique. Pour relever ces défis, il est nécessaire de changer de paradigme et de promouvoir une logique d’appropriation des réseaux pour bâtir des industries africaines du numérique. Pour ce faire, la priorité est à la mise en place des marchés uniques numériques régionaux et sous-régionaux ; ce qui suppose d’une part, l’interconnexion des infrastructures et, d’autre part, la création d’autorités de régulation régionales et sous- régionales. En changeant d’échelle, les États africains comprendront que, dans le monde numérique, les micronationalismes n’ont aucun avenir. Si les grandes plateformes technologiques ont accepté de s’incliner devant les décisions des juges européens sur le déréférencement (affaire Google Spain) et la protection des données personnelles transférées (affaire Safe Harbor), c’est parce que l’Europe constitue un marché unifié et dont l’ampleur ne leur permet pas de renoncer. Forte de sa démographie dynamique et de sa jeunesse connectée, l’Afrique doit constituer cette force de marché, soit au niveau continental, soit au plan sous-régional pour peser dans les débats internationaux. Derrière le numérique, il y a aussi un enjeu industriel. La régulation, ce n’est pas seulement protéger les consommateurs. C’est aussi faciliter le développement d’une industrie profitable à l’économie locale et conforme à l’intérêt à moyen terme des consommateurs. C’est pourquoi, il devient urgent de fixer aux autorités de régulation des objectifs économiques et sociaux en termes de production industrielle, de promotion des emplois et de diffusion de l’innovation9.. Dans cette perspective, ces agences doivent se préoccuper de l’investissement et de la production industrielle. De même, une partie des fonds d’accès universels doit être affectée au

développement et à la dynamisation de l’écosystème numérique africain en appuyant les jeunes pousses (start-ups) à travers des incubateurs et des accélérateurs d’entreprises ainsi qu’en créant des espaces collaboratifs de travail et des lieux d’innovation. L’autre priorité, si ce n’est une urgence, concerne la régulation régionale de l’audiovisuel pour éviter que les bons côtés de la mondialisation numérique (accès à un marché planétaire même pour des petits pays dont personne ne parle la langue) ne cèdent la place à la domination de mastodontes américains ou chinois. En septembre 2018, les ministres des Finances de l’UEMOA (Union économique et monétaire ouest-africaine) ont adopté trois directives d’harmonisation du droit audiovisuel sous-régional dont une sur le dépôt légal des documents audiovisuels. Gageons que c’est le premier pas d’une volonté de régulation à un niveau sousrégional. La décision de l’Union africaine de prélever de 0,2 % sur les importations des produits non africains pour assurer un financement durable et équitable de l’organisation panafricaine va également dans le bon sens. On peut, enfin, se poser la question de la pertinence des régulations sectorielles au regard de la convergence numérique. L’Afrique ne gagnerait-elle pas à forger des régulateurs uniques du numérique ? Pour relever ces différents défis, les autorités de régulation devront s’attacher les services des compétences les plus solides en matière d’analyse économique, de droit du numérique et d’ingénierie du réseau et de la donnée. Dans le même temps, il faudra refonder complètement les départements du numérique des organisations économiques régionales et de la Commission de l’Union africaine, en les dotant des moyens financiers idoines et des ressources humaines à la hauteur des défis de la régulation du numérique en Afrique. * Ainsi, face à l’eldorado que représente le numérique en Afrique, ce continent est devenu l’objet de toutes les convoitises, en particulier sino-américaines, du fait de son potentiel démographique, des débouchés encore nombreux et de la faible régulation du numérique. Objet de toutes les attentions, les États africains n’en sont pas moins confrontés à une double pression résolument contradictoire. D’une part, ces pays sont incités à adopter des règles de régulation du numérique qui leur sont exogènes, notamment par l’Europe. D’autre part, les géants du numérique américains et chinois, appuyés par leurs gouvernants respectifs, déploient au contraire une stratégie pour endiguer toute régulation qui leur serait néfaste. À l’heure où le numérique rebat les cartes de la géopolitique internationale, l’Afrique doit sortir de cette impasse de relations asymétriques qui ne lui sont pas profitables. Pour cela, les États africains doivent redoubler d’effort pour mettre en place une stratégie commune de régulation qui répond avant tout aux intérêts des Africains, tout en contribuant au dialogue et à la coopération internationale.

1 B. DU MARAIS, « Préface », in A. SEE (dir.), Régulations, Paris, La mémoire du Droit, 2013, p. 10. 2 J.-L. AUTIN et P. IDOUX, « Nouvelles technologies de la communication. Internet. Télématique », Fascicule n° 27412 du Juris-Classeur Administratif, 2010. 3 J.-Y. HUWART et L. VERDIER, La mondialisation économique. Origines et conséquences, Paris, OCDE, 2012, p. 56. 4 Comme le GLACY-Global Action on Cybercrime, le GLACY+ ou encore le CyberSud. 5 Au Sénégal, par exemple, l’opérateur Sonatel, une filiale d’Orange, a annoncé une perte de 20 milliards de F cfa, soit 30,5 millions d’€ en 2018 du fait des grandes plateformes d’Internet, cf. CIO Mag du 21 mars 2019, https://cio-mag.com/impact-des-ott-sonatel-deplore-une-perte-de-20-milliards-de-fcfa/. 6 J. TIROLE, Economie du bien commun, Paris, PUF, 2016, p. 606. 7 M. BEHAR-TOUCHAIS (dir.), Les conséquences juridiques de l’ubérisation de l’économie. Actes des journées du 12, 13 et 14 octobre 2016, Paris, IRJS éditions, 2017, voy. not., les articles de C. ZOLYNSKI, « Ubérisation et plateformisation : l’émergence d’un droit des plateformes en ligne », p. 19 et « La loyauté des plateformes, ou comment articuler réglementation, co-régulation et interrégulation ? », p. 43. 8 À l’exception du 4e protocole sur les télécommunications de base annexé à l’accord de l’AGCS de l’OMC. 9 D. LOMBARD, Nouvelle économie. Nouvelle industrie, Paris, Odile Jacob, 2017, p. 148.

Les fractures numériques Illustrations d’un numérique Janus en France et en Afrique Par Pierre Bonis Alors que l’internet a pris depuis vingt ans une place prépondérante dans notre quotidien à travers les échanges de services (dématérialisation) et les voies de communication (messagerie, blogs, courriel, plateformes), le numérique s’est surtout ancré dans nos références culturelles comme un outil indispensable, voire incontournable. Mais si le numérique dope le quotidien1., il ne profite pas à tous car une partie de la population mondiale en est toujours exclue. Pourtant, la création initiale de l’internet portait en elle le double espoir d’une liberté de pensée et communication et d’une inclusion du plus grand nombre permettant l’avènement d’un « village global » fondé sur les principes démocratiques. Aujourd’hui, force est de constater que l’accélération de la transformation numérique à laquelle nous assistons conduit également à une polarisation des effets du numérique autour de fractures pénalisant ceux qui sont encore coupés ou qui en ont un accès limité : ce sont les « marginalisés numériques ». Dès lors, trois décennies après son avènement, l’internet a-t-il tenu ses promesses ? Où en est-on de la période des « grands espoirs » de ses débuts marqués par le rêve d’un développement harmonieux des nouvelles technologies de l’information et de la communication (NTIC) au service du bien commun ? Quelles urgences et quelles actions faut-il mettre en œuvre pour permettre au plus grand nombre d’en bénéficier ? Si l’internet a longtemps été porteur de nombreuses « espérances » (I), nous assistons aujourd’hui à sa massification qui, tout en étant libératrice, renforce les fractures et les logiques d’exclusion, véritables reflets d’un « numérique Janus ». Le succès d’initiatives locales, orientées vers la satisfaction de besoins réels, et s’appuyant sur des solutions dont le partage est rendu possible par l’internet, représente le moyen le plus direct de réinsérer les minorités exclues du numérique, aussi bien en France qu’en Afrique (II). *

1. Internet, les grandes espérances

Internet, une promesse Sans revenir sur l’histoire de l’internet, les attentes placées en lui par ses utilisateurs montrent que, dès ses débuts, le réseau symbolisait une promesse de progrès. Pour les « connectés de la première heure », alors qu’Internet se heurtait encore à sa faible pénétration et à sa conception très technique, le réseau était perçu comme un forum mondial de bonnes volontés et de coopération entre humains. Cet élan s’est traduit par de nombreuses opportunités : politiques d’abord, avec de nouveaux usages participatifs censés revivifier la démocratie ; culturelles ensuite, à travers le développement de l’information et la diffusion de la connaissance et, enfin, économiques, avec des innovations et de nouveaux marchés. Pour ceux qui n’étaient pas encore connectés, leurs aspirations n’attendaient plus que la diffusion de l’internet pour bénéficier de ces bienfaits.

Espérances politiques À la fin des années 1990 et au début des années 2000, alors même que le monde ne comptait que 361 millions d’utilisateurs2., ces espérances ont été largement relayées au niveau politique, marquant la conviction profonde que l’internet était « un nouveau continent, où il est urgent de débarquer »3. car porteur d’un potentiel de transformation qui allait bouleverser le monde. Ainsi, au niveau national, le gouvernement français lance son premier plan d’action pour la société de l’information en 1998 dont les priorités – création d’emplois, performance économique du secteur privé, transparence de l’action publique, éducation collaborative et diffusion culturelle – illustraient bien les attentes mises dans l’internet et qui sont aujourd’hui d’une étonnante actualité vingt ans après. Ce plan s’est traduit par exemple par le lancement à la même date de Legifrance pour améliorer l’accès aux droits au citoyen. Au niveau international, les Nations Unies et l’Union internationale des télécommunications (UIT) prennent également conscience des potentialités des NTIC et appellent à la réduction des fractures de connectivité avec le lancement quelques années après du Sommet mondial sur la société de l’information (SMSI). Ce forum s’est réuni en 2003 à Genève et en 2005 à Tunis. Le but de cette rencontre était d’aboutir à une déclaration de principes et à un plan d’action pour développer l’internet mondial. De ces deux rencontres est né en 2006 le Forum sur la gouvernance de l’internet, un espace de dialogue multiacteurs sur l’ensemble des politiques publiques liées au développement de l’internet qui se réunit chaque année. Sur le continent africain, le Sommet de Bamako de 2000 lance pour la première fois au niveau francophone la réflexion sur les opportunités mais également l’encadrement nécessaire du développement de l’internet4.. Si cet activisme politique s’est accompagné à l’époque d’une pluie d’annonces des grands

bailleurs internationaux pour connecter l’Afrique, ces annonces étaient en grande partie un trompe-l’œil. En effet, ni le secteur privé économique, ni les gouvernements, ni les organisations internationales ne souhaitaient s’engager seuls pour planifier et coordonner la mise en œuvre effective des engagements de désenclavement du continent africain en matière d’infrastructures de communication. Malgré le lancement du « partenariat pour une connectivité mondiale » par l’UIT censé atteindre les objectifs de connectivité pour réduire la fracture numérique, cette situation traduisait en réalité les incertitudes sur le déploiement de cette transformation numérique. Quels acteurs devaient jouer un rôle moteur ? Les États ou bien les entreprises des NTIC ? Qui devait prendre en charge le financement des initiatives de connectivité ? Quelles étaient les actions prioritaires à mettre en œuvre ? Bientôt, les réponses à ces questions allaient être supplantées par la diffusion rapide et massive de l’internet qui va renforcer la nécessité de réduire ces fractures.

2. Internet, le temps des réalités : le numérique au défi des fractures et des logiques d’exclusion En moins de trois décennies, l’internet s’est diffusé plus rapidement et plus massivement qu’aucune autre innovation avant lui, portant le nombre de connectés à presque la moitié de la population mondiale. Si cette massification a incontestablement eu des effets positifs, elle a dans le même temps accentué les fractures et les logiques d’exclusion dont la résorption peut s’inspirer d’initiatives locales orientées vers la satisfaction de besoins réels.

Logiques d’exclusion et fractures Dans la littérature scientifique, il existe deux dimensions de la fracture numérique. La première, appelée fracture de premier niveau, correspond à l’inégalité dans l’accès aux technologies de l’information et de la communication5. (TIC). La seconde dimension renvoie davantage aux inégalités d’usage des TIC6.. Alors que la connectivité se diffuse largement depuis ces 20 dernières années, c’est toujours près de 3,8 milliards de personnes qui n’ont pas accès à Internet selon le rapport annuel de l’Union internationale des télécommunications (UIT)7.. Des écarts importants existent en ce qui concerne le numérique, entre les pays, entre les régions ainsi qu’entre les pays développés et les pays en voie de développement. Une fracture numérique significative persiste également entre les hommes et les femmes notamment dans les pays les moins avancés (PMA), où seulement une femme sur sept utilise l’internet, contre un homme sur cinq. Comment expliquer un

tel ralentissement ? Selon le rapport annuel de la World Wide Web Foundation, les opérateurs de télécoms abandonnent ces zones blanches dues aux coûts financiers importants et au retour sur investissement qui n’est pas toujours assuré8.. Afin de répondre à ce défi, une coopération internationale des opérateurs est nécessaire pour proposer la connectivité à l’échelle mondiale sur le modèle du « New deal » qui a récemment obligé les opérateurs français à couvrir les zones blanches du pays9.. En attendant, pour pallier ce phénomène, certains géants du numérique lancent des projets afin de connecter la planète. Parmi ces initiatives, il y a celle de Elon Musk, fondateur de Space X, qui envisage de lancer une constellation de 4 400 satellites afin d’apporter le haut débit partout dans le monde. Dans le même esprit, Google a également lancé le projet « loon » qui vise à développer l’accès à l’internet dans les zones les plus reculées de la planète en utilisant des ballons stratosphériques gonflés à l’hélium. À l’échelle nationale, le numérique est de plus en plus présent dans la vie des Français et ne cesse de se diffuser. En témoigne l’annonce du premier Ministre qui ambitionne « que 100 % des services publics soient accessibles en ligne à l’horizon 2020 »10.. Si la population possède en grande partie des outils numériques – 78 % des Français disent détenir un ordinateur et 75 % disent avoir un smartphone11. – nombreux sont ceux qui rencontrent des difficultés d’usage avec ces technologies. Ces inégalités d’usage représentent ce qu’on appelle la fracture numérique de second niveau. Aujourd’hui c’est 13 millions de Français, soit presque 1 personne sur 4, qui dit rencontrer des difficultés face à la technologie selon le baromètre du numérique. Parmi ces exclus du numérique, on retrouve des séniors, des individus éloignés de l’emploi, mais aussi des jeunes de moins de 35 ans, souvent issus des quartiers moins favorisés. Cet « illectronisme » peut prendre différentes formes. Si certains maitrisent les usages primaires comme les réseaux sociaux, la connaissance en informatique (éditer un fichier de bureautique, joindre un mail, scanner un document) est quant à elle souvent très limitée voire inexistante. De surcroit, il est également intéressant d’analyser que l’accroissement de la connectivité s’est accompagné d’une standardisation des usages qui sont d’ailleurs assez éloignés des idéaux initiaux de l’internet. Ainsi, en France, les usages majoritaires, hors des usages professionnels, regroupent essentiellement la participation aux réseaux sociaux, l’envoi d’e-mails, les jeux en ligne, les vidéos à la demande et les achats en ligne12.. Ces éléments témoignent, outre la posture de consommation, d’usages « contraints » par des grandes entreprises du numérique. En offrant l’impression d’une liberté de communication et de collaboration, aussi bien les réseaux sociaux et les plateformes créent en réalité un écosystème contraint dans lequel l’internaute est enfermé. En effet, au fur et à mesure qu’il participe à ce réseau ou à cette plateforme, il lui est chaque jour plus difficile d’en sortir et

d’exercer sa faculté de choix d’un autre outil. Ainsi, cette logique d’enfermement est en pratique une logique d’exclusion car les plateformes enferment l’utilisateur dans un écosystème qui n’est pas l’internet.

Des initiatives locales orientées vers la satisfaction de besoins réels Les premières initiatives tentent de réduire les logiques d’exclusion/enfermement en rendant à l’utilisateur sa liberté sur l’internet. En France par exemple, la loi sur la République numérique de 2016 consacre le principe de portabilité des données en obligeant les grandes plateformes à mettre en place des outils permettant à l’internaute de migrer d’un environnement à l’autre sans perdre ses données et son historique. En Afrique, les abonnements « zero rating » se développent énormément. Ces offres de téléphones portables et de connexion internet sponsorisées par des éditeurs ou des plateformes qui maintiennent le mobinaute dans leur écosystème sans l’autoriser à naviguer ailleurs, pourraient être perçues comme des logiques d’exclusion. Or, ces offres agissent également comme des catalyseurs en permettant aux populations de découvrir Internet et ainsi de retrouver une forme de liberté. En effet, la croissance des souscriptions à des offres d’accès internet mobile « classiques » et d’achat de terminaux mobiles reste, en Afrique, la plus forte du monde13.. D’autres initiatives tentent de leur côté de réduire les fractures numériques aussi bien au niveau national qu’international en s’inspirant d’initiatives locales concrètes. En France, le développement du télédiagnostique14. tente par exemple de répondre en partie à la désertification médicale. De la même manière, la formation à distance est en plein essor avec l’arrivée des Moocs qui permettent de se former tout au long de la vie. Des acteurs privés et publics cherchent des usages solidaires d’Internet. L’association « Reconnect » a mis en place une application pour les personnes sans abri en cas de perte de leurs papiers administratifs15.. Ce « cloud solidaire » est disponible dans plus de 250 structures d’accueil et a déjà permis à 5 000 personnes d’en bénéficier. Pour y avoir accès, il suffit de se rendre dans n’importe quelle structure d’accueil et de donner son mot de passe afin de déposer ou récupérer des documents administratifs. Utiliser la technologie pour répondre à la crise des réfugiés, c’est la mission Techfugees. Chaque année, cette association organise des Hackathons partout dans le monde où elle invite des développeurs, des ingénieurs, des designers, des entrepreneurs et également des migrants à concevoir des applications pour faciliter l’accueil et l’intégration des personnes réfugiées. L’association Emmaüs Connect accompagne également les populations les plus fragiles dans leur accès et leur apprentissage numérique. Au travers de ses huit antennes en France et de son programme de terrain, Emmaüs Connect apporte des solutions complètes et innovantes aux personnes en difficulté et favorise ainsi

l’accès des plus démunis à la téléphonie et à Internet, et le développement des usages dans une perspective d’insertion sociale ou professionnelle. La mission « société numérique » de l’Agence du numérique16. répertorie et appuie des initiatives portées par le réseau afin d’utiliser Internet pour lutter contre l’isolement, et comme outil de réinsertion. Des fondations d’entreprises ou d’utilité publique, comme la Fondation Afnic pour la solidarité numérique17., identifient et soutiennent également des projets à vocation nationale permettant d’utiliser l’internet et le numérique à des fins de lutte contre l’exclusion. Afin de soigner cette fracture et faciliter la transition vers le « tout numérique », des initiatives politiques ont été annoncées. Un investissement important va être débloqué pour instaurer le « pass numérique ». Il s’agira d’un programme de formation proposé par le Pôle emploi, la Caisse d’allocations familiales, l’assurance maladie, les villes, les agglomérations et les départements pour sensibiliser et former les personnes éloignées du numérique. Dans le cadre de la réforme du lycée, des cours d’humanités numériques et scientifiques vont également être enseignés. Ces annonces du gouvernement interviennent dans un contexte où les grandes entreprises du numérique s’emparent du sujet et mettent en place des écoles pour former les citoyens au numérique. En Afrique, des usages se développent pour pallier les carences sociales et économiques concrètes du quotidien des populations. Ainsi, le développement du paiement par mobile, connu sous le nom de « mbank », a permis à de nombreuses populations en Afrique d’avoir accès aux services bancaires. Les imprimantes 3D sont utilisées de manière croissante dans des FabLabs pour créer des objets du quotidien18.. La mise en place de mentoring d’étudiants développeurs pour leur permettre de créer des applications mobiles répondant aux besoins locaux est également au nombre de ces initiatives locales orientées vers la satisfaction des besoins réels qui permettent de réduire les fractures. Une question persiste tout de même : comment l’outil des politiques publiques peut-il s’adapter à ce « cousu main numérique » qui fait ses preuves mais dont le développement n’est pas assez rapide pour combler l’ampleur de la fracture ? Les quelques exemples prometteurs pris ici montrent une voie. Ce n’est pas à travers l’inclusion de ces populations dans le numérique que se joue leur réinsertion, mais plutôt à travers des accompagnements précis, concernant des usages précis. Dans cette approche, le numérique constitue plutôt un outil pour régler des problèmes concrets à la faveur d’initiatives locales orientées vers la satisfaction de besoins réels dont le partage est rendu possible par l’internet. Créer des réponses concrètes et positives à des problèmes sociaux et économiques est beaucoup plus facile, plus immédiat et, in fine, plus porteur d’espoir.

* L’internet a-t-il tenu ses promesses ? La réponse à cette question ne va pas de soi comme l’a montré cette analyse. Si la diffusion rapide et massive de l’internet constitue un indéniable progrès, les fractures numériques persistent aussi bien dans les pays développés, entre générations, entre territoires ou encore entre classes socioprofessionnelles, que dans les pays en voie de développement, comme l’a illustré l’exemple africain. Des solutions innovantes existent et nous montrent les voies possibles, celles de réponses concrètes orientées vers la satisfaction des besoins réels. Autant d’initiatives qui peuvent inspirer les politiques publiques d’inclusion numérique. 1 B. BOUQUET et M. JAEGER, « L’e-inclusion, un levier », Vie sociale, n° 11, 2015. 2 Pour toutes les statistiques du nombre d’utilisateurs, on trouvera les références sur le site https://internetworldstats.com/stats.htm#links. 3 Ainsi, en 1997, Jacques Attali écrit : « Quand l’Europe se réveillera-t-elle ? Quand comprendra-t-elle qu’Internet est un nouveau continent, où il est urgent de débarquer sous peine de laisser ses immenses trésors à d’autres ? ». Disponible sur : http://www.attali.com/economie-positive/le-septieme-continent/. 4 http://www.osiris.sn/Bamako-2000.html. 5 A. RALLET et F. ROCHELANDET, « La fracture numérique : une faille sans fondement ? », Réseaux, 2004/5, n° 127-128, pp. 19-54. 6 E. HARGITTAI, « Second-Level Digital Divide: Differences in People’s Online Skills », First Monday, vol. 7, n° 4, 2002. 7 ITU (2017), Measuring the Information Society Report 2017, https://www.itu.int/en/ITUD/Statistics/Documents/publications/misr2017/MISR2017_Volume1.pdf. 8 World Wide Web Foundation (2018), Affordability Report, http://a4ai.org/wp-content/uploads/2018/10/A4AI2018-Affordability-Report.pdf. 9 S. CASSINI, « Les opérateurs débloquent 3 à 4 milliards d’euros pour supprimer les zones blanches », Le Monde [en ligne], 14 janvier 2018, disponible sur : https://www.lemonde.fr/entreprises/article/2018/01/14/telephoniemobile-les-operateurs-debloquent-3-milliards-d-euros-pour-supprimer-les-zonesblanches_5241499_1656994.html. 10 A. LECLERC, « Comment fait-on quand on n’a pas d’ordinateur ? : reportage avec les oubliés de la start-up nation », Le Monde [en ligne], 31 octobre 2018, disponible sur : https://www.lemonde.fr/societe/article/2018/10/31/illectronisme-les-oublies-de-la-start-upnation_5376860_3224.html. 11 Credoc.2018, Baromètre du numérique, https://www.arcep.fr/uploads/tx_gspublication/infographie_barometredu-numerique-2018_031218.pdf. 12 http://www.credoc.fr/pdf/Rapp/R337.pdf. 13 https://www.gsmaintelligence.com/research/?file=7bf3592e6d750144e58d9dcfac6adfab&download. 14 http://www.lefigaro.fr/societes/2014/01/21/20005-20140121ARTFIG00211-la-premiere-cabine-detelemedecine-est-installee-en-france.php. 15 https://www.reconnect.fr/. 16 https://societenumerique.gouv.fr/. 17 http://www.fondation-afnic.fr. 18 S. LEYRONAS, G. PRIÉ et I. LIOTARD, « Les fab lab au cœur des défis numériques en Afrique », Le Monde [en ligne], 22 mai 2018, disponible sur : https://www.lemonde.fr/afrique/article/2018/05/22/les-fab-lab-au-c-ur-des-defisnumeriques-en-afrique_5302801_3212.html.

PARTIE 4. LA DÉSINFORMATION ET L’EXCEPTION CULTURELLE FACE À LA TRANSFORMATION NUMÉRIQUE

La régulation des fake news est-elle possible ? Par Anne-Thida Norodom L’Allemagne a adopté le 30 juin 2017 une loi obligeant les réseaux sociaux à supprimer en vingt-quatre heures, après leur signalement par les internautes, certains contenus, dont les fausses informations, au risque de s’exposer au paiement d’une amende de 50 millions d’euros. Lors de ses vœux à la presse, le 3 janvier 2018, le président de la République française a annoncé qu’un texte de loi serait prochainement déposé afin de « faire évoluer notre dispositif juridique pour protéger la vie démocratique de ces fausses nouvelles ». Désormais adoptée, cette loi a été soumise au Conseil constitutionnel. En janvier 2018, la Commission européenne a mis en place un groupe d’experts de haut niveau sur les fausses nouvelles et le 23 février 2018 s’est achevée la période de consultation publique qu’elle a lancée sur les fausses nouvelles et la désinformation en ligne. Les autorités publiques nationales et internationales se mobilisent face à ce phénomène ancien, la désinformation, mais dont l’ampleur est nouvelle en raison de sa propagation par la voie numérique et ses conséquences déstabilisantes pour l’État concerné. Le phénomène reste particulièrement difficile à cerner parce qu’il recouvre des réalités multiples. Dans le contexte actuel, ce que l’on appelle fake news désigne le plus souvent des informations délibérément fausses, construites généralement à des fins pécuniaires ou de déstabilisation politique, et qui se diffusent de manière virale par les réseaux sociaux ou d’autres médias. Le problème de la régulation des fausses informations, au-delà de leur nature hétéroclite, résulte du fait qu’il existe déjà des normes susceptibles d’être appliquées à ce phénomène. La tendance est pourtant de vouloir adopter à tout prix des nouvelles normes pour répondre à ce phénomène considéré comme nouveau. Cette logique est discutable : la multiplication des instruments juridiques rend le droit moins clair et peut porter atteinte à la prévisibilité et à la sécurité juridiques. Si la désinformation a toujours existé, sa diffusion virale par les réseaux sociaux constitue une nouvelle dimension. Peut-on néanmoins se contenter d’adapter le droit existant ou faut-il nécessairement créer de nouvelles règles ? Il existe une volonté politique marquée de saisir le phénomène des fausses informations par le droit (I). L’instrument juridique qui sera produit, quelle que soit sa forme, ne devra toutefois pas être un instrument d’exception. Il est nécessaire qu’il s’inspire du corpus existant et ne porte pas atteinte à sa cohérence, tout en apportant des précisions sur les aspects qui ne sont pas encore couverts par le droit. Prenant acte de cette situation, il reste à savoir sur quoi opérer la régulation (II) : quels comportements doivent être régulés ? Quels seront les

débiteurs d’éventuelles obligations ? Comment réguler les fausses informations sans porter atteinte aux droits fondamentaux concernés ?

1. Doit-on réguler ? Les multiples propositions pour adopter des nouveaux textes relatifs à la désinformation laisseraient à penser qu’il n’existe pas de règle applicable en la matière. Pourtant il y a à l’heure actuelle des normes susceptibles de s’appliquer, même si des « lacunes » peuvent être identifiées.

L’existence d’un droit applicable aux fausses nouvelles Qu’il s’agisse du droit français ou du droit européen, il existe un certain nombre de normes applicables au phénomène des fausses nouvelles. Le droit de la presse est le plus souvent invoqué pour encadrer les fausses informations. Le droit français dispose du délit de fausses nouvelles : adapté au contexte de la désinformation mais jusqu’alors peu utilisé dans la jurisprudence. Il nécessite la réunion de trois éléments : la présence d’une « nouvelle », c’est-à-dire « l’annonce d’un événement arrivé récemment à quelqu’un qui n’en a pas encore connaissance »1. ; la possibilité de troubler la paix publique, la Cour de cassation ayant admis que la fausse nouvelle, de nature à troubler les relations internationales, peut constituer la fausse nouvelle susceptible de troubler la paix publique2. ; enfin, la mauvaise foi n’étant pas présumée, la preuve de la fausseté des nouvelles publiées incombe au ministère public. L’action en diffamation peut également être engagée sur le fondement de la loi du 29 juillet 1881 sur la liberté de la presse ; elle est encadrée par la jurisprudence de la Cour européenne des droits de l’homme (Cour eur. D.H.) relative à la liberté d’expression et au droit au respect de la vie privée et familiale. Plus intéressant, le droit européen a considéré que le droit à la réputation en ligne était une composante du droit à la vie privée3.. La Cour de justice de l’Union européenne (CJUE) a consacré un droit au déréférencement permettant de répondre partiellement à ce problème4.. Ce droit est explicitement mentionné dans le nouveau Règlement général sur la protection des données, qui est entré en vigueur le 25 mai 2018. Enfin, la Cour européenne des droit de l’homme, tout en protégeant le droit de recevoir et de communiquer des informations, a rappelé à plusieurs reprises la déontologie journalistique et les « devoirs et responsabilités » des journalistes, qui peuvent être un autre moyen de réguler les fausses informations5.. Les branches du droit autres que le droit de la presse offrent également des solutions à l’encadrement des fausses informations ou des fausses nouvelles : dans le contexte électoral (art. L97 du Code électoral), dans le code pénal (art. 226-8

s’agissant de la publication d’un montage sans le consentement de la victime et sans mettre en évidence qu’il s’agit d’un montage ; art. 322-14 sur l’interdiction des fausses alertes ; art. 224-8 sanctionnant la communication d’une fausse information visant à compromettre sciemment la sécurité d’un aéronef en vol ou d’un navire ; art. 411-10 et 410-1 permettant de sanctionner la désinformation provenant d’une puissance étrangère), dans le domaine monétaire et financier lorsque la désinformation vise à déstabiliser les marchés financiers (art. L.465-3-2 du Code monétaire et financier) ou encore de la protection de consommateurs (art. L 121-1 du Code de la consommation). Le droit français et européen permet également d’engager la responsabilité des intermédiaires techniques en différenciant le régime de responsabilité allégée des hébergeurs du régime de responsabilité aggravée des éditeurs ; les premiers se limitant à une opération technique de diffusion de l’information alors que les seconds peuvent en contrôler le contenu. Ce droit impose par ailleurs un certain nombre d’obligations aux « opérateurs de plateforme numérique » (notamment à travers la Loi pour une République numérique) ou aux « responsables du traitement des données ». Le phénomène des fausses informations peut donc être encadré par le droit existant, mais certains de ses aspects ne sont pas pris en compte.

Les « lacunes » du droit applicable aux fausses nouvelles Au regard de la volonté politique actuelle d’adopter un nouveau cadre juridique pour traiter de la désinformation en ligne, il nous semble que ces nouvelles normes doivent s’insérer dans le corpus existant. Deux points néanmoins nécessiteraient une attention particulière. La difficulté de l’encadrement juridique du phénomène des fake news réside principalement dans l’absence de définition. Comme on l’a vu précédemment, l’expression « fausses informations » est utilisée en droit français à de multiples reprises mais appréhendée de différentes manières selon le contexte. Une nouvelle réglementation sur le sujet devra proposer une définition du phénomène. Une définition large permettrait de traiter le phénomène dans sa diversité et d’anticiper les évolutions futures. La réglementation des fausses informations est toutefois susceptible de porter atteinte à plusieurs droits fondamentaux. Il peut donc être décidé, à l’instar du président de la République française, de limiter le champ de la réglementation au contexte électoral par exemple. Des choix devront être opérés sur la brièveté ou non de la définition : faut-il se limiter à l’énumération des éléments constitutifs ou aux objectifs de la désinformation (le gain financier, la déstabilisation politique) ? L’utilisation courante de l’expression a sans doute galvaudé son sens initial. Il importe de se réapproprier le concept si on souhaite l’encadrer. Un autre aspect paraît également important dans le nouvel encadrement des

fausses informations : le caractère multipartite de la régulation. Ce dernier terme prend ici tout son sens. Les règles existantes sont assez classiques dans leur formation, étant le produit d’institutions publiques, même si l’adoption de la Loi pour une République numérique a été précédée par un processus de consultation publique numérique, comme le fait actuellement la Commission européenne. Ce caractère multipartite est d’autant plus important dans le domaine numérique qu’il est systématiquement rappelé dans les instruments de la gouvernance mondiale de l’internet. Il est à noter que les plateformes numériques, dont Facebook par exemple, ont également débuté un processus de réflexion pour encadrer les fausses informations en adaptant leurs logiciels de traitement des données à cette fin. Dans ce domaine plus que dans d’autres, le droit doit travailler avec la technique pour mieux appréhender des phénomènes anciens, renouvelés par leur dimension numérique. En ce sens, l’encadrement normatif des fausses informations relève bien de la régulation et non pas seulement de la réglementation au sens classique du terme. Malgré la présence d’instruments juridiques en droit français comme en droit européen, il existe une volonté politique marquée de réguler le comportement des acteurs de la désinformation. Cette régulation doit prendre en compte l’existant tout en le complétant et le précisant sur certains de ses aspects.

2. Que régule-t-on ? Les futures normes élaborées en matière de désinformation devront en particulier préciser les cibles qu’elles entendent viser ainsi que les critères de définition de l’équilibre à préserver entre droits fondamentaux et régulation des fausses informations.

Les acteurs de la désinformation À la lumière du droit existant et des réflexions en cours, plusieurs tendances sont envisageables : viser les auteurs de la désinformation, les intermédiaires techniques ou les financeurs de la désinformation. Il est possible de sanctionner les auteurs de la désinformation, ce que font la plupart des textes juridiques précédemment cités. Plusieurs problèmes se posent néanmoins. Tout d’abord, il importe de différencier le régime de responsabilité de l’auteur initial de la désinformation de celui qui participe à sa diffusion virale sur Internet. L’information sur les plateformes numériques se caractérise par un « journalisme citoyen », selon les termes de la Cour européenne des droits de l’homme6.. Dans quelle mesure doit-on différencier les obligations de ces auteurs particuliers de celles des journalistes professionnels ? Il subsiste enfin un problème technique d’identification de ces auteurs. Le traitement des données à cette fin

d’identification est sans doute techniquement possible mais devra respecter le régime de protection des données personnelles. Il a été évoqué précédemment les régimes de responsabilité des intermédiaires techniques. Ceux-ci sont relativement clairs mais les critères de définition des hébergeurs et des éditeurs restent encore flous. Étant donné l’évolution rapide des fonctions des plateformes numériques, un régime juridique fonctionnel et non statutaire pourrait être privilégié, permettant ainsi d’imposer des obligations différentes selon l’activité menée et non selon la qualification de l’opérateur. Un même opérateur pourrait ainsi être soumis à des régimes juridiques différents selon la diversité de ses activités. Enfin, s’attaquer aux sources financières de la désinformation constitue un moyen efficace de lutter contre celle-ci. Les responsables du traitement des données personnelles comme les opérateurs de plateforme numérique sont déjà débiteurs d’une obligation de transparence, dont le contenu pourrait être rendu plus visible aux yeux du public. Il semble difficile toutefois de sanctionner les financeurs, au moins privés, sauf éventuellement à invoquer un dérèglement du marché résultant de la diffusion de la fausse information ou pour protéger des impératifs tels que la santé publique, l’ordre public, la sécurité nationale voire les intérêts fondamentaux de la Nation. Dans une logique interétatique, les financements publics étrangers pourraient éventuellement être sanctionnés sur le fondement du principe de souveraineté et de non-intervention dans les affaires intérieures, à condition de pouvoir imputer le fait internationalement illicite à cet État, ce qui pose également le problème technique de l’identification. Les futures régulations pourront appréhender concomitamment ces différentes cibles. Elles devront en revanche opérer des choix quant à l’équilibre à trouver entre régulation de la désinformation et protection des droits fondamentaux.

L’équilibre entre droits fondamentaux et régulation des fausses informations Le droit autorise, à certaines conditions, les atteintes aux droits fondamentaux7.. Toute régulation des fausses informations est susceptible de porter atteinte à la protection des données personnelles mais surtout à la liberté d’expression et d’information. En fonction des objectifs visés par les auteurs de la désinformation, tels qu’ils résulteront de sa définition, le droit national comme européen pourra autoriser, de manière encadrée, l’atteinte portée aux droits fondamentaux. Les motifs invocables pourraient être la sécurité nationale, la santé publique, l’ordre public, voire la protection des consommateurs. Dans le cadre européen, les mesures prises doivent néanmoins être proportionnelles et répondre à certaines conditions de forme, comme le fait d’être prévues par une loi. La nouvelle régulation devra envisager

cette possibilité et préciser les motifs justifiant l’ingérence dans les droits fondamentaux. Il conviendra également de préciser les critères de définition de l’équilibre entre régulation de la désinformation, afin de protéger l’ordre public national, et protection des droits fondamentaux. La très riche jurisprudence de la Cour européenne des droits de l’homme relative à l’article 10 sur la liberté d’expression est à ce titre intéressante en précisant les conditions d’ingérence dans l’exercice de la liberté d’expression par les États. Les mesures envisagées doivent ainsi être « nécessaires dans une société démocratique », c’est-à-dire correspondant à un « besoin social impérieux » ; être proportionnées au but légitime poursuivi ; justifiées par des décisions de justice motivées de façon pertinente et suffisante. Les autorités nationales disposent d’une certaine marge d’appréciation mais qui n’est pas illimitée puisqu’elle s’inscrit dans le cadre du contrôle opéré par la Cour. L’appréciation de l’équilibre varie en fonction de l’objet de l’information : s’il est d’intérêt général ou d’ordre politique, la liberté d’expression bénéficie en général d’un niveau élevé de protection et consécutivement accorde aux États une marge d’appréciation réduite. La future régulation devra soit imposer les critères de ce qu’elle considérera comme étant le juste équilibre entre lutte contre la désinformation en ligne et protection des droits fondamentaux, soit rester plus évasive en renvoyant au juge ou aux autorités nationales dans le cadre du droit européen l’appréciation de cet équilibre. La première solution facilitera une harmonisation entre États européens, par exemple dans un contexte numérique caractérisé par sa dimension virtuelle et transnationale, au risque toutefois d’imposer des standards qui ne conviennent pas aux spécificités du phénomène propres à chaque État. Il suffit de comparer la loi allemande centrée sur l’interdiction des propos haineux et la loi française dont le champ d’application est limité au contexte électoral. La seconde solution a le mérite de préserver la marge nationale d’appréciation et de conserver une certaine souplesse de la régulation dans le temps et dans l’espace. L’inconvénient étant d’avoir autant de réglementations que d’États, chacun adaptant la régulation de la désinformation à son contexte national, contribuant ainsi à une fragmentation du droit, peu adaptée à la virtualité des activités produites par et sur les plateformes numériques. * Malgré l’existence de normes françaises et européennes permettant l’encadrement des fausses informations, il semble difficile d’échapper à une nouvelle régulation. Il importe que ce nouvel arsenal ne fasse pas table rase de l’existant et soit précisé sur les points qui permettent de prendre en compte les spécificités de la désinformation en ligne telles qu’elles viennent d’être décrites. Toute régulation devra en outre être équilibrée en préservant la diversité de l’information ainsi que la protection des droits fondamentaux. La réflexion sur le phénomène des fausses informations est donc loin d’être épuisée.

Bibliographie • Doctrine D’ANCONA (M.), Post-Truth. The New War on Truth and How to Fight Back, Ebury Press, 2017. GÉRÉ (F.), Dictionnaire de la désinformation, Paris, Armand Colin, 2011. SAUVAGE (G.), « Quel(s) outil(s) juridique(s) contre la diffusion de “fake news” ? », Légipresse, 352, sept. 2017, pp. 427-432. • Droit français Loi du 29 juillet 1881 sur la liberté de la presse. Loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés. Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique. Loi n° 2016-1321 du 7 octobre 2016 pour une République numérique. • Droit européen Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales, 4 novembre 1950. Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur (« directive sur le commerce électronique »). Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données et abrogeant la directive 95/46/CE (« règlement général sur la protection des données »). 1 Cass. crim., 13 avril 1999, n° de pourvoi : 98-83.798, Bull. crim., 1999, n° 78, p. 214. 2 Cass. crim., 7 novembre 1963, n° de pourvoi : 62-92.445, Bull. crim., 1963, n° 134. 3 Cour eur. D.H. [G.C.], 16 juin 2015, Delfi AS c. Estonie. 4 CJUE, arrêt du 13 mai 2014, Google Spain SL et Google Inc. c. AEP. 5 Voy. par exemple : Cour eur. D.H. [G.C.], arrêt du 10 décembre 2007, Stoll c. Suisse ; Delfi AS c. Estonie, op. cit. ; arrêt du 10 mars 2009, Times Newspapers Ltd c. United Kingdom (n° 1 et n° 2) ; arrêt du 5 mai 2011, Comité de rédaction de Pravoye Delo et Shtekel c. Ukraine. 6 Voy. l’arrêt de la Cour eur. D.H. du 1er décembre 2015, Cengiz et autres c. Turquie. 7 Voy. par ex. art. 3, § 2, de la directive 2000/31/CE sur le commerce électronique, art. 15 de la Convention européenne ou encore art. 16 de la Constitution française de 1958.

L’exception culturelle à l’ère du numérique : quel rôle pour la France ? Par Lilian Richieri Hanania Les professionnels français de la culture et le gouvernement français ont joué un rôle déterminant dans la construction et la promotion de la notion d’« exception culturelle » à l’occasion de la négociation d’accords internationaux de commerce et d’investissement. Leurs efforts ont été particulièrement notables lors des négociations des accords de l’Organisation mondiale du commerce (OMC), de l’Accord multilatéral sur l’investissement (AMI) abandonné en 1998 au sein de l’Organisation coopération et de développement économiques (OCDE), des accords bilatéraux et régionaux de commerce de l’Union européenne (UE), ainsi que de l’affirmation de ce concept au sein de l’Unesco, ayant conduit à la Convention de 2005 sur la protection et la promotion de la diversité des expressions culturelles. Cette position, de nature défensive face à la libéralisation des marchés, a été parfois contestée sur le fondement de l’évolution dynamique des secteurs culturels dans l’environnement numérique. L’ère du numérique a, en effet, apporté de nombreux défis pour le marché des contenus culturels mais également de nouvelles opportunités, par l’émergence de produits, services et modèles d’affaires novateurs. La conception de stratégies numériques permettant aux pays de tirer profit de ces opportunités, tout en garantissant une offre diversifiée de contenus culturels sur Internet, demeure une épreuve pour les décideurs politiques. De telles stratégies, devant par principe être évolutives et continuellement adaptables, doivent à la fois promouvoir la compétitivité des entreprises nationales, permettre la participation et l’influence des pays dans les débats sur des thèmes majeurs de gouvernance de l’internet, et garantir aux États une marge de manœuvre politique suffisante pour adapter les mesures et politiques publiques pouvant s’avérer nécessaires pour des échanges culturels équilibrés. Depuis les années 90, des pays ayant de forts intérêts commerciaux dans le secteur des contenus numériques, comme les États-Unis, ont soutenu que la diversité culturelle découlerait naturellement du développement du marché numérique et que, de toute manière, les politiques culturelles traditionnelles perdraient progressivement leur utilité, car inadaptées à ce nouveau marché. Il a été constaté, néanmoins, que l’espace de stockage illimité qu’offre Internet n’a pas nécessairement conduit à plus de diversité, notamment en raison du manque de visibilité et de « découvrabilité » des œuvres. Par ailleurs, les politiques culturelles

peuvent s’adapter et ont progressivement évolué pour mieux agir sur le marché des contenus numériques. La France déploie beaucoup d’effort pour maintenir des clauses d’exception culturelle dans les accords internationaux de commerce négociés par l’UE (I) en dépit des positions d’autres États dans l’environnement numérique (II), ce qui lui permet de conserver son rôle déterminant dans les débats internationaux sur ce thème.

1. L’exception culturelle : la reconnaissance de la spécificité des produits et services culturels Dans le langage courant, bien que souvent juridiquement imprécis, l’expression « exception culturelle » est parfois utilisée pour faire référence à la nécessité d’un traitement spécifique pour le secteur culturel, que ce soit au niveau national ou lors de la négociation d’accords internationaux. De par leur double nature, économique et culturelle, les produits et services culturels sont considérés comme ayant une spécificité et méritant une protection particulière par rapport à des produits et services réputés exclusivement marchands. Une telle spécificité justifie que, lors de la négociation d’accords internationaux de commerce, ces produits et services reçoivent une attention spéciale. La notion d’« exception culturelle » a été au cœur de l’ainsi nommé « débat commerceculture », fondé initialement sur l’idée d’opposition entre les accords internationaux de libéralisation commerciale et les politiques culturelles nationales. En effet, la libéralisation commerciale peut entraîner la prise d’engagements de nondiscrimination par les États tant à l’égard de produits et services similaires aux produits et services nationaux (obligation de traitement national), comme entre produits et services étrangers, un État ne pouvant pas traiter de manière préférentielle un partenaire au détriment d’un autre (clause de la nation la plus favorisée). Cette logique s’applique tant sur le plan multilatéral (accords de l’OMC) que dans le cadre des accords commerciaux régionaux et bilatéraux. Au sein des accords de l’OMC, bien qu’il n’existe pas de véritable exception culturelle d’un point de vue juridique, les États membres de l’Union européenne ont réussi à maintenir une position prenant en compte la spécificité des services audiovisuels. Lors de la négociation de l’Accord général sur le commerce des services (AGCS), l’Union européenne (UE) n’a pas pris d’engagement en matière d’accès aux marchés et de traitement national pour les services audiovisuels et, de surcroît, a introduit une exemption pour ce secteur dans sa liste d’exemptions au traitement de la nation la plus favorisée. La spécificité des services audiovisuels a été également respectée dans les accords bilatéraux et régionaux de l’Union européenne, où une exception pour ces services a été traditionnellement introduite

dans le chapitre sur le commerce des services et l’établissement. Cette exception étant rédigée de manière technologiquement neutre1., elle s’applique également pour les services audiovisuels numériques. La société civile française et le gouvernement français ont sans cesse joué un rôle-clé dans la défense de cette position par la Commission européenne. Ce rôle a été également remarquable lors des négociations à l’OCDE de l’AMI, négociations qui ont été abandonnées en 1998. Pour contrer des obligations de protection des investisseurs qui auraient pu mettre à mal les politiques publiques nationales, la France avait proposé une clause d’exception pour les services culturels2. dans cet accord, laquelle visait à reconnaître un droit d’intervention des États en matière culturelle. L’échec de ces négociations est vraisemblablement dû, du moins en partie, à la forte mobilisation et résistance des professionnels français de l’audiovisuel aux dispositions de l’accord. Parfois jugée trop défensive, pouvant être associée à du protectionnisme commercial, l’expression « exception culturelle » a été remplacée progressivement par celle de « diversité culturelle » dans les débats qui ont mené à l’adoption de la Convention de l’Unesco sur la protection et la promotion de la diversité des expressions culturelles (CDEC) le 20 octobre 2005. La « diversité culturelle », visée également par d’autres traités internationaux existants au sein de l’Unesco dans le domaine de la culture, paraissait politiquement plus facilement acceptable et a été ainsi stratégiquement mise en avant. La France et le Canada ont été les chefs de file des négociations qui ont conduit à cette Convention. Bien que contenant des dispositions juridiquement peu contraignantes, la CDEC a une forte valeur symbolique et politique, et n’a pas manqué de produire des effets significatifs depuis son entrée en vigueur en mars 2007. Centrée sur un aspect davantage économique de la diversité culturelle, la CDEC a précisément parmi ses objectifs de contribuer à des échanges équilibrés de produits et services culturels, provenant d’une multitude d’origines différentes. Elle n’est ainsi pas favorable à la fermeture à d’autres cultures ou au protectionnisme commercial. Elle vise, au contraire, à ce que tous types d’œuvres (y compris les œuvres hollywoodiennes, par exemple) puissent avoir un espace minimum de diffusion et de distribution, de manière à permettre la concrétisation du concept fondamentalement dynamique d’interculturalité. Cela requiert la sauvegarde des moyens d’action des États dans le domaine culturel via des politiques publiques pour la diversité culturelle. Conformément aux engagements commerciaux déjà assumés par les États au sein d’autres traités, leur marge de manœuvre pour adopter de telles politiques publiques s’avérera plus ou moins étendue. Maintenir un maximum d’espace d’action pour de telles politiques lors de la négociation d’accords commerciaux via des techniques d’exception culturelle demeure ainsi un objectif majeur. Une fois la CDEC adoptée, la Commission européenne a tenté d’avancer une

approche de complémentarité entre la spécificité des produits et services culturels et la libéralisation commerciale. Tout en maintenant son exception culturelle traditionnelle pour les services audiovisuels, elle a proposé à certains partenaires commerciaux un protocole de coopération culturelle attaché à l’accord commercial3. ou un accord de coopération culturelle juridiquement autonome. Contenant des dispositions explicitement inspirées de la CDEC, ces cadres de coopération culturelle ont certainement contribué au renforcement politique de cette convention et conforté le leadership et l’influence de l’UE dans sa mise en œuvre. La France a fortement concouru au perfectionnement de ces cadres. En effet, lorsque la Commission a repris le protocole de coopération culturelle négocié avec les pays du CARIFORUM pour l’appliquer comme point de départ pour la négociation avec d’autres partenaires commerciaux, la France a rapidement réagi et exigé une approche plus nuancée et en conformité avec les besoins et intérêts de chaque partenaire commercial. Le Secrétaire général du ministère des Affaires étrangères de la France a ainsi lancé un groupe de travail interministériel ouvert à la société civile, lequel a conduit à la publication d’un document de stratégie en décembre 2009 intitulé « Pour une nouvelle stratégie culturelle extérieure de l’Union européenne ». Contenant diverses recommandations qui ont été par la suite prises en compte par la Commission européenne, ce document a également servi de fil conducteur pour la définition des positions interministérielles françaises lors de la négociation des accords internationaux de commerce qui l’ont suivi. Le maintien de l’exception culturelle, technologiquement neutre, pour le secteur des services audiovisuels était au cœur de la stratégie proposée. L’engagement de la France et de l’UE pour la spécificité des produits et services culturels à l’ère du numérique demeure, encore aujourd’hui, fondamental. Non seulement le « débat commerce-culture » dans le contexte du numérique est adressé de manière variée, mais d’autres dispositions des accords internationaux de commerce, comme celles relatives au commerce électronique, peuvent affecter la diversité des contenus culturels numériques.

2. Les défis pour l’exception culturelle à l’ère du numérique L’exception européenne pour l’audiovisuel n’établit pas de distinction entre le contenu audiovisuel traditionnel et le contenu audiovisuel numérique sur la base du postulat de neutralité technologique4.. De la même manière, l’exception culturelle canadienne traditionnelle, par exemple, porte plus largement sur les « industries culturelles », sans qu’il soit établi de distinction claire entre produits analogiques et numériques5.. Cependant, des critiques ont pu être formulées relativement à cette exception canadienne quant à sa capacité à être pleinement applicable au contexte numérique.

Aux difficultés de rédaction juridique d’une exception efficace dans l’environnement numérique s’ajoute la complexité liée à la classification des produits et services numériques, ainsi qu’au type de politique culturelle à protéger dans un contexte de nouvelles technologies. Fondés précisément sur cette complexité, et en vue de consolider leur position sur ce marché auprès de leurs partenaires commerciaux, les États-Unis opèrent une distinction, dans leurs accords internationaux de commerce, entre le régime juridique applicable aux secteurs culturels traditionnels et ceux touchés par les nouvelles technologies. Si, d’un côté, ce pays a accepté l’exclusion des mécanismes de soutien financier à la culture (subventions) de l’application des chapitres sur le commerce des services et sur les investissements, voire des réserves ou exceptions de leurs partenaires pour les services audiovisuels ou de communication traditionnels, de l’autre, ils distinguent la « fourniture de services par voie électronique » du « commerce des produits numériques ». La première est soumise aux dispositions de libéralisation énoncées dans d’autres chapitres, comme ceux sur les services et les investissements, ainsi que les exceptions y afférentes définies par les parties. Les « produits numériques », toutefois, sont définis dans le chapitre sur le commerce électronique comme une catégorie à part6., soumise à un régime juridique particulier. La définition américaine des « produits numériques » incorpore des services traditionnellement considérés comme appartenant au secteur de l’audiovisuel, ce qui peut être source de confusion et d’insécurité juridique. Outre l’interdiction de tarifs douaniers sur les transmissions électroniques, les parties assument des obligations de traitement national et de traitement de la nation la plus favorisée à l’égard de ces produits, en réduisant ainsi leur marge de manœuvre en matière de politique culturelle : ces obligations leur interdisent de favoriser les produits nationaux par rapport aux produits numériques étrangers, et toute préférence accordée aux produits numériques provenant d’un pays donné doit être étendue à ceux originaires des parties à ces accords7.. Cette approche s’est reflétée également dans d’autres négociations où l’accent était mis sur les nouvelles technologies, comme celles des EU–US Trade Principles for Information and Communication Technology Services de 2011. L’UE, fortement soutenue par la France, a mis en avant l’objectif de diversité culturelle et a réussi à y inclure une référence à cet objectif. La manière dont le commerce électronique est abordé dans les dispositions des accords de commerce de l’UE diffère de celle employée par les États-Unis. Dans les accords européens, l’accent est mis davantage sur la coopération entre les partenaires commerciaux que sur la libéralisation commerciale. Parmi les thèmes de coopération figurent des sujets d’extrême utilité pour le développement du marché numérique et la gouvernance de l’internet, comme la reconnaissance des certificats de signature électronique, la responsabilité des fournisseurs de service dans la transmission ou le stockage d’informations, le traitement des communications

commerciales en format électronique, la protection des consommateurs, la protection des données personnelles et la sécurité des transactions électroniques. Associer à ces thèmes celui de la diversité des contenus culturels en ligne pourrait s’avérer un élément important dans la sensibilisation à la spécificité des produits et services culturels et à la nécessité pour les États de conserver une flexibilité suffisante à l’ère du numérique pour agir en faveur de la diversité via des politiques publiques. La remise en cause récente de la neutralité de l’internet aux États-Unis appelle à une réflexion renouvelée sur le rôle-clé de ce principe pour la diversité culturelle dans la gouvernance de l’internet. Outre ses effets sur la concurrence sur le marché numérique, la neutralité de l’internet est un socle de la diversité de contenus et de la liberté d’expression, y compris artistique. La France et l’Union européenne pourraient sans doute influencer cette réflexion positivement. * Pour une pleine reconnaissance de la spécificité des produits et services culturels à l’ère du numérique dans les accords internationaux de commerce, deux volets d’action où la France et l’Europe peuvent continuer à jouer un rôle déterminant sont, d’une part, le maintien d’une exception culturelle technologiquement neutre et, d’autre part, la prise en compte de la diversité culturelle comme objectif à atteindre dans les débats sur la gouvernance de l’internet et le commerce électronique. Sur le premier volet, le numérique pourrait offrir l’occasion de réfléchir à l’importance socioculturelle, pour les États membres de l’UE, d’autres secteurs que le secteur des services audiovisuels, en consonance avec la spécificité reconnue dans la CDEC à tous les secteurs culturels. L’implication des parties prenantes des secteurs culturels dans le cadre d’un nouveau groupe de travail conduit par le gouvernement français pourrait être une option pour faire avancer cette réflexion. Sur le deuxième volet, une plus grande coordination pourrait être recherchée entre les différents départements nationaux et organisations internationales qui adressent les thèmes de la diversité des contenus numériques, de la gouvernance de l’internet et, plus généralement, des technologies de l’information et de la communication. Enfin, un travail de sensibilisation sur la spécificité des produits et services culturels dans les accords internationaux de commerce semble encore nécessaire. La CDEC compte actuellement 146 Parties et il est crucial de promouvoir la ratification la plus large de cette convention pour que ses principes et objectifs puissent ensuite être traduits en politiques et positionnements concrets.

Bibliographie M. BURRI, « Exposure Diversity as a New Cultural Policy Objective in the Digital Age », in L. RICHIERI HANANIA et A.-T. NORODOM (dir.), Diversity of Cultural Expressions in the Digital Era, Buenos Aires, Teseo, 2016,

https://www.teseopress.com/diversityofculturalexpressionsinthedigitalera/ (consulté le 18 décembre 2017). R. GIMAZANE, « L’adaptation des politiques de soutien au marché du livre numérique en France » in L. RICHIERI HANANIA et A.-T. NORODOM (dir.), Diversité des expressions culturelles à l’ère du numérique, Buenos Aires, Teseo, 2016, https://www.teseopress.com/diversitedesexpressionsculturellesetnumerique/ (consulté le 18 décembre 2017). O. KULESZ, « Challenges of the Digital Age », in UNESCO (dir.), Re/Shaping cultural policies – A Decade Promoting the Diversity of Cultural Expressions for Development, 2005 Convention Global Report, Paris, UNESCO, 2015, pp. 75-87, http://en.unesco.org/creativity/global-report-2015 (consulté le 22 décembre 2017). O. KULESZ, « Challenges and Opportunities for Cultural Diversity in the Digital Era », in L. RICHIERI HANANIA and A.-T. NORODOM (eds), Diversity of Cultural Expressions in the Digital Era, Buenos Aires, Teseo, 2016, https://www.teseopress.com/diversityofculturalexpressionsinthedigitalera/ (consulté le 18 décembre 2017). Pour une nouvelle stratégie culturelle extérieure de l’Union européenne, 2009, https://www.diplomatie.gouv.fr/IMG/pdf/Communication_France_Strategie_culturelle_exteri (consulté le 15 décembre 2017). P. MARENGHI, P. HERNÁNDEZ, A. MARINA et BADILLO, « Diversity of the Audiovisual Industry in the Digital Age: The Challenges Entailed in its Measurement », in L. RICHIERI HANANIA and A.-T. NORODOM (eds), Diversity of cultural expressions in the digital era, Buenos Aires, Teseo, 2016, https://www.teseopress.com/diversityofculturalexpressionsinthedigitalera/ (consulté le 18 décembre 2017). Parlement européen, Proposition de résolution. Résolution contenant les recommandations du Parlement européen à la Commission concernant les négociations conduites dans le cadre de l’OCDE en vue d’un accord multilatéral sur l’investissement (AMI), A4-0073/1998, 26 février 1998, § 26, http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+REPORT+A41998-0073+0+DOC+XML+V0//FR (consulté le 18 décembre 2017). Pixels, « Les États-Unis abrogent la neutralité du Net, un principe fondateur d’Internet », Le Monde, 14 décembre 2017, http://www.lemonde.fr/pixels/article/2017/12/14/les-etats-unis-abrogent-la-neutralitedu-net-un-principe-fondateur-d-internet_5229906_4408996.html (consulté le 21 décembre 2017). H. RANAIVOSON, « The Internet Platforms’ Impact on the Diversity of Cultural Expressions: to the Long Tail, and beyond! », in L. RICHIERI HANANIA and A.-T. NORODOM (eds), Diversity of Cultural Expressions in the Digital Era, Buenos Aires, Teseo, 2016, https://www.teseopress.com/diversityofculturalexpressionsinthedigitalera/ (consulté

le 18 décembre 2017). L. RICHIERI HANANIA, Diversité culturelle et droit international du commerce, Paris, La Documentation française, 2009, 480 p. ID., « For a New European Union External Cultural Strategy – A French Proposal on how to deal with Cultural Cooperation in International Trade Agreements », in Mapping Cultural Diversity – Good Practices from around the globe, Asia-Europe Foundation, German Commission for UNESCO et U40 Group, 2010, pp. 26-28, https://www.unesco.de/fileadmin/medien/Dokumente/Kultur/U40/Mapping_Cultural_Diversit (consulté le 15 décembre 2017). ID., « Cultural Diversity and Regional Trade Agreements: The European Union Experience with Cultural Cooperation Frameworks », Asian Journal of WTO & International Health Law and Policy, vol. VII, n. 2, sept. 2012, pp. 423456, http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2087639 (consulté le 22 décembre 2017). ID. (dir.), Cultural Diversity in International Law: The Effectiveness of the UNESCO Convention on the Protection and Promotion of the Diversity of Cultural Expressions, London/New York, Routledge, 2014, 320 p. L. RICHIERI HANANIA et A.-T. NORODOM (dir.), Diversité des expressions culturelles à l’ère du numérique, Buenos Aires, Teseo, 2016, https://www.teseopress.com/diversitedesexpressionsculturellesetnumerique/ (consulté le 18 décembre 2017). L. RICHIERI HANANIA et A.-T. NORODOM (dir.), « Introduction – Diversité des expressions culturelles à l’ère du numérique », in L. RICHIERI HANANIA and A.-T. NORODOM (dir.), Diversité des expressions culturelles à l’ère du numérique, Buenos Aires, Teseo, 2016, https://www.teseopress.com/diversitedesexpressionsculturellesetnumerique/ (consulté le 18 décembre 2017). L. RICHIERI HANANIA et H. RUIZ FABRI, « European Media Policy and Cultural Diversity at the International Level: the EU’s Role in Fostering the Implementation of the 2005 UNESCO Convention », in K. DONDERS, C. PAUWELS et J. LOISEN (dir.), The Palgrave Handbook on European Media Policy, Basingstoke, Palgrave Macmillan, 2014, pp. 493508. RIJDEC, Le renouvellement de l’exception culturelle à l’ère du numérique, presenté à Mons, Belgique, au « Colloque international visant à souligner le dixième anniversaire de la Convention sur la protection et la promotion de la diversité des expressions culturelles » le 25 octobre 2015, http://www.coalitionfrancaise.org/wpcontent/uploads/2015/10/RIJDEC-Le-renouvellement-de-lexception-culturelle%C3%A0-l%C3%A8re-du-num%C3%A9rique-22-10-15.pdf (consulté le 18 décembre 2017). M. RIOUX et K. FONTAINE-SKRONSKI, « Transversal Operational Guidelines as a Road

towards a Diversified Networked Culture », in L. RICHIERI HANANIA et A.-T. NORODOM (dir.), Diversity of Cultural Expressions in the Digital Era, Buenos Aires, Teseo, 2016, https://www.teseopress.com/diversityofculturalexpressionsinthedigitalera/ (consulté le 18 décembre 2017). C. SOUYRI-DESROSIER, « EU Protocols on Cultural Cooperation. An Attempt to Promote and Implement the CDCE within the Framework of Bilateral Trade Negotiations », in L. RICHIERI HANANIA (dir.), Cultural Diversity in International Law: The Effectiveness of the UNESCO Convention on the Protection and Promotion of the Diversity of Cultural Expressions, London/New York, Routledge, 2014, pp. 209-224. TEC – Transatlantic Economic Council, European Union-United States Trade Principles for Information and Communication Technology Services, 4 avril 2011, http://trade.ec.europa.eu/doclib/docs/2011/april/tradoc_147780.pdf (consulté le 18 décembre 2017). UNESCO, Liste des Parties. Convention sur la protection et la promotion de la diversité des expressions culturelles, http://www.unesco.org/eri/la/convention.asp? language=F&KO=31038 (consulté le 22 décembre 2017). UNESCO, « Re-penser les politiques culturelles – 10 ans de promotion de la diversité des expressions culturelles pour le développement », Rapport mondial Convention 2005, 2015, http://unesdoc.unesco.org/images/0024/002428/242867F.pdf (consulté le 22 décembre 2017). UNESCO, « Re-penser les politique culturelles – La créativité au cœur du développement », Rapport mondial Convention 2005, 2017, http://unesdoc.unesco.org/images/0026/002606/260601f.pdf (consulté le 22 décembre 2017). A. VLASSIS, Gouvernance mondiale et culture : de l’exception à la diversité, Liège, Presses universitaires de Liège, 2015. 1 La neutralité technologique garantit que les États ne doivent pas renégocier en continu les instruments juridiques pour les adapter aux développements technologiques. 2 La clause proposée par la France se lisait : « Aucune disposition du présent Accord ne peut être interprétée comme empêchant une Partie Contractante de prendre toute mesure pour réglementer l’investissement d’entreprises étrangères et les conditions d’activité de ces entreprises, dans le cadre de politiques visant à préserver et promouvoir la diversité culturelle et linguistique sur son territoire » (Parlement européen, 1998). 3 L’option d’un protocole, partie intégrante de l’accord contenant des dispositions commerciales, ne s’est justifiée que lorsque les dispositions de coopération avaient des effets d’ouverture des marchés et que leur inclusion dans l’accord permettait d’écarter l’obligation de traitement de la nation la plus favorisée déjà assumée à l’OMC par certains partenaires, comme les pays du CARIFORUM et la Corée du Sud. Puisque les dispositions de coopération culturelle négociées avec ces partenaires établissaient un accès préférentiel au marché pour des coproductions audiovisuelles, leur inclusion dans un accord régional de commerce permettait qu’elles soient couvertes par l’article V de l’AGCS et, par conséquent, exemptées de l’application du traitement de la nation la plus favorisée au titre de cet accord. 4 Par ailleurs, la portée des exceptions pour le secteur des services audiovisuels a souvent été explicitement étendue aux dispositions sur le commerce électronique. Voy. par exemple, à l’article 8.59 de l’Accord UESingapour sur la fourniture électronique des services : « measures related to the supply of a service using electronic

means falls within the scope of the obligations contained in the relevant provisions of this Chapter [sur le Commerce des services, l’établissement et le commerce électronique] subject to any exceptions applicable to such obligations ». Ces exceptions couvrent, entre autres, les services audiovisuels (art. 8.3 et 8.9). 5 Ces industries y sont définies comme englobant : « (a) la publication, la distribution ou la vente de livres, de revues, de périodiques ou de journaux, sous forme imprimée ou exploitable par machine, à l’exclusion toutefois de la seule impression ou composition de ces publications ; (b) la production, la distribution, la vente ou la présentation de films ou d’enregistrements vidéo ; (c) la production, la distribution, la vente ou la présentation d’enregistrements de musique audio ou vidéo ; (d) l’édition, la distribution ou la vente de compositions musicales sous forme imprimée ou exploitable par machine ; ou (e) les radiocommunications dont les transmissions sont destinées à être captées directement par le grand public, et toutes les activités de radiodiffusion, de télédiffusion et de câblodistribution et tous les services des réseaux de programmation et de diffusion par satellite ». 6 Ces produits couvrent, dans les accords étasuniens, les « computer programs, text, video, images, sound recordings, and other products that are digitally encoded and transmitted electronically, regardless of whether a Party treats such products as a good or a service under its domestic law ». 7 Pour un examen des accords de libre-échange conclus par les États-Unis avec la Jordanie, le Chili, Singapour, les pays du CAFTA-DR (Salvador, Guatemala, Honduras, Nicaragua, Costa Rica et République Dominicaine), l’Australie et le Maroc, et notamment de leurs dispositions pouvant avoir un impact sur la diversité culturelle dans les chapitres sur le commerce des services, les investissements, la propriété intellectuelle et le commerce électronique, voy. Richieri Hanania (2009, 210-220). Si des réserves à ces obligations pouvaient être demandées par les partenaires commerciaux des États-Unis lors de la négociation des accords, en pratique certains pays, comme ceux d’Amérique centrale et le Maroc, par exemple, ne l’ont pas fait.

PARTIE 5. LE RÉGULATEUR À L’ÈRE DU NUMÉRIQUE : NOUVEAUX RÔLES, NOUVEAUX OUTILS ?

De la réglementation à la compliance, encadrer et accompagner la transformation numérique Par Thaima Samman et Marc Drevon La révolution du numérique bouscule notre société et remet en cause ses fondements dans bien des aspects et notamment celui de la pertinence de la norme juridique et des procédures judiciaires de nos démocraties. L’a-territorialité des industries du numérique, globales et ubiquitaires, rend l’encadrement de ces acteurs particulièrement complexe. Les systèmes juridiques et judiciaires forgés à travers les siècles et les autorités publiques bornées par des frontières nationales ne sont pas en mesure de réguler, lorsque cela s’avère nécessaire, des comportements dont les effets démultipliés modifient l’équilibre et le contrat social. L’accélération des transformations des modèles économiques et des usages complique la mise en œuvre d’un encadrement juridique efficace, sauf à tenter (souvent en vain) de bloquer le développement d’une technologie. Parce que la nature « juridique » de l’homme a horreur du vide, une nouvelle forme de régulation, venue d’abord de l’autre côté de l’Atlantique, a commencé à voir le jour : la compliance, dont la traduction facile en français par « conformité » n’appréhende pas vraiment le paradigme. Il ne s’agit pas d’être conforme avec la loi et le règlement – ce qui ne se discute pas. À rebours de la tradition du droit continental européen qui fait prévaloir le respect de la procédure, élément indépassable de la fameuse conformité, sur les objectifs et les principes, la compliance vise à libérer les acteurs des carcans formalistes. Par ailleurs, si la compliance ne saurait se limiter à la seule conformité au droit, elle ne se réduit pas non plus à un simple engagement volontaire et non contraignant des acteurs économiques sur des objectifs éthiques, sociaux ou environnementaux. La compliance s’inscrit dans le prolongement du droit de la régulation, droit économique s’il en est, dont la vocation d’origine est justement d’encadrer le marché, en plein développement de part et d’autre de l’Atlantique : aux États-Unis, la régulation est venue répondre aux dérives d’une concurrence totalement libéralisée tandis qu’en Europe, et peut-être encore plus en France, elle s’est développée à la suite de l’ouverture à la concurrence d’anciens monopoles comme l’énergie, les télécoms ou le transport ferroviaire. La compliance se fonde sur la définition d’objectifs et/ou de principes par l’autorité publique qui laisse les parties prenantes libres de déterminer les moyens permettant de les atteindre ou de les respecter. Elle se construit aussi via une internalisation par les acteurs économiques des outils de la régulation et par la mise en œuvre de

processus de transparence et de contrôle interne. Les parties prenantes sont donc tenues par des obligations qui pourraient être qualifiées de prévention pour les distinguer des qualifications juridiques d’obligations de moyen et de résultat. En application de ces obligations de prévention, les acteurs économiques doivent mettre en place en leur sein les mesures techniques et organisationnelles adaptées pour atteindre des objectifs définis par l’autorité publique que ce soit l’État ou une organisation supranationale. L’autorité publique choisit donc, plutôt que de prescrire des règles et des procédures, de fixer des objectifs sociétaux (protection de la vie privée, pluralité des médias, diminution de la pollution) que les acteurs économiques doivent intégrer et dont ils doivent être en mesure de démontrer la mise en œuvre ainsi que la pertinence des moyens choisis. Ces obligations ont pour objet de faciliter la mission du régulateur : plutôt qu’un système d’autorisation ex ante, la compliance repose sur une logique de contrôle ex post par le régulateur. Ce régime de compliance dépasse à la fois la régulation classique d’encadrement préalable et le régime libéral ayant pour seules bornes la sanction pénale et la responsabilité contractuelle. Le régulateur a désormais pour mission d’accompagner les acteurs économiques de la mise en place des mécanismes et procédures permettant d’atteindre les objectifs de l’autorité publique. Le régulateur n’a plus tant pour rôle de réglementer et d’autoriser que de recommander, labéliser et communiquer en usant d’outils à normativité variable. Par sa souplesse, la compliance apparaît comme une réponse aux enjeux de la révolution que constitue le déploiement du numérique (I). Cette révolution industrielle, comme les précédentes, emporte avec elle la nécessité d’une transformation du cadre juridique et interroge la place de la puissance publique dans les dispositifs de régulation (II).

1. La révolution du numérique comme bouleversement social Le développement rapide du numérique constitue le principal bouleversement de la fin du XXe siècle et fait vaciller l’ensemble des équilibres de nos sociétés et tout particulièrement l’économie et le droit.

Les défis du numérique Nouvelle révolution industrielle, le numérique conduit à une accélération du monde. Désormais, toute information peut être enregistrée sous forme électronique, traitée et partagée quasi instantanément. Cette poussée est rendue possible par des puissances de calcul démultipliées, une multiplication des outils numériques et un développement des réseaux que ce soit la fibre optique, le wifi, la 4G et bientôt la 5G qui ont rendu possible un foisonnement de l’information et une large diffusion.

Ainsi, chaque seconde, 29.000 Giga-octets d’informations sont publiés dans le monde : les données, considérées comme le « new gold » ou le « new oil », – le seul marché du big data en France est évalué à 2,5 milliards d’euros pour 2018 – supplantent l’or ou le pétrole par bien des aspects : il s’agit d’une ressource infinie et qui peut être partagée sans dépossession. Les outils numériques permettent l’émergence d’une nouvelle forme d’économie horizontale et désintermédiée avec notamment l’économie collaborative et l’économie de plateforme. Ainsi, le développement du streaming et du peer to peer permettant un partage illégal d’œuvres sans limite a conduit à une intervention de la puissance publique avec la création de la Haute autorité pour la diffusion des œuvres et la protection des droits sur Internet ou HADOPI dont l’efficacité a été remise en cause. Le développement des solutions de transport telles qu’Uber ou de location saisonnière comme Airbnb et les contentieux juridiques qu’elles ont provoqués dans leur sillage illustrent l’importance des enjeux juridiques de la « révolution numérique ».

Les enjeux de régulation du numérique La valeur de l’industrie du numérique résulte de la combinaison des données, de métadonnées, c’est-à-dire des données décrivant la donnée (par exemple, les coordonnées GPS d’une photographie) et des outils algorithmiques qu’on leur applique. Cette industrie de la donnée favorise la dynamique du « winner takes all »1. par effet de réseau, la plateforme leader sur un marché ayant tendance à devenir quasi monopolistique. C’est une concurrence pour le marché plus qu’une concurrence sur le marché. Ces monopoles sont cependant susceptibles d’être rapidement remis en cause, le numérique ayant fait disparaître les barrières à l’entrée. On perçoit que, sur ces marchés plus les entreprises disposent de données, plus elles sont en mesure de renforcer leur domination sur le marché. La donnée et l’algorithme pour la traiter seraient-ils une nouvelle barrière à l’entrée ? Le numérique et le développement d’Internet ont conduit au développement d’une économie de la gratuité pour l’utilisateur final, les coûts étant couverts par des recettes sur un marché connexe. Les services Google sont financés par la publicité qui est d’autant plus valorisée que le nombre d’utilisateurs est important. La concurrence ne se fait plus sur le prix mais par la qualité et l’innovation. Cette dynamique ne manque pas d’interroger la nécessité de renouveler le droit de la concurrence et les mécanismes de régulation alors même que les opérateurs publics souffrent d’une forte asymétrie de l’information. L’autre enjeu de la régulation du numérique est de répondre à la disparition des frontières pour ces opérateurs. Le droit national, voire européen, a du mal à s’appliquer, et pas seulement en matière de concurrence. Ainsi, il en va de la protection de la vie privée : principe fondamental en Europe,

surtout en Allemagne et en France. Traumatisés par la délation massive mise en œuvre par le régime nazi, les États de l’Europe du Nord puis de l’ensemble de l’Europe de l’Ouest ont adopté progressivement des lois nationales de protection des données personnelles à partir de la fin des années 1960 avant d’être encadrés par une série de directives et règlements issus de l’Union européenne à compter des années 1990. Ces nouvelles règles se sont heurtées à la vitesse des évolutions technologiques que personne (ou peu) ne souhaitait freiner ainsi qu’à une approche radicalement inverse de l’autre côté de l’Atlantique, où la liberté d’expression, droit constitutionnel quasi absolu, prime sur la vie privée des personnes. La place de la donnée dans les modèles économiques des entreprises engagées dans les échanges internationaux a obligé depuis déjà plusieurs décennies à réfléchir à des outils divers en complément du cadre juridique classique, comme le controversé Safe Harbour, suivi du Privacy Shield, conforté par un outil législatif, le Règlement général sur la protection des données (RGPD) assumant une approche d’accountability, autre anglicisme venu d’outre-Atlantique, et de compliance, consistant à responsabiliser les parties prenantes pour autant qu’elles respectent les grands principes et les objectifs (v. ci-dessous). Droit des consommateurs, règlements des conflits commerciaux, accès et circulation des données, contenus illicites voire criminels circulant sur les réseaux, sont autant de domaines où la combinaison de l’évolution des technologies et l’absence de frontières vont exiger du droit une adaptation et une flexibilité similaire à celle des usages des outils numériques.

2. Compliance et numérique : une relation privilégiée La compliance permet de rétablir l’équilibre entre les autorités publiques et les acteurs du numérique en leur imposant une logique d’accountability. Elle n’est cependant pas une réponse absolue à l’encadrement de l’industrie du numérique.

La compliance : outil de régulation du numérique La compliance oblige les acteurs du numérique à se doter de règles, de moyens et de contrôles internes. Ces moyens techniques et opérationnels doivent être adaptés et permettre de remplir les objectifs déterminés par l’autorité publique. Ces obligations de prévention (cf. supra) conduisent les opérateurs à intégrer dans leurs process les enjeux et objectifs relevant traditionnellement de la sphère publique. L’entreprise n’a plus pour seule obligation de réaliser du profit, elle doit encore intégrer la protection de l’environnement, la protection de la vie privée ou la lutte contre la corruption. Ainsi, le notice and take down oblige les hébergeurs à se doter des moyens techniques à même de supprimer les contenus illicites sur demande ou après

signalement. De même, le RGPD impose aux entreprises de mettre en place les mesures techniques et organisationnelles pouvant garantir la protection des données personnelles. Les acteurs économiques doivent, en parallèle, être en mesure d’apporter la preuve de la mise en place de ces moyens à l’aide de rapports, d’engagements ou de codes de conduite sous peine de sanctions. Ce mécanisme qui oblige les opérateurs à rendre des comptes permet de faciliter le contrôle par le régulateur qui peut vérifier l’existence de ces moyens formels. Son corollaire visant à prévoir un niveau élevé de sanctions, par exemple jusqu’à 4 % du chiffre d’affaires mondial dans le cadre du RGPD, responsabilise les opérateurs économiques. Ainsi, la compliance vise à pallier l’asymétrie d’information et le manque de moyens du régulateur et rétablit l’équilibre avec les acteurs du numérique. Le pendant de la responsabilisation des acteurs est la liberté qui leur est offerte quant aux outils à mettre en place pour respecter les objectifs et les principes qui leur sont imposés par la loi (auto-régulation). Cette liberté associée au risque de lourdes sanctions permet d’assurer une meilleure effectivité du droit et, par extension, de limiter les recours contentieux dont les délais de traitement sont difficilement compatibles avec la vitesse de développement des technologies. Ainsi, il aura fallu huit ans à la Commission européenne pour sanctionner Google pour des pratiques anticoncurrentielles et la procédure se poursuit encore aujourd’hui devant la Cour de Justice de l’Union européenne. Une telle situation n’est satisfaisante pour aucune des parties prenantes. Enfin, l’internalisation des règles de compliance permet leur internationalisation : incorporées par les acteurs numériques transnationaux, les mesures de compliance s’affranchissent des frontières. Par exemple, imposer dans un État ou au niveau européen le principe de loyauté des algorithmes de telle sorte que « l’algorithme dise ce qu’il fait et fasse ce qu’il dise », aurait de facto une portée extraterritoriale.

La compliance outil complémentaire Si la compliance pourrait permettre de réguler l’essentiel des comportements répréhensibles, elle ne peut pas être la réponse absolue à toute situation. En effet, elle pose la question de la légitimité et de la capacité des acteurs privés à appliquer les principes fondamentaux qui régissent nos sociétés. De manière paradoxale, la compliance renforce le pouvoir du régulateur et du juge par une démultiplication du pouvoir de sanction comme outil de prévention. Dans le cadre du notice and take down, les hébergeurs sont tenus de retirer tout contenu illicite avant l’intervention de l’autorité judiciaire. Mais dès lors, quels sont les moyens à leur disposition pour apprécier du caractère illicite d’un contenu ? Dans cet exemple, on perçoit à la fois le risque pour l’hébergeur d’être en deçà et au-delà de ce qui est effectivement prohibé par la loi.

On comprend mieux que la compliance en tant qu’approche par le risque n’a pas pour objectif de répondre intégralement aux problèmes qu’on lui confie mais d’être une solution pragmatique pour l’essentiel de ces problèmes : tout ce qui passe au travers du filtre de la compliance ayant vocation à être traité par les réponses classiques du droit répressif. La compliance solution ou palliatif des limites du droit traditionnel n’est donc pas un absolu. La multiplication des règles de compliance ne vient supprimer ni le juge ni les sanctions. Au contraire, leur rôle est renforcé, notamment par le niveau des sanctions. Son objectif est de décourager l’intérêt de contrevenir aux règles par la lourdeur de la punition, alors même que l’autorité sait qu’elle n’a pas les moyens de poursuivre l’ensemble des comportements répréhensibles. Le juge et la sanction deviennent ainsi des outils de dissuasion. La logique poursuivie ici s’inspire également du développement des infractions de comportements (mise en danger de la vie d’autrui, conduite en état d’ivresse). Comme le droit pénal punit des comportements créateurs de risques en se détachant de l’existence de tout dommage, la compliance impose des conduites « conformes » et permet de sanctionner des manquements purement formels (l’absence de tenue d’un registre des traitements des données personnelles peut conduire à une sanction maximale de 2 % du chiffre d’affaires ou 10.000.000 d’euros). Cependant, comme les infractions-obstacles n’empêchent pas toute réalisation du risque, la compliance ne peut supplanter le droit répressif classique. Le juge et la sanction demeurent la réponse ultime, celle-ci devant cependant se faire de moins en moins fréquente à mesure que le filtre de la compliance s’affine. Or, ce sont vraisemblablement les outils numériques qui permettront l’élaboration du filtre le plus fin, c’est-à-dire le plus précis mais également le plus transparent. Si le développement des industries numériques affirme la compliance comme solution juridique, ce sont les outils numériques qui permettent l’effectivité de la compliance en ouvrant la possibilité de traiter un grand volume de données et de mettre en place des solutions automatisées. Ces évolutions, en plus d’une adaptation du droit, doivent également conduire l’autorité publique, État et régulateur, à réfléchir à sa transformation en s’inspirant éventuellement des grandes entreprises du numérique. 1 Voy. la contribution au présent ouvrage « Le pouvoir des plateformes », pp. 29-43.

Le rôle du régulateur à l’ère de la convergence numérique : nouveaux pouvoirs ou nouvelles approches ? Vers une collaboration distribuée dans la politique et la réglementation des TIC Par Jean-Jacques Sahel À l’aube de l’ère de l’Industrie 4.0, Internet s’affirme comme une Technologie d’usage général (TUG). La numérisation de l’économie et de la société est devenue nécessaire notamment pour la croissance et la productivité des nations ; les entreprises doivent pouvoir prospérer dans cet environnement ; et les usagers bénéficier pleinement de tous les services et contenus offerts, tout en étant dûment protégés en tant que consommateurs et citoyens. Le rôle de la (bonne) réglementation du secteur des Technologies de l’information et de la communication (TIC) est crucial dans ce contexte. Le cœur de ce débat porte fréquemment sur l’impact de la convergence entre les différents sous-secteurs qu’il comprend. En effet, les acteurs de l’audiovisuel et de l’édition sont de plus en plus dépendants des activités en ligne, le futur des opérateurs télécoms est lié à la croissance continue de l’internet et à sa stabilité tandis que tous ces acteurs ont également développé leurs propres stratégies numériques. Quant aux sociétés internet, elles sont bien sûr actives dans « leur » secteur – si tant est que l’on puisse véritablement définir un secteur « internet » limité – mais aussi dans de nombreux autres secteurs de manière directe ou en tant qu’intermédiaires. Ce débat sur la réglementation et la convergence est complexifié par la nature et la rapidité même de la transformation numérique : le marché comme la technologie évoluent très vite ; de nouvelles dynamiques concurrentielles et réalités d’investissement sont combinées avec des questions complexes sur la vie privée, la protection des données personnelles et la liberté d’expression et d’accès à l’information. Ces problématiques, de plus en plus prégnantes, engendrent un désir croissant de réglementation face aux demandes issues de tous les acteurs d’une meilleure régulation de l’espace numérique. Dans ce contexte, comment réguler ? Quels rôles, quelles approches et quels outils pour le régulateur dans cet environnement numérique aux changements rapides et multiples ? Comment faire converger les réglementations des TIC pour une régulation cohérente et efficace ?

1. Rôles et dilemmes du régulateur Le régulateur : étendre son rôle ou sa manière d’opérer ? La question de l’évolution du rôle des régulateurs sectoriels en charge des TIC est souvent focalisée sur comment étendre ce rôle et la mission de tel ou tel régulateur (notamment l’autorité de réglementation des télécommunications) à un marché plus large qui comprendrait le fameux « secteur internet ». Pourtant, la vraie question est peut-être ailleurs. L’enjeu est en effet non pas d’étendre le champ de compétence du régulateur mais bel et bien de déterminer plus efficacement la manière dont il doit conduire sa mission afin d’atteindre l’objectif voulu d’un marché concurrentiel et dynamique, qui génère des bénéfices sociaux et économiques collectifs tout en respectant les valeurs sociales et libertés fondamentales. Ainsi, plus que l’extension, c’est bien une réflexion sur la conduite par le régulateur de sa mission.

Une multitude de dilemmes Les politiques publiques et les réglementations des TIC font face aujourd’hui à plusieurs dilemmes pour leur convergence dont la conciliation incombe au régulateur. Un premier exemple est celui qui oppose schématiquement le respect de la vie privée et les impératifs de sécurité. Depuis l’affaire Snowden, et encore plus dans un contexte marqué par l’augmentation des actes terroristes, il existe une forte demande pour combattre ces nouvelles menaces et, en même temps, les usagerscitoyens craignent pour la protection de leurs données personnelles et de leur vie privée. Cette balance des intérêts pour concilier ces objectifs apparemment contradictoires est au cœur du rôle du régulateur qui doit trouver « le bon curseur ». Pour ce faire, le régulateur doit se poser de nombreuses questions : comment le législateur arbitrera son choix ? Quels acteurs, publics et privés, seront en charge de la mise en œuvre ? Un second dilemme similaire réside dans l’opposition manichéenne entre les règles de concurrence vs l’investissement nécessaire à l’innovation, que ce soit par exemple pour la question des droits d’auteur ou encore des frais d’itinérance. Là aussi, le régulateur doit dépasser ce dilemme en essayant de faire converger les exigences règlementaires avec les intérêts économiques et politiques. Le rôle même du régulateur en devient plus complexe.

Une multitude de régulateurs Cette convergence réglementaire en vue d’une régulation plus cohérente fait également face à la multitude des agences de régulation qui sont amenées à réglementer les mêmes acteurs, sur des marchés et des secteurs différents. Ainsi, en matière de données, qui sont au cœur de la transformation numérique, plusieurs

compétences de régulateurs différents s’enchevêtrent : l’autorité de protection des données personnelles, celle en charge de la protection des consommateurs, l’autorité de la concurrence et celle des télécoms. Pour les acteurs du marché, en particulier les FAI qui sont les sociétés capables de bloquer l’accès à des sites internet illicites par exemple, cette situation est un cauchemar à la Monty Python puisqu’ils doivent interagir avec une multitude d’autorités de régulation aux intérêts et demandes parfois apparemment contradictoires. La solution serait-elle dès lors de fusionner les régulateurs ? Si l’idée peut paraître séduisante, elle n’est pas forcément la bonne marche à suivre. En effet, leurs expertises spécifiques doivent être préservées plutôt que diluées dans une structure plus large. De plus, ces régulateurs ont des missions propres, assez différentes les unes des autres, et la fusion de celles-ci, par exemple la protection des droits fondamentaux pour l’autorité de protection des données personnelles avec la mission de protection des consommateurs ou de respect des règles de concurrence, risque de porter atteinte à la cohérence et à l’efficacité des différents régulateurs. Une solution serait plutôt de renforcer la collaboration entre les différents régulateurs : fusionner leurs efforts plutôt que leurs structures. Il y aurait alors besoin de développer des méthodes de collaboration novatrices et une boîte à outils commune à l’image du dispositif de coopération que viennent de mettre en place les autorités européennes de protection des données personnelles pour la mise en œuvre du Règlement général européen sur la protection des données (RGPD).

2. Le temps et l’espace du régulateur La loi doit-elle avancer aussi vite que la technologie ? Avec l’internet, les cycles de vie des produits, et donc la dynamique des marchés, ne se comptent plus en années, mais plutôt en semaines, voire en jours, donnant souvent lieu à un désir affiché que la loi rattrape la technologie. Ainsi, le cadre réglementaire européen des télécommunications en est à sa troisième révision en l’espace de quinze ans et ces modifications ont pour but avoué de répondre à l’évolution rapide des usages et des innovations. Pourtant, cette démarche peut, au contraire, créer de l’insécurité juridique en générant une confusion aussi bien chez les consommateurs que les entreprises qui peinent à savoir quels sont exactement leurs droits et leurs obligations. La solution serait de distinguer ce qui, d’un point de vue de la régulation, relève du socle fondamental, qui est peu modifiable, des réglementations plus ponctuelles.

Intégrer la dimension mondiale La question de l’application territoriale de la loi au cyberespace est au centre des enjeux de régulation de la transformation numérique. Internet et les applications,

services et contenus qu’il transporte sont intrinsèquement transfrontaliers. Dès lors, quelle loi devrait prévaloir ? Celle du pays d’origine des entreprises, telles que Facebook, Google, BlaBlaCar ou encore Alibaba, ou celle du consommateur ? Quel juge sera compétent ? Ces conflits de réglementation et de juridiction sont de plus en plus nombreux et posent non seulement des défis aux États quant à leur capacité à faire leurs lois par des entreprises qui, si elles ne sont pas physiquement sur leur territoire, déploient leurs activités à destination de leurs citoyens-consommateurs. Cette situation n’est pas non plus optimale pour les entreprises elles-mêmes qui, soumises à de multiples cadres réglementaires nationaux, doivent faire face à une instabilité et une insécurité juridique. Cette question se pose ainsi en Europe d’abord pour les petites et moyennes entreprises (PME) qui composent 98 % du tissu économique numérique européen et qui n’ont pas les moyens juridiques des grandes entreprises du numérique. Une première solution, bien que peu probable, serait qu’un ou plusieurs des systèmes règlementaires majeurs dominent en fonction de la taille de leurs marchés respectifs, ce qui permettrait à certaines sociétés de choisir d’adhérer aux lois des États-Unis, de la Chine ou de l’Union européenne par exemple sans être assujetti à celles des autres pays. Cette option semble peu envisageable : non seulement elle crée une concurrence juridique mais, surtout, elle aboutit à une domination de certains systèmes par d’autres. Une solution plus vraisemblable serait une harmonisation progressive au niveau mondial avec l’émergence de cadres règlementaires et législatifs communs pour les TIC. Cette alternative n’est pas sans difficultés : quelles règles choisir pour les élargir au niveau mondial ? Comment faire adhérer des régions comme l’Asie et l’Afrique à des réglementations venues d’Amérique du Nord ou d’Europe ? Peut-on véritablement envisager une convergence complète et mondiale dans le futur proche ? À ce stade, il s’avère plus réaliste, voire efficace, de commencer par l’instauration d’une « collaboration distribuée » entre les régulateurs, c’est-à-dire une coopération transfrontalière entre régulateurs sur leurs périmètres de compétence respectifs tels que l’ont initié par exemple les autorités européennes de régulation des télécommunications ou encore celles de la protection des données personnelles.

3. Vers une convergence mondiale ? Établir des socles fondamentaux communs Pour une telle convergence, la coopération renforcée des régulateurs doit avoir pour objectif d’établir des socles fondamentaux susceptibles non seulement de répondre au rythme rapide de l’évolution technologique mais aussi capables de fédérer le plus grand nombre autour de principes juridiques communs. En effet, la technologie évolue trop vite pour que la législation la rattrape : que ce soit au niveau

national, régional ou mondial, il nous faut une législation qui est prête pour le futur, et une réglementation (l’application de la législation) qui s’occupe du maintenant. Ainsi, l’OCDE a réussi à fédérer ses trente quatre États membres représentant tous les continents sur les lignes directrices sur la protection des données1. qui consacrent les principes-clés et généraux de cette protection afin d’assurer un cadre commun de confiance pour les flux de données, tout en laissant à chaque État la liberté de les décliner au niveau national par une réglementation plus précise. De la même manière, dans le domaine des télécoms, l’OMC a élaboré en 1993 les principes de référence sur la réglementation des télécommunications2. tels que l’indépendance du régulateur et la non-discrimination dans l’interconnexion qui sont toujours valables et appliqués aujourd’hui. Pour le régulateur, cela suppose un changement d’approche qui intègre la perspective internationale dans le mode de travail quotidien du régulateur.

Une application évolutive de la réglementation Pour les régulateurs, l’impact premier d’un tel cadre législatif plus simple et pérenne sera leur capacité à l’appliquer avec flexibilité et, surtout, de les mettre à jour pour répondre aux nouveaux défis posés par l’évolution de la technologie. Ce scénario voit les régulateurs devenir plus importants d’une certaine manière, car ils seront en charge à la fois d’appliquer et de réinterpréter la loi. Avec ce rôle étendu, le régulateur devra constamment évaluer là où doit être le « curseur » en confrontant des enjeux variés et des intérêts contradictoires. Pour se faire, il aura besoin de travailler avec d’autres régulateurs et d’impliquer directement toutes les parties prenantes, des acteurs économiques à la communauté technique en passant par la société civile. En effet, la légitimité de son rôle plus étendu devra être renforcée par une responsabilité accrue (accountability) vis-à-vis de ces parties prenantes.

Une coconstruction à travers une approche multiacteurs Cette légitimité accrue s’accompagne également de la mise en place de mécanismes de travail coopératifs entre le régulateur et toutes les parties impliquées afin d’élaborer des décisions consensuelles. Cette approche « multiacteurs » est essentielle pour améliorer l’efficacité et la légitimité de la réglementation. En effet, en incluant des expertises variées et des perspectives diversifiées issues d’acteurs du terrain, le régulateur s’assure, en plus de la représentativité, que la réglementation répond aux besoins opérationnels des acteurs. Cette manière « multiacteurs » de travailler n’est pas nouvelle, et a vocation à s’intensifier. Elle a prouvé son efficacité et son succès dans la gouvernance technique de l’internet qui a permis d’assurer un fonctionnement sans faille du réseau mondial malgré la croissance d’ampleur du nombre d’utilisateurs de quelques millions dans les années 90 à plus de quatre milliards aujourd’hui.

* La course aux armements législatifs qui voit des mises à jour constantes de la loi pour rattraper la technologie n’est pas durable. Il existe un besoin fort de créer des cadres législatifs pérennes, qui résistent à l’épreuve du temps. La philosophie réglementaire doit évoluer en conséquence. Nicolas Curien, membre du Conseil supérieur de l’audiovisuel et ancien commissaire de l’ARCEP, avait ainsi comparé le régulateur à un jardinier, qui ne sculpte pas les arbres et fleurs, mais plutôt sème l’engrais approprié qui permettra à l’écosystème du jardin de pousser et de fleurir naturellement en un marché innovant, dynamique et concurrentiel, qui génère des bénéfices économiques et sociaux pour tous : « Le jardinier qui prépare et arrose le terreau de l’innovation ; un jardinier darwinien qui ne se substitue pas à la nature mais crée les conditions favorables afin que celle-ci puisse faire son œuvre ; un jardinier qui évite l’émergence d’une jungle incontrôlée, sans pour autant dessiner un jardin à la française »3.. * Dans ce nouveau paradigme réglementaire, les régulateurs auront besoin de faire appel et de travailler directement avec les parties prenantes concernées, que ce soit d’autres régulateurs avec lesquels ils doivent apprendre à travailler en équipe, l’industrie, la communauté technique, ou la société civile. Le travail de projet et la collaboration multiacteurs devront devenir la norme, ajoutant en même temps une richesse d’expertise, de représentativité et de responsabilité. Le futur de l’internet ne représente pas un choix entre la mondialisation et le respect de la loi ou des cadres juridiques nationaux. L’enjeu est plutôt de savoir comment accompagner cette transformation numérique mondiale à travers une régulation et des réglementations efficaces. Pour cela, nous devons réinterpréter nos valeurs fondamentales et nos normes à la réalité d’un monde internet connecté et transnational : un modèle de collaboration distribuée qui a fait le succès de l’internet et qui sera la clé de la bonne réglementation future.

1 OCDE, « Guidelines on the Protection of Privacy and Transborder Flows of Personal Data », 2013 disponible sur : http://www.oecd.org/internet/ieconomy/oecdguidelinesontheprotectionofprivacyandtransborderflowsofpersonaldata.htm Voy. aussi les règles transfrontières sur la vie privée de l’APEC (APEC Cross Border Privacy Rules) : www.cbprs.org/. 2 OMC, 24 avril 1996, « Telecommunications Services - Reference Paper on Basic Telecommunications » ; https://www.wto.org/english/tratop_e/serv_e/telecom_e/tel23_e.htm. 3 N. CURIEN, « Osons ! Innovation et régulation au service de la révolution numérique », Cahiers de l’ARCEP, n° 6, juillet 2011 ; http://ncurien.fr/images/PDF/osons.pdf.

Remerciements Merci à Mohamed Syed Gaffar pour pour son travail et son appui continus qui ont contribué à la réalisation de cet ouvrage. Merci également à Mehdi Mouchrit et Elias Kabicek pour leur travail.

Table des matières BIOGRAPHIES DES AUTEURS SOMMAIRE PRÉFACE, DE MARIYA GABRIEL INTRODUCTION, PAR DALILA RAHMOUNI-SYED GAFFAR PARTIE 1. L’HUMANITÉ FACE À L’INTELLIGENCE ARTIFICIELLE DONNER UN SENS À L’INTELLIGENCE ARTIFICIELLE, PAR CÉDRIC VILLANI 1. L’imaginaire de l’intelligence artificielle De la difficulté de définir l’intelligence artificielle L’IA, entre fantasmes et recherches scientifiques 2. Une nouvelle ère de l’IA La mise en données du monde Une domination rampante ? 3. L’IA, clés du pouvoir du monde à venir Un nouveau levier de pouvoir majeur dans un monde numérique Un enjeu d’intérêt général, un défi pour la France et l’Europe 4. Comment l’État peut-il donner un sens à l’IA ? Fixer un cap clair autour d’une stratégie ambitieuse Donner une signification à l’IA autour de valeurs fondamentales Expliquer et promouvoir pour une meilleure réflexion collective INTELLIGENCE ARTIFICIELLE : UNE NÉCESSAIRE RÉFLEXION GÉOPOLITIQUE, PAR JULIEN NOCETTI 1. Un renouvellement de la conflictualité Vers un bouleversement de la scène internationale Une évolution de l’art de la guerre 2. Une rivalité avant tout sino-américaine « Le grand bond en avant » de la Chine Un effet égalisateur sur la scène internationale 3. Défis internes, conséquences globales Accroissement des inégalités et risque populiste De nouveaux rapports de force sur la scène internationale 4. Pour une gouvernance mondiale de l’intelligence artificielle La nécessité d’une gouvernance mondiale de l’IA : quel rôle pour l’Europe ? Pour une gouvernance multiacteurs

INTELLIGENCE ARTIFICIELLE AUTONOME : QUI SERA LE RESPONSABLE ?, PAR BÉATRICE DELMAS-LINEL 1. IA autonome et responsabilité juridique : un risque d’impunité ? Quand l’IA devient autonome Les règles de responsabilité civile du droit français au regard de l’IA autonome 2. Vers une responsabilité juridique propre à l’IA autonome ? Une temporisation dans l’adoption de toute réforme globale en Europe et en France La nécessité à court terme de mécanismes d’indemnisation adaptés à l’IA autonome : vers une approche au cas par cas PARTIE 2. POUVOIR DES PLATEFORMES, PUISSANCE DES DONNÉES LE POUVOIR DES PLATEFORMES, PAR YANN BONNET, CAMILLE HARTMANN ET JUDITH HERZOG 1. Sous l’effet du phénomène de « plateformisation », la société se transforme à travers la mutation des formes de production de valeur À l’origine de nouveaux monopoles dans la sphère marchande L’influence des plateformes sur notre perception du monde Une multiplication des défis pour les régulateurs et les législateurs 2. Le besoin de nouvelles synergies entre régulateurs, chercheurs et société civile pour imposer des contre-pouvoirs et une régulation efficaces Des solutions endogènes La plateformisation rend plus difficile la perception par les autorités de ce que les utilisateurs vivent au quotidien Aménager de nouvelles voies d’interpellation des plateformes Associer les utilisateurs aux démarches d’évaluation collaborative des pratiques des plateformes Les nouveaux champs de négociation avec les plateformes : vers une coopération dans la régulation du numérique ? 3. Plutôt qu’ubériser l’État, consolider la composante collective des politiques publiques La plateformisation, une opportunité pour les politiques publiques ? Mieux mobiliser les destinataires des politiques publiques pour améliorer leur qualité Une nouvelle approche des politiques publiques ? L’État : une future plateforme exemplaire ? LES DONNÉES PERSONNELLES, « STAPLE COMMODITIES » DU NUMÉRIQUE, PAR EDOUARD GEFFRAY 1. La protection des données personnelles, un droit fondamental pour l’Union européenne Un droit fondamental ancien au frontispice du système juridique européen

Un droit autonome garanti par des instances indépendantes 2. Une souveraineté individuelle et collective Une souveraineté individuelle Une souveraineté collective 3. Vers un droit international de la protection des données ? La nécessité d’un cadre commun de régulation du cyberespace Vers des standards mondiaux de protection des données personnelles L’OPEN DATA, AU CROISEMENT DE L’OUVERTURE ET DE LA GRATUITÉ DES DONNÉES, PAR MOHAMMED ADNÈNE TROJETTE 1. De l’opportunité d’ouvrir les données publiques De la liberté d’accès aux documents administratifs à l’ouverture des données publiques Le tournant des années 2010 : vers un État plateforme 2. De l’affirmation progressive du principe de gratuité Gratuité des données et transparence Gratuité et commercialisation des données publiques La consécration du principe de gratuité et du concept de données d’intérêt général PARTIE 3. LA GOUVERNANCE DE L’INTERNET : ENTRE FRACTURES ET RÉGULATIONS DU NUMÉRIQUE GOUVERNER L’INTERNET ? DU MYTHE À LA RÉALITÉ DE LA GOUVERNANCE MONDIALE DE L’INTERNET, PAR DALILA RAHMOUNI-SYED GAFFAR ET LAURENT FERRALI 1. Le mythe d’une gouvernance unique de l’internet La confusion historique d’une enceinte unique de gouvernance L’échec d’un monopole dans le modèle de gouvernance de l’internet 2. La réalité d’une pluralité de gouvernances sur l’internet La multiplication des enceintes de gouvernance La perméabilité des modèles de gouvernance L’AFRIQUE FACE AUX DÉFIS DE LA RÉGULATION DU NUMÉRIQUE, PAR EMMANUEL ADJOVI 1. Des pressions variées pour une régulation improbable La promotion forcenée des standards européens Les stratégies chinoise et américaine d’endiguement de la régulation en Afrique 2. Se préparer à la compétition mondiale Générer ses propres standards Utiliser le numérique comme un vecteur d’intégration économique régionale et sous régionale

LES FRACTURES NUMÉRIQUES, PAR PIERRE BONIS 1. Internet, les grandes espérances Internet, une promesse Espérances politiques 2. Internet, le temps des réalités : le numérique au défi des fractures et des logiques d’exclusion Logiques d’exclusion et fractures Des initiatives locales orientées vers la satisfaction de besoins réels PARTIE 4. LA DÉSINFORMATION ET L’EXCEPTION CULTURELLE FACE À LA TRANSFORMATION NUMÉRIQUE LA RÉGULATION DES FAKE NEWS EST-ELLE POSSIBLE ?, PAR ANNE-THIDA NORODOM 1. Doit-on réguler ? L’existence d’un droit applicable aux fausses nouvelles Les « lacunes » du droit applicable aux fausses nouvelles 2. Que régule-t-on ? Les acteurs de la désinformation L’équilibre entre droits fondamentaux et régulation des fausses informations L’EXCEPTION CULTURELLE À L’ÈRE DU NUMÉRIQUE : QUEL RÔLE POUR LA FRANCE ?, PAR LILIAN RICHIERI HANANIA 1. L’exception culturelle : la reconnaissance de la spécificité des produits et services culturels 2. Les défis pour l’exception culturelle à l’ère du numérique PARTIE 5. LE RÉGULATEUR À L’ÈRE DU NUMÉRIQUE : NOUVEAUX RÔLES, NOUVEAUX OUTILS ? DE LA RÉGLEMENTATION À LA COMPLIANCE, ENCADRER ET ACCOMPAGNER LA TRANSFORMATION NUMÉRIQUE, PAR THAIMA SAMMAN ET MARC DREVON 1. La révolution du numérique comme bouleversement social Les défis du numérique Les enjeux de régulation du numérique 2. Compliance et numérique : une relation privilégiée La compliance : outil de régulation du numérique La compliance outil complémentaire LE RÔLE DU RÉGULATEUR À L’ÈRE DE LA CONVERGENCE NUMÉRIQUE : NOUVEAUX POUVOIRS OU NOUVELLES APPROCHES ?, PAR JEAN-JACQUES SAHEL 1. Rôles et dilemmes du régulateur Le régulateur : étendre son rôle ou sa manière d’opérer ? Une multitude de dilemmes

Une multitude de régulateurs 2. Le temps et l’espace du régulateur La loi doit-elle avancer aussi vite que la technologie ? Intégrer la dimension mondiale 3. Vers une convergence mondiale ? Établir des socles fondamentaux communs Une application évolutive de la réglementation Une coconstruction à travers une approche multiacteurs REMERCIEMENTS TABLE DES MATIÈRES