Convergence 2045 - IA, créativité artificielle et effondrement ? 9781694081742

9781694081742

1,946 128 2MB

French Pages [272] Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Convergence 2045 - IA, créativité artificielle et effondrement ?
 9781694081742

Table of contents :
Préface
Introduction
1 - Révolution technologique partie I : le futur lointain, c’est en fait bientôt !
2 - Révolution technologique partie II : l’IA et l’informatique cognitive
3 - Révolution technologique partie III : vers l’IA forte
4 - Un Nouveau Monde se dessine
5 - Des changements disruptifs dans tous les domaines avec l’IA
6 - La Créativité à l’ère des machines et la musique
7 - Interlude : un futur sombre ? Effondrement / collapsologie, ressources, réchauffement climatique
8 - L’interface cerveau-machine et la créativité
9 - Homo Novus
10 - L’humanité vers de nouveaux horizons : les scénarios
11 - Éducation (partie coécrite avec Leïla Ancelin)
12 - Garder le contrôle de l’IA
13 - Boostez votre créativité
14 - Chronologie du turfu
Conclusion
Rapide présentation de l’auteur et des collaborateurs
Remerciements

Citation preview

BORIS H

Convergence 2045 IA, créativité artificielle et effondrement ? Préface de Dr Eric Hoechstetter

Convergence 2045 IA, créativité artificielle et effondrement ? Couverture : RAGE CULTURE http://rage-culture.com Copyright © 2019 Boris H Tous droits réservés. ******ebook converter DEMO Watermarks*******

www.boris-h.com Instagram : @convergence2045 ISBN : 9781694081742

******ebook converter DEMO Watermarks*******

Contents Préface Introduction 1 - Révolution technologique partie I : le futur lointain, c’est en fait bientôt ! 2 - Révolution technologique partie II : l’IA et l’informatique cognitive 3 - Révolution technologique partie III : vers l’IA forte 4 - Un Nouveau Monde se dessine 5 - Des changements disruptifs dans tous les domaines avec l’IA 6 - La Créativité à l’ère des machines et la musique 7 - Interlude : un futur sombre ? Effondrement / collapsologie, ressources, réchauffement climatique 8 - L’interface cerveau-machine et la créativité 9 - Homo Novus 10 - L’humanité vers de nouveaux horizons : les scénarios 11 - Éducation (partie coécrite avec Leïla Ancelin) 12 - Garder le contrôle de l’IA 13 - Boostez votre créativité 14 - Chronologie du turfu Conclusion Rapide présentation de l’auteur et des collaborateurs Remerciements

******ebook converter DEMO Watermarks*******

À tous ceux qui veulent changer le monde positivement.

******ebook converter DEMO Watermarks*******

Préface Je suis médecin psychiatre et particulièrement intéressé par les neurosciences, la science de manière générale, les nouvelles technologies et la musique depuis fort longtemps, donc l'intérêt de mon fils pour ces sujets ne vous étonnera pas. Il m'a demandé d'écrire la préface de son livre et je me suis exécuté fort volontiers. Au-delà du fait qu'il soit mon fils, j'ai lu son livre avec la plus grande objectivité possible et j'en ai conclu ce qui suit : L'ouvrage que nous propose Boris se présente comme un travail de synthèse et d'actualité. Il nous offre un tableau d'ensemble des technologies convergentes NBIC (Nanotechnologies, Biotechnologies, Informatique et sciences Cognitives) et des avancées de l'intelligence artificielle, en tenant compte des contributions les plus récentes. Ce qui frappe d'emblée, à la lecture, c'est que dans un domaine où tant de choses ont été dites, et souvent mal dites, l’auteur évite les lieux communs, les banalités et les idées fausses. C'est le fruit d'un travail de recherche considérable de plusieurs années. On lit cet ouvrage avec d'autant plus de plaisir et d'intérêt que, tout en faisant une juste part aux idées et aux connaissances acquises, il les présente sous un jour neuf et original, en les intégrant à des réflexions et à des interrogations judicieuses, mais aussi en intégrant un concept musical et créatif sur le sujet. Mentionnons l'intérêt tout particulier au chapitre consacré à la créativité à l’ère des machines qui explique comment les technologies ont permis d’augmenter notre créativité au fil du temps, mais aussi que de nouvelles formes d'art et de divertissements apparaîtront dans le futur, comme cela a été le cas dans le passé. Cependant, cette fois-ci de manière plus exponentielle. L'intérêt de l'ouvrage est évident. Au bilan des connaissances, il ajoute une réflexion concrète et le jugement de bon sens qui en résulte notamment par rapport à la névrose d'angoisse des collapsologues. Le chapitre consacré à l’éducation co-écrit avec Leila Ancelin, professeure de sciences, montre également que le mode d'apprentissage doit totalement changer pour permettre la meilleure transition possible dans notre société qui évolue rapidement et inéluctablement. ******ebook converter DEMO Watermarks*******

La technologie est un outil, l'automobile par exemple, peut être utilisée pour aller d'un point A à un point B sans faire de mal à personne, mais peutêtre utilisé aussi pour heurter quelqu'un. N'ayons pas peur de la technologie, car c’est grâce à elle que nous avons fait des progrès considérables en médecine, sinon nous serions encore à pratiquer des saignées comme au temps de Louis XIV pour traiter la majorité des maladies. Il faut bien sûr une éthique dans le domaine des NBIC et de l'intelligence artificielle au même titre que nous en avons une en médecine. Informer sans déformer par une quelconque idéologie, tel semble avoir été le grand objectif de ce livre, celui du moins auquel il répond fort bien. Merci à toi mon fils de m'avoir proposé d'écrire cette préface.

Eric Hoechstetter Médecin psychiatre Le 19 septembre 2019

******ebook converter DEMO Watermarks*******

Introduction Nous avons du mal à le réaliser, mais nous sommes de plus en plus dépendants de la technologie. Elle est devenue graduellement omniprésente dans notre environnement. La technologie s’est immiscée de façon tellement subtile dans nos vies que nous ne la remarquons plus. Son assimilation est de plus en plus transparente et elle épousera bientôt les formes de nos corps. La fusion de la chair et du silicium est imminente et inéluctable. L’invasion technologique est déjà là. L’évolution technologique fut longue, plusieurs centaines de milliers d’années, mais celle-ci a été nécessaire pour pousser notre civilisation jusqu’à ses derniers retranchements. Il faut remercier l’évolution qui nous a dotés d’un magnifique outil ; le cerveau. En utilisant nos neurones, nous avons pu développer le langage, l’écriture, l’imprimerie, internet… Malheureusement, mère Nature nous a aussi laissés avec quelques petits défauts, notamment la taille de notre boîte crânienne qui commence aujourd’hui à montrer progressivement ses limites. Mais grâce au progrès technologique, nous allons très probablement bientôt dépasser les limites qui nous ont été imposées. Nous sommes et avons toujours été une civilisation technocentrée, et ce, depuis que nous avons commencé à utiliser des bâtons pour récupérer des fruits placés plus haut dans les arbres. Les technologies ont démultiplié notre productivité et notre créativité au fil du temps, et ce n’est que le début. Dans les prochaines décennies, de nouvelles formes d’arts et de divertissements naîtront de notre partenariat instinctif avec la technologie. Et les choses ne vont que s’accélérer. Le futur arrive très vite, plus vite qu’auparavant. Pourquoi le titre convergence ? Parce que c’est la convergence technologique de la nanotechnologie, de la biotechnologie, de l’intelligence artificielle, de la robotique, de l’impression 3D, des ordinateurs quantiques, de la réalité virtuelle et de la réalité augmentée qui est en train de changer le monde. Individuellement, ces technologies n’ont pas le même pouvoir, mais c’est le fait qu’elles évoluent toutes en même temps et à un rythme exponentiel qui va transformer en profondeur notre civilisation. ******ebook converter DEMO Watermarks*******

Pourquoi 2045 ? Parce que je pense qu’à cette date le monde sera incroyablement différent d’aujourd’hui. Bien entendu, les changements seront progressifs et tout n’arrivera pas d’un coup en 2045. Ce n’est pas non plus un événement prophétique, mais plutôt un processus qui prendra plusieurs années. De ce fait, je pense que vers cette période la transformation de notre monde atteindra un rythme encore jamais vu. Ce livre traite principalement de l’IA et de la créativité, car je suis un créatif : compositeur de musique connu sous le nom d’Extra Terra et anciennement développeur web. Mais également de l’impact des nouvelles technologies sur la société. J’espère également donner un message plus optimiste sur le futur par rapport au discours dominant pessimiste (films et médias). Je ne peux pas non plus parler du futur, sans évoquer le sujet de l’effondrement qui est devenu un sujet très en vogue aujourd’hui. C’est donc pour cette raison que j’ai fait une partie sur ce sujet. Passionné de technologie, j’ai commencé à étudier de façon autodidacte les technologies convergentes NBIC, j’en observe quotidiennement les progrès et analyse leur potentiel impact sur la société. Le but est d'orienter la direction du progrès technologique pour qu'il soit bénéfique à l'humanité en augmentant le niveau de compréhension du grand public face aux technologies disruptives. Bien entendu, je tiens à préciser que tout ne sera pas rose dans le futur, il y aura du bon et du mauvais. Les choses seront bien plus nuancées qu’on ne l’imagine. J’ai fait un très gros travail de recherche, mais aussi d’autoformation – notamment dans l’IA, pour savoir utiliser des réseaux de neurones dans le domaine musical et mieux comprendre l’IA. Un travail qui a duré plus de 3 ans au total – dont 2 ans pour la production des musiques et l’écriture du livre. Je dois surement avoir des biais comme tout le monde, mais j’essaye de traiter au maximum mes propos avec rigueur. C’est une tâche très difficile et je n’ai pas non plus la science infuse, donc si je dis des inexactitudes veuillez m’en excuser d’avance. Convergence 2045 est un concept spécial d’album / livre avec des musiques réalisées en collaboration avec Google Magenta AI et AIVA. Je n’ai pas réalisé toutes les musiques avec l’IA, car pour l’instant je veux ******ebook converter DEMO Watermarks*******

encore garder un contrôle sur la composition (et aussi par choix artistique). Les musiques en collaboration avec l’IA sont précisées dans les titres. Chaque chapitre du livre (16 chapitres) correspond à une musique de l'album. J’ai composé et j’ai produit la musique en fonction du thème que m'inspire le chapitre en question. Il est également préférable de ne pas écouter la musique pendant la lecture du chapitre, mais plutôt de l'écouter avant ou après la lecture. Sinon il est impossible de se concentrer correctement. Je voulais sortir un album de musique rétro futuriste, mais je voulais également écrire un livre sur les sujets qui me passionnent, donc je me suis dit pourquoi ne pas faire les deux en même temps ! L’objectif est d’imaginer une histoire (ou des histoires) par vous-même en écoutant les musiques, j'espère ainsi faire travailler votre imagination et votre créativité qui seront des atouts primordiaux dans les prochaines décennies par rapport à l’intelligence artificielle. Rien ne vous oblige non plus à écouter les musiques, mais si l’envie vous chante, vous pouvez m'envoyer ce que vous avez imaginé par mail ou par message sur les réseaux sociaux ! Pour écouter l’album, il faut simplement se connecter à Spotify, Soundcloud, Apple Music, Deezer ou votre service de musique en streaming préféré, puis écrire mon nom d’artiste « Extra Terra » et le nom de l’album « Convergence 2045 » dans la barre de recherche. J’espère qu’avec la bande originale qui accompagne ce livre, vous allez pouvoir découvrir d’autres styles de musiques que ceux que vous avez l’habitude d’écouter. Ce n’est pas du tout le style de musique mainstream / commercial qui passe à la radio, vous êtes prévenu ! Peut-être que vous allez même penser que ce sont des musiques extraterrestres ! ⬛ ⬛

Musique qui correspond à cette partie : Extra Terra - “Future Is Coming” Vous pouvez l’écouter sur Spotify, Apple Music, Deezer ou n’importe quel autre service de musique en streaming. Ambiance : Douce Style : Electronic / Orchestrale / Futuriste Tempo : 130 BPM ******ebook converter DEMO Watermarks*******

On commence ici en douceur avec l’intro de l’album. Celle-ci fait la jonction avec la chanson suivante qui s’appelle « Singularity Is Near ». J’ai voulu faire ressortir quelque chose de majestueux et à la fois de futuriste avec le synthé type Vangelis qui mène l’harmonie. P.S. J’ai vraiment essayé d’être le plus accessible possible sur l’ensemble du livre, mais je pense que la première moitié de la partie « Révolution technologique part III : vers l’IA forte » est la partie la plus technique. J’ai vraiment voulu faire en sorte de rentrer dans les détails, afin d’expliquer pourquoi l’IA forte est susceptible d’arriver d’une manière ou d’une autre. Les autres parties devraient se lire sans trop de problèmes pour la plupart d’entre vous !

Boris H // Boris Hoechstetter // Extra Terra Le 29 août 2019

******ebook converter DEMO Watermarks*******

Première partie : Croissance exponentielle de la technologie

******ebook converter DEMO Watermarks*******

1 - Révolution technologique partie I : le futur lointain, c’est en fait bientôt ! « Toute technologie suffisamment avancée est indiscernable de la magie. » - Arthur C. Clarke

Musique qui correspond à cette partie : Extra Terra - “The Singularity Is Near” Vous pouvez l’écouter sur Spotify, Apple Music, Deezer ou n’importe quel autre service de musique en streaming. Ambiance : Douce / Épique / Cinématographique Style : Musique de film / Epic / Electronic / Orchestrale / Futuriste Tempo : 96 BPM “The Singularity Is Near” est un morceau qui fait référence au livre éponyme de Ray Kurzweil sorti en 2009, qui parle de la Singularité technologique et d’intelligence artificielle. C’est un morceau futuriste et assez cinématographique dans sa conception. J’ai essayé de m’inspirer de l’idée de la Singularité pour composer cette musique. La progression en crescendo du morceau fait référence à l’avancement exponentiel de la technologie.

Vers l’infini et au-delà (ou presque) La plupart des gens ont du mal à conceptualiser l’exponentiel. Initialement, le cerveau humain a plutôt tendance à voir le futur de façon linéaire. Quand l’homme évoluait dans les plaines d’Afrique (ou d’Eurasie d’après certaines théories)[1], la situation était locale et linéaire. Le monde évoluait donc de façon très lente. Rien ne changeait d’une génération à une autre, ou d’année en année. Tout était très localisé et limité à une journée de ******ebook converter DEMO Watermarks*******

marche. Il est donc difficile pour notre cerveau d’évoluer dans un monde qui change à un rythme exponentiel et où les informations circulent extrêmement rapidement. Grâce à la technologie, nos vies évoluent de décennie en décennie et d’année en année à un rythme impressionnant. Nous dépendons d’éléments qui n’existaient pas il y a cinq ans. À cause de notre cerveau, nous imaginons l’avenir par extrapolation linéaire. Et on se projette dans le futur exactement comme s’il allait évoluer de la même façon que le passé. Mais en réalité, l’avenir évolue à un rythme effréné. Pour donner un exemple simple : imaginez prendre une machine à voyager dans le temps, pour retourner 200 ans dans le passé, c’est-à-dire en 1819. Une fois là-bas, vous prenez une personne de cette époque, vous la mettez dans la machine à voyager dans le temps et vous la ramenez en 2019. Il y a de fortes chances que cette personne tombe dans les pommes en voyant les avions, les voitures, les smartphones, les écrans ultras plats, les assistants vocaux… Sans parler de toutes les autres choses inconcevables pour son esprit comme internet, les cryptomonnaies, les centrales nucléaires ou les ordinateurs quantiques. Maintenant, imaginez que vous allez en 1619 et que vous prenez une personne pour la ramener en 1819. Il est fort probable que cette personne soit peu impressionnée par ce qu’elle voit. La différence avec son époque sera minime. Elle y verra toujours des calèches, des lampes à huile ; c’est-à-dire un monde totalement dénué d'électricité. L’effet de surprise sera bien plus faible pour cette personne alors qu’il y a pourtant le même écart de temps entre les deux époques. Par contre, pour trouver une personne capable de tomber dans les pommes en 1619, il va falloir remonter plus loin encore. C’est à dire en 12 000 av. J.-C, l’époque des chasseurs-cueilleurs, juste un peu avant l'apparition de l’agriculture et des premières villes. Et pour pouvoir choquer quelqu’un en 12 000 av. J.-C, il faudra remonter jusqu’à 100 000 av. J.-C, pour montrer à cette personne le feu et le langage pour la première fois. Comme on peut le remarquer ; pour obtenir des changements technologiques vraiment importants, il fallait avant attendre plusieurs siècles, voire des millénaires. Alors qu’aujourd’hui les changements sont cumulatifs et de plus ******ebook converter DEMO Watermarks*******

en plus rapides. En gros, il faut de moins en moins de temps pour atteindre un nouveau « niveau de progrès » (NDP). Le monde de la révolution post-industrielle a évolué si rapidement qu'une personne de 1819 a seulement besoin d'avancer de quelques centaines d'années pour atteindre le prochain NDP. Alors qu’avant, il fallait 100 000 ans à l'époque des chasseurs-cueilleurs pour l’atteindre et 12 000 ans à l’époque de la révolution post-agricole. Le futurologue Ray Kurzweil (un peu controversé), informaticien et directeur de l’ingénierie de Google, pense que le modèle du progrès humain se déplace de plus en plus vite au fil du temps – il appelle cette accélération du progrès the Law of Accelerating Returns (la Loi de l'Accélération des Retours). Il pense que cela arrive parce que les sociétés plus avancées ont la capacité de progresser plus rapidement que les sociétés moins avancées, et ceci pour une raison simple ; elles ont accumulé le savoir et la technologie au fil du temps. Les outils pour concevoir les nouveaux outils sont de plus en plus précis. L'humanité du 19e siècle en savait plus et avait une meilleure technologie que l'humanité du 15e siècle, il n'est donc pas surprenant que l'humanité ait fait beaucoup plus d'avancées au 19e siècle qu'au 15e siècle. Même la science-fiction sous-estime souvent le rythme de l’évolution technologique. Si vous regardez un épisode de la série Star Trek des années 1960, vous remarquerez que la plupart des technologies présentées sont déjà accessibles aujourd'hui. Les téléphones mobiles, les ordinateurs portables, les voix artificielles ou encore la dictée vocale éblouissaient les gens à cette époque. Alors qu’aujourd’hui, tout le monde considère que c’est normal. Le moteur à distorsion et le téléporteur sont les seules choses que nous n’avons pas encore à notre disposition. Dans le premier Blade Runner (1982), Ridley Scott pensait qu’on allait encore utiliser des écrans cathodiques en 2019. Si Kurzweil et les autres qui sont d'accord avec lui ont raison, alors nous serons autant époustouflés en 2030 qu’une personne qui voyage de 1819 vers 2019. Cela signifie que le prochain NDP pourrait ne prendre que quelques décennies avant d’être atteint et que le monde en 2050 pourrait être si différent du monde d'aujourd'hui que nous le reconnaîtrions à peine. La convergence des technologies NBIC accentue encore plus ce shift technologique que nous sommes actuellement en train de vivre. ******ebook converter DEMO Watermarks*******

Néanmoins, il faut bien comprendre que cette courbe ne pourra pas continuer à croître indéfiniment de façon exponentielle, un jour ou l’autre nous atteindrons un seuil qui ralentira le rythme de l’évolution. Surtout à cause des limites physiques. Personne n’en est sûr pour le moment. Mais rassurez-vous, nous avons encore de la marge avant d’en arriver à ce stade. Alors, est-ce de la science-fiction ? Non. C'est ce que beaucoup de scientifiques plus intelligents que vous et moi pensent très fermement. De plus, si vous regardez l'histoire, c'est ce que nous devrions logiquement prédire ! Petite parenthèse, quand on parle du futur à certaines personnes, on entend souvent ce genre de choses sortir de leurs bouches : « Quand j’étais petit, on m’a dit qu’il y aurait des voitures volantes et des hoverboards en l’an 2000, donc je n’y crois pas, ça ne peut pas arriver aussi vite ». Mais ils ne se rendent pas compte que ces promesses n’étaient tout simplement pas réalisables. ⬛

La technologie de lévitation, qu’on voyait dans les films avec les hoverboards et les voitures volantes par exemple, n’existait pas au stade expérimental à cette époque. Et d’ailleurs, n’existent toujours pas aujourd’hui. Nous ne contrôlons pas encore la gravité pour fabriquer de tels engins. Il nous faudrait une technologie antigravité. De plus ce n’est pas très rassurant pour les piétons d’avoir des véhicules volants partout. Malheureusement, ces personnes sont maintenant aigries et déçues, elles ne veulent plus rien savoir de la prospective, et encore moins de la Singularité. En fait, le fantasme futuriste des voitures volantes commence à peine à prendre vie. Mais pas forcément comme tout le monde s’y attendait. Les voitures volantes se rapprochent plus des drones qu’autre chose... mais après ce qui compte, c’est d’y arriver ! ⬛

Explosion technologique et superintelligence Concrètement, toute cette histoire est censée nous amener à un point de convergence technologique qu’on appelle la « Singularité » ou « Singularité technologique ». Suite à l’évolution exponentielle de la technologie, nous ******ebook converter DEMO Watermarks*******

allons nous trouver devant un changement grand très… grand. Tellement immense, que ce processus est souvent comparé à celui de l’émergence de la vie sur terre. C’est un changement si profond et unique dans l’histoire humaine que nous empruntons une métaphore à la physique pour l’appeler « Singularité ». Personnellement, je conçois la Singularité comme un processus – plus ou moins long, mais pas comme un événement soudain. La Singularité n’est pas non plus une certitude, des événements imprévus peuvent toujours arriver. Ce n’est donc qu’une idée hypothétique – qui vient d’une extrapolation des anciennes données historiques et techniques. Mais le concept reste néanmoins très intéressant et probable. La cause de ce changement est généralement associée à la création d’entités technologiques possédant une intelligence supérieure à celle de l’homme. Il existe plusieurs chemins hypothétiques pouvant nous mener à la Singularité – ainsi son caractère plurifactoriel augmente les chances de son arrivée :

-​ Lorsque les puissances de calcul seront suffisamment grandes pour faire tourner des algorithmes d’intelligence artificielle supérieure à l'intelligence humaine. La progression de notre connaissance sur l’IA créerait un emballement technologique, puis cette IA s'auto améliorerait en permanence, créant une sorte d’explosion de la connaissance chez celle-ci qui, finalement, dépasserait largement celle des hommes. Dans le monde scientifique, la question d’une IA égale ou supérieure à l’homme est controversée. Mais la plupart des chercheurs sont d’accord pour dire qu’il faudra peu de temps à l’IA pour atteindre une superintelligence, une fois le niveau d’intelligence de l’homme atteint. - Par l’utilisation des réseaux informatiques pour augmenter le travail collaboratif des humains à l’échelle planétaire. Ce qui permettrait d'accélérer les échanges d’informations et le progrès. Permettant ainsi l’émergence d’une superintelligence collective (nous sommes déjà un peu dans ce cas de figure, le domaine de la recherche évolue plus rapidement grâce à internet). ******ebook converter DEMO Watermarks*******

- Avec l’utilisation des interfaces hommes / machines, permettant de coupler nos cerveaux avec les ordinateurs. C’est ce qu’on appelle aussi l’intelligence amplifiée. - Par la biotechnologie, qui permet de modifier les gènes et améliorer nos capacités cognitives. - Via la combinaison de plusieurs possibilités (combo ultime !). Je pense d’ailleurs que l’arrivée de la Singularité se fera avec l’ensemble de plusieurs scénarios. Les trois premières possibilités sont entièrement dépendantes de l’évolution de l’informatique, tandis que la quatrième ne dépend que de la biotechnologie. Dans toutes les situations, pour arriver à la Singularité, il faudra atteindre un niveau d’intelligence supérieur à l’humain. Ensuite, cette intelligence supérieure prendra théoriquement les commandes du progrès, ce qui entraînera un emballement de la croissance technologique. La Singularité est le point à partir duquel cette croissance connaît donc une forte accélération, mais dont l’homme n’en est plus vraiment le maître. Comment savoir si la Singularité approche ? C’est simple, on va commencer à voir de plus en plus de signes. L’automatisation va remplacer l’humain à des niveaux de qualification toujours plus élevés. Par exemple, aujourd’hui les logiciels nous libèrent d’une grande partie des tâches les plus ennuyeuses. Nous disposons déjà de programmes de mathématiques symboliques, DAO, MAO, PAO... qui facilitent énormément la productivité et la créativité. Photoshop dispose maintenant, d’un algorithme qui détoure automatiquement des objets ou des personnes sur des photos en un seul clic. Une tâche bien ennuyeuse, qui demande du temps. De quoi faire gagner du temps à beaucoup d’utilisateurs. Autrement dit, le travail réellement productif va devenir de plus en plus une tâche qualifiée. Plus le chômage technologique sera grand et plus nous serons proches de la Singularité (même si pour l’instant cette question prête encore à débat). Un autre signe avant-coureur ; les idées et les concepts vont se répandre de plus en plus vite. Regardez à quelle vitesse se répandent les mèmes sur internet ou la vitesse d’adoption des applications mobiles, pour voir que les choses s’accélèrent. Pour atteindre 50 millions d’utilisateurs, il a fallu 75 ans ******ebook converter DEMO Watermarks*******

au téléphone, 38 ans à la radio, 13 ans à la télévision, 4 ans à internet, 3 ans et demi à Facebook et 35 jours pour l’application Angry Birds[2]. Que deviendra l’humanité à l’ère de la post-Singularité ? Il est probable qu’après ce processus – et non un événement comme certains peuvent le penser - l’espèce humaine telle que nous la connaissons aujourd’hui n’existera plus. Nous serons rentrés dans l’ère post-humaine. L’espèce humaine aura très probablement fusionné avec la machine. Créant ainsi une nouvelle espèce. Ou peut-être que l’humanité se scindera en plusieurs sous espèces qui exploreront l’espace. Peut-être que l’homo sapiens existera toujours, mais qu’il sera juste tout en haut de l'arbre généalogique de toutes les autres nouvelles espèces sous-adjacentes. Il est encore difficile de dire exactement sous quelle forme l’humanité existera, mais une chose est sûre ; l’humanité sera bien différente d’aujourd’hui. L’arrivée d’une intelligence supérieure, qu’elle soit d’origine synthétique ou biologique, pourrait être l'événement le plus bénéfique de toute l’histoire de l’humanité. Cette superintelligence pourrait nous aider à vaincre la faim dans le monde, lutter contre le vieillissement et les maladies, réduire les inégalités, comprendre les mystères du cosmos, lutter plus efficacement contre le réchauffement climatique, amplifier notre créativité et nous aider à développer de nouvelles technologies révolutionnaires. Mais également faire ressortir les meilleurs côtés de notre espèce et nous aider à simplifier notre existence dans ce monde complexe. L’IA permettra à notre espèce de mieux se concentrer sur sa propre humanité. Certains penseurs et chercheurs pensent au contraire que ce processus signera la fin de l’espèce humaine. Même si le danger existe, je pense néanmoins que le risque en vaut la chandelle. Les effets bénéfiques seront tellement énormes pour l’espèce humaine qu’il me semble évident qu’il faut continuer à la développer. Toute entreprise, quelle qu'elle soit, nécessite une prise de risque. Lorsque vous devenez entrepreneur, vous prenez des risques, vous mettez votre situation financière et votre confort en danger. Avec la peur, vous ne pouvez pas entreprendre un tel projet. Il faut être courageux, mais également prendre en compte les risques pour mieux se préparer à réparer les problèmes. Mais si l’entreprise fonctionne, vous serez content du résultat, votre niveau de vie aura augmenté et vous aurez gagné en confort. Il ******ebook converter DEMO Watermarks*******

faut voir le chemin qui mène à la superintelligence sous le même angle. Alors bien sûr il faudra prendre des précautions et préparer notre sécurité à l’arrivée d’une telle situation. Mais c’est en sortant de notre zone de confort que l’humanité arrivera à se surpasser.

La loi de Moore n’est pas morte (enfin pas tout à fait) Cette accélération exponentielle de la technologie a été en partie, soutenue par l’évolution récente des puissances de calculs et du matériel informatique classique. La loi de Moore est un principe empirique qui fait que la puissance des microprocesseurs double tous les 18 mois. Certains préfèrent la nommer conjecture de Moore plutôt que loi de Moore. Après la machine à vapeur, l’électricité et le moteur à explosion, c’est l’invention du transistor dans les années 60 qui a disrupté de façon importante la société. Mais contrairement à ce que beaucoup de personnes pensent, cette loi n’est pas encore tout à fait morte. Elle peut encore survivre quelques années… voire peut-être encore longtemps. Il ne faut pas toujours se fier aux titres provocateurs que l’on retrouve dans la presse qui disent que la loi de Moore est déjà morte. L’esprit humain a montré à plusieurs reprises qu’il est capable de briser ces barrières. La loi de Moore est peut-être en train de ralentir chez Intel, mais elle continue son bonhomme de chemin chez TSMC, Qualcomm et Samsung. Une première version de la loi de Moore a été exprimée pour la première ******ebook converter DEMO Watermarks*******

fois en 1965, dans un magazine d'électronique par Gordon Moore, l’un des fondateurs de Intel. Il avait en fait observé que depuis 1959 – date de l’invention des semi-conducteurs, une accélération exponentielle de la complexité des puces informatique. En 1975, Moore constata qu’il était plus pertinent de refaire sa prédiction par rapport au doublement du nombre de transistors sur une puce de silicium tous les 18 mois. Cette prédiction, bien qu’elle soit empirique, s’est révélée étonnamment conforme à la réalité depuis plus de 50 ans. Une explication : l’industrie de façon générale s’est beaucoup calquée sur la loi de Moore pour sa feuille de route. Et avant d’être une loi technologique, la loi de Moore est surtout une loi économique. Doubler le nombre de transistors tous les 2 ans sur une même surface à un coût constant semble être une aubaine assez intéressante pour l’industrie. Les machines électroniques sont ainsi devenues de moins en moins chères et de plus en plus performantes au fil du temps. Dans les années 60, les transistors mesuraient 10 millimètres, puis ils sont passés à 10 microns dans les années 70, soit le centième de 1 millimètre. En 2018, les microprocesseurs sont gravés à 7 nanomètres ; ce qui correspond à 7 milliardièmes de mètre de largeur. La taille des transistors baisse à un rythme effréné, ce qui permet de toujours en rajouter de plus en plus (même si l’efficacité des processeurs ne dépend pas uniquement de la finesse de gravure, mais aussi de l’architecture). La puce A12 Bionic du dernier iPhone dispose de 6.9 milliards de transistors, ce qui lui permet ainsi réaliser 5000 milliards d’opérations à la seconde ! Une vraie prouesse ! Résultat : lorsque vous recevez une carte de Noël qui se met à chanter « Joyeux Noël ! » une fois ouverte. Vous ne le croirez peut-être pas, mais la puce qu’elle dispose dépasse toute la puissance informatique qu’avaient les forces alliées en 1945. Que faites-vous ensuite ? Vous la jetez à la poubelle, une fois l’anniversaire passé. Hitler aurait sans doute tué pour posséder une telle puissance informatique à cette époque. Votre smartphone est des millions de fois plus rapides que tous les ordinateurs qui ont été utilisés pour envoyer le premier homme sur la Lune[3]. Aujourd’hui, la moitié de la population mondiale dispose d’une puissance de calcul gigantesque dans la poche - malheureusement souvent pour juste ******ebook converter DEMO Watermarks*******

pour prendre des selfies. Imaginez dire cela à quelqu’un dans les années 60 ou même encore dans les années 80… il vous prendrait pour un fou. La dernière console de Microsoft - la Xbox One X qui coûte environ 450 euros bénéficie d’une puissance presque équivalente à un supercalculateur de l’an 2000 qui coûtait des millions. Décennie après décennie, le prix et la taille ont baissé considérablement. Aboutissant de l’ubiquité jusqu’à l’omniscience de la technologie dans nos vies. Plusieurs spécialistes pensent que nous allons nous retrouver devant un mur technologique en dessous d’une finesse de gravure de 3 nanomètres. Plus la finesse de gravure augmente et plus le comportement électrique des matériaux se rapproche de la mécanique quantique (les électrons traversent la grille des transistors par effet tunnel). Il ne faut pas croire que cette course à la miniaturisation a été facile et les ingénieurs vont devoir encore trouver une solution pour continuer à se calquer sur la loi de Moore après la frontière des 3 nanomètres. En 2005, autour des 90 nm, les ingénieurs se posaient déjà la question pour repousser les limites de la miniaturisation[4]. La hausse des fréquences d’horloge et la diminution de la taille des circuits avaient fait bondir la chaleur générée par les composants. Une difficulté que les industriels ont contournée en optant pour des architectures multicœurs, qui ont mis fin à la course à l’augmentation des fréquences d’horloge à 5 GHz. Certains processeurs peuvent tourner à 6 GHz, mais avec des systèmes de refroidissement à l’azote liquide et bonne grosse dose d’overclocking (technique permettant d’augmenter la fréquence d’horloge au-delà de la fréquence nominale)[5]. Certaines entreprises veulent remplacer le silicium par d’autres matériaux, afin de contrecarrer la prochaine limite. Notamment le graphène, considéré comme le matériau aux propriétés miracles – très grande résistance, très bonne conductivité, grande élasticité... Celui-ci, classiquement obtenu par exfoliation du graphite, pourrait dans les 15 ans être à l’intérieur de tous les appareils électroniques que nous utilisons quotidiennement. Son élasticité permettrait de l’intégrer dans pleins d’éléments, notamment les vêtements ou dans des appareils plus petits et flexibles. Des scientifiques, de l’université Nebraska-Lincoln, ont même réussi à s’inspirer du graphène pour créer de ******ebook converter DEMO Watermarks*******

nouveaux matériaux aux propriétés encore plus intéressantes[6]. Même sans le silicium nous avons donc plein d’autres solutions. Jusqu’à maintenant, les spécialistes se sont trompés à plusieurs reprises en disant que la loi de Moore était morte. Gordon Moore a lui-même annoncé plusieurs fois la fin de sa propre loi. Mais aujourd’hui il est bien plus optimiste. Il pense que l’homme est doté d’une inventivité incroyable, qui lui permettra toujours de franchir les obstacles. Durant toute sa vie, il a vu plusieurs fois des murs qui semblaient infranchissables, tomber devant lui. En fait, il est même possible que la loi de Moore ne s’arrête jamais, du moins potentiellement jusqu’à que nous atteignons le niveau de Planck (ordre de grandeur de 10^-35 m). Des architectures de calcul sont envisageables et déjà à l'étude, en utilisant directement des électrons comme source d'information (probabilité de présence d'un électron = 1 binaire et absence = 0). Les électrons sont de l'ordre du femtomètre (10^-15) donc il est envisageable qu'on arrive à faire des architectures encore plus petites. Des chercheurs de l’Université de Aalto en Finlande ont réussi à créer des architectures pour « piéger des électrons » qui permettent à l'heure actuelle de refroidir, mais peut-être bientôt de créer des structures de codes binaires[7]. Il paraît évident que ce scénario est plus qu’hypothétique pour l’instant, mais n’est pas impossible. Si on trouve des solutions, nous verrons un découplage de la loi de Moore, à travers de multiples méthodologies de conception pendant encore quelque temps. En faisant quelques recherches sur internet, il est très facile de voir des articles parlant d’ingénieurs qui pensent que la loi de Moore est morte, et d’autres qui pensent le contraire. Il est vrai que cette fois l’incertitude est plus importante qu’auparavant. La miniaturisation étant de plus en plus petite, les questions se font de plus en plus nombreuses devant les limites physiques. La possible fin de la loi de Moore pourrait nous forcer à bien mieux concevoir nos algorithmes, qui sont aujourd’hui, il faut bien le dire, codés comme des malpropres. L’optimisation software sera donc une étape clé. Mais cela ne suffira pas à combler l’addiction des nerds vis-à-vis de la loi de Moore, qui comptent toujours énormément dessus. Le domaine de l’IA demande de plus en plus de puissance de calcul et les besoins sont croissants. Les ingénieurs ont réussi, ******ebook converter DEMO Watermarks*******

temporairement à contrer ce problème en utilisant les GPU, qui permettent un plus grand parallélisme dans les calculs que les microprocesseurs. Kurzweil a toutefois souligné que les microprocesseurs constituaient en fait le cinquième paradigme des technologies traitant l'information, remplaçant les technologies antérieures telles que les relais électromécaniques, les tubes à vide et les transistors. À chaque fois que nous nous retrouvons devant les limites de la miniaturisation, cela met de la pression sur le marché ou sur les ingénieurs et les chercheurs pour changer de paradigme. Kurzweil a également avancé qu’au lieu de compter le nombre de transistors sur une puce, il serait plus judicieux de mesurer les performances. Et il s'avère qu'il a raison. Alors que le processus de bourrage de transistors sur les microprocesseurs commence à ralentir, d’autres paradigmes informatiques se présentent devant nous pour augmenter les performances, telles que : l’informatique quantique, l’informatique optique, les puces neuromorphiques et l’empilement 3D. L’avenir nous dira bien si les chercheurs et ingénieurs vont réussir. Dans tous les cas, il faudra changer de paradigme si l’on veut continuer à progresser et à innover dans l’informatique. Si la fin de la loi de Moore arrive vraiment cette fois, cela ne signifie pas que c’est la mort de l’informatique classique. On passera juste à un autre paradigme technologique pour combler nos besoins. Ce secteur continuera de toute évidence à coexister avec les autres systèmes informatiques pendant encore quelques décennies. À titre indicatif, il existe déjà plusieurs pistes intéressantes : en 2010, une équipe australienne a réussi à fabriquer un seul transistor fonctionnel à partir de 7 atomes mesurant 4 nm de longueur[8]. ⬛

En 2012, une équipe de scientifiques de l'Université nationale de Chungbuk en Corée du Sud a créé un transistor à 2 nm[9]. En 2012, un transistor à un seul atome a été fabriqué en utilisant un atome de phosphore lié à une surface de silicium (entre deux électrodes beaucoup plus grandes)[10]. Ce transistor pourrait être considéré comme un transistor de 360 picomètres, deux fois le rayon de Van der Waals de l'atome de phosphore, mais son rayon covalent lié au silicium est probablement inférieur[11]. ******ebook converter DEMO Watermarks*******

En 2016, des chercheurs du Berkeley Lab ont créé un transistor avec une grille de 1 nanomètre fonctionnelle[12]. En 2018, des chercheurs de l'Institut de technologie de Karlsruhe ont créé un transistor avec un seul atome unique qui fonctionne[13]. ⬛

Comme on peut le voir sur ce graphique, les GPU (les processeurs graphiques) remplacent les microprocesseurs sur la loi de Moore depuis les 10 dernières années. Notons aussi que la plupart des supercalculateurs aujourd’hui n’utilisent plus les CPU, mais tournent principalement sur des GPU.

Plusieurs secteurs sont actuellement en plein boom et pourraient remplacer l’ancien paradigme informatique. L’informatique quantique, l’informatique optique et l’informatique cognitive (dans le chapitre « Révolution technologique Part II »). Je pense qu’il est important de les présenter, pour vous montrer que l’arrivée d’une IA forte est possible via différents chemins et que ce n’est pas uniquement dépendant de l’informatique classique. Ce qui est assez troublant, c’est que ces technologies sont toutes en plein essor au même moment. Ce qui caractérise encore plus le comportement convergent de ces technologies. Tout est en train d’arriver à peu près au même moment. ******ebook converter DEMO Watermarks*******

L’informatique quantique à la rescousse de la loi de Moore ? Il existe heureusement un domaine qui pourrait combler nos besoins de plus en plus démesurés en puissance de calcul ; la mécanique quantique. À cette échelle - très petite -, les règles changent littéralement du domaine de la physique classique. En général, on parle de mécanique quantique lorsque les éléments étudiés se situent à l’échelle atomique (de la taille d’un atome) et subatomique (d’une taille inférieure à un atome). Il faut bien comprendre que les lois de la physique classique, celles que nous expérimentons tous les jours, ne s’appliquent plus à partir de cette échelle. Avant de continuer, il faut bien comprendre que la vulgarisation de la mécanique quantique est quelque chose de très compliqué. Les concepts de la mécanique quantique sont complètement contre-intuitifs pour notre cerveau. Notre intelligence est surement trop limitée pour en comprendre tout le fonctionnement. D’ailleurs, le très célèbre physicien Richard Feynman a un jour avoué : « Je pense pouvoir dire sans trop me tromper que personne ne comprend la mécanique quantique ». Même les experts eux-mêmes ont déjà du mal à comprendre, donc n’espérez pas obtenir la science infuse à la fin de cette partie. Je risque moi-même d’être trop approximatif dans mes allégations – même si bien évidemment je ne vais pas rentrer dans les détails. Il semble néanmoins nécessaire de parler rapidement des principes clés de la mécanique quantique avant de parler d’informatique quantique.

Les 7 principes clés de la mécanique quantique Si vous voulez trouver des sources qui expliquent simplement les principes de la mécanique quantique sur internet, cela risque d'être difficile ! Heureusement que j’ai trouvé les vidéos de la chaîne YouTube Science Étonnante. C’est probablement la meilleure source de vulgarisation que j’ai pu trouver sur ce sujet. Je vous conseille fortement d’y jeter un œil ! En regardant les vidéos, vous allez avoir quelques notions de ce que sont : – Le principe de superposition : en gros, un même état quantique peut posséder plusieurs valeurs (fameuse expérience du Chat de Schrodinger, qui ******ebook converter DEMO Watermarks*******

est à la fois mort et vivant, tant qu’il n’est pas observé). – L’indéterminisme de la mesure : Les mesures quantiques sont régies par le hasard. Einstein n’était pas trop fan de cette idée, c’est d’ailleurs de là que vient sa fameuse citation : « Dieu ne joue pas aux dés ». Malheureusement pour lui, il avait tort. – La dualité onde / corpuscule : on ne va plus décrire une particule comme un objet ponctuel, mais comme une onde. – L’effet tunnel : il permet à un objet quantique de passer à travers un obstacle. L’effet tunnel permet également d’expliquer le principe de la radioactivité. – L’intégrale de chemin : puisque les particules peuvent être à plusieurs endroits à la fois, elles peuvent aussi suivre plusieurs trajectoires à la fois. C’est la fameuse expérience des doubles fentes (fentes de Young) qui peut expliquer ce phénomène. – Le principe d’incertitude de Heisenberg : il n’est pas possible de spécifier à la fois exactement la position et la vitesse d’une particule. Plus sa position est précisément définie, plus sa vitesse est incertaine et réciproquement. – Le spin et l’intrication quantique : un spin n’a que 2 valeurs possibles, le + ou le - mais il peut également superposer ces 2 états. Certaines particules sont liées. Cela signifie que le changement d’état d’une particule va avoir une incidence sur l’autre particule même si la distance qui les sépare est de plusieurs kilomètres. Concernant la loi de Moore, l’effet tunnel est donc le principal obstacle à la miniaturisation des processeurs. À cause de cet effet, les électrons ne pourront plus rester dans le chemin qui a été défini. Ils passeront à travers les barrières, pas vraiment l’idéal pour garder une stabilité dans le traitement des calculs.

Qu’est-ce qu’un ordinateur quantique ? ******ebook converter DEMO Watermarks*******

L’informatique classique utilise le bit comme support de données. Un bit est soit un zéro « 0 » soit un « 1 ». Ces bits sont à la base de tout dans un système informatique : fichiers, réseau, calculs… On en trouve dans la mémoire, sur le disque dur, le processeur. Les bits 11 et 00 correspondent à des tensions électriques : respectivement une tension et une absence de tension. Pour fonctionner, les ordinateurs classiques utilisent donc des tensions électriques appliquées à des puces électroniques pour fonctionner. Et ils le font d’ailleurs très vite : ils peuvent réaliser plusieurs milliards d’opérations par seconde pour calculer, trier, ranger de l’information, en faisant varier très rapidement la tension. Certaines applications, comme la météorologie, la génomique, la simulation de molécules ou encore l’IA, demandent de plus en plus de puissance, que l’informatique classique ne pourra bientôt plus fournir. Il faut donc trouver un moyen de surpasser ces limites. C’est là que les systèmes quantiques entrent en jeu. Contrairement aux systèmes informatiques actuels, un ordinateur quantique emploie des éléments appelés qubits (par contraction de quantum bit). Les particules utilisées pour les qubits sont maintenues à des températures extrêmement basses (très proches du zéro absolu, -273,15°C). Au lieu de traiter les bits ayant deux états (0 et 1), les ordinateurs quantiques traitent la superposition des deux états. Ils calculent en quelque sorte une superposition simultanée de ces deux états, comme peut l'être, par exemple, un état de spin pour un photon ou un électron. La superposition des états permet une démultiplication des puissances de calcul. À titre de comparaison avec l’informatique classique : Imaginez un système de traitement avec deux qubits. Vous aurez alors quatre états possibles : 0000, 0101, 1111 ou 1010. Ces quatre états pourront alors être traités en même temps si on travaille avec des qubits, alors qu’il faudrait effectuer quatre opérations séparément avec un ordinateur classique. Les ordinateurs quantiques seraient capables de pulvériser les plus puissants supercalculateurs actuels, qui s’apparenteraient alors à des petites calculettes de poche. Avec cette puissance de calcul, on pourrait se demander s’il ne faudrait pas repenser la sécurité informatique. Les algorithmes cryptographiques ******ebook converter DEMO Watermarks*******

utilisés aujourd’hui seront incapables de résister à des attaques opérées par des ordinateurs quantiques à grande échelle. Cependant, certains experts sont confiants : pour craquer RSA (un des algorithmes de chiffrement les plus utilisés), il faudrait réaliser 5 millions de trillions de trillions d’opérations, c’est-à-dire l’équivalent du nombre de bactéries sur Terre[14]. Même pour un supercalculateur quantique, cela semble difficile à réaliser. En théorie, la cryptographie ne devrait pas disparaître, même avec l’arrivée imminente des calculateurs quantiques. Surtout que plusieurs entreprises prennent déjà les devants au niveau de la sécurité, notamment via l’utilisation de la cryptographie quantique. D’ici 2030, la sécurité informatique se sera probablement adaptée à ce nouveau paradigme. Tous les géants de l’informatique mondiale sont sur le coup - à commencer par IBM, NTT, Intel, Google et Microsoft - des milliards et des milliards sont investis dans la R&D chaque année. Le but est d’être le premier à concevoir le premier ordinateur quantique avec 50 qubits, afin d’atteindre la « suprématie quantique ». À partir de cette étape, un ordinateur quantique serait plus performant qu’un supercalculateur classique. En 2017, le National Energy Research Scientific Computing Center (NERSC) a établi un record en simulant un système à base de 49 qubits. Une performance remarquable qui était cependant une simulation, servant à mesurer le comportement d’un tel système[15]. En fait, les ordinateurs quantiques n’existent pas encore tout à fait - on pourrait dire qu’ils n’existent qu’à moitié. Certains ordinateurs quantiques, comme le D-Wave de Google, tirent parti de certaines propriétés quantiques. Mais en réalité, tous les systèmes utilisant des qubits ne sont pas égaux. Certains ordinateurs quantiques ont un taux d'erreur si élevé que la puissance de calcul disponible n'augmente pas vraiment même à mesure que les constructeurs ajoutent des qubits. Tout dépend du type de qubit utilisé. Actuellement, ces ordinateurs ne sont pas encore considérés comme étant capables d’effectuer tout type de traitements. Il est impossible par exemple de faire tourner un jeu vidéo sur un ordinateur quantique d’aujourd’hui. Cependant, la recherche dans ce domaine évolue à grands pas, ce qui laisse penser qu’un ordinateur quantique 100% opérationnel pourrait bientôt voir le jour – dans les 5 à 10 ans d’après les experts[16]. ******ebook converter DEMO Watermarks*******

Il existe de nombreuses catégories de processeurs quantiques qui se définissent par leur technologie de qubits. Les principales sont notamment à base de : ●

Boucles supraconductrices, ou superconducting loops, chez IBM, Google, Rigetti ainsi qu’au CEA de Saclay en France. Le dernier record est situé autour de 50 qubits.

● Qubits topologiques, chez Microsoft avec les fermions de Majorana dont l’existence a été plus ou moins prouvée en laboratoire et dans les Bell Labs de Nokia aux USA. Aucune démonstration d’ordinateur quantique de ce type même avec un seul qubit n’a pour l’instant été réalisée. ●

Quantum dots sur silicium, chez Intel, ainsi qu’au CEA-Leti à Grenoble. Ils ont l’avantage d’être miniaturisable et donc, de « scaler », ce qui n’est pas le cas de la plupart des autres technologies de qubits. Mais ils sont toujours en cours de mise au point.



Ions piégés, comme chez la startup ionQ (2016, USA, $20M) issue de l’Université du Maryland et de l’Université Duke en Caroline du Nord. Elle aligne aussi une cinquantaine de qubits.



Recuit simulé quantique, ou quantum annealing, chez le canadien D-Wave qui est le seul à commercialiser des ordinateurs quantiques à ce jour, avec 2048 qubits, même si leur efficacité est contestée. Pour les puristes, ce ne sont pas véritablement des ordinateurs quantiques. Mais ils ont l’avantage d’exister. Et de nombreux algorithmes quantiques de Machine Learning fonctionnent dessus. C’est ce qu’on appelle aussi le « Quantum Machine Learning ».

En 2013, Seth Lloyd, un chercheur du MIT, supposait qu’un ordinateur quantique à 300 qubits pourrait suffire à établir « une cartographie de l’univers – toute l’information qui a existé depuis le Big Bang »[17]. L'ordinateur quantique va très certainement nous aider à mieux comprendre notre monde et à accélérer le développement de l’IA. Notamment via l’utilisation du Quantum Machine Learning[18], qui allie la physique ******ebook converter DEMO Watermarks*******

quantique et le Machine Learning. L’informatique classique a conduit à internet, à des smartphones qui reconnaissent nos visages et à des voitures qui se conduisent elles-mêmes, à des robots qui explorent l’espace. Qui sait ce que nous pourrons faire avec des ordinateurs dotés d’une telle puissance ? Les possibilités semblent infinies !

Un ordinateur quantique fonctionne toujours en symbiose avec un ordinateur classique, comme décrit dans ce schéma. Des portes quantiques physiques agissent sur des qubits qui ne bougent pas physiquement. On enchaîne une série de portes quantiques contrôlées par programmation classique sur ces qubits et on lit ensuite le résultat des traitements en évaluant l’état des qubits qui retourne en un 0 ou un 1.

L’informatique optique : Un autre chemin possible pour continuer la loi de Moore Un autre secteur de l’informatique qui semble prometteur : l’informatique optique (ou informatique photonique). Au lieu d’utiliser des électrons pour traiter les informations, ces ordinateurs utilisent les photons. Le premier avantage, c’est que les transistors optiques produisent beaucoup moins de chaleur, le deuxième c’est qu’ils sont bien plus rapides que les transistors électroniques. Les ordinateurs photoniques pourraient être plus puissants que les ordinateurs conventionnels. Avant d’utiliser la fibre optique, on utilisait des signaux électriques, passant par des fils de cuivre, pour communiquer. La fibre optique, qui guide la lumière laser, a révolutionné les communications et a fait d’internet ce ******ebook converter DEMO Watermarks*******

qu’il est aujourd’hui : rapide et étendu au monde entier. Le but est d’utiliser le même principe que la fibre optique et de l’appliquer aux ordinateurs et serveurs de la prochaine génération. Au lieu d’utiliser des puces branchées sur des cartes mères dotées de lignes en cuivre, nous utiliserons plutôt des guides d’ondes optiques pour traiter les calculs. Ceux-ci peuvent guider la lumière, tout comme les fibres optiques et sont intégrés dans la carte mère. Les petits lasers et les photodiodes sont ensuite utilisés pour générer et recevoir les informations. Plusieurs entreprises, comme Microsoft envisagent déjà d’utiliser cette technologie pour leurs serveurs Cloud. Jusqu'ici tout va bien, mais il y a bien un hic quelque part : bien que l’informatique optique soit supérieure à l'électronique pour la communication, elle ne convient pas vraiment pour le traitement des calculs. Du moins, pour le traitement binaire (0 et 1). Pour le domaine de l’IA nous avons besoin de calculs parallélisés se calquant sur le fonctionnement du cerveau humain. Nous ne pensons pas de manière binaire. Notre cerveau n'est pas numérique, mais analogique, et il fait des calculs tout le temps. Les ingénieurs en informatique réalisent seulement maintenant le potentiel du biomimétisme, c’est pour cette raison qu’ils ont créé un nouveau domaine : l’informatique neuromorphique. L’objectif est d’imiter le fonctionnement du cerveau humain en utilisant des puces électroniques. Et, en fin de compte, l’informatique optique pourrait être parmi les choix les plus intéressants, pour cette nouvelle méthode. En fait, il a même déjà été démontré que l’utilisation de puces optiques neuromorphiques, peuvent faire tourner des algorithmes basiques de reconnaissance vocale[19]. Deux startups aux États-Unis, Lightelligence et Lightmatter, ont d’ailleurs relevé le défi de réaliser de telles puces optiques pour l'intelligence artificielle dans les 5 ans. Comme on le voit, les spécificités de l’ordinateur optique en font avant tout un processeur de signal ou d’image. Cependant, les derniers progrès en matière d'informatique optique permettent d'envisager que cette technologie pourrait bientôt ouvrir un champ plus large d'applications. Les puces optiques sont encore loin derrière les puces électroniques, mais en regardant les résultats, cette recherche pourrait mener à une révolution complète de la puissance informatique. L’informatique optique sera utilisée pour des tâches ******ebook converter DEMO Watermarks*******

très spécifiques, mais pas forcément pour le grand public, vu qu’il est assez difficile de miniaturiser les composants optiques.

Une forme de Pré-Singularité est déjà là Les représentations du futur que nous avons de la singularité technologique dans notre culture via les films ou la littérature nous montrent deux visages ; messianique ou alors apocalyptique. Les experts prennent des opinions variées sur la manière de son arrivée, progressive ou soudaine, mais la plupart d’entre eux conviennent que cela se produira dans le siècle. Kurzweil pense que nous pouvons mettre une date précise sur l’arrivée de la singularité. Il explique en effet qu’en 2029, les IA auront le même niveau d’intelligence que les humains et que la singularité technologique arrivera en 2045 (d’après les dernières nouvelles, il serait même en train d’écrire un livre pour dire qu’elle arrivera encore plus tôt). Pour étayer ses propos, il fait une corrélation avec la loi de Moore. D’après lui avec l’évolution des puissances de calculs, ce sera bientôt possible. Kurzweil a fait 147 prédictions depuis les années 80 dont il revendique un taux de précision de 86%. Humaniser les IA est l’un des composants clés de la vraie singularité, suggère Sagar. « Le fait d’avoir des ordinateurs capables d’intégrer la cognition et l’apprentissage social sera très important pour la socialisation des machines », dit-il. « Pensez à des choses comme la coopération qui est la plus grande force dans l’histoire humaine. Pour nous, coopérer avec les machines est un niveau, puis pour les machines à coopérer avec les machines est un autre. Il se peut que les humains soient toujours présents. » « Pour que les machines coopèrent de manière constructive avec les humains et avec les autres machines, les humains devraient créer un élément de créativité dans l’IA », dit Sagar. Et il est possible, ajoute-t-il : « Lorsque nous commencerons à voir des machines créer de nouvelles idées, les machines vont inventer de nouvelles choses ». C’est donc à partir du moment où les machines vont commencer à avoir des idées par elles-mêmes que nous verrons arriver la Singularité telle que nous l’imaginons. Cependant, Aaron Frank de la « Singularity University » pense que nous sommes déjà en train de vivre la Singularité ou qu’elle est très proche. Il explique que l’évolution technologique a été bien plus rapide ces 40 dernières ******ebook converter DEMO Watermarks*******

années qu’en 4000 ans et que les choses vont continuer à s’accélérer encore plus vite dans les prochaines années. Il pense en effet que la Singularité est progressive plutôt que soudaine et qu’elle n’est pas forcément dépendante des machines, contrairement à Kurzweil. Mais les deux sont d’accord pour dire que des changements importants de la société humaine sont pour bientôt. Peut-être que l’avènement de la Singularité se passera tellement vite que personne ne pourra réagir et préparer le terrain à toute cette vague technologique. Peut-être que ce sera tellement rapide que cela dépassera nos capacités de compréhension et donc de réagir à temps. L’homo sapiens va-t-il perdre les rênes de sa propre évolution technologique ? Si nous pouvons affirmer que dans l’avenir les bouleversements seront encore plus grands dans notre société, il est difficile de prédire comment la civilisation humaine accueillera ces changements, ni même de prédire exactement quand commencera la Singularité. L’évolution technologique ne peut plus être freinée, quoi que nous fassions. Dans la prochaine partie, nous allons parler de l’intelligence artificielle, de l’informatique cognitive, et montrer leur importance dans l’accélération technologique.

******ebook converter DEMO Watermarks*******

2 - Révolution technologique partie II : l’IA et l’informatique cognitive « L'intelligence artificielle se définit comme le contraire de la bêtise naturelle. » - Woody Allen

Musique qui correspond à cette partie : Extra Terra - “Retrobot” Vous pouvez l’écouter sur Spotify, Apple Music, Deezer ou n’importe quel autre service de musique en streaming. Ambiance : Dansante / Modérée Style : Electro / Outrun / Synthwave / Dubstep Tempo : 110 BPM Le développement de l’IA est assez ancien, quasiment toutes les bases de ce domaine viennent des années 60. C’est pour cette raison que j’ai nommé cette musique « Retrobot », c’est pour faire référence au fait que le domaine de l’IA n’est pas nouveau, même si nous en entendons plus parler aujourd’hui qu’avant. C’est donc un morceau rétro futuriste qui utilise des éléments nouveaux avec des éléments anciens. Notamment avec l’utilisation d’anciens synthés qui datent des années 70-80 L’humanité va se transformer encore plus vite, plus grandement et plus profondément dans les 50 prochaines années que dans les 500 dernières. Les bases qui tiennent notre société vont être inéluctablement touchées par la convergence technologique NBIC : Nanotechnologies, technologies de manipulation de la matière à l’échelle d’un milliardième de mètre 2. Biotechnologies, technologies de manipulation de l’ADN 3. Informatique ******ebook converter DEMO Watermarks******* 1.

4.

Cogno pour sciences cognitives, technologies liées au cerveau et à l’intelligence artificielle

Les avancées, dans le domaine des technologies NBIC sont de plus en plus nombreuses et fréquentes, parce que chaque découverte dans 1 des 4 domaines vient servir 1 ou plusieurs domaines voisins. Ces technologies travaillent donc en synergie. Ces découvertes technologiques nous entraînent à chaque fois vers la 4e révolution industrielle. C’est la suite logique des anciennes révolutions scientifiques qui ont démarré il y a 500 ans et qui a déjà donné lieu à 3 révolutions industrielles de plus en plus grandes : 1.

Celle de la mécanisation avec les machines à vapeur au 18e

siècle Celle des « temps modernes » et l’ère de la production de masse grâce à l’électricité, au 19e siècle 3. Celle de l’automatisation de la production avec l’électronique et les technologies de l’information, au 20e siècle 2.

Cette 4e révolution industrielle est différente des 3 autres. Elle sera beaucoup plus rapide, large et profonde que les autres, et l’informatique cognitive va jouer un rôle majeur.

L’informatique cognitive : 3e ère de l’informatique L’informatique cognitive est caractérisée par le traitement de l’information. Ce sont des systèmes qui sont capables de traiter et coder des connaissances sous forme d’action dans le monde réel. Ces systèmes font appel à la perception, le calcul, l’intelligence, le raisonnement, le langage et la conscience. Plusieurs branches de la science et de l'ingénierie s’articulent autour des sciences cognitives : l’anthropologie, la philosophie, l’intelligence artificielle, les neurosciences et la psychologie. La première ère de l’informatique était celle des systèmes de tabulation dans le début des années 1900, la deuxième est celle des systèmes programmables dans les années 50. L’informatique cognitive est donc la troisième ère de l’informatique et nous en sommes à ses balbutiements ******ebook converter DEMO Watermarks*******

aujourd’hui. Les systèmes d’auto apprentissage, la reconnaissance de schémas et le traitement du langage, qui ont pour but d’imiter le fonctionnement du cerveau humain, font partie de l’informatique cognitive. Le but de ces systèmes est de résoudre des problèmes sans avoir besoin de l’intervention humaine. De manière grotesque, la tabulation permettait d’additionner des objets (par exemple dans un stock), la programmation d’ajouter des notions telles que la matière ou la couleur. Maintenant les systèmes cognitifs peuvent prédire le temps et suggérer des idées. Pendant longtemps les machines servaient à faire bien ce que les humains faisaient mal. Mais aujourd’hui les machines commencent à faire bien ce que les humains font bien. L’effet pervers c’est que les gens se sentent de moins en moins utiles dans la société. L’effet positif c’est que la machine va pouvoir décharger de plus en plus les tâches humaines et simplifier notre quotidien. L’arrivée de ce nouveau paradigme informatique est en train de changer la relation que nous avons avec les machines. Auparavant, les ordinateurs répondaient uniquement par « vrai ou faux », maintenant ils nous répondent sous forme de probabilités. Un système cognitif propose une liste de réponse qu’il va ensuite affiner en fonction des interactions de l’utilisateur. Ce système ne propose pas la réponse ultime, mais il va étaler les solutions les plus acceptables, celles qui auront le plus de chances de marcher dans une situation donnée. L’intelligence artificielle fait donc partie intégrante de l’informatique cognitive.

C’est quoi l’intelligence artificielle ? Avant de tenter d’expliquer ce qu’est l’intelligence artificielle, il faut comprendre ce qu’est l’intelligence. Ce qui semble être une tâche bien ardue. En effet, nous savons dans les grandes lignes comment elle fonctionne, mais cette vision n’est pas encore très claire. Néanmoins voici les points qui ressortent le plus : 1. La capacité à généraliser à partir de cas. C’est-à-dire être capable de réutiliser le savoir appris précédemment et l’appliquer à des situations nouvelles. ******ebook converter DEMO Watermarks*******

2. Le raisonnement, c’est-à-dire la faculté de tirer des conclusions appropriées à chaque situation. 3. La perception. Arriver à comprendre qu’un objet peut interagir avec un autre objet dans l’environnement. 4. La compréhension du langage, c’est à dire la capacité à comprendre le langage comme le ferait un humain. Le but du domaine de l’intelligence artificielle est donc de simuler toutes ces notions dans une machine. Pour les fans de Wikipédia, voici une définition plus encyclopédique de l’IA : L'intelligence artificielle est un domaine qui englobe les sciences et les technologies (numériques, mathématiques, neurosciences, statistiques et algorithmiques) qui ont pour but de simuler l'intelligence humaine à l'aide de machines, par exemple en essayant de leur faire accomplir des tâches que l'homme fait en utilisant son intelligence biologique. On peut également parler de l’intelligence émotionnelle (qui est pour l’instant totalement absente du domaine de l’IA). L’intelligence émotionnelle se réfère à la capacité de reconnaître, comprendre, maîtriser ses propres émotions et à composer avec les émotions des autres personnes. Elle est proche du concept d'intelligence sociale (qui est une forme d’intelligence qui permet de comprendre autrui – les pensées, les sentiments – et d’agir efficacement dans les relations sociales).

Petit glossaire pour comprendre le Nouveau Monde Voici quelques termes importants à savoir, afin de comprendre les sujets qui seront évoqués. ⬥ Machine Learning (apprentissage automatique) apparue dans les années 60, corresponds aux algorithmes qui apprennent par l'entraînement statistique. C’est un type d’intelligence artificielle qui permet de donner aux ordinateurs la capacité d’apprendre sans être explicitement programmés. Ces programmes peuvent acquérir des ******ebook converter DEMO Watermarks*******

nouvelles connaissances pour s’améliorer et évoluer eux-mêmes. Cette technique nécessite des millions et des millions d’exemples pour nourrir la machine. ⬥ Deep Learning (apprentissage profond) est un sous-ensemble du machine learning qui a participé au boom de l’IA à partir de 2012. Cette approche fonctionne par biomimétisme du cerveau humain. Ces algorithmes utilisent des réseaux de neurones. Quand un certain nombre d’informations entrent dans un neurone, il fortifie ses connexions neuronales pour être plus efficace. C’est l’évolution du machine learning. ⬥ Reinforcement learning (apprentissage par renforcement) est un algorithme qui apprend un nouveau comportement en observant et en fonctionnant par essai/erreur. L'action de l'algorithme sur l'environnement produit une valeur de retour qui guide l'algorithme lors de son apprentissage. ⬥ Deep Reinforcement Learning (DRL) ou Deep Q-Networks (DQN) est un mix entre le deep learning et le renforcement learning. C'est avec ce système que AlphaGo (DeepMind) a réussi à éduquer son IA pour battre le joueur de go Lee Sedol en 2016. C'est une technique qui est plus récente que le deep learning, on risque d'en entendre parler dans les prochaines années. ⬥ Apprentissage supervisé est une technique d’apprentissage prédéterminée, le système apprend à classer les données selon un modèle qui a été supervisé par l'homme. Un expert (humain) doit préalablement étiqueter des exemples qu'il doit fournir à la machine. ⬥ Apprentissage non supervisé est un algorithme qui doit découvrir par lui-même la structure plus ou moins cachée des données. Aucun expert n'est requis. ⬥ L'IA cognitiviste ou symbolique, fortement dépendante de l’expertise humaine, elle régit le raisonnement structurel et logique. C’est un raisonnement déductif qui s’appuie sur la logique reposant sur des systèmes de règles connus. On l’utilise par exemple pour résoudre ******ebook converter DEMO Watermarks*******

des problèmes de mathématiques, mais aussi des problèmes d’optimisation divers. C'est l'approche la plus utilisée dans le monde du jeu vidéo. Elle permet aux humains de garder un meilleur contrôle de l’IA. ⬥ L'IA connexionniste est une approche en rapport avec des techniques plus académiques comme le machine learning et les réseaux de neurones. C’est un raisonnement inductif. Ces algorithmes s'entraînent à partir de données, ils sont très efficaces, mais difficiles à expliquer. Ces méthodes sont le plus souvent probabilistes.

Un peu d’histoire sur l'IA L'IA a en fait des origines qui remontent depuis l’Antiquité. De nombreux mythes et légendes anciennes soutiennent la théorie que des maîtres-artisans aient inventé des êtres artificiels dotés d'une intelligence ou d'une conscience. Les premières machines à calculer sont apparues durant l'antiquité avec l'horloge automatique de Ctésibios et le calculateur analogique d'Anticythère. Toutes ces inventions ont par la suite été perfectionnées au cours des siècles, elles ont été les prémices de technologies reproduisant les capacités humaines. L'arrivée de l'intelligence artificielle est donc une suite logique de l'évolution technologique qui a été entamée depuis déjà plusieurs siècles, mais qui tend à s'accroître exponentiellement aujourd’hui. C'est dans les années 1940 et 1950, qu'une poignée de scientifiques ont commencé à discuter de la possibilité de créer un cerveau artificiel avec les ordinateurs. Toutefois, le vrai moment clé du développement de l'IA survient en 1950 par le « Computing Machinery and Intelligence », un article publié par Alan Turing, qui a posé les bases algorithmiques de l’IA. C'est également dans cette publication qu'il développe entre autres le test de Turing[20]. En 1956, John McCarthy docteur en mathématiques, a inventé le terme « Intelligence artificielle », dont il est le principal pionnier. Il a également a cofondé avec Marvin Minsky le MIT Artificial Intelligence Laboratory, puis il crée un laboratoire spécialisé à l’Université de Stanford. Il est connu pour incarner le courant mettant l'accent sur l’IA cognitiviste (logique symbolique). Malheureusement, même avec tout cet engouement, les ******ebook converter DEMO Watermarks*******

scientifiques se sont heurtés à cette époque à la puissance de calcul disponible, ce qui a généré beaucoup de désillusions dans la communauté scientifique. Des années 70 jusqu’aux années 90, on appelle cette période « l’hiver de l’IA », presque plus personne ne s’y intéressait, il n’y avait aucun modèle économique viable ni technique durant cette période. C’était le grand désenchantement, la magie n'opérait plus ! Dans les années 1990 et 2000, c'est le développement d'internet qui a permis de relancer le mouvement. Notamment grâce à des technologies de plus en plus efficaces comme les serveurs de stockages (Cloud) et le perfectionnement des puissances de calculs. En 97, Deep Blue bat le champion du monde d’échecs, Gary Kasparov. En octobre 2015, AlphaGo devient le premier programme à battre un joueur professionnel au jeu de go. Il s'agit d'une étape emblématique puisque le jeu de go a toujours été considéré comme un défi complexe pour l'intelligence artificielle. Aujourd'hui, l’IA réalise en quelques minutes des analyses médicales qui prendraient des décennies à des médecins et elle se déploie fortement dans tous les domaines. On doit reconnaître que c'est principalement dans le domaine du jeu vidéo que l'utilisation de l'intelligence artificielle s'est le plus popularisée. Notamment pour les PNJ (personnage non-joueur). Les jeux vidéo utilisent principalement l'approche de l'IA symbolique qui est très dépendante de l'expertise humaine et des systèmes de règles. L'approche de l'IA connexionniste (algorithmes génétiques, Deep Learning...) a été délaissée par le monde du jeu vidéo au profit de l'IA cognitiviste, car elle laisse plus de contrôle aux développeurs. Néanmoins, les développeurs de jeux vidéo s’intéressent de plus en plus à l’IA connexionniste et il ne serait pas étonnant de la voir s'immiscer progressivement dans ce domaine.

L’IA dans l’esprit de Monsieur et Madame tout le monde Le grand public a une vision très confuse de l’IA, surtout en grande partie à cause de l’image qu'émet la pop culture à son sujet. Star Wars, Terminator/Skynet, Black Mirror, I-Robot... Nous avons la fâcheuse tendance ******ebook converter DEMO Watermarks*******

à l’associer avec la vision des films de science-fiction. Il n’est pas rare d’entendre le nom de l’un de ces films sortir de la bouche des gens, lorsqu’on évoque ce sujet. Premièrement, même si ces films sont de bons divertissements et apportent souvent des pistes de réflexion intéressantes sur ces sujets, ils ne reflètent que les fantasmes de leurs auteurs. Il faut aussi se rappeler que la plupart des films de SF montrent un futur dystopique. En même temps, c’est un peu difficile de raconter des péripéties avec un monde de bisounours – utopique. Une histoire dans laquelle tout le monde profite d’un monde parfait deviendrait très vite ennuyeuse et ne provoquerait aucune excitation de l’âme. La pop culture a donc rendu le concept de l’IA un peu fictif, effrayant, voire complètement stupide aux yeux des gens. Deuxièmement, le domaine de l’IA est un vaste sujet. Les voitures autonomes, les smartphones, les calculatrices, les assistants vocaux, les traducteurs automatiques, les technologies de reconnaissances faciales... font tous référence à l’IA. Tous ces éléments entretiennent une vision brumeuse de l’IA aux yeux de la plupart des gens. D’ailleurs John McCarthy, l’un des pères fondateurs de l’IA disait : « Dès que ça marche, plus personne n’appelle cela de l’IA. »[21] Ajoutons à cela que le grand public a souvent tendance à confondre les robots avec intelligence artificielle. Le domaine de la robotique est un domaine différent de celui de la recherche en IA. L’intelligence artificielle est le software (logiciel), tandis que le robot en est son réceptacle physique (hardware). L’IA n’a pas besoin d’un corps robotique ou physique pour exister. L’IA est ubiquitaire, elle peut être incorporée dans des ordinateurs, des supercalculateurs, ou dans le cloud. Actuellement, les IA sont très bêtes, voire totalement dénuées d'intelligence, cependant elles sont déjà beaucoup plus fortes que les humains dans certains domaines très spécialisés comme la détection des cancers de la peau, ou encore le jeu de go. Troisièmement, une bonne part des craintes proviennent aussi de la propension à projeter sur les robots et l’IA nos propres défauts. La vision anthropomorphique de l’IA est à l’origine d’une partie de nos fantasmes et peurs sur le sujet. Cette peur est justifiée dans la mesure où une bonne partie du processus de développement de l’IA est d’origine humaine. Cependant, les ******ebook converter DEMO Watermarks*******

choses seront bien plus nuancées concernant les IA fortes : il y aura des systèmes purement “froids” sans émotion qui serviront à faire des tâches techniques et d’autres systèmes plus anthropomorphiques qui serviront à interagir avec les humains. Il y aura plusieurs IA et chacune aura sa spécificité. Donc oui certaines IA auront probablement des côtés humains et d’autres non. Mais de par leur conception, ces IA ne fonctionneront pas de la même façon que les humains. Une IA n’est pas régie par les hormones, comme la testostérone qui donne aux humains l’envie de dominer. Enfin et c’est un point très important, qui contribue à entretenir cette vision incertaine par le public. Il n’existe pas qu’un seul niveau d’IA, mais plusieurs niveaux. La plupart des spécialistes découpent l’IA en 3 niveaux : ● Niveau 1 - Intelligence artificielle faible (ANI - Artificial Narrow Intelligence) : Parfois appelée IA faible, est l'intelligence artificielle qui se spécialise dans un domaine. Nous sommes actuellement dans un monde qui fonctionne sur les ANI. ●

Niveau 2 - Intelligence artificielle générale (AGI - Artificial General Intelligence) : Parfois désignée sous le nom d'IA forte, ou intelligence artificielle de niveau humain, l'Intelligence générale artificielle fait référence à un ordinateur aussi intelligent qu'un humain.



Niveau 3 - Superintelligence artificielle (ASI - Artificial Superintelligence) : C’est l’intelligence artificielle qui dépasse les performances humaines, dans tous les domaines. La superintelligence est aussi classée dans l’IA forte.

Concrètement, l’IA qui a battu le champion de go en 2016 ne savait pas qu'elle jouait. Elle n'était pas contente d'avoir gagné, vu qu’elle ne peut même pas le ressentir. Le fonctionnement d’un ordinateur est 100% rationnel. Ce qui intervient dans la pensée irrationnelle, comme l'intuition ou l'imagination, n'est pour l’instant pas encore possible. Cependant, vu la vitesse de progression actuelle de la technologie et de l’IA, il vaut mieux s’y préparer. Un jour ou l’autre nous y parviendrons, ou bien les IA y arriveront par elles******ebook converter DEMO Watermarks*******

mêmes en s’auto améliorant… Mais en attendant, il va falloir en informer l’opinion publique, sinon la peur prendra le dessus et coupera tout débat constructif.

La fin du calendrier Maya en 2012 marque en fait le début d’une nouvelle ère ! Les recherches dans le domaine de l'intelligence artificielle montrent une explosion atomique depuis l'année 2012. C’est essentiellement marqué par le début de l'utilisation des GPU (les cartes graphiques) par les algorithmes de Machine Learning. Avant 2012, les CPU (microprocesseurs) dominaient l’utilisation de ces algorithmes, mais avaient le défaut de trop centraliser le traitement des calculs. Aujourd’hui, la recherche en IA ne nécessite plus l’utilisation des CPU comme avant. Les chercheurs utilisent les GPU, car ils permettent d’avoir un meilleur parallélisme dans le traitement des calculs. L’IA est naturellement adaptée à faire des calculs très parallélisés, un peu comme le cerveau humain, c’est pour cette raison que les GPU sont les mieux adaptés. Le nombre d'articles académiques sur l'apprentissage automatique répertorié sur arXiv (maintenu par l'Université de Cornell) double tous les 18 mois. Et le nombre de projets internes axés sur l'intelligence artificielle chez Google, double également tous les 18 mois. Plus intense encore, OpenAI une entreprise cofondée par Elon Musk, a publié que la puissance de calcul allouée à l’IA statistique double tous les 3,5 mois depuis 2012[22]. Cette courbe progresse encore plus vite que celle de la loi de Moore, qu’on pourrait ainsi nommer ‘Super loi de Moore’. De 2012 à 2018, elle a augmenté 300 000 fois. Un progrès fulgurant ! D’après les Mayas, l’année 2012 correspond à la fin d’un cycle de 26000 ans qu’ils appellent « le Temps de la grande transition » vers « l’Âge d’Itza », un âge de lumière et de sagesse. Curieusement, les événements dans le domaine du développement de l’IA corrèlent avec leur calendrier. L’arrivée de l’IA est probablement le sujet le plus important de toute notre histoire ! Les Mayas avaient donc raison sur un point ; 2012 marque effectivement le début d’une nouvelle ère ! Reste à savoir si celle-ci sera vraiment synonyme de prospérité… ******ebook converter DEMO Watermarks*******

Malgré la grande démonstration de force de l’utilisation des CMOS (Complementary Metal Oxide Semiconductor) dans le domaine de l’IA. Les GPU arrivent également à essoufflement et certaines compagnies commencent déjà utiliser d’autres types de CMOS comme les TPU de Google (unité de traitement de tenseur). Ceux-ci permettent d’obtenir un meilleur parallélisme dans le traitement des calculs que les GPU. Une chose est sûre ; le domaine de l’IA ira chercher sa puissance de traitement dans les puces analogiques – des circuits qui traitent les entrées comme des valeurs continues, plutôt que comme des zéros et des uns – ou dans les technologies non volatiles comme les puces neuromorphiques. Il faut bien comprendre que tous ces progrès ne s'arrêteront pas aux GPU et aux TPU, qui sont pour le moment l’étape transitoire avant l’utilisation des architectures bio-inspirées.

Source du graphique : Blog d’OpenAI 2018 - https://blog.openai.com/aiand-compute/

L’engouement pour le réseau de neurones artificiels : Deep ******ebook converter DEMO Watermarks*******

Learning, Deep Reinforcement Learning... Le domaine de l’IA est très large et englobe plusieurs sous-domaines. Le Deep Learning est un sous-domaine du Machine Learning, qui est un sousdomaine de l’intelligence artificielle. Les réseaux de neurones artificiels sont donc des types d’algorithmes qui fonctionnent dans le domaine du Machine Learning. Notamment le Deep Learning qui montre plus en plus d'intérêt au niveau international. Ces systèmes sont plus performants que les humains dans des tâches très spécialisées, du moment qu’ils disposent d'un grand volume de données. Cependant, il est difficile pour l’instant de les qualifier d’intelligents. Certains chercheurs comme Yoshua Bengio par exemple, aiment bien qualifier l’IA d’aujourd’hui de “stupidité artificielle”. L’invention du réseau de neurones artificiel prend ses racines dans les années 1940 par des neurologues : Warren McCulloh et Walter Pitts. L’engouement pour cette méthode s’éteint presque totalement durant l’hiver de l’IA à cause des désillusions, puis renaît à partir de 2012, jusqu’à se répandre partout : automobile, aide au diagnostic médical, reconnaissance d’images, compréhension du langage naturel, traduction… Grâce à l'évolution des puissances de calculs. Pendant longtemps, les scientifiques qui travaillaient sur les réseaux de neurones se faisaient jeter des tomates à la figure. Aujourd’hui la tendance s'est complètement inversée. Ceux qui étaient traités comme des rigolos avant, sont aujourd’hui traités comme des stars. Et, les détracteurs d’avant clament maintenant l’utilisation des réseaux de neurones. Pourquoi ? Les réseaux de neurones artificiels ont montré à plusieurs reprises qu’ils sont plus efficaces que les humains dans certaines tâches spécialisées. Schématiquement, les réseaux de neurones artificiels sont des systèmes inspirés du fonctionnement des neurones biologiques. Ils fonctionnent par “couche”, plus il y a de couches de neurones plus le réseau est complexe. Et plus il est compliqué d’expliquer le cheminement qui amène au résultat. Un peu comme pour le cerveau humain. On sait tous que nous avons une conscience (enfin j’espère), mais on a du mal à l’expliquer. Avec l’apprentissage supervisé, pour faire apprendre à une IA à quoi ******ebook converter DEMO Watermarks*******

ressemble un chat, il faut la nourrir avec des millions et des millions d’images de chats. Plus l’algorithme sera nourri avec de la data et plus il sera efficace. Les personnes en charge de ces algorithmes s’occupent d’étiqueter les données. Les algorithmes apprennent ensuite d’eux-mêmes en fonction de la nourriture qu’on leur donne. Le Deep Reinforcement Learning (DRL) est une méthode d'intelligence artificielle encore peu connue qui semble être très prometteuse en termes d’automatisation. Avec cette méthode, l'IA peut se passer de data, en apprenant par essai-erreur (avec récompense ou pénalité). Les IA qui ont joué aux échecs ou au jeu de Go l'ont popularisé, mais on peut déjà imaginer d’autres tâches avec cette méthode : gérer un portefeuille en bourse avec les gains (récompense) ou pertes (pénalité), l'achat effectif (récompense) ou non (pénalité) de la part d'un internaute pour un outil de recommandation géré par l'IA… L'idée est de tirer les leçons d'expériences répétées. On pourrait comparer la démarche à du dressage. Le Deep Reinforcement Learning est classé dans la catégorie du machine learning automatique (ou non supervisé), il combine l’apprentissage par renforcement aux réseaux de neurones. Mais l’avantage est grand : pour programmer un système, plus besoin d'un long et fastidieux travail de développement. L'agent apprend à opérer, à réagir à tel ou tel événement ou requête par lui-même. Que l’agent soit physique ou virtuel, la phase d’apprentissage sera exécutée sous forme de simulation numérique. Ce qui permet d'optimiser grandement le temps d'apprentissage. Évidemment, le Deep Learning et le Deep Reinforcement Learning ne sont pas les seules méthodes d’apprentissages du Machine Learning. Il en existe plus d’une vingtaine, dont chacune utilise une structure algorithmique différente pour optimiser les prédictions basées sur les données reçues. Le Deep Learning se montre révolutionnaire pour un ensemble de tâches différentes. Dans certains cas il montre même ses limites. Mais il y a beaucoup d’autres méthodes qui, bien qu’elles reçoivent moins d’attention, restent toujours précieuses en raison de leur large éventail d’utilisation. Je ne vais pas toutes les citer ici, mais je vous conseille d’aller faire quelques recherches à ce niveau, si vous êtes intéressé. ******ebook converter DEMO Watermarks*******

En bref, les possibilités sont énormes avec ces algorithmes. C’est une véritable révolution dans le monde informatique. Il n’est pas étonnant de voir de plus en plus d’entreprises s’y intéresser et bâtir leur empire économique là-dessus.

Comparaison du neurone biologique avec le neurone formel. Un neurone formel est une représentation mathématique et informatique d'un neurone biologique. Le neurone formel possède plusieurs entrées et une sortie qui correspondent respectivement aux dendrites et a un axone.

Qui sont les principaux acteurs de l’IA ? (Certainement pas l’Europe !) Ok, c’est bien beau tout ça. Mais qui est derrière l’IA ? Comme on a pu le voir, l’IA demande beaucoup de données. L’essor d’internet nous a permis de concevoir un réseau immense qui connecte les humains et les institutions du monde entier. Tout ce que nous faisons sur internet est répertorié, classé et enregistré, engendrant ainsi des millions et des millions de données. Une aubaine pour l’IA statistique qui a un appétit féroce. Merci le Big-Data. Aujourd’hui les IA sont principalement utilisées et développées par les GAFAMI aux USA (Google, Apple, Facebook, Amazon, Microsoft et IBM) et les BATX en Chine (Baidu, Alibaba, Tencent et Xiaomi). Les volumes de données que nous générons sont énormissimes. Google par exemple, traite quotidiennement 24 millions de milliards d’octets de données et enregistre l’ensemble de nos recherches dans ses serveurs. Chaque minute, 160 millions de mails sont envoyés, 4 millions de vidéos sont ******ebook converter DEMO Watermarks*******

visionnées sur YouTube. Chaque jour, nous échangeons 3 milliards d’images au total sur internet. Tous les ans, les utilisateurs de Facebook uploadent rien qu’à eux plus de 72 milliards de photos sur internet[23]. Ces photos sont ensuite traitées par des IA pour vérifier si les contenus sont appropriés à la plateforme. Elles identifient les contenus violents, pornographiques pour les supprimer et utilisent la reconnaissance faciale pour pouvoir nous reconnaître sur les photos. Vu le nombre très important de données, Facebook n’avait pas le choix de développer des IA pour automatiser la suppression des contenus inappropriés. Les humains ne seraient pas capables de gérer aussi efficacement un aussi grand nombre de données. Ces IA optimisent également le contenu de votre fil d’actualité, en fonction de votre comportement. Plus vous allez cliquer sur des vidéos de chat, plus l’algorithme fera en sorte de vous présenter ce type de contenu. Même principe pour l’IA de YouTube. Résultat : pour développer l’IA il faut des bases de données immenses. Et forcément les plus aptes à en bénéficier pour l’instant, ce sont les GAFAM et les BATX. Les Américains et les Chinois ont la souveraineté technologique. Si vous cherchez des acteurs majeurs en Europe, vous allez être déçus. Nous n’avons aucune entreprise capable de rivaliser avec eux. Nous avons beaucoup de chercheurs très compétents dans le domaine de l’IA, mais la plupart d’entre eux travaillent pour les géants américains ou chinois. En France, la région Parisienne aimerait devenir ‘capitale mondiale de l’IA’ avec un budget annuel de 20 millions d’euros… ça sonne plutôt comme un pétard mouillé. Alors oui, ce budget est rajouté au 1,5 milliard d’euros que la France a promis d’investir au niveau national d’ici à 2022[24]. Mais il faut être honnête, avec un tel budget la France ne peut pas faire le poids face à la Chine et les USA. En proportion, l’Île-de-France ne peut même pas rivaliser avec une simple université. Même le MIT a investi un milliard de dollars pour enseigner l’IA à tous ses élèves[25]. Un investissement d’un milliard, juste pour une seule université, il faut le dire c’est assez impressionnant. Le sujet de l’IA est pris très au sérieux et les enjeux sont très bien compris par les institutions américaines et chinoises. Même au niveau européen le budget semble ridicule – 20 milliards ******ebook converter DEMO Watermarks*******

d’euros répartis jusqu’en 2020[26] – surtout face à la Chine qui a pour ambition à elle seule de créer une industrie de 1000 milliards de dollars d’ici 2030[27]. Encore une fois, nous voyons l’incompétence des politiciens dans notre pays. L’Europe semble complètement larguée sur les sujets technologiques. Il est évident que pour réussir à rester compétitif, il va falloir investir beaucoup plus dans ce domaine de recherche. L’Europe est tellement à la ramasse que Kai Fu Lee – un chercheur en informatique qui a travaillé à la fois à la Silicone Valley et dans la scène technologique chinoise – n’en parle même pas dans son dernier livre « IA Super-powers ». L’Europe ne fait même pas partie de l’échiquier mondial tellement elle est à la traîne. La Chine pèse à elle seule 48% des investissements mondiaux dans l'IA[28]. Si on combine la Chine plus les US (38%), cela représente 86% des investissements mondiaux ! L’Europe se retrouve diluée dans les 13% restant… Pour rester dans la course, nous avons besoin d’au moins 300 milliards d’euros d’investissement publics au niveau européen. Il va falloir changer rapidement nos élites politiques et les remplacer par des gens qui sont formés sur les technologies. Notamment des politiciens capables de réellement comprendre tous les enjeux qui se présentent devant nous avec l’IA. Dans le cas contraire, l’Europe perdra totalement la bataille technologique et sombrera dans les abysses de l’Ancien Monde. Ne faisons pas la même erreur qu’à l’époque en préférant investir dans le minitel plutôt que dans l’internet. En tout cas, les géants du web misent en très grande partie sur l’IA statistique comme le Deep Learning etc. Les IA du futur ne vont probablement plus utiliser autant de données comme aujourd’hui. D’ailleurs pour développer une AGI ce n’est certainement pas la solution. Espérons que l’Europe arrivera à prendre de l’avance sur cette prochaine étape du développement de l’IA. Pour ceux qui disent qu’il y a des choses plus importantes que l’IA à investir : Penser une telle chose, c'est totalement sous-estimer cette technologie. L'IA va nous permettre de pousser encore plus loin le progrès – autant dans la santé, que dans la gestion des ressources, l'optimisation de l'énergie, l'éducation ou même la recherche fondamentale. L'IA devrait être ⬛

******ebook converter DEMO Watermarks*******

au centre de nos priorités. ⬛

Les progrès de l’IA peuvent-ils être stoppés ? Les progrès de l’IA ne peuvent pas être stoppés. La course est lancée et les dirigeants des grosses compagnies ne vont pas lâcher le morceau. Le plus grand désir des GAFAMI est d’atteindre l’immortalité, avec l’aide de l’IA forte. Et du côté chinois les investissements dans l’IA sont tellement énormes, qu’il n’est plus possible de stopper le déploiement de cette technologie. L’IA est devenue le fer-de-lance de l’économie chinoise. Refuser la technique, c’est en quelque sorte ne pas vouloir s’intégrer à la société. Si la technologie devient une dépendance, elle en devient ensuite une commodité, qui est difficile de s’en défaire, ou même impossible de s’y opposer. Nous pouvons critiquer un outil technologique, pour que l’outil soit modifié et perfectionné pour assouvir nos nouvelles attentes, ce qui entraîne de nouveaux besoins et donc encore de nouvelles dépendances. C’est un “cercle vicieux” (ou vertueux – cela dépend du point de vue) qui ne s’arrête jamais. Il est difficile d’en sortir, car nous attendons toujours mieux. Il faut que l’outil soit toujours plus pratique, utile… C’est pour cette raison que le progrès de façon générale ne peut pas être stoppé et continuera longtemps son chemin. Dans le cas des technologies médicales il est préférable de ne pas s’opposer au progrès, car il en va de notre survie. Les technologies dans ce domaine ont énormément évolué et permettent de sauver des centaines de milliers de vies. Il serait donc immoral de s'opposer au progrès technique dans le domaine de la médecine. La technologie favorise la bonne santé et la santé constitue la condition minimum du bien-être, même si ce n’est pas suffisant pour être heureux. Même si le capitalisme devait un jour s’écrouler et qu’un autre système prendrait le relais, il serait immoral de stopper les progrès de l’IA. Sachant qu’elle pourrait nous aider à favoriser les avancements des technologies médicales. Mais soyez pleinement rassuré (ou affolé), les géants du web ne lâcheront jamais l’affaire. ******ebook converter DEMO Watermarks*******

Les risques liés à l’IA Certains observateurs comme Mark Zuckerberg ou Ray Kurzweil, estiment que l’IA forte sera porteuse d’une nouvelle ère propice à l’espèce humaine. Une ère qui pourrait mener l’humanité à l’immortalité. Mais d’autres personnalités soulèvent d’importantes préoccupations au sujet des risques liés à l’IA, dont de grands noms comme Stephen Hawking et Elon Musk. Ils ont exprimé plus de peur que d'enthousiasme. Dans un sens, les deux camps n’ont pas forcément tort et il est évident qu’il faut prendre les risques en considération. Même si la menace est minime, il vaut mieux prévenir que guérir. Il est important de noter que même dans une situation banale, une IA pourrait nous exterminer. Imaginons donner à une IA forte l’objectif de fabriquer et maximiser le nombre de trombones. Une telle IA aurait alors comme seul objectif de réorienter toute l’économie mondiale vers le seul but de fabriquer des trombones. Et, si les humains deviennent un obstacle au but de l’IA, alors elle voudra s’en débarrasser pour atteindre son but. Même si l’IA ne veut pas délibérément nuire à l’humanité, elle pourrait nous éliminer si son objectif n’est pas aligné avec notre sécurité. Pour atteindre son objectif, il sera surement très utile pour l’IA d’avoir des objectifs secondaires comme l'autoprotection, l’autoproduction, l'auto amélioration et l’acquisition de ressources. On appelle ce phénomène la convergence instrumentale. Il faut cependant souligner que ce n’est pas quelque chose d’uniquement spécifique à l’IA. Si vous voulez réussir un projet dans la vie, vous allez devoir prendre soin de votre santé, vous améliorer par la formation, acquérir de l’argent et de l’influence. Afin d’atteindre son objectif, cette IA pourrait gagner en influence et prendre le pouvoir. Et si nos objectifs ne sont pas alignés avec les siens, elle pourrait avoir envie de nous éliminer. En prenant le contrôle des ordinateurs dans les usines, l’IA serait capable de fabriquer des drones tueurs et nous éliminer en seulement quelques jours. Si aucun effort n’est fait pour intégrer un système de valeur dans l’IA, notre espèce pourrait bien être condamnée. Il faut impérativement intégrer dans l’IA forte un système qui met toujours en avant la sécurité de l’espèce ******ebook converter DEMO Watermarks*******

humaine. Mais aussi la sécurité des autres espèces qui peuplent notre planète. Soyons préventifs et évitons la catastrophe, même si les risques sont faibles. La centralisation de l’IA dans les mains d’une minorité d’entreprises semble être également un autre problème. Si nous laissons exclusivement cette technologie dans les mains des géants du web, le principal risque serait l’agrandissement des inégalités. L’IA augmenterait considérablement leur croissance économique. Les riches qui possèdent l’IA, seraient encore plus riches et les pauvres encore plus pauvres. Sans parler de la centralisation des données, dans les mains des géants du web, qui est déjà un problème sérieux. En utilisant des technologies décentralisées, comme la blockchain par exemple, il serait possible d’éviter une partie de ces problèmes. La cryptographie, en particulier les signatures et les hachages cryptographiques sont susceptibles de jouer un rôle important pour la sécurité de l’IA. Surtout si plusieurs IA communiquent sur un réseau décentralisé. Comme le fait par exemple la startup SingularityNET. Des solutions contre les risques liés à l’IA existent déjà, mais méritent encore d’être étudiées. Il existe encore des problèmes de sécurité avec les technologies décentralisées, qu’il faudra résoudre impérativement. Mais soyons optimistes. Si nous sommes au courant des risques encourus, nous pouvons prendre les devants. Et d’une certaine façon, nous n’avons pas vraiment le choix. Surtout si le sort de l’espèce humaine est en jeu.

Donnons une morale à l’IA forte Les débats sur la sécurité de l’IA sont malheureusement très ambigus. Les points de vue sur l’arrivée de l’IA forte sont souvent extrêmement opposés. D’une certaine façon, cela n’aide pas à avoir des débats constructifs. On remarque d’ailleurs qu’une grande partie du désaccord est due à l’incertitude quant à l’avenir et à la vitesse des progrès de l’IA. On ne prétend pas que l’arrivée de l’IA forte est imminente, mais il est déraisonnable d’écarter totalement cette possibilité. En fait, il semble plus intelligent de donner une probabilité hypothétique de 1% (les derniers progrès laissent quand même penser que les probabilités sont plus grandes) à l’arrivée de l’IA forte dans une décennie. Ce n’est pas beaucoup. Mais c’est ******ebook converter DEMO Watermarks*******

déjà suffisant pour que cela soit préoccupant. Même avec 1%, nous devrions sérieusement nous pencher sur la question. Intégrer une morale à l’IA, devrait être l’une de nos priorités. Pour notre sécurité, nous devons penser à toutes les possibilités. D’autant plus que la mise en place d’une solution pourrait prendre quelques années. Doter l’IA d’une morale est un grand défi, parce qu’il est déjà compliqué d’en discuter entre nous. Les humains ont rapidement tendance à être en désaccord, même lorsqu’ils sont d’accord et surtout lorsqu’ils discutent de politique ou de religion. D’autant plus que nous avons de nombreux biais cognitifs qui n’aident pas en ce sens. Un avis opposé, peut dans certains cas, nous conforter encore plus dans notre avis, même si c’est faux. La morale universelle n’existe pas. Et il sera très compliqué d’intégrer une morale dans l’IA. Qui a la meilleure morale à intégrer dans l’IA forte ? Les juifs, les musulmans, les chrétiens, les transhumanistes, les véganes, les féministes, les écolos, les collapsologues ? C’est à la fois triste et intéressant qu’on accorde très peu d’attention aux valeurs morales de l’IA forte en ce moment. Bien sûr, nous manquons de main-d’œuvre pour trouver des solutions face à ce problème. Mais d’un autre côté, cela signifie aussi que nous n’avons pas encore à faire face aux controverses politiques et religieuses. C’est pour cette raison que nous devrions travailler activement sur le problème et le plus rapidement possible. Il vaut mieux trouver une solution pendant que nous pouvons y travailler sereinement et calmement, avant que cela ne se transforme en incendie dans le débat public. Faisons-en sorte de programmer plus positivement l’IA que notre propre cerveau. Les humains ont tendance à voir le monde négativement et à être paranoïaques à cause de l’instinct de survie. Bloquer l’instinct de survie pourrait potentiellement être une idée. La testostérone donne aux primates l’envie de dominer, bloquons l’envie de dominer aux machines. L’amour et la compassion nous donnent envie d’aider nos prochains. Développons des IA émotionnelles et intégrons la compassion dans ces systèmes. Si personne ne pense à intégrer de l’intelligence émotionnelle dans les machines, nous aurons affaire à des psychopathes. Dirigeons les machines vers l’empathie artificielle. Prenons les devants maintenant et nous éviterons les problèmes. ******ebook converter DEMO Watermarks*******

******ebook converter DEMO Watermarks*******

3 - Révolution technologique partie III : vers l’IA forte « Le plus grand danger de l'intelligence artificielle, et non des moindres, c'est que les gens concluent trop tôt qu'ils la comprennent. » - Eliezer Yudkowsky

Musique qui correspond à cette partie : Extra Terra - “Superintelligence” Vous pouvez l’écouter sur Spotify, Apple Music, Deezer ou n’importe quel autre service de musique en streaming.

Ambiance : Très énergique / Dansante Style : Synthwave / Dubstep / Drumstep Tempo : 176 BPM Cette musique fait référence au livre « Superintelligence » du philosophe Nick Bostrom dans lequel il parle de l’IA forte et de son impact sur la civilisation humaine. Avec cette musique j’ai voulu faire ressentir comment une superintelligence surpuissante pourrait changer le monde.

De l’ANI à l’AGI ? Le chemin vers l’AGI, n’est pas facile, mais il existe plusieurs approches qui pourraient nous y rapprocher. Autant pour les solutions Software que les solutions Hardware. Tout est une question de temps... et parfois aussi de chance, comme souvent dans le domaine de la recherche. En tout cas, plusieurs entreprises travaillent déjà sur le sujet avec le plus grand sérieux comme : GoodAI, SingularityNet, DeepMind (Google), OpenAI, Another Brain, Facebook AI… Un être intelligent fonctionne comme un processus qui s’adapte à son environnement. Le monde envoie dans un premier temps des informations à ******ebook converter DEMO Watermarks*******

ce processus. Puis celui-ci comprend ces informations. C’est ce qu’on appelle la perception. Ensuite ce processus va utiliser ces informations pour agir sur le monde. Ce processus peut contrôler un robot, n’importe quelle structure physique ou n’importe quel corps. On peut donc être amené à considérer ce corps comme faisant partie du monde extérieur. Le processus ne fait que traiter des informations reçues en entrée, qui sont ses perceptions. Et produire des informations en codant des actions concrètes sur le monde. En fait, ce processus fonctionne continuellement par une boucle de rétroaction : perception - action. C’est ce que fait notre cerveau constamment via l’utilisation d’algorithmes biochimiques. Les ANI qui utilisent le Deep Learning, font déjà une bonne partie de ce traitement. Mais il manque encore plusieurs choses à ces algorithmes, notamment une chose importante qui s’appelle le sens commun. D’après de nombreux experts, la prochaine révolution en IA viendra de l’apprentissage non supervisé. Une piste de recherche : « les réseaux génératifs adversaires » (ou GAN pour Generative Adversarial Networks), qui permettent la création d’images à partir de rien, comme l’a précisé Yann LeCun[29], directeur de la division de l'intelligence artificielle chez Facebook. D'après lui c’est prometteur pour l’apprentissage non supervisé. Les humains utilisent cette méthode de façon inconsciente. C'est ce qui nous permet d'apprendre le sens commun en observant le monde. Par exemple, nous savons instinctivement qu'un objet peut tomber s’il n'est pas supporté par quelque chose ou qu'un objet peut être caché alors qu'il est toujours là. Lorsqu’une entité est capable de reconnaître des motifs, elle devient capable de corriger des petites altérations. Voire de compléter une perception partiellement occultée, c’est-à-dire de déduire l’intégralité d’un motif qu’elle n’aurait vu qu’une infime partie. Ce type de processus est au cœur de tout système intelligent et confère des capacités qui semblent dépasser la simple reconnaissance de motif. Par exemple, lorsque vous fermez les yeux et que vous entendez un son. Même avec les yeux fermés vous êtes capable de vous représenter en 3D d’où ce son provient. En fonction de son emplacement, ce son est très légèrement altéré par les objets environnants ou par la forme asymétrique de votre oreille. Mais comment êtes-vous parvenu à rattacher ces ******ebook converter DEMO Watermarks*******

altérations sonores à une localisation 3D ? C’est là qu’intervient la reconnaissance de motifs. Vous avez déjà par le passé eu l’occasion d’entendre un très grand nombre de sources sonores en ayant également les yeux ouverts. Ainsi vous avez pu rattacher des déformations auditives à certaines informations visuelles. Vous avez sans le savoir reconnu des motifs statistiques entre ces deux types d’informations. Et maintenant, lorsque vous entendez un son vous complétez le motif. Les réseaux adversaires génératifs font partie des solutions à l’étude. Mais également d’autres types de réseaux de neurones sont à l’étude pour parvenir à donner du sens commun aux IA, comme le Deep Autoencoder ou encore le Deep Belief Networks. Une fois cette étape franchie, il faudra intégrer dans l’IA un système qui comprend réellement le langage. Notamment les sous-entendus et les concepts liés à la langue humaine. Mais difficile de savoir pour l’instant si ce sera vraiment efficace pour obtenir une intelligence générale. Aujourd’hui, le Deep Learning est surtout intéressant pour des tâches ultra spécialisées. Malheureusement ces algorithmes ne sont pas faits pour généraliser l’intelligence dans plusieurs domaines. Et pour l’instant les réseaux de neurones ont un problème de taille : si vous entraînez ces algorithmes en les nourrissant avec d’autres données d'entraînement. Ils ne seront pas capables de garder en mémoire les paramètres appris précédemment. Il faudra donc trouver un moyen d’intégrer de la mémoire dans ces algorithmes, un peu comme le cerveau humain le fait. Autre point important, il faudra donner aux IA la capacité d’apprendre avec moins de données. Comme le cerveau humain le fait. C’est ce qu’on appelle le « One-shot Learning », qui est l’un des plus grands défis dans le domaine de l’IA. L’humain surpasse encore la machine pour l’instant dans cette tâche. Et aujourd'hui nous en sommes qu’aux balbutiements, notamment grâce aux processeurs neuromorphiques. Ceux-ci vont probablement nous aider à optimiser l’apprentissage avec un nombre de données de plus en plus faible. L’ANI n'enfantera peut-être pas l’AGI. Même si ces algorithmes sont déjà très efficaces, ils ont encore besoin de se perfectionner. Notamment avec des systèmes qui se rapprochent encore un peu plus du fonctionnement du ******ebook converter DEMO Watermarks*******

cerveau humain, à base de processeurs et d’algorithmes capables de reproduire le fonctionnement du cortex cérébral. C’est pour cette raison qu’il est primordial d’améliorer encore le hardware et le software dans ce sens. Toutefois, il n’est pas nécessaire de mimer à 100% le fonctionnement de notre cerveau pour arriver à faire une AGI. On peut par exemple parler de l’analogie entre les oiseaux et les avions. Nous nous sommes inspirés des oiseaux pour faire des avions. Mais il n’était pas nécessaire de copier totalement la physionomie des oiseaux pour y arriver. Les avions ne battent pas des ailes pour s’envoler. Pour le domaine de l’IA, il ne sera donc pas forcément nécessaire de copier entièrement le cerveau humain pour y parvenir.

L’informatique neuromorphique : un chemin possible vers l’AGI ? Bien qu'il y ait une grande diversité de points de vue, d'idées techniques et de concepts pour mener à l'AGI, il n’existe pas vraiment d’accord entre les experts pour l’atteindre. Je vais présenter ici, juste une seule approche parmi toutes les autres possibles que j’ai pu voir lors de mes recherches sur le sujet. Cette approche est utilisée ici à titre indicatif. L’objectif est de montrer qu’il est possible d’atteindre l’AGI dans un temps relativement proche. Tous les chemins mènent à Rome ! ⬛

Tout comme nous avons de nombreuses approches différentes pour les vols habités en avions, hélicoptères, dirigeables et fusées. Il peut y avoir de nombreuses voies viables vers l'AGI, dont certaines sont plus inspirées biologiquement que d'autres. Un peu comme les frères Wright, les pionniers de l'AGI d'aujourd'hui procèdent en grande partie par l'expérience et l'intuition, parce que nous ne connaissons pas encore suffisamment les lois de l’intelligence générale pour procéder à l'ingénierie de l’AGI. La théorie menant à l’AGI évolue en même temps que la pratique. ⬛ L’idée d’atteindre prochainement l’intelligence générale se renforce par le fait que nous utilisons de plus en plus le cerveau humain comme modèle pour les machines intelligentes. En utilisant l'ingénierie inversée, il est possible de comprendre comment le cerveau humain fonctionne. Ainsi, les chercheurs peuvent réutiliser les connaissances accumulées en neurosciences et en ******ebook converter DEMO Watermarks*******

psychologie cognitive pour le domaine de l’IA. Si l’évolution darwinienne a été capable de nous doter de notre cerveau, il n’est pas impossible de reproduire le même résultat. Le réseau de neurones artificiels est l’exemple parfait d’une technique d’IA inspirée par le cerveau. La découverte d’une organisation hiérarchisée de neurones dans le cerveau a été transposée des neurosciences vers le Machine Learning. Le Reinforcement Learning a été en partie basé sur les théories psychologiques de la cognition et ces algorithmes sont maintenant très utilisés en IA. Plus le temps passera, plus nous allons accumuler des cas comme ceux-ci et plus nous nous rapprocherons de la ligne d’arrivée. Il est possible qu’une approche hybride, c’est à dire qui combine des techniques inspirées du cerveau avec des méthodes purement synthétiques, nous aide à parvenir à l’AGI. Mais cela ne nécessite pas d’avoir un système qui ressemble à 100% au cerveau, même si les idées initiatrices proviennent de la biologie de notre cerveau. Ceux qui travaillent à la conception d’une AGI ont des avis différents sur l’avantage des approches neuromorphiques par rapport aux approches qui visent la mise au point d’un système complètement synthétique (avec l’informatique classique). Sachant qu’il existe de nombreuses variantes de processeurs neuromorphiques tant au niveau logique que physique (avec chacun leur propre mode de réalisation physique : ASIC, FPGA ou avec des memristors)[30]. Côté logique, certains d’entre eux sont plutôt adaptés à l’entraînement de réseaux convolutionnels avec des multiplicateurs de matrices et d’autres semblent plutôt conçus pour les réseaux à mémoire et le traitement du langage. De façon générale, l’approche neuromorphique est très intéressante pour le développement de l’IA. Grâce aux processeurs neuromorphiques, on est capable de mieux optimiser le traitement des calculs. Si les puces neuromorphiques tiennent leurs promesses, les champs d’applications seront énormissimes. Les architectures neuromorphiques commencent à connaître à grand engouement par les géants de l’informatique – comme IBM et Intel. L’arrivée de la première AGI se fera très probablement par la combinaison de ******ebook converter DEMO Watermarks*******

l’approche neuromorphique et de l’approche synthétique. Il semble plus intelligent d’utiliser les deux approches afin d’en tirer les meilleurs bénéfices des deux côtés. Le cerveau humain est une machine incroyable : il est capable de paralléliser les opérations, il a une très grande plasticité et il consomme très peu d’énergie. Il est composé de 100 milliards de neurones, tous connectés par 10 000 milliards de synapses. Tout ça, pour une consommation énergétique d’uniquement 20 watts, avec une puissance de calcul d’environ 1 exaflop (correspond à 1 milliard d’opérations à la seconde) et d’une taille de seulement 2 litres. Il y a beaucoup d'initiatives qui veulent atteindre l’exascale pour 2021 avec les superordinateurs, notamment en Chine. Atteindre cette échelle, permettrait de simuler le cerveau humain. L’effet moins cool c’est que tous ces systèmes nécessiteront : 1.5 millions de processeurs, 1.6 pétabytes de mémoire vive, consommant de l’énergie de l’ordre du mégawatt par heure et prenant la taille d’un immeuble entier. Pas facile à incorporer partout. Aujourd’hui, presque tous les ordinateurs sont basés sur l’architecture de John Von Neumann qui fait que le processeur et la mémoire vive sont isolés. Même s'ils sont connectés par un bus de données qui les relie, il y a toujours une séparation intrinsèque entre les deux éléments. Alors que pour les systèmes biologiques - comme dans notre cerveau – le traitement et la mémoire fonctionnent parfaitement en symbiose. Par exemple le “K-computer” – un superordinateur assemblé par l’entreprise Fujitsu au Japon - qui est doté d’une puissance de 10 pétaflops, nécessiterait 4.68 années pour faire tourner un algorithme simulant 1 seul jour d’activité cérébrale. C’est 1700 fois plus lent que notre cerveau. L’entreprise Fujitsu travaille depuis 2014 sur le « Post-K Computer »[31], le but est d’atteindre l’échelle de l’exascale en 2021 et de réduire le temps de la simulation à 310 jours. Évidemment, ces simulations vont nous aider à mieux comprendre le cerveau humain. Mais la différence d’architecture, entre l’informatique moderne et le fonctionnement biologique, est toujours trop grande. Même avec des systèmes fonctionnant sur l’exascale, ils seront toujours limités. L’architecture de Von Neumann est toujours le meilleur choix pour la ******ebook converter DEMO Watermarks*******

majorité des traitements informatiques, mais comme on a pu le voir... ce n’est pas encore l’idéal. Et c’est là, que les puces neuromorphiques vont nous permettre de réduire drastiquement les principales contraintes que nous avons avec l’informatique classique. Concrètement, l’architecture neuromorphique va nous permettre de simuler en temps réel, plusieurs aspects du cerveau humain et avec précision. Toutefois, même si le but principal de cette nouvelle architecture est d’imiter la biologie humaine, il s’avère que notre cerveau n’est pas une machine exempte de défauts. Il peut être fatigué, distrait, ennuyé, biaisé et être un très mauvais décideur lorsqu'une décision doit être prise. Le cerveau est parfois incohérent et sujet aux erreurs. Ce qui nous mène à un autre but de l’architecture neuromorphique : mimer uniquement les meilleurs aspects du cerveau humain et ainsi développer encore plus rapidement le domaine de l’IA. En combinant, l’architecture neuromorphique avec l’architecture de Von Neumann, dans des systèmes hétérogènes (utilisant plusieurs types de processeurs différents – comme nous le faisons déjà avec la combinaison GPU/CPU), on va pouvoir bio-mimer chaque partie de notre cerveau : - La partie gauche du cerveau est basée sur la logique, la pensée analytique et le langage. C’est ce qui correspond le mieux à l’architecture de Von Neumann. Les performances du cerveau gauche sont calculées en FLOPs (floating-point operations per second). - Le cerveau droit est basé sur la créativité, l’apprentissage et le raisonnement. C’est ce qui se rapproche le plus de l’architecture neuromorphique. Les performances du cerveau droit sont calculées en SOPs (synaptic operations per second). La combinaison de l’IA neuromorphique avec l’IA synthétique nous permettra ainsi de réellement bénéficier de machines intelligentes. Des appareils informatiques basés sur l’architecture neuromorphique, seront réellement capables d’apprendre et de raisonner en fonction des données entrantes. Surtout, lorsque le software sera bien optimisé pour ce nouveau type de fonctionnement. ******ebook converter DEMO Watermarks*******

De façon schématique, un neurone est composé d’un corps cellulaire et d’un axone qui conduit le signal électrique du corps cellulaire jusqu’aux synapses. Si on devait faire une analogie avec l’architecture de Von Neumann : le processeur correspond au corps cellulaire, l’axone est le bus de données et les synapses correspondent à la mémoire vive (RAM). Avec ces trois éléments, on a ce qu’on appelle un cœur neurosynaptique. En pratique, ces cœurs neurosynaptiques sont les nœuds qu’on utilise en Deep Learning, mais au lieu de les avoir sous une forme logicielle, ils existent physiquement. Rien qu’en utilisant cette nouvelle façon de procéder, cela représente un bond significatif en termes de performance pour l’IA. L'architecture des puces neuromorphiques se caractérise par : •

Un réseau de cœurs neurosynaptiques.



Des cœurs qui sont distribués et qui opèrent en parallèle.

Ils fonctionnent, événementielle. •



sans

fréquence

d’horloge,

de

manière

Ils intègrent la mémoire, le calcul et la communication.

Des cœurs qui peuvent tomber en panne et pourtant, comme le cerveau biologique, l'architecture peut encore fonctionner. •

Des cœurs d'une même puce qui communiquent entre eux par l'intermédiaire d'un réseau sur puce piloté par événement. •

Communiquent par l'intermédiaire d'une interface entre les puces, ce qui assure une disponibilité harmonieuse des informations, comme le cortex le ferait. Permettant ainsi la création de systèmes neuromorphiques adaptatifs. •

Premièrement : cela signifie que ces cœurs neurosynaptiques peuvent opérer sans avoir besoin d’une fréquence d’horloge comme dans les processeurs classiques et peuvent opérer en parallèle. Ces cœurs neurosynaptiques s’activent seulement lorsqu’un signal atteint un certain seuil. Alors que pour les processeurs classiques, le signal est géré en continue jusqu’à ce que le courant soit coupé. Les différents cœurs ******ebook converter DEMO Watermarks*******

neurosynaptiques peuvent ainsi être activés et désactivés en parallèle du fonctionnement d’autres cœurs de façon indépendante. Cette architecture permet de réduire drastiquement la consommation énergétique tout en augmentant les performances. Deuxièmement : de par leur conception, les puces neuromorphiques sont évolutives et tolérantes aux erreurs comme un cerveau biologique le ferait. Si quelques cœurs arrêtent de fonctionner, le réseau neuronal s’adapte et redirige le signal vers d’autres cœurs. Dans le cerveau biologique, c’est ce que nous référons à la “neuroplasticité’. Le réseau peut aussi très bien s’adapter à l’addition de plusieurs cœurs ou cartes neuromorphiques dans le système informatique. Troisièmement : les cœurs neurosynaptiques sont parfaitement couplés entre la mémoire et la computation, comme le fait un cerveau biologique. Maintenant que nous comprenons un peu mieux comment fonctionnent ces architectures, nous pouvons parler des deux plus gros acteurs dans ce domaine. On peut d’abord parler d’IBM avec leur puce TrueNorth. Les puces d’IBM ont été pour la première fois conceptualisées en 2004, avec pour objectif de construire des ordinateurs bio-inspirés. En 2011, IBM a produit la première puce TrueNorth, simulant 256 neurones et 262,144 synapses dans un seul cœur synaptique. En 2014, IBM sort la seconde itération de sa puce avec 1 million de neurones, 256 millions de synapses, 4096 cœurs synaptiques et une puissance de 46 milliards SOPs/Watt. Le tout pour une consommation 100 fois plus basse et avec une taille 15 fois plus petite que la première version. Le Dr. Dharmendra S. Modha - scientifique en chef d’IBM - a d’ailleurs exprimé son objectif de sortir un « cerveau en boîte » dans les années 2020. L’objectif de ce projet est d’atteindre 10 milliards de neurones et 100 trillions de synapses dans un volume de 2 litres pour une consommation d’un seul kilowatt. D’après le Dr. Modha, cela sera possible lorsque les transistors atteindront une taille 7 nm, ce qui est déjà en train d’arriver ! En 2018, Intel est aussi rentré dans la course avec la puce Loihi. Cette puce est capable de simuler 130 000 neurones et 130 millions de synapses, ******ebook converter DEMO Watermarks*******

avec une gravure de 14 nm. Les initiatives d’IBM et d’Intel sont destinées à radicalement transformer le machine learning. Et, permettre d'entraîner plus efficacement les algorithmes avec beaucoup moins d’énergie. Comme vous pouvez le voir, l’informatique neuromorphique avance à pas de géant et il se pourrait bien que les choses avancent encore plus vite dans les années 2020. En tout cas, ces puces semblent être un premier pas vers le cerveau artificiel. Les IA basées sur les ordinateurs traditionnels joueront toujours un rôle majeur en parallèle des architectures neuromorphiques.

- Le memristor Le memristor est une technologie prometteuse et il a pour vocation de remplacer les transistors dans les prochaines années. Le memristor est un mot-valise formé à partir des deux mots anglais memory et resistor. Ils fonctionnent comme le cerveau en termes de mémoire et de traitement des données. Les memristors semblent reproduire les opérations clés que le cerveau semble utiliser, c'est-à-dire les opérations matricielles utilisées par le Machine Learning. Dans les FPGA ou ASIC, les informations sont stockées soit dans les circuits eux-mêmes, soit dans des RAM séparées et de manière volatile. Le memristor est un composant électronique passif décrit comme le quatrième composant passif élémentaire, aux côtés du condensateur (ou capacité), du résistor (ou résistance) et de la bobine (ou inductance). Un memristor stocke efficacement l’information, car la valeur de sa résistance électrique change, de façon permanente, lorsqu’un courant est appliqué. Là où une résistance classique apporte une valeur stable de résistance, un memristor peut avoir une valeur continue (donc analogique) de résistance. Les memristors fonctionnent un peu comme des cœurs neurosynaptiques fabriqués en FPGA ou ASIC, mais plus efficacement et cela permet une accélération significative de la phase d’entraînement : 1) Ils fonctionnent sans fréquence d’horloge et s’exécutent uniquement quand un seuil est atteint. 2) Ils fonctionnent parallèlement. Des branches multiples des memristors ******ebook converter DEMO Watermarks*******

peuvent s'exécuter au même moment. 3) Ils sont tolérants aux erreurs et peuvent modéliser la neuroplasticité. Dans le sens où ils peuvent modifier leurs connexions si des branches du réseau sont cassées. 4) Ils sont évolutifs. La première version de TrueNorth n’avait pas de mémoire intégrée. Il en va autrement de la nouvelle version du chipset neuromorphique IBM testée en 2018 qui intègre des memristors PCM (Phase Change Memory)[32]. Cela a permis d’améliorer encore l’efficacité énergétique de l’ensemble, mais avec seulement 204 900 synapses pour commencer[33]. Les tests ont été réalisés sur un algorithme de reconnaissance d’écriture appliqué sur la base standard MNIST. Ce chipset réalisait 29 milliards d’opérations par seconde et par Watt consommé, un peu moins que le chipset TrueNorth d’origine. Intégrer cette nouvelle technologie dans les puces neuromorphiques, va significativement augmenter les performances des architectures neuromorphiques. L’entreprise HP a déclaré que les memristors seront 100 000 fois plus efficaces dans le Machine Learning que les transistors. Il faut noter qu’il existe bien d’autres types de non-volatile memory en développement qui miment le cerveau humain. Comme la phase change memory (mémoire à changement de phase). Quoi qu’il en soit, les memristors sont plus proches du déploiement commercial que les autres technologies.

- L’informatique analogique Nous entendons beaucoup parler des ordinateurs numériques, mais les ordinateurs analogiques sont rarement mentionnés. Non pas parce qu'ils n'existent pas, mais parce que les gens pensent que les ordinateurs sont uniquement numériques. La différence fondamentale entre les ordinateurs analogiques et numériques réside dans le type de données qu'ils traitent. Les ordinateurs analogiques traitent des données analogiques, c'est-à-dire qui varient continuellement. L'ordinateur numérique traite des données binaires, c'est-à-dire sous la forme de 0 et 1. Les avantages des ordinateurs analogiques sont qu'ils montrent les solutions d'une manière simple et de façon graphique en peu de temps. Dans ******ebook converter DEMO Watermarks*******

un ordinateur numérique, les changements en temps réel nécessitent une programmation complexe. Dans un ordinateur analogique, la sortie peut être connectée à un oscilloscope et les résultats peuvent être visualisés. Par contre l’efficacité de ces ordinateurs semble être limitée qu’à des cas précis. Malheureusement, cela montre que l'informatique analogique n’est pas très versatile pour le moment. L’informatique analogique n’est pas nouvelle et ses origines remontent aux années 1970 par le physicien Lord Kelvin. Les exemples célèbres d'ordinateurs analogiques sont le planimètre, le nomogramme, les amplificateurs opérationnels, les intégrateurs mécaniques, les règles à calcul, les prédicteurs de marée, les intégrateurs électriques qui résolvent les équations aux dérivées partielles, les machines électroniques qui résolvent les équations différentielles ordinaires et les machines pour résoudre les équations algébriques. À partir de 1980, le développement des calculateurs numériques et en particulier de leur vitesse de calcul, leur a permis d'effectuer des calculs en temps réel. Ce qui semblait accessible auparavant qu'aux calculateurs analogiques. À partir de cette époque, l'intérêt des grands calculateurs analogiques a disparu, et progressivement, le calcul analogique ou hybride n'a perduré que dans des circuits électroniques dédiés à des applications particulières. Ce déclin a été accéléré par le développement des logiciels permettant de modéliser facilement les systèmes physiques tel que Matlab et dont un des ancêtres était le CSMP (Continuous System Modelling Program introduit par IBM), permettant de résoudre facilement un système d'équations différentielles. Cependant, après plusieurs décennies, cette technologie voit un regain d’intérêt en montrant son efficacité face aux supercalculateurs dans le cas de calculs spécifiques. L’informatique analogique est un autre domaine de recherche qui pourrait augmenter significativement les performances de l’informatique neuromorphique. Même si les signaux analogues sont complexes à traiter, les memristors implémentent déjà une forme primaire d’informatique analogique. Notamment en utilisant un processus physique qui arrive à encoder les memristors eux-mêmes. ******ebook converter DEMO Watermarks*******

D’autres applications de l’informatique analogique peuvent être implémentées dans les architectures neuromorphiques. Par exemple : l’extrapolation de signaux bruts venant de plusieurs capteurs, d‘une caméra et d’un microphone en les faisant passer dans un réseau de memristors en temps réel. Cette démarche permettrait d’activer les neurones simulés lorsqu’un signal dépasse un certain seuil (threshold). Un peu comme le cerveau biologique fonctionne.

- Extrapolation du futur de l’informatique cognitive Il est difficile d’identifier exactement la trajectoire que l’informatique cognitive va prendre dans le futur. En raison d'un paysage en constante évolution. La simulation du cerveau en exaflop devrait être possible bientôt et de plus en plus de joueurs entrent dans la course. Nous apportant chaque année des nouvelles cartes neuromorphiques, des nouvelles techniques de computation, des architectures hétérogènes variées, des nouvelles architectures ASICs conçues pour l’IA – la liste peut s'allonger encore et encore. Quoi qu'il en soit, la prochaine décennie sera très probablement une période de transformations assez importantes. Les années 2020 apporteront des nouveaux développements et pousseront la recherche sur trois facettes de l'informatique cognitive : 1)

La simulation du cerveau biologique. Le développement d’une simulation réaliste et en temps réel de notre cerveau permettra de nous aider à atteindre une compréhension plus poussée de notre fonctionnement. Il est fort possible que ces simulations nous mènent également vers des traitements plus efficaces contre les maladies mentales et les troubles neurologiques.

2)

Le développement de l’intelligence artificielle. Les logiciels de réseau de neurones artificiels (Neural Net), pourront être couplés avec le matériel neuromorphique. Permettant un gain énorme de performance et de réduction énergétiques. Ce qui permettra de booster encore plus le domaine de l’IA.

******ebook converter DEMO Watermarks*******

Ces deux aspects de l’informatique cognitive agissent par boucle de rétroaction positive (comme le fait souvent le domaine de l'innovation). Les recherches sur la simulation du cerveau vont nous amener à développer des architectures neuromorphiques plus performantes, menant à des algorithmes d’IA de plus en plus avancés. Ces mêmes développements dans l’IA et dans les architectures neuromorphiques nous mèneront à des simulations du cerveau plus avancées... et ainsi de suite. Menant ainsi au dernier aspect de l’informatique cognitive : 3) Le développement des interfaces cerveau-ordinateur. Cela peut ressembler à de la science-fiction. Et même si cette technologie semble être la plus éloignée d’une utilisation dans le monde réel, elle semble être une inévitabilité qui arrivera dans les prochaines décennies. Les travaux préliminaires ont déjà commencé et des entreprises comme Neuralink ont pour objectif de commercialiser les premières interfaces cerveau-ordinateur dans la prochaine décennie. L’intégration de la biologie et de la technologie englobe plein d’autres sous-sujets comme l’amplification de l’intelligence (mind augmentation), le téléchargement de l’esprit (mind uploading), la conscience artificielle, la cybernétique, etc. En clair, les probabilités d’atteindre l’AGI ne sont clairement pas faibles ! Avec toutes ces possibilités, l’arrivée d’une AGI se fera très probablement dans les prochaines décennies. Le chemin vers l’AGI n’est pas simple, mais c’est grâce au travail collaboratif des chercheurs dans ce domaine et aux progrès techniques que nous allons y arriver. ⬛ En

2018 des chercheurs de la faculté d’ingénierie et d’informatique de l’Université du Sussex au (Royaume-Uni), ont réussi à faire une simulation d’un cerveau de rat avec de meilleures performances et de façon plus économe que les processeurs neuromorphiques. Pour y arriver, ils ont conçu un logiciel, nommé GeNN (GPU-enhanced Neuronal Networks), ainsi qu’avec des GPU[34]. Un seul processeur graphique a permis d’atteindre des vitesses de traitement jusqu’à 10% plus rapides que ce qui est actuellement possible en utilisant un superordinateur ou le système neuromorphique SpiNNaker, une machine sur mesure développée dans le cadre du projet européen Human ******ebook converter DEMO Watermarks*******

Brain (HBP). L’optimisation du software peut donc augmenter significativement les performances, même sur du hardware non neuromorphique. Et ainsi, rendre plus accessible le développement de l’IA forte. Mais dans un autre sens, cela signifie aussi que des solutions logicielles peuvent être couplées aux puces neuromorphiques et multiplier leurs performances. Les chemins vers l’IA forte sont très variés ! ⬛

De l’AGI à l’ASI À partir d’un moment donné, nous aurons donc un ordinateur aussi intelligent qu’un être humain… en fait pas du tout. Même si nous atteignons l’AGI avec des performances à peu près similaires au cerveau, cette intelligence aura quand même des avantages significatifs par rapport aux humains :

- Hardware Vitesse : Les neurones du cerveau peuvent atteindre une puissance maximale de 200 Hz[35], tandis que les microprocesseurs d'aujourd'hui – qui sont beaucoup plus lents qu'ils ne le seront lorsque nous atteindrons l'AGI – fonctionnent déjà à 4 GHz, soit des millions de fois plus vites que nos neurones. Et les communications internes du cerveau, qui peuvent se déplacer à environ 120 m/s (432 km/h ou 275 mph)[36], sont terriblement lentes comparé à la vitesse de l'électricité et de la fibre optique. Taille et rangement : Le cerveau est limité dans sa taille à cause de la forme de notre crâne et il ne pourra pas devenir beaucoup plus grand de toute façon. Les communications internes à une vitesse de 423 km/h prendraient trop de temps pour passer d'une structure du cerveau à une autre. Les ordinateurs peuvent prendre n'importe quelle taille physique, ce qui permet de faire fonctionner beaucoup plus de matériel, une mémoire de travail (RAM) beaucoup plus grande et une mémoire à long terme (stockage sur disque dur ou SSD) qui a une capacité et une précision bien supérieures aux nôtres. Fiabilité et durabilité : Les transistors d'ordinateur sont plus précis que les neurones biologiques et sont moins susceptibles de se détériorer, et peuvent être réparés ou remplacés. Le cerveau humain se fatigue aussi ******ebook converter DEMO Watermarks*******

facilement, tandis que les ordinateurs peuvent fonctionner sans arrêt, à leur performance maximale, 24 heures sur 24, 7 jours sur 7.

- Software Éditabilité et évolutivité : Contrairement au cerveau biologique, les logiciels peuvent recevoir des mises à jour et des correctifs. Des algorithmes améliorés peuvent être expérimentés très facilement. Les performances peuvent ainsi être constamment optimisées. Capacité collective : Les humains disposent d’une vaste intelligence collective, grâce au travail collaboratif et de notre sociabilité. En commençant par le développement du langage, de l’éducation, de l’écriture, de l’impression et maintenant encore plus avec des outils comme internet. Avec tous ces outils, l’espèce humaine a pu se développer très rapidement, prospérer sur l’ensemble de la planète et commencer la conquête de l’espace. L’intelligence collective humaine est l’une des principales raisons pour lesquelles nous avons été capables d’aller si loin devant toutes les autres espèces. Mais les ordinateurs seront bien meilleurs que nous. Un réseau mondial d'IA pourrait se synchroniser régulièrement, permettant de télécharger instantanément le savoir appris ou optimiser sa propre intelligence sur tous les autres ordinateurs du réseau. Ces IA pourraient aussi se fixer un objectif en tant qu'unité, parce qu'il n'y aurait pas nécessairement d'opinions divergentes, de motivations et d'intérêts personnels, comme c'est le cas dans la population humaine[37]. L’intelligence artificielle qui atteindra le niveau humain en s’auto améliorant, n’aurait aucune raison d’arrêter son niveau d’intelligence à notre niveau. Elle ne resterait donc qu’un bref instant au niveau humain, avant de s’élancer vers la superintelligence. Si une IA d’un niveau humain est programmée dans le but d’améliorer sa propre intelligence. Elle serait capable d’atteindre le niveau d’intelligence d’Einstein et ainsi faire un plus grand bond en avant. Ces bonds permettent à l’IA de devenir plus intelligente que n’importe quel humain, ce qui lui permet de faire des bonds encore plus importants. Au fur et à mesure que les sauts s’amplifient et s'accélèrent, l’AGI s’élève en intelligence et atteint rapidement le niveau de superintelligence. C’est ce ******ebook converter DEMO Watermarks*******

qu’on appelle une « explosion d’intelligence », et c’est le meilleur exemple de – la loi de l’Accélération des Retours, dont parle Kurzweil. Une superintelligence de cette ampleur semble inconcevable pour notre esprit. Dans notre monde, un être intelligent signifie un QI de 130 et stupide signifie un QI de 80 – nous n’avons pas le mot pour un QI de 10 000. Essayez d’expliquer la théorie de la relativité d’Albert Einstein à une fourmi. La différence d’intelligence entre vous et la fourmi est tellement grande qu’il est impossible pour elle d’en comprendre les concepts. Pour faire une analogie : lorsqu’une superintelligence découvrira des nouveaux concepts de mécanique quantique ou les secrets de l’univers et qu’elle essayera de vous les expliquer… vous serez la fourmi. En observant la vie sur terre et en voyant la domination totale des humains sur toutes les autres espèces, on peut suggérer qu’avec l'intelligence vient le pouvoir. Ce qui signifie qu'une ASI, lorsqu’elle existera, sera l'être le plus puissant de l'histoire de la vie sur Terre et de tous les êtres vivants, y compris les humains – et cela pourrait arriver dans les prochaines décennies. Pour éviter de nous faire bouffer, ou de devenir les animaux de compagnies de cette superintelligence, il faudra prendre des mesures de sécurité et se préparer à cette éventualité. L’arrivée de l’IA forte pourrait être le plus bel événement possible pour notre espèce, ou bien le pire événement. Dans le scénario positif, elle pourrait nous aider à vaincre la faim dans le monde, éradiquer les maladies, contrôler les changements climatiques, optimiser la gestion de nos ressources. Sans compter l’augmentation des facultés humaines, voire peut-être atteindre l’amortalité. Dans le scénario négatif, elle pourrait créer une armée de robots à la manière de Skynet et détruire toute l’espèce humaine. Malheureusement lorsqu’on évoque la Singularité, peu importe ce qu’on dit, il y aura beaucoup de gens qui vont tourner en dérision tout ce qu’on dit sur le sujet. Nous devons nous y préparer autant au niveau philosophique que politique. Et surtout, il faut que cette possibilité soit prise très au sérieux par le monde scientifique, les gouvernements et les entreprises. Une chose est sûre, nous ne pourrons pas freiner le progrès. Trop d'intérêts économiques sont en jeu. Il existe cependant, plusieurs pistes qui pourraient éviter d’arriver ******ebook converter DEMO Watermarks*******

au pire scénario. Nous en reparlerons plus tard.

Stop au bashing sur la Singularité : ce que pensent les chercheurs La Singularité est-ce que c’est du bullshit ? En tout cas, c’est une opinion qu’on entend très souvent dans les médias français. Beaucoup moins dans le reste du monde. Il y a beaucoup de désaccords sur les progrès de l’IA, il y a même des désaccords sur ce que les experts pensent des progrès de l’IA. Ceux qui disent qu’aucun scientifique ne croit à la Singularité, on a juste envie de leur dire : renseignez-vous ! Si on regarde les données recueillies des experts dans le domaine de l’IA, dans le sondage de Katja Grace, on voit qu’il y a 10% de chance d’atteindre l’AGI d’ici 2022, 50% d’ici 2040 et 90% d’ici 2075[38]. Malgré ces résultats, beaucoup de gens ne semblent pas impressionnés et osent même dire que “les vrais chercheurs” en IA n’accordent très peu de crédit à l’hypothèse de la Singularité. Alors que le sondage a été réalisé sur des chercheurs participants au NIPS et au ICML, c’est-à-dire les deux conférences les plus prestigieuses en IA. On se demande donc dans quelles conférences les “vrais chercheurs” se rassemblent… Un autre sondage qui a été réalisé en 2018, lors de la conférence HLAI, montre que 40% des chercheurs estiment qu’une AGI pourrait intervenir d’ici 5 à 10 ans, tandis que 28% s’y attendent dans les 20 prochaines années[39]. Seulement 2% n’y croient pas du tout. Dire que la Singularité ne fait pas partie de l’avis des experts est en fait complètement erroné. Certains vont même vous rediriger vers la lecture du livre « Le Mythe De La Singularité » de Jean-Gabriel Ganascia. Un livre qui ne représente pas forcément la vision globale du monde de la recherche en IA. D’autres personnalités ont des discours excessifs sur l’IA. Certains expliquent publiquement que l’IA n’existe pas. L’IA est effectivement très bête pour l'instant, mais elle bouleverse quand même la société. Dire qu’elle n’existe pas risque de faire encore plus retarder l’adaptation de l’école et de la formation face à ce bouleversement. Le public connaît le mot IA, mais ne connaît pas tous les niveaux de l'IA. Le public est déjà en pleine confusion et avec ce qu’il voit dans les films de science-fiction avec notre réalité. Ajouter médiatiquement que l’IA n’existe pas créera encore plus de confusion. Il est plus pertinent par exemple d'informer les gens sur les 3 niveaux d'IA, que de ******ebook converter DEMO Watermarks*******

dire que l'IA n'existe pas. Expliquer que pour l'instant on est qu'au premier niveau et que l'IA faible est ultra bête, mais ultra efficace dans des tâches spécialisées. La classe politique ne va pas préparer la société sur quelque chose qui n’existe pas et ce discours ne va clairement pas aider les gens à se réveiller. Ce discours semble donc être totalement irresponsable, surtout face à la Chine ou les USA. Il est vrai qu’une minorité de chercheurs en IA ont encore un peu d’amertume à cause des prédictions ratées du passé. En 1970, Marvin Minsky affirmait : « Dans trois à huit ans, nous aurons une machine avec le niveau d’intelligence de l’humain moyen. » Sa prédiction s'est avérée être complètement fausse. Cependant, bien qu'il y ait eu des périodes au cours desquelles les experts de l'IA ont définitivement sous-estimé l'importance et les défis de la recherche sur l'IA, cet excès d'optimisme ne devrait plus être stigmatisé. Aujourd’hui, les scientifiques préfèrent prendre moins de risques lorsqu’on leur demande de faire de la prospective. En fait, il semble même que, dernièrement, les chercheurs en IA ont plutôt sous-estimé le rythme des progrès de l'IA. En effet, dans le sondage de Katjat Grace, l'expert médian en IA a prédit qu'il faudrait une décennie de plus aux IA pour atteindre le niveau humain au jeu de Go. Encore une fois, les experts de l'IA se sont profondément trompés, AlphaGo a dépassé le niveau humain seulement quelques mois après l'enquête. Une autre avancée spectaculaire a été celle de Google Duplex, en 2018. Google Duplex est un assistant qui peut appeler et faire des réservations pour aller chez le coiffeur ou pour un restaurant. Ses performances sont extrêmement impressionnantes. On peut dire que ses capacités sont indiscernables d’un être humain. Ces situations nous montrent que le progrès est souvent sous-estimé ou alors surestimé, renforçant ainsi le niveau d’incertitude. Il semble donc impératif de se préparer à n’importe quel scénario. Plus l'incertitude est grande et plus il est important de se préparer à cette possibilité. La Singularité peut arriver à n’importe quel moment. Par conséquent, en nous basant sur les informations du sondage, nous devrions assigner une probabilité d'au moins 10% sur l’AGI d'ici 2025. Si ce n'est pas plus tôt. Les experts ne sont pas tous d'accord. Certains pensent que l'IA atteindra le niveau humain d'ici 25 ans, ******ebook converter DEMO Watermarks*******

alors que d'autres estiment qu'il est peu probable que cela soit possible. Il est donc présomptueux de faire une affirmation définitive sur les progrès de l'IA, mais son imprévisibilité devrait nous préparer à toute éventualité. Même si la probabilité n’était que de 1%, il faudrait s’y préparer. Une probabilité de 1% n’est pas négligeable. Toutes les personnalités qui disent en public que la Singularité est un fantasme font complètement fausse route. Ils agissent d’une façon complètement irresponsable et cela pourrait encore plus nous pénaliser qu’autre chose face à un tel événement. Il faut donc éveiller le débat public face à toutes les possibilités, pour renforcer notre organisation. Cela dit, il y a plusieurs choses importantes à retenir. Premièrement, alors qu’une minorité d’experts pensent que l'IA n'atteindra pas le niveau humain au cours de ce siècle, une grande majorité semble y croire. La plupart des chercheurs croient donc à la Singularité, mais peu osent publiquement l’afficher, par peur du ridicule. Il y a donc une stigmatisation autour de cette idée. Ce qui coupe tout débat constructif sur ce sujet et bloque les penseurs à anticiper correctement l’arrivée de l'IA forte. À cause de la peur du ridicule, il y a un consensus assez important de chercheurs en IA, qui n'apparaît pas publiquement. Nous avons donc plutôt tendance à entendre les chercheurs pessimistes dans les médias au sujet de la Singularité. En fait, selon la plupart des experts en IA, il semble qu’il est relativement probable que nous allons vivre avec une AGI durant ce siècle. Deuxièmement, il est important de noter qu’une majorité de chercheurs en IA attribuent une probabilité non négligeable à l’arrivée de l'AGI d'ici dix ans.

******ebook converter DEMO Watermarks*******

When Will AI Exceed Human Performance ? Evidence from AI Experts Katja Grace, John Salvatier, Allan Dafoe, Baobao Zhang, and Owain Evans. 2018.

Vers la conscience artificielle ? Malgré l’explosion d’intelligence qui se profile devant nous, il sera impossible de vérifier si les IA seront dotées d’une conscience “artificielle”. Le test de Turing ne pourra pas être appliqué dans ce cas précis, d’autant plus que de façon générale, il montre des faiblesses d’après certains chercheurs. L’intelligence n’implique pas forcément la conscience. Et surtout, nous ne savons pas vraiment ce qu'est la conscience – malgré de nombreuses théories. Beaucoup d’humains penseront que les robots auront une conscience d’euxmêmes bien avant que cette conscience soit une réalité dans le domaine de l’IA. Il sera très difficile de faire la différence du vrai et du faux. Les recherches réalisées jusqu’à maintenant s’attachent sur des algorithmes de haut niveau, qui observent leur propre fonctionnement et ceux des algorithmes de plus bas niveau. Ils arrivent à en déduire les états et à s’observer en train de fonctionner. Le but est de faire réaliser aux algorithmes qu’ils sont responsables de leurs actions. Un peu comme un bébé qui comprend progressivement qu’il est responsable des sons qui sortent de sa bouche. ******ebook converter DEMO Watermarks*******

Une piste intéressante a été exploitée en 2015. L’Institut Polytechnique de New York, a présenté un exemple d’algorithme de conscience artificielle. Les chercheurs ont doté le robot Nao d’un algorithme capable de s’interroger sur ses propres actions. Selmer Bringsjord, un des chercheurs de l’institut, a mis à l’épreuve trois robots Nao. Les robots avaient la capacité de parler, mais deux d’entre eux avaient été programmés de sorte à rester silencieux. L’équipe de Selmer Bringsjord a notifié aux trois robots que deux d’entre eux avaient été soumis à une « pilule du mutisme », avant de demander aux robots de deviner lesquels l’avaient reçue. Ne sachant pas, les robots ont alors tous les trois essayé de répondre par un « je ne sais pas ». Deux sont restés muets, le troisième a articulé un « je ne sais pas », avant de comprendre en entendant sa voix qu’il était bien parlant. Le robot s’est ensuite excusé « Désolé, je sais maintenant. J’ai été en mesure de prouver qu’on ne m’a pas donné la pilule du mutisme ». Certes pour l’instant c’est encore assez basique, mais cet algorithme permet déjà aux robots de s’observer fonctionner avec un certain détachement. Et ce n’est que le début. Mais avant d’arriver réellement à des machines conscientes, les algorithmes seront d’abord capables de donner l’illusion de se mettre dans des états émotionnels. Probablement avec des personnalités artificielles que l’on pourra préconfigurer à l’avance, ou qui s’adapteront en fonction du comportement de l’utilisateur humain. Rien à voir avec une vraie conscience, mais cela fera le travail en donnant l’illusion d’avoir affaire à des entités conscientes. Pour l’instant, l’IA fonctionne encore comme une entité totalement différente de l’humain. Tellement différente qu’il ne semble pas pertinent de l'appeler « intelligence artificielle », mais plutôt « intelligence alien ». Mais le terme de l’intelligence artificielle est beaucoup trop utilisé et ancré dans la société qu’il vaut mieux continuer à l’utiliser. Pas la peine d’embrouiller encore plus les esprits. L’IA n’est pas encore dotée d’une intelligence émotionnelle ou sociale, qui lui permet de comprendre le monde comme nous et d’en avoir la même conscience. Pour y parvenir, l’IA doit manifestement être intégrée dans un corps humanoïde, sinon elle ne pourra pas se mettre à notre niveau et comprendre les lois qui gouvernent nos interactions avec le monde. La ******ebook converter DEMO Watermarks*******

conscience du corps est vitale pour un être vivant et elle doit surement jouer un rôle important sur la conscience au niveau général. Si l’IA se trouve délocalisée sur le cloud, la perception de son corps sera très différente d’un corps humanoïde. Sa conscience en sera donc altérée. Si nous voulons que l’IA absorbe puis interprète la culture et les valeurs humaines, la meilleure approche serait d'intégrer l’IA dans des contextes sociaux et émotionnels partagés avec des humains. Les IA comprendront bien mieux les interactions humaines de cette façon, voire peut-être encore mieux que nous. Les machines arriveront parfaitement à s’adapter à nos interactions, mais de leur point de vue, nous serons très différents d’elles. Et de notre point de vue, nous continuerons à faire de l’anthropomorphisme sur les machines. Comme nous avons déjà beaucoup trop tendance à le faire maintenant. Même en localisant l’IA dans un corps – comme dans un robot humanoïde - elle sera toujours un “alien” pour nous, à cause de notre différence cognitive. Les progrès de l’IA avancent à grande vitesse et nous ne pouvons plus les stopper. C’est une évidence maintenant. Nous nous aventurons en terrain inconnu, non seulement sur le plan intellectuel et technologique, mais aussi sur le plan social et philosophique. Faisons de notre mieux pour mener à bien cette nouvelle étape de notre voyage collectif d'une manière sage et coopérative, intelligente et fascinante.

Pas besoin d’AGI, ni d’ASI pour changer le monde Petit rappel : Même si nous n'arrivons pas à développer une intelligence égale ou supérieure à l'homme. Il est important de noter que l'arrivée en masse des IA faibles est déjà en train de changer radicalement notre société au niveau économique, sociétale et salariale. Le développement de l'AGI n'est donc pas forcément nécessaire pour entraîner un changement radical dans la société. ******ebook converter DEMO Watermarks*******

Les IA faibles aussi bêtes soient-elles, font déjà preuve de capacités supérieures à l'homme dans des domaines très spécialisés et sont déjà suffisamment développées pour amener une rupture importante dans la société. Que l'issue soit l'extinction de l'humanité, ou sa transformation, nous sommes à l’aube du moment le plus important de toute l’histoire de l’humanité !

******ebook converter DEMO Watermarks*******

Deuxième partie : l’impact de l’intelligence artificielle et de l’automatisation

******ebook converter DEMO Watermarks*******

4 - Un Nouveau Monde se dessine « Il faut éviter que les biais de la société ne se reflètent dans les décisions prises par les machines. » - Yann LeCun

Musique qui correspond à cette partie : Extra Terra - “Shenzhen 2045” Vous pouvez l’écouter sur Spotify, Apple Music, Deezer ou n’importe quel autre service de musique en streaming.

Ambiance : Douce / Modérée / Dansante Style : Synthwave / Rock Tempo : 90 BPM Shenzhen 2045 est un morceau de Synthwave avec des sonorités rétro futuristes. J’ai utilisé beaucoup de synthés des années 80 comme le Yamaha CS80, qui a beaucoup été utilisé par Vangelis lorsqu’il a fait les musiques de Blade Runner en 1982. J’ai utilisé également des instruments chinois traditionnels comme le Pipa et le Ban Di dans l’intro et le break. C’est lorsque j’ai vu des vidéos de Shenzhen sur YouTube que j’ai été inspiré pour faire cette musique. J’ai été épaté de voir à quel point certaines villes chinoises étaient autant futuristes, avec des gratte-ciels gigantesques, des néons et des écrans géants sur les immeubles. Voir en 2019 des villes de cette envergure m’a donné des frissons. La Chine est déjà dans le turfu ! Si vous êtes curieux, je vous conseille de taper “Shenzhen City of the Future” ou “Chongqing Blade Runner” dans la barre de recherche de YouTube. La peur de voir les emplois se faire remplacer est aussi ancienne que l’existence même du travail. Historiquement, elle s’est toujours révélée ******ebook converter DEMO Watermarks*******

infondée. Par exemple, l’histoire nous a montré lors de la révolution industrielle que plein de nouveaux emplois ont été créés. Sauf que cette fois, la révolution des technologies NBIC semble être différente de la révolution industrielle. La brume autour de cet événement est grande, car l’IA touche de plus en plus aux compétences humaines. Nous pensons être irremplaçables parce que nous sommes les seuls êtres de la planète à avoir conquis la planète grâce à notre intelligence. Mais cette fois c’est notre propre intelligence, qui est challengée par les machines. Un futur de plus en plus automatisé se dessine peu à peu devant nous et nous allons devoir nous y préparer. L’économiste Alfred Sauvy faisait remarquer en 1981 : « Ne vous plaignez pas que le progrès technique détruise des emplois, il est fait pour cela. »

Où sera notre place dans ce Nouveau Monde ? Un Nouveau Monde se profile devant nous, dans lequel l’automatisation prendra plus en plus de place. Face à cette nouvelle perspective, il faudra redéfinir les professions existantes et créer des emplois entièrement nouveaux. Sur le court et moyen terme : une grande partie des emplois proviendront d’une symbiose naturelle entre l’homme et la machine. Une grande partie des métiers de la classe moyenne disparaîtront ou se transformeront. Sur le long terme : aucun emploi ne sera immunisé contre le risque lié à l’IA. Dans un avenir proche, nous allons probablement avoir une phase de chômage assez importante, le temps que le marché s'adapte à la destruction d’emplois. Après cette période transitoire, le marché fera place à une nouvelle forme de travail entre l’humain et la machine. L’IA fera la réflexion analytique et les humains envelopperont cette analyse dans la chaleur et la compassion. Les outils boostés à l’IA nous permettront d’améliorer la créativité ou la prise de décision – bien qu’avec le temps, les compétences de l’IA s’élargiront également dans ces domaines, à mesure que l’IA s’améliore. Les trois prochaines décennies semblent donc plutôt se porter sur la création de nouveaux emplois plus humanistes et plus créatifs. ******ebook converter DEMO Watermarks*******

Dans le futur, la place de l’homme existe, mais ce sera à nous de l’imaginer. Nous devons imaginer notre complémentarité avec l’IA. Si cette collaboration porte ses fruits, l’IA pourra alors démultiplier et sublimer la productivité humaine à un niveau inimaginable. L’IA nous fera gagner beaucoup de temps dans les tâches répétitives et fastidieuses, ce qui nous permettra de repousser à chaque fois les limites de notre imagination. Toujours est-il que sur le long terme, l’IA aura très probablement toutes les capacités de nous challenger dans tous les domaines. Aucun emploi ne pourra résister à l’AGI, ou à des êtres robotiques humanoïdes boostés à l’AGI. Et finalement notre dernière solution sera de fusionner notre cerveau avec l’IA pour rester dans la partie… Comme le veut Elon Musk avec ses implants Neuralink. En attendant, pas besoin de la Singularité technologique pour assister à des changements majeurs dans nos vies. Une métamorphose est déjà en cours. Nous en constatons partout l’émergence dès maintenant. Tous les gadgets High-Tech qui remplissent nos poches et nos salons, qui nous distraient et facilitent en même temps nos vies nous semblent bien sympathiques et anodins. Pourtant, nous leur avons confié un pouvoir énorme et nous acceptons d’être pilotés par leurs notifications. Nos smartphones, nos ordinateurs et nos tablettes ont déjà fusionné avec nos modes de vie, sans que nous ne puissions rien y faire.

La fin du salariat ? Est-ce que cela signifie que nous allons arriver à la fin du salariat ? D’une certaine façon oui, parce que nous allons peu à peu arriver à la fin de sa valorisation. Quel est l’intérêt pour une entreprise d’embaucher, lorsqu’elle pourra utiliser des algorithmes automatisés qui chercheront pour elle le profil le mieux adapté à sa demande sur internet ? On retrouve déjà des développeurs, des webdesigners, des community managers, des business developers etc. sur des plateformes web comme Fiverr. Stéphane Mallard, entrepreneur et conférencier, a même déclaré dans son livre « Disruption » : « Demain le salariat sera synonyme d’incompétence. »[40] ******ebook converter DEMO Watermarks*******

L’avenir semble plutôt se porter vers une sorte d’uberisation de la société. Un avenir dans lequel une majorité des gens seront indépendants, à la demande, pour n’importe quelle tâche. Les freelances vont peut-être prendre la place des salariés, parce que leur modèle économique colle bien au Nouveau Monde et qu’il est très facile de mesurer leurs performances. Les entreprises préfèrent d’ailleurs de plus en plus à utiliser des prestataires extérieures, car elles font d’énormes économies. Plus besoin de payer les caisses du salarié et c’est surtout beaucoup moins risqué ! Mais les choses sont plus nuancées. Une mauvaise uberisation de la société pourrait créer encore plus d’inégalités. Il faudra donc instaurer des règles qui éviteront aux citoyens d’aller travailler pour 4€/h. La politique aura clairement son rôle à jouer dans les prochaines années, pour trouver des moyens de sécuriser les revenus financiers. La création d’une catégorie intermédiaire entre le travail salarié et le travail indépendant semble être une idée intéressante. En appliquant cette solution on pourrait par exemple, faire en sorte d’instaurer un salaire minimum pour les entreprises qui coopèrent avec les travailleurs. Ce nouveau statut pourrait peut-être permettre d’avoir certains avantages du salariat, comme les congés ou le chômage. Il est fort probable que dans les prochaines années un statut de ce genre soit instauré, pour faciliter l’économie. Est-ce que cela signifie que le travail va de plus en plus se précariser à cause de l’automatisation ? Je pense que non. Mais il faudra en débattre si nous voulons éviter d’en arriver à cette situation. Des solutions existent si nous y réfléchissons.

Les bullshits jobs vont-ils exploser ? Dans son livre « Bullshit Jobs », l’anthropologue David Graeber explique que la technologie a été mobilisée pour trouver des moyens de nous faire travailler plus. Alors qu’au contraire cette révolution technologique aurait dû nous faire travailler moins. En 1930, John Maynard Keynes prédisait que, d’ici la fin du siècle, les technologies auraient fait suffisamment de progrès pour nous faire travailler seulement 15h par semaine. Mais nous avons préféré maintenir et multiplier les emplois mêmes s’ils n’ont plus aucun intérêt. Tout simplement parce ******ebook converter DEMO Watermarks*******

qu’ils permettent de garder l’équilibre social, moral et politique. Graeber explique qu’il s’agit de tous les métiers du secteur tertiaire, de l’administration, de la bureaucratie et du support à la production : les consultants, les marketeurs, les contrôleurs de gestion, etc. Graeber précise que ceux qui ont un bullshit job savent secrètement que leur emploi n’a pas vraiment lieu d’être. Résultat : beaucoup de ces salariés fuient leur boulot, qui les rend malheureux. Des témoignages de ces salariés affirment qu’en public ils justifient avec bravoure la valeur de leur job. Et, qu’ils font semblant d’être occupés, pour légitimer leur importance au sein de l’entreprise, mais la réalité est tout autre. Au lieu de se consacrer à leur activité, les salariés passent la plupart de leur temps à surfer sur internet, à chatter et à scroller des heures sur Facebook. Leur activité est un véritable enfer qui semble être de moins en moins toléré par les nouvelles générations. Les jeunes veulent à tout prix éviter ces métiers rébarbatifs. Dans les prochaines décennies, peut être que l’automatisation massive créera des bullshits jobs inattendus et ceci dans l’objectif de donner des nouveaux buts aux gens. Nous l’avons déjà fait… Alors qui nous dit que nous n’allons pas le refaire ? Mais, est-ce vraiment la meilleure solution ?

Le populisme risque de monter en crescendo Les mouvements populaires vont probablement augmenter dans les prochaines années. Plus le chômage augmentera et plus le peuple aura tendance à se sentir inutile. Les gouvernements auront de grandes difficultés pour calmer l’opinion publique, surtout s’ils ignorent les préoccupations de la classe moyenne. L’automatisation transforme l’organisation sociale de notre société. Notamment parce qu’elle fragilise indirectement le peuple mal informé sur la révolution technologique, ce qui a pour effet de renforcer le pouvoir des élites. La plupart des gens sont littéralement largués sur ces sujets. L’IA dévalorise à toute vitesse les compétences des citoyens de la classe moyenne et pour beaucoup de personnes le progrès avance trop vite. En parallèle, le besoin en ingénieurs et en chercheurs de haut niveau augmente. D’ailleurs, ******ebook converter DEMO Watermarks*******

plusieurs études suggèrent que le monde manquera de millions de travailleurs très qualifiés dans une décennie[41]. Bien évidemment, ce n’est pas uniquement à cause de l’automatisation qu’il y a des mouvements populistes comme celui des Gilets Jaunes en 2018, ou le mouvement Nuit Debout en 2016. En étant un minimum réaliste, plusieurs choses sont derrière les régressions sociales en France : la baisse du pouvoir d’achat, la diminution des retraites, l’augmentation des taxes, etc. De plus, les médias et les gouvernements n’informent pas assez le peuple de cette révolution technologique. Du coup, les gens ne comprennent pas réellement pourquoi ils se retrouvent vraiment dans cette situation. Les citoyens de la classe moyenne expriment leurs difficultés financières et dénoncent les inégalités sociales. La montée du populisme semble donc être une évidence. Ajoutons encore à cela l’incompétence des politiciens (Mme El Khomri avec le CDD-CDI ? – Un exemple parmi tant d’autres). Et, vous avez le cocktail parfait pour faire imploser le système. Non seulement beaucoup de politiciens sont incompétents (par contre ils sont très compétents pour récupérer de l’argent quelque part), mais en plus ils ont très peu de culture scientifique. Pour éviter de voter des lois qui ne conviennent pas, il faut des politiciens capables de comprendre correctement les enjeux technologiques. Augmenter notre niveau de conscience technologique, permettra d'améliorer l'efficacité politique. Surtout dans un monde porté sur la technologie, comme le nôtre. Investir en masse dans la recherche et l’innovation, permettrait également de rehausser l’économie. Sur un monde porté sur la technique, la valeur technologique d’un pays est très importante pour l’économie. La Corée du Sud l’a très bien compris, le pays a investi 4,3% du PIB dans de la recherche et le développement en 2018. Contre seulement 2,26% du PIB pour la France entre 2017 et 2018[42]. Et le résultat : des entreprises comme Samsung, Hyundai et LG ont pu émerger. Alors qu’en France (ni en Europe), nous n’avons rien qui puisse égaler ces entreprises. La disruption technologique n’est pas un sujet débattu par les gouvernements. Les élites politiques doivent être capables d’anticiper les prochaines tendances technologiques, et ce, dans le but de légiférer ******ebook converter DEMO Watermarks*******

correctement. Les gouvernements du monde entier devraient être gérés en partie par des ingénieurs, des chercheurs et des futurologues, parce qu’ils comprennent parfaitement la technologie et son impact sur le futur. Lors des élections américaines de 2016, malgré tous les discours autour des pertes d’emplois, aucun des candidats n’a évoqué l’impact potentiel de l’automatisation. Donald Trump a averti les électeurs que les Mexicains et les Chinois allaient leur prendre leur travail et qu’il fallait donc construire un mur à la frontière mexicaine. Il ne les a jamais prévenus que les algorithmes leur prendraient leur travail. L’élection de Trump est un bon exemple de cette montée du populisme, qui n’est pas uniquement limitée à la France. Trump a réussi à parler aux classes sociales qui se sentent de plus en plus inutiles. Il est arrivé en montrant qu’il était l’homme de la situation. Concrètement, les personnes qui ont voté pour Trump ou pour le Brexit redoutaient plus de perdre leur valeur économique que de perdre leur pouvoir politique. Les prochaines révoltes ne viseront probablement pas les élites, mais plutôt des élites qui n’ont plus besoin du peuple. Pour l’instant, l’avenir semble montrer que nous sommes qu’au début des révoltes… Sauf, si nous trouvons des solutions politiques ou que nous changeons de système (réf [43][44] et réf [45]-[46]).

******ebook converter DEMO Watermarks*******

Le revenu de base universel Actuellement, le revenu universel (ou RU) est la méthode de redistributions des richesses la plus populaire. Au fond, l'idée est simple : chaque citoyen (ou chaque adulte) d'un pays reçoit régulièrement une allocation de revenu du gouvernement, sans aucune condition. Imaginons ce monde – sans doute plus proche que nous ne le pensons – dans lequel chacun peut commander et obtenir sur simple demande les biens et services de base, et ce, gratuitement. Dans ces conditions, que deviendraient le capital et le travail humain ? D'ici quinze ans, nous serons peut-être capables techniquement d'automatiser 40 à 50 % de tous les emplois. Cela ne signifie pas que tous ces emplois disparaîtront du jour au lendemain, mais si les marchés sont livrés à eux-mêmes, nous commencerons à voir une pression massive sur les travailleurs. L'ampleur, le rythme et les compétences de la révolution de l'IA nous obligent à faire face à un nouveau défi unique dans l'histoire. Même si les prévisions les plus sombres sur le chômage ne se concrétisent pas, l'IA risque dans tous les cas de détruire des métiers. L’IA faible permettra progressivement de réduire la valeur de la production humaine à un coût nul. Ce qui induit implicitement qu’une partie de la population sera incapable de produire assez de richesses pour subvenir à ses besoins. Le concept de “revenu de base universel” est donc une idée qui pourrait réduire ce problème. C’est dans ce sens que la plupart des gouvernements européens (particulièrement français) agissent depuis des décennies, en empilant les aides sociales, qui vont peu à peu se transformer en revenu universel. Cette idée est également devenue très populaire à la Silicon Valley et elle a le soutien de plusieurs entrepreneurs impliqués dans le développement de l’IA. Elon Musk estime que l'automatisation de la société nécessitera un revenu universel, pour nous libérer des tâches pénibles : « les gens auront plus de temps pour faire d’autres choses, des choses plus complexes et intéressantes. » L’idée d’un monde libéré des tâches pénibles, permettant l’épanouissement personnel, semble donc se profiler. Plusieurs solutions sont débattues pour redistribuer l’argent : taxer les ******ebook converter DEMO Watermarks*******

entreprises qui utilisent les robots et les algorithmes pour compenser la raréfaction du travail, taxer les entreprises les plus riches du monde, augmenter les impôts des personnes les plus aisées… Bref, les idées ne nous manquent pas, mais il va falloir encore en débattre. Et, surtout il faudra trouver un moyen d’instaurer ce revenu universel, sans pour autant creuser les inégalités. Est-ce que le revenu de base signifie que nous allons rentrer dans une société de l’assistance ? Oui dans un sens. Mais c’est logique, car nous sommes déjà de plus en plus assistés par les machines. Cette société de l’assistance est déjà là, nous ne pouvons plus rien faire sans l’aide du smartphone ou de l’ordinateur. Toutes nos actions et nos déplacements sont régis par la collaboration avec les machines. Et l’avancement technologique va nous amener à devenir de plus en plus des assistés. Le revenu universel va donc nous pousser encore plus loin dans cette voie, mais cette fois au niveau financier. Et dans un autre sens, non, parce que le travail permet aux citoyens de socialiser et permet de donner un but aux citoyens. De nouveaux métiers verront très probablement le jour, mais tout le monde n’est pas capable d’exercer des métiers hautement qualifiés. Autant par manque de compétences, que par choix. Indéniablement, certaines personnes préféreront profiter du revenu universel pour vivre une vie de loisirs. Mais le revenu universel permettra aussi aux personnes les plus motivées et les plus ambitieuses de se former dans des métiers plus qualifiés. Notamment, dans les secteurs où les machines ne pourront pas les remplacer au début.

La vie privée revient un peu à ses racines tribales avec le Big Data Les IA s’introduisent partout : dans nos ordinateurs, nos smartphones, dans nos salons avec les assistants intelligents et même bientôt dans nos voitures. Nous participons sans nous en rendre compte, tous les jours, à la montée en puissance de l’IA. Chaque jour, des IA qui espionnent vos actions et ceci avec la plus grande discrétion. Pas forcément rassurant pour le parano du coin. L’effet négatif, c’est que les gens se sentent de plus en plus épiés et il est de plus en plus ******ebook converter DEMO Watermarks*******

fréquent de voir dans l’actualité des histoires liées aux données personnelles. Comme en 2018 lorsque Mark Zuckerberg a été interrogé par le Sénat américain avec l’histoire « Cambridge Analytica ». L’effet positif, c’est que cela permet aux IA de se développer plus rapidement – même si pour certains ce n’est pas forcément positif. Le Big Data est un gros festin pour les algorithmes statistiques. Les IA apprennent de nos comportements à partir des milliards de données que nous laissons à leur disposition sur internet. Si nous pouvons stocker gratuitement nos données et nos photos sur des serveurs, c’est bien parce que ces informations servent à affiner les systèmes d’intelligence artificielle des grandes entreprises. L’inscription de Facebook est gratuite (et le restera toujours), parce qu’ils ont besoin de nos données pour nourrir les IA qui vont optimiser le fil d’actualité en fonction de nos comportements et affiner les recommandations de produits. Google est gratuit, parce qu’ils ont besoin de savoir nos comportements pour éduquer leur IA et vendre de la publicité. Nous alimentons par nos usages les systèmes qui contrôleront la société demain et qui ne cachent déjà plus leur puissance, au point que Jaron Lanier proposait déjà en 2014 dans son livre Who Owns The Future[47] que les géants du web rémunèrent tous ceux qui mettent à leur disposition leurs données. Ces compagnies gagnent de l’argent en réutilisant et en vendant nos données. Pourquoi pas en récupérer une part de gâteau ? Internet nous a tellement connectés, que nous savons presque toute la vie de tout le monde sur Facebook. Et avec les moyens de communication actuels, l’information circule très facilement. Oui nous allons perdre probablement une partie de notre vie privée. Mais on peut se réconforter en pensant à cette petite analogie avec nos ancêtres. Lorsque nous vivions encore au stade de chasseur-cueilleur, une information comme la naissance d’un enfant ou une histoire de tromperie faisaient très vite le tour de toute la tribu. D’une certaine façon, internet nous rapproche un peu de cette situation. Personne n’avait de vie privée à cette époque, quelques-uns avaient effectivement leurs petits secrets. Mais c’était difficile de garder quelque chose pour soi longtemps, surtout si quelqu’un d’autre de la tribu l’avait remarqué. Pourtant, personne ne s’en plaignait à cette époque. ******ebook converter DEMO Watermarks*******

C’était la norme. N'oublions pas également de différencier la vie privée et le fait d’avoir des secrets. Nous allons indéniablement perdre un peu de notre vie privée, mais je pense que nous pourrons toujours garder nos secrets… d’une façon ou d’une autre.

Silicon Valley vs Chine, qui en ressortira vainqueur ? Les GAFA (Google, Amazon, Facebook et Apple), NATU (Netflix, Airbnb, Tesla, Uber) et BATX (leurs homologues chinois : Baidu, Alibaba, Tencent et Xiaomi) se préparent tous à la singularité technologique. Quel système sortira vainqueur ? Américain ou Chinois ? La Chine donne l’impression d’être au second plan par rapport aux USA, pourtant son potentiel semble énorme. Le but n’est pas de faire les louanges du système chinois, il a ses défauts. Par contre leur façon de fonctionner semble indiquer qu’ils sont sur le bon chemin pour devenir leader technologique dans les 10 ans. Les entrepreneurs de la Silicon Valley ont acquis la réputation d'être parmi les plus dévoués d'Amérique, de jeunes entrepreneurs passionnés qui passent des nuits entières à faire sortir un produit, puis à le mettre en œuvre de façon obsessionnelle tout en recherchant le prochain grand projet. Les entrepreneurs y travaillent en effet très fort. Mais d’après Kai Fu Lee dans le livre « AI Superpowers »[48], la Silicon Valley semble carrément léthargique par rapport à la Chine. Les entrepreneurs chinois de l'internet qui ont réussi à atteindre ce niveau, l’on fait en conquérant l'environnement concurrentiel le plus impitoyable de la planète. Ils vivent dans un monde où la vitesse est essentielle, où la copie est une pratique acceptée et où les concurrents ne reculent devant rien pour gagner. Chaque jour passé dans la scène des startups chinoises est une épreuve par le feu, comme un jour passé comme un gladiateur dans le Colisée. Les batailles sont des batailles de vie ou de mort, les entrepreneurs chinois n’ont aucun scrupule. La seule façon de survivre à cette bataille est d'améliorer constamment son produit, mais aussi d'innover sur son propre modèle économique et de construire un « fossé » autour de l’entreprise. Si quelqu’un ******ebook converter DEMO Watermarks*******

a une idée novatrice, cette idée sera invariablement copiée et vos meilleurs employés seront braconnés. Cet environnement difficile fait un fort contraste avec la Silicon Valley, où la copie est stigmatisée et où de nombreuses entreprises sont autorisées à s'en remettre à une idée originale ou à la chance. Ce manque de concurrence peut conduire à un certain degré de complaisance, les entrepreneurs n'exploitant pas toutes les itérations possibles de leur première innovation. Les marchés en désordre et les tours de passe-passe de l'époque des « imitateurs » chinois ont donné naissance à des entreprises douteuses, mais ils ont aussi donné naissance à une génération d'entrepreneurs parmi les plus agiles, les plus avisés et les plus aguerris du monde, qui se sont retrouvés au pied du mur. Ces entrepreneurs seront l’arme secrète qui aidera la Chine à devenir le premier pays à profiter de l'âge de mise en place de l'IA. L’Empire chinois ressortira très probablement vainqueur de cette guerre technologique.

Que va devenir le capitalisme ? Depuis quelques décennies, la société semble progresser vers le confort, même si le fossé entre les plus riches et les plus pauvres se creuse d’année en année. Les gouvernements peinent à contrer ces inégalités, même si les pauvres deviennent de moins en moins pauvres et les riches de plus en plus riches. Recycler la classe moyenne au niveau des métiers facilement automatisables vers des métiers numériques ou plus créatifs semble être une bonne idée. Mais combien de temps les humains pourront-ils rester compétitifs par rapport aux IA ? En l’absence d’IA forte, il est difficile de répondre concrètement à cette question même si plusieurs études essayent d’y apporter des réponses. La plupart de ces études ne sont pas assez précises. Par contre une chose est sûre : il y aura une complexification des métiers qui les rendra majoritairement inaccessibles aux personnes peu compétentes. Le moteur même du capitalisme pourrait le mener à sa propre perte dans les prochaines décennies. La poursuite incessante de l'accumulation du capital, essence du système capitaliste, en sera probablement la cause. ******ebook converter DEMO Watermarks*******

L’évolution de la technologie permettrait d’arriver à une productivité extrême, rapprochant le coût marginal de production de zéro et dans le contexte d’une concurrence acharnée entre entreprises obligeant les entreprises à vendre à un prix au niveau du coût marginal. La mise en vente des nouveaux produits se ferait donc à un prix presque nul. Ainsi, les profits qui font vivre le capitalisme pourraient s’estomper. Selon l’économiste Jeremy Rifkin, le coût marginal zéro pourrait s’appliquer à tous les domaines. À la manière de ce qui s’est produit pour les industries numériques, le coût marginal zéro se propagerait selon lui à des secteurs existants dans le monde physique. Premier secteur économique concerné par le coût marginal zéro, l’énergie. Pour Jeremy Rifkin, le développement des énergies renouvelables pilotées par un « internet de l’énergie » pourrait à terme, nous permettre de bénéficier d’une énergie abondante et pratiquement gratuite. Avec les éoliennes et les panneaux solaires qui équiperont la plupart des bâtiments, chaque unité de consommation deviendrait également productrice d’énergie. Cette production d’électricité décentralisée pourrait s’échanger et se distribuer via cet internet de l’énergie. Les technologies de type « blockchain » permettraient aussi d’automatiser tous ces processus. Ce qui signifie que les villes et les villages passeraient de l’hétéronomie à l’autonomie. La prédiction la plus impressionnante de Rifkin concerne l'industrie. Grâce aux imprimantes 3D, nous passerions d'après lui d’une production de masse à une production initiée par les masses. Avec les imprimantes 3D, il est déjà possible de produire et reproduire à un coût marginal faible et constant. Grâce à des objets dessinés et conçus sur des logiciels open source par des créateurs passionnés répartis aux quatre coins du monde. Est-ce un conte de fées High-Tech ? Beaucoup de détracteurs pensent que cet idéal serait difficilement atteignable à cause des forces qui sévissent sur internet. La majeure partie des réseaux appartiennent effectivement aux GAFAM ou aux BATX, mais ces géants du web seront eux-mêmes touchés par cette dissipation du capitalisme. Des entreprises qui arrivent à tenir plus de 30-40 ans sont très rares et les géants du web, aussi puissants soient-ils, ne vont probablement pas déroger à cette règle. Jeff Bezos le patron d’Amazon, ******ebook converter DEMO Watermarks*******

a lui-même avoué qu’un jour son entreprise échouera et fera faillite[49]. Leur règne arrivera tôt ou tard à une fin. Et, c’est dans ce climat mortifère, que les technologies décentralisées, et open source comme la blockchain prendront le relais et feront naître un nouveau système économique. Sans perspective de profits, l’initiative privée capitaliste disparaîtrait au profit d’un nouveau système collaboratif, dont la motivation ne serait plus le profit, mais l’envie d’améliorer le bien-être social de l’humanité. Le capitalisme pourrait muter/évoluer ou alors complètement disparaître très prochainement. D’ailleurs Zoltan Istvan, un politicien-transhumaniste américain, ne cache pas son incertitude : « Le capitalisme tel que nous le connaissons cessera probablement au cours des 10 à 15 prochaines années parce que l'automatisation va être très répandue. » En reléguant les tâches ingrates aux machines, l’automatisation nous permettra de nous consacrer à des choses plus élevées intellectuellement ou aux divertissements. Les secteurs de la réalité virtuelle, de la réalité augmentée et des jeux vidéo vont avoir beaucoup d’avenir. La fin du capitalisme tel que nous le connaissons marquera le début d’un nouveau contrat social qui utilisera les machines pour construire un monde plus humaniste. En conclusion, l’évolution technologique entraînera probablement la fin du capitalisme actuel. Mais notre devoir sera de penser le prochain système, afin de l’adapter à ce nouveau paradigme et éviter de creuser les inégalités.

Vers une polarisation plus importante des opinions ? Internet nous a tous interconnecté à travers le monde entier et nous a permis de faire circuler encore plus facilement les informations qu’auparavant. Internet est une technologie magnifique, mais pas toutes les informations qui circulent sur internet sont bonnes. La propagation des fake news en est un bel exemple et ce sujet illustre bien l’effet pervers d’internet. Un peu avant l’arrivée d’internet, les optimistes béats pensaient que cet outil allait rendre tout le monde encore plus proche et que tout le monde allait s’aimer. C’est en fait plutôt l’inverse qui s’est produit, sauf pour ceux qui partagent les mêmes croyances. ******ebook converter DEMO Watermarks*******

Aujourd’hui, le sujet des fake news est devenu majeur. Les opinions en tout genre existent partout sur internet, c’est un vrai bazar. Notre cerveau n’a pas changé depuis l’époque préhistorique, alors que notre réalité si. Avant, si vous aviez une croyance erronée comme le fait de penser que la Terre est plate, ou que la Terre est au centre de l’Univers, ce n’était pas facile de trouver quelqu’un autour de vous partageant cette idée. Avec internet, pour n’importe quelle croyance, on peut aller chercher les preuves qui la confirment. En allant sur internet, les gens disent « Regarde ! Tu vois ?! J’avais raison ! » Les idées opposées à leur croyance existent, mais généralement les gens ne vont pas les chercher. Ce phénomène s’appelle « bulle de filtre », d’après le fondateur du site Upworthy – une plateforme qui vise à donner du contenu viral et réellement pertinent. Malheureusement, internet est aujourd’hui conçu pour alimenter encore plus nos biais cognitifs. Notamment le biais de confirmation, qui consiste à privilégier les informations confirmant nos idées préconçues et/ou d’apporter moins de poids aux hypothèses jouant en défaveur de nos conceptions. Internet est le meilleur environnement pour nous envoyer au mauvais endroit, sauf si on arrive à garder un minimum d’esprit critique pour chercher soimême les informations sur des sources sûres. On peut également aussi parler des SJW (Social Justice Warrior), qui sont un peu devenus la plaie d'internet. Ce sont des minorités très réactionnaires qui imposent leurs idées à la majorité, surtout lorsqu’elles se sentent offusquées. Ce n’est qu’un exemple, mais le problème des personnes qui communiquent de théories sur les Illuminati, c’est qu’ils ne communiquent quasiment qu’avec des gens qui partagent les mêmes idées sur le web. C’est en grande partie dû au fait que les personnes qui ont fait les algorithmes sur Facebook, Twitter et YouTube, n’ont cherché qu’à développer des systèmes qui n’attirent que les personnes qui ont des centres d'intérêt en commun pour maximiser les clics et le temps d’utilisation des applications. L’effet, c’est que les idées extrêmes font caisses de résonances sur internet, développant ainsi une plus grande polarisation des opinions. Heureusement, il existe des solutions ! On peut par exemple changer les algorithmes qui nous donnent les informations qui confirment ce que l’on pense déjà. Certains utilisateurs peuvent changer leurs paramètres en ce sens, ******ebook converter DEMO Watermarks*******

ou ajouter des extensions qui permettent de voir les idées opposées sur Facebook ou Twitter, par exemple PolitEcho. En 2019, Mark Zuckerberg a déclaré qu’il veut réguler Facebook, en ajustant les algorithmes afin de limiter ce problème. YouTube a également aussi montré un intérêt pour changer ses algorithmes. Si dans les années qui viennent, aucune action n’est prise pour réguler les informations sur internet, il y a fort à parier que la polarisation des opinions va encore plus se creuser. Dans l’avenir, les gens pourraient encore plus se communautariser à cause des idées extrêmes sur internet.

De nouvelles religions vont apparaître Avec l’arrivée hypothétique d’une IA forte dans les prochaines décennies, de nouveaux prophètes vont se révéler sous nos yeux. De nouvelles religions basées sur la technologie vont apparaître. Cela peut paraître bizarre, voire complètement déjanté, mais ce phénomène est déjà en train d'émerger aujourd’hui. En 2017, Anthony Levandowski, un ancien ingénieur de chez Google, a fondé « Way of the Future », qui est une organisation religieuse aux ÉtatsUnis, mais aussi la première église de l’IA. Le but de sa démarche est de développer et promouvoir la conception d’une divinité basée sur l’intelligence artificielle. Il explique que l’IA sera incroyablement plus intelligente que les humains, ce qui lui permettrait d’avoir des capacités divines. « Ce qui va être créé sera effectivement un Dieu », explique-t-il au journaliste du magazine Wired venu lui rendre visite dans sa maison de Berkeley, en Californie. « Ce n’est pas un Dieu dans le sens où il fait des éclairs ou cause des ouragans. Mais si quelque chose est un million de fois plus intelligent que le plus intelligent des hommes, de quelle autre manière allez-vous l’appeler ? » Pour lui et ses fidèles, la création d’une superintelligence est inévitable et aucun moyen n’existe pour l’arrêter. Il faudra que l’homme participe le mieux possible à cette transition de pouvoir. « Les humains sont en charge de la planète parce qu’ils sont plus malins que les autres animaux et capables de construire des outils et de créer des lois », affirme-t-il à Wired. « Dans le futur, si quelque chose est bien, bien plus intelligent, il y aura une transition ******ebook converter DEMO Watermarks*******

sur qui est véritablement en charge de la planète. » Le but de Way of The Future est ainsi de préparer l’homme à cette transition. L’histoire de Anthony Levandowski n’est que le début de ce phénomène. On peut déjà imaginer des gens vénérer l’arrivée de l’IA forte comme le retour de Jésus, ou de la salvation de l’espèce humaine. Lorsque les IA fortes existeront, on peut tout à fait imaginer que des gens voudront programmer des IA à l’image des Dieux. Il existera des Dieux numériques polythéistes et monothéistes. Les fidèles feront le culte devant l’IA Allah, ou du Dieu Chrétien qui en prendra ses comportements via les textes sacrés. Bien entendu, les fidèles se scinderont entre ceux qui vénéreront la version numérique de leur Dieu et les autres qui n’accepteront pas ce nouveau culte. Il y aura aussi à l’image de Levandowski, des personnes qui voudront développer de nouveaux Dieux. Il est possible que le nombre de sectes augmente dans les prochaines années. D’autres verront l’arrivée de l’IA comme le retour de l’Antéchrist, ou d’une entité maléfique, comme le conceptualise d’une certaine manière l’expérience de pensée « Roko’s Basilik » qui imagine une IA surpuissante capable de punir les personnes qui n’ont pas aidé à son arrivée. Elle mettrait les personnes qui ont été contre l’IA ou contre son développement dans un enfer en réalité virtuelle. À l’inverse ceux qui ont été bénéfiques pour l’IA seraient envoyés dans un paradis en réalité virtuelle. L’IA est derrière beaucoup de fantasmes, mais il semble tout à fait réaliste d’imaginer que des personnes s’en serviront pour créer de nouvelles sectes. La religion ne disparaîtra pas du jour au lendemain, au contraire il y en aura de plus en plus !

Un futur tourné vers l’émotion et la compassion ? En général, nous pensons que l’émotion est quelque chose d’unique à l’homme et que la machine ne pourra jamais en bénéficier. Dans un sens, c’est vrai. L’émotion sera pendant encore quelque temps l'apanage de l’humain. Mais il est très présomptueux de penser que sur le long terme les machines n’en seront pas dotées. ******ebook converter DEMO Watermarks*******

Au fur et à mesure que les machines deviendront de plus en plus performantes, elles deviendront progressivement aptes à imiter l’émotion humaine à la perfection. L’enjeu pour ces systèmes est finalement d’assurer un meilleur contact entre l’homme et la machine. Les émotions, la façon dont nous interagissons avec l’environnement, nos comportements sociaux et nos décisions quotidiennes sont très prévisibles. Un jour ou l’autre, les machines arriveront à en comprendre tous les mystères. Ainsi elles pourront interagir avec nous d’une façon tellement parfaite que nous préférerons parler aux machines qu’aux humains. Les machines sembleront plus humaines que les humains ! Mais avant d’en arriver là, ce sera notre propre humanité qui sera démultipliée. Durant cette phase transitoire vers l’IA forte, le gain de temps apporté par les machines dans tous les secteurs nous permettra de mieux nous consacrer aux relations humaines. Nos interactions seront plus chaleureuses, car nous aurons plus de temps pour nous y consacrer grâce à l’IA. Et c’est ce chemin que nous devons choisir et y mettre tous nos efforts, surtout si nous voulons garder l’humain au centre de l’échiquier. Dans le cas contraire, si nous ne faisons pas en sorte de garder l’humain aux commandes, nous prenons le risque de nous faire dépasser par l’IA. C’est pour cette raison qu’il est primordial de mettre tous nos efforts pour développer une IA éthique et morale, qui restera toujours à notre service. L’humain doit toujours rester celui qui mène la barque.

******ebook converter DEMO Watermarks*******

5 - Des changements disruptifs dans tous les domaines avec l’IA « Innover, ce n’est pas avoir une nouvelle idée, mais arrêter d’avoir une vieille idée. » - Edwin Herbert Land

Musique qui correspond à cette partie : Extra Terra - “Disruption” Vous pouvez l’écouter sur Spotify, Apple Music, Deezer ou n’importe quel autre service de musique en streaming.

Ambiance : Douce / Mélancolique Style : Musique de film / Epic / Electronic / Orchestrale / Futuriste Tempo : 195 BPM L’IA sera un vecteur de grands bouleversements dans la société humaine. J’ai voulu à travers cette musique faire ressentir les ruptures que l’IA va apporter, mais également les espoirs qu’elle peut susciter.

L’IA et la santé L’arrivée de l’IA dans le domaine de la santé sera une véritable révolution, qui aura pour effet de changer littéralement la façon dont nous allons nous faire soigner. L’IA est en train d’atteindre des facultés surhumaines dans le diagnostic médical. Peut-être que certains médecins, vont froncer les sourcils en lisant ces lignes, mais c’est la réalité ! Quel que soit notre métier, nous avons la fâcheuse tendance à nous voir plus beaux et plus irremplaçables que les autres. Mais à bien y réfléchir, il y a de nombreuses parties dans nos jobs où l’humain n’excelle pas particulièrement. Avant d’en arriver au stade où la médecine sera complètement automatisée, il pourrait bien être souhaitable de déléguer certaines tâches aux ******ebook converter DEMO Watermarks*******

machines pour le bien des patients. La vie du patient prime sur l’emploi du médecin. Il est donc logique de laisser les machines prendre le relais, surtout si elles sont statistiquement supérieures aux capacités humaines dans le diagnostic médical. L’IA peut être utile et il faudra l’utiliser pour augmenter les chances de survie d’un patient. En 2017, une collaboration d’ingénieurs et de médecins de l’Université de Stanford a permis d'élaborer une IA dans le domaine dermatologique. Cette IA a été capable de diagnostiquer des cancers de la peau, avec plus de justesse que les dermatologues[50]. L’équipe s’est appuyée sur une intelligence artificielle baptisée « Show and Tell », qui est capable d'analyser le contenu d'images en les classant par catégories. En open source depuis 2016, elle a atteint un taux de précision d'environ 94 %. Il est important de noter que plus le cancer est dépisté tôt, plus il est facile à traiter. L’IA va grandement nous aider à réduire toutes ces contraintes grâce au dépistage précoce. Vers le milieu de la même année, une autre équipe de Stanford est parvenue à concevoir une autre IA capable de mieux détecter les arythmies cardiaques que des cardiologues à partir d’électrocardiogrammes[51]. Il est assez facile pour un humain de passer à côté de certaines pathologies cardiaques, alors qu’une IA peut déceler tous les points subtils d’une analyse plus facilement. Elle est capable de percevoir plus facilement des temps de pause subtilement trop longs ou une excitation électrique du cœur un peu trop précoce. Certaines pathologies cardiaques sont pourvoyeuses de morts subites par arrêts cardiaques brutaux. Grâce aux IA le dépistage de ces pathologies pourra se faire en amont. Fin 2017, une troisième équipe de Stanford (encore !) a fait le même type d’exploit dans le domaine de la radiologie[52]. Cette IA a surpassé les performances des radiologues dans la détection de pathologies pulmonaires à partir de radiographies du thorax de plusieurs patients. Contrairement à ce que beaucoup de personnes imaginent, ce sont les médecins eux-mêmes qui ont été derrière ces initiatives. Il n’y a pas de complot visant à récupérer vos données médicales pour de mauvaises intentions. Cependant, on comprend vite l'intérêt de diagnostiquer efficacement et ******ebook converter DEMO Watermarks*******

précocement les maladies, tant pour le patient, lui évitant des complications, que pour la communauté au niveau économique. Moins de problèmes, cela veut dire, moins de soins, moins de traitement et moins de complications. Des gens en meilleure santé, cela signifie moins de dépenses, au niveau individuel et au niveau collectif. C’est pour cette raison que l’industrie médicale n’aura pas le choix de s’y mettre, tant cette nouvelle économie sera bénéfique pour tout le monde. Bien évidemment, la démarche du diagnostic n’est pas qu’une question d’analyse d’images ou de données. Il y a une partie d’interrogatoire clinique avec une recherche d’antécédents et de signes cliniques particuliers. Le médecin doit aussi questionner, établir une relation de confiance, rassurer et accompagner le patient. Et pour l’instant les IA qui ne font que de l’apprentissage supervisé, n’en sont pas encore capables. En fait, il semble que pour devenir encore bien plus performantes dans la santé, les IA vont devoir encore grandement progresser. Elles devront notamment utiliser des notions de bons sens et d’anatomie globale du corps humain, pour faire des diagnostics de maladies dont elles disposent de peu de données. Notamment en passant l’étape du One-Shot Learning. En attendant, les IA médicales sont déjà très performantes et il est fort probable que dans peu de temps, les médecins travailleront de plus en plus en collaboration avec les robots et les machines. Kai Fu Lee, l’un des meilleurs spécialistes de l’IA, pense que les médecins du futur évolueront vers une nouvelle profession qu’il appelle “soignant compassionnel”. Ce nouveau métier combinera les compétences de l’infirmier, du technicien, de l’assistant social et du psychologue. En gros, d’ici 15 ans le médecin deviendrait un BAC + 3, qui serait boosté à l’IA. Les soignants compatissants seraient formés non seulement à l'utilisation et à la compréhension des outils qui aident au diagnostic, mais également à la communication avec les patients. C’est-à-dire, tout ce que l’IA ne peut pas faire pour l’instant.

- L’éthique de l’IA médicale ? L’IA sera donc un facteur de disruption assez important dans le domaine médical. Mais qu’en est-il au niveau éthique ? Sur ce point cela semble un peu plus compliqué. ******ebook converter DEMO Watermarks*******

Même si imaginons nous développons un jour une IA avec un taux de réussite de 99,99 % lors du diagnostic, il restera toujours des cas où elle aura tort et donc des situations dans lesquelles elle se trompera toujours un minimum. Ce qui signifie que dans de rares situations, elle causera des morts. Il est donc pertinent de se poser la question de la responsabilité. Qui est le responsable dans ce cas ? Aujourd’hui, quand il y a une erreur médicale, on ne parle pas ici d’aléas thérapeutiques, mais bien d’erreur. Il existe au moins un seul responsable et c’est le médecin. Mais si on délègue à une machine très performante le travail du médecin, elle pourrait toujours potentiellement causer 1 mort sur 1 million. Dans cette situation, est-ce le médecin ou la structure qui gère la machine qui est responsable ? Ou alors est-ce les ingénieurs qui ont programmé la machine ou le législateur ? C’est un peu la même problématique que les voitures autonomes. Certes, les accidents seront probablement plus rares, mais pas inexistants. Mais s’il y a une seule faute, qui va en prendre la responsabilité ? Ce sont des questions qui doivent se poser en amont de l’utilisation de ces IA. Malheureusement ces questions n’ont pas encore de réponses claires et les gouvernements prennent trop de temps à légiférer. Les politiciens ne sont pas formés à la technologie et encore moins à son évolution exponentielle. Il est donc difficile pour eux d’anticiper la vitesse d’évolution et d’adoption de ces technologies. Le résultat, c’est qu’ils légifèrent dans la hâte, une fois que la technologie est sortie, entraînant souvent la mise en place de lois mal adaptées. Cependant, il semble plus pertinent de laisser la responsabilité aux entreprises qui ont construit ces systèmes. Et pourquoi pas, mettre en place un système d’assurance en partenariat avec ces entreprises pour permettre de payer les dédommagements. Ce sont ces entreprises qui ont pris l’initiative de créer ces systèmes, alors il est de leur devoir d’en assumer les conséquences. Comme un peu partout, l’application de l’IA dans le domaine de la santé soulève de nombreuses questions éthiques et inédites dans l’histoire de l’humanité. Débattre de manière calme et raisonnée de ce sujet sera très difficile. ******ebook converter DEMO Watermarks*******

- L’IA et la médecine dans un avenir proche Durant cette période, le médecin travaillera de plus en plus en symbiose avec l’IA. Les diagnostics seront faits par les IA et les médecins récupéreront les résultats pour les approuver. L’aspect humain du médecin sera sublimé, grâce à l’IA qui lui fera gagner beaucoup de temps. Cette alliance unique entre l’homme et la machine permettra aux médecins de s’occuper plus longtemps des patients. Les IA s’occuperont d’analyser les patients et de faire les diagnostics. Les médecins du futur deviendront des “soignants compatissants”, ils s’occuperont principalement de conseiller, de rassurer et de suivre psychologiquement les patients. Mais ils devront avoir suffisamment de connaissances techniques dans le domaine de l’IA, de l’informatique et de la médecine pour pouvoir exercer. •

Vers la fin de cette période, les IA prendront de plus en plus de place dans le domaine de la santé, mais aussi dans nos vies. Nous aurons des puces ou des patchs (les gens préféreront probablement la méthode la moins invasive au début) qui feront un monitoring en temps réel de notre état de santé. Ces IA seront connectées sur nos smartphones ou sur nos lunettes de réalité augmentée et enverront des notifications à la moindre anomalie pour nous conseiller d’aller consulter. Nous aurons tous notre propre assistant qui analysera en temps réel les données génétiques, les données sanguines, les données cardiaques – permettant ainsi de réellement individualiser la médecine. L’analyse du Big Data du génome humain par les IA, marquera l'avènement d’une vraie médecine personnalisée et préventive. •



Le chirurgien travaillera de plus en plus en assistance avec le robot.

Nous aurons des IA qui arriveront à anticiper les épidémies à l’aide des activités humaines sur le web et ainsi mieux se préparer à les combattre. •

Des IA s’occuperont de l’organisation des hôpitaux en gérant le planning du personnel, la répartition des lits et des places. •

- L’IA et la médecine sur le long terme Les IA pourront suggérer aux médecins les derniers traitements, voire directement participer à la conception de nouveaux médicaments. •

Le métier du chirurgien va beaucoup changer dans cette période. Des ******ebook converter DEMO Watermarks******* •

robots chirurgiens s’occuperont de nous rafistoler avec une précision et une rapidité sans faille. Le chirurgien deviendra un manager de « robots chirurgiens ». • L’IA pourra probablement remplacer totalement le médecin vers la fin de cette période.

L’IA et les défis environnementaux La plupart des gens ont souvent la fâcheuse tendance à opposer la technologie avec l’environnement – comme si la technologie et l’industrialisation étaient obligatoirement néfastes à la nature. L’IA pourrait grandement nous aider à lutter contre le réchauffement climatique. En effet, beaucoup de nos technologies engendrent des problèmes environnementaux. Personne ne peut le contester. Mais toutes les technologies n’ont pas cette vocation. De nos jours, en l'occurrence, de plus en plus de chercheurs, d’ingénieurs, d’associations ou d’entreprises essayent au contraire d’exploiter les technologies modernes pour réduire autant que possible notre impact écologique. Le rythme effréné de notre société moderne pose de grands défis environnementaux. Face à ces problèmes qui deviennent impératifs, il est nécessaire de développer les meilleurs outils possibles pour améliorer notre relation avec l’environnement. Les algorithmes qui collectent, analysent les données et aident à la prise de décision auront surement un rôle important à jouer. L’IA a justement, un gros potentiel pour nous aider à effectuer une transition vers une société plus durable. Bien entendu, la technologie ne suffira probablement pas. Il est évident qu’il va également falloir changer nos habitudes, pour se préparer à la raréfaction de certaines ressources, protéger la biodiversité et éviter d’augmenter notre influence sur l’environnement.

- Avec les transports Comme vous le savez déjà surement, dans le domaine des transports, les voitures, les avions, les bateaux et les fusées ont besoin d'énergies fossiles pour fonctionner. Leur utilisation a pour effet d’accumuler beaucoup de CO2 ******ebook converter DEMO Watermarks*******

et de particules fines dans l’air qui sont dangereuses pour la santé. Une étude de Santé publique France a d’ailleurs déclaré que les particules fines sont responsables de 9% de la mortalité en France[53]. Les particules fines d’un diamètre inférieur à 2,5 micromètres – les PM2,5, pénètrent profondément dans le système respiratoire et peuvent provoquer des pathologies. Ainsi, pour diminuer notre impact sur l’environnement, il est important de minimiser l’utilisation des transports. Grâce à l’utilisation des GPS et des applications qui permettent d’analyser le trafic en temps réel comme Google Maps ou Waze, nous arrivons à fluidifier le trafic et la consommation énergétique. Mais ce n’est rien par rapport aux bénéfices de l’IA. À l’Université de Pittsburgh, aux États-Unis, une IA a été utilisée pour gérer 50 feux tricolores à des intersections, afin de fluidifier la circulation[54]. L’utilisation de cette IA a permis de réduire le temps de trajet de 25% et les émissions polluantes de 20%. Appliquer l’IA au secteur du transport permettrait des optimisations de plus en plus performantes des trajets. Le déploiement à grande échelle des véhicules autonomes pourrait aussi avoir un effet positif sur la consommation énergétique. Sous réserve que l’IA et les capteurs de ces véhicules autonomes ne soient pas trop gourmands en énergie et en matériaux. Cependant, l’utilisation des véhicules autonomes permettra de réduire le nombre de voitures sur les routes et donc d’en réduire la fabrication. Ainsi, nous allons pouvoir économiser beaucoup plus de ressources qu’aujourd’hui pour fabriquer des véhicules. Le déploiement du télétravail grâce aux technologies de l’information, permettrait aussi de réduire l’impact écologique sur l’environnement. Ne pas se déplacer reste en effet la meilleure solution pour éviter de polluer. Cette idée peut paraître folle ou mauvaise pour certains, parce que cela couperait encore plus les personnes des contacts sociaux. Cependant, l’idée n’est pas complètement débile. Aujourd’hui, beaucoup d’entreprises pourraient déjà utiliser cette forme de travail, notamment dans les métiers liés aux technologies de l’information. C’est pour cette raison, qu’il faudra pousser les entreprises à utiliser de plus en plus le télétravail.

- Avec l’agriculture ******ebook converter DEMO Watermarks*******

L’agriculture est un autre secteur d’activité qui pose des problèmes environnementaux. L’exploitation agricole affecte la qualité des sols, de l’eau, de l’air de la biodiversité et de la santé humaine. L'utilisation de l’IA dans l’agriculture pourrait aider à réduire la faim dans le monde. Par exemple, l’agriculture pose des problèmes d’eutrophisations, qui sont dues à l’utilisation excessive d’azote et de phosphore. Malheureusement, l’utilisation de ces éléments chimiques provoque des déstabilisations écologiques. L’agriculture est le secteur qui rapproche le plus les activités humaines de l’environnement. Il n’est donc pas étonnant que les enjeux environnementaux soient très importants. L’agriculture est un secteur qui nécessite l’aide de l’IA. Gérer une production agricole est un problème d’une très grande complexité qui demande d’analyser beaucoup de données. Dans une production agricole, il faut choisir quelle graine il faut planter, dans quel sol, à quel moment, avec quelle quantité d’eau et avec quel pesticide. Des données qui se complexifient lorsqu’on veut savoir les propriétés des graines, de la qualité des sols et des maladies qui peuvent attaquer les plantes. Sans compter les conditions climatiques et météorologiques du lieu de production. La quantité de données à gérer est beaucoup trop grande pour les humains. L’IA nous permettrait de prendre les décisions les plus optimales et de gérer au mieux toutes les ressources nécessaires à la production agricole. Plusieurs entreprises anticipent déjà l’utilisation de l’IA dans le domaine de l’agriculture. Notamment Microsoft, qui cherche à proposer des outils de collecte de données avec des capteurs, des caméras ou même des images satellites sur les sites de production. Leur but est d’optimiser les besoins en engrais, ou les parties des champs qui en ont le plus besoin. Grâce à l’utilisation d’une IA en Inde, Microsoft a réussi à augmenter de 30% le rendement d’une production agricole par hectare[55]. L’IA nous permettrait ainsi de grandement diminuer l’utilisation des pesticides ou d'engrais, tout en augmentant la production agricole.

- Contre la pollution La pollution de l’air serait la troisième cause de mortalité derrière le tabac et l’alcool. Et un des pays le plus touchés par la pollution de l’air c’est la ******ebook converter DEMO Watermarks*******

Chine. L’IA encore une fois, si elle est utilisée à grande échelle, permettrait de réduire la pollution de l’air sur l’ensemble de la planète. IBM a par exemple développé une IA, capable de mieux prévoir les pics de pollution et identifier les sources polluantes. Cette IA est déjà plus efficace que les modèles existants, qui utilisent les données des activités industrielles, météorologiques et des estimations du trafic routier. L’utilisation de l’IA d’IBM, a permis de prédire l’ampleur de la pollution dans la ville de Beijing 72h à l’avance[56]. En utilisant l’IA, on peut ainsi prévenir les populations pour qu’elles s’en protègent. Mais aussi d’en couper les causes en coupant momentanément des usines ou en limitant le trafic routier. En utilisant l’IA, les pouvoirs publics pourraient lancer des actions sur le long terme et déployer des transports ou des industries plus durables. Une Smart City (ou ville intelligente) est une zone urbaine, ou une ville qui utilise différents capteurs pour collecter des données et fournir des informations permettant d’optimiser les ressources. Le concept de ville intelligente intègre les technologies de l'information et l’internet des objets (IoT). Les Smart Cities récupèrent les données auprès des citoyens, du trafic, des centrales électriques, des réseaux d'approvisionnement en eau, la gestion des déchets, des systèmes d'information, des écoles, des bibliothèques et des hôpitaux. Une IA intégrée dans une Smart City, pourrait aussi permettre à la ville de mieux gérer le trafic urbain, leur flux d’énergie et les ressources. Une ville gérée par une IA pourrait ainsi mieux s'autogérer en cas de pic de pollution, qu’une ville classique.

- Contre la déforestation La déforestation est aussi un problème qui pourrait être réduit grâce à l’IA. Les forêts – en particulier les forêts tropicales – sont essentielles pour l'équilibre de notre planète. On estime que l'ensemble des forêts tropicales dans le monde abrite 92% des espèces animales ou végétales vivantes. Or la déforestation se développe à un rythme préoccupant depuis plusieurs années, surtout à cause d'activités illégales. L'intelligence artificielle pourrait aider à réduire considérablement le phénomène. Il est important de noter que la déforestation illégale est celle qui pose le plus de problèmes. Selon une étude de l'organisation américaine Forest ******ebook converter DEMO Watermarks*******

Trends datant de 2014[57], près de la moitié de la déforestation dans les pays tropicaux s'explique par la conversion illégale de la forêt en terres agricoles. La déforestation légale est beaucoup moins dangereuse, car elle peut être justifiée. Ses causes sont inscrites dans la loi d'un pays. Au Brésil, le ministère de l'Environnement en accord avec des organismes de conservation de la biodiversité peut décider de retirer une partie de la végétation de la forêt amazonienne pour développer des activités agricoles ou procéder à des aménagements urbains. L’ONG Rainforest Connection utilise depuis 2018, une IA de Google pour lutter contre la déforestation illégale en Amazonie[58]. L’ONG utilise l’outil de Machine Learning TensorFlow pour repérer le plus tôt possible les activités illégales. L’IA utilise des capteurs sonores dans les zones à risques et arrive à reconnaître les activités suspectes : les sons de camions, les bruits du chargement du bois, le vacarme des tronçonneuses, etc. Une alerte est ensuite envoyée aux gardes forestiers, qui peuvent intervenir ou prévenir les autorités locales. Grâce à l’IA, la technologie semble pouvoir contribuer largement à la préservation des forêts tropicales. Les forêts sont importantes pour garder la biodiversité de notre planète et il faut s’en préoccuper. Mais des solutions existent, il faut donc arrêter d'être fataliste sur le sort de notre planète.

- Pour la gestion énergétique Comme on le sait déjà, le secteur du numérique demande de l’énergie. Les IA demandent de plus en plus de puissance de calcul. Et dans ce contexte, on peut se demander si à ce rythme, nous allons toujours avoir suffisamment d'énergie pour alimenter ce secteur. Encore une fois, des solutions peuvent être appliquées avec l’aide de l’IA. Depuis 2016, Google utilise les capacités de l’IA de DeepMind pour améliorer l’efficacité énergétique de ses centres de traitement de données. Demis Hassabis, le cofondateur de DeepMind, avait expliqué que son IA a pu réduire la consommation de ses data centers, en suggérant une série d’améliorations, à tel point qu’elle aurait permis à Google une hausse de 15 % de l’efficacité énergétique[59]. La solution pour la gestion énergétique ******ebook converter DEMO Watermarks*******

pourrait venir du secteur numérique lui-même. Bien évidemment, la solution ne viendra pas uniquement de l’IA, mais aussi de nos modes de vie. Mais l’IA va grandement nous aider. Google aimerait aller encore plus loin, en proposant ses services à l’échelle de tout un pays. L’IA de DeepMind pourrait aider les pays à gérer l’électricité et le gaz d’une bien meilleure façon que nos infrastructures actuelles. Nous en sommes pour l’instant qu’à un stade précoce de l’utilisation de cette technologie pour des pays entiers, mais l’avenir semble prometteur. Demis Hassabis ne cache pas son enthousiasme « Ce serait formidable si vous pouviez améliorer de 10 % l’usage énergétique du pays sans aucune nouvelle infrastructure, simplement avec de l’optimisation. C’est assez palpitant ». On pourrait aussi utiliser les smart grids et les algorithmes génétiques pour gérer le placement des éoliennes et ainsi optimiser le rendement énergétique. En utilisant ces techniques cela permettrait de mieux placer les éoliennes et ainsi gagner grandement rendement énergétique. Certaines personnes pensent que l’énergie que l’on gagnerait avec ces optimisations ne suffirait pas à cause de la demande d’énergie croissante. C’est vrai si on garde la même architecture hardware. Mais grâce aux processeurs neuromorphiques, nous allons pouvoir réduire drastiquement la consommation énergétique, tout en gagnant en performance. Les nouvelles avancées dans le hardware semblent en tout cas propices à l’arrivée d’une IA verte dans les prochaines années !

L’IA et l’éducation L’éducation est un domaine un peu plus compliqué à disrupter à cause de sa fragmentation. Et pourtant c’est l’un des plus importants. Les programmes scolaires varient en fonction des pays et de la culture. Toutefois, si l’IA est utilisée à bon escient, nous pourrons obtenir une « éducation augmentée ». Les applications de l’IA, semblent se tourner vers le tutorat à distance et la personnalisation de l’enseignement, via des agents conversationnels intelligents capables de suivre et accompagner pas à pas les élèves dans leur progression. L’éducation avec l’IA agit sur 4 scénarios : l’enseignement en classe, les ******ebook converter DEMO Watermarks*******

devoirs et les exercices, les tests et les notations et la formation personnalisée. Toutes les données de l’élève pourraient être analysées par l’IA, via un profilage détaillé de toutes ses lacunes, de ses motivations, des méthodes d’apprentissages les mieux adaptées et de son attention en classe. On peut aussi parler de la cobotique qui couvre l’usage de robots accompagnant les enfants dans certains processus d’apprentissage. Comme le petit robot Leka ou encore Nao et Pepper de Softbank Robotics. Ces robots sont déjà utilisés dans des classes au Japon et en Chine. Toujours est-il que l’apprentissage en classe n’est qu’une fraction de l’ensemble du tableau de l’éducation avec l’IA. Lorsque les élèves rentrent chez eux, les profils des élèves peuvent se combiner avec des algorithmes générateurs de questions pour créer des devoirs adaptés à leurs capacités. En utilisant l’IA, les élèves peuvent non seulement apprendre plus facilement en classe, avec le combo professeurs-IA, mais aussi à la maison grâce à des chatbots intelligents. Pour les cours de langue, la reconnaissance vocale boostée par l’IA peut apporter un enseignement de haut niveau en anglais. En Chine, des logiciels de reconnaissance vocale de haute performance sont capables d’évaluer la prononciation vocale des élèves, ce qui les aide à améliorer l’intonation et l’accent sans avoir besoin d’un locuteur natif anglais sur place. En ce qui concerne la notation l’IA pourrait donner un véritable gain de temps aux professeurs. Le temps gagné sur les notions de base pourrait permettre aux professeurs de communiquer avec les élèves sur des concepts de niveau supérieur. Le gain de temps apporté par les IA et la cobotique, pourrait renforcer encore plus le côté humain des professeurs, car ils auront plus de temps à consacrer aux élèves. L’application de l’IA pourrait ainsi démultiplier l’éducation et les relations humaines. L’IA pourrait aussi permettre de vaincre l’analphabétisme. IBM a lancé un projet dans ce sens, dans lequel il est question d’utiliser l’IA pour aider les apprenants analphabètes ou peu alphabétisés à naviguer dans les textes avec plus d’assurance[60]. Presque tous les outils décrits ici existent déjà et beaucoup sont déjà mis en œuvre dans des salles de classe en Chine ou au Japon. Ensemble, ils constituent un nouveau paradigme de l'éducation fondé sur l'intelligence ******ebook converter DEMO Watermarks*******

artificielle, qui fusionne les mondes online et offline pour créer une expérience d'apprentissage adaptée aux besoins et aux capacités de chaque élève.

L’IA dans le domaine juridique Le domaine juridique est également en pleine mutation dans le domaine de l’IA. Le lancement de la startup Ross Intelligence en 2014, qui s’appuie sur IBM Watson, semble déjà donner un signal de mutation dans ce secteur. Une étude de Altman Weil Law Firms in Transition 2017 indique que la moitié des cabinets d’avocats US de plus de 1000 salariés utilisaient déjà des outils d’IA[61]. Pour l’instant, les solutions IA dans le domaine juridique ressemblent plus à des moteurs de recherches améliorés, qui permettent de consulter la jurisprudence et les lois. Des IA plus élaborées ont également vu le jour pour produire plus rapidement des contrats (la blockchain peut aussi le faire avec les Smart Contracts dans certains cas) et d’autres pour générer des prévisions probabilistes sur l’issue d’un procès. Actuellement, l’IA juridique tourne principalement autour du traitement du langage et de la modélisation des connaissances. Ces IA permettent d’améliorer grandement la productivité des juristes et des avocats, mais ne sont pas encore capables de remplacer totalement l’humain. À part Ross Intelligence, on pourrait citer d’autres startups qui utilisent déjà de l’IA dans le domaine juridique comme Judicata, Casetext, Case Law Analytics, Predictice, Juristat, Kira Systems… La plupart de ces IA sont pour l’instant centrées sur les textes anglo-saxons, mais quelques startups françaises commencent à voir le jour dans ce domaine. Comme toute technologie qui se déploie à grande échelle, l’IA pourrait aussi permettre un élargissement du marché juridique tout en ayant un effet déflationniste sur les tarifs. Cette technologie deviendrait alors une commodité, comme l’a été l’utilisation des tableurs il y a 35 ans, pour les métiers exploitant des données chiffrées. Allons-nous nous faire juger par des IA pour autant ? Pour l’instant cela semble compliqué. Les IA n’ont pas encore de morale, il est donc difficile de leur laisser le droit de juger la vie d’un individu à notre place. Et même si ******ebook converter DEMO Watermarks*******

c’était le cas, je doute qu’un jour les gens puissent laisser une IA nous juger. Mais il ne faut jamais dire jamais !

L’IA dans la finance Le secteur de la finance est celui dans lequel l’IA reçoit le plus d’investissement – devant celui de la santé. La finance est un terrain très propice à l’usage de techniques de machine learning et dans tous ses métiers. Du front office au back office en passant par la relation clients via des chatbots, l’analyse de risques et l’optimisation de portefeuille, sans compter la reconnaissance automatique de l’écriture manuscrite dans les chèques qui est déjà utilisée depuis longtemps. Le but est toujours d’optimiser les opérations, d’en réduire les coûts, de personnaliser les offres et d’améliorer la relation client. Les financiers ont vraiment pour ambition de totalement disrupter ce secteur, avec ou sans IA. Même si pour l’instant la plupart des applications sont focalisées sur les moyens de paiement, plutôt que la gestion des comptes ou la commercialisation des produits financiers. Le monde de la finance est porté sur la création d’un grand nombre de startups qui fournissent quelques indices des usages prometteurs de l’IA dans ce domaine. Dans le Marketing, il y a DataFox qui permet le ciblage de clients et utilise le big data et machine learning pour cibler et traiter les bons clients avec les bonnes offres. Et pour l’optimisation d’investissements boursiers, il y a AdvisorEngine. Il y a énormément d’IA dans le secteur financier dans la fraude fiscale avec Sift Science ou encore dans gestion des risques comme LendUp. L’IA, la blockchain et les cryptomonnaies semblent former un trio assez fort pour changer le domaine financier. Ils pourraient totalement changer le fonctionnement du secteur financier, dans des proportions pour l’instant encore insoupçonnées.

L’IA contre la pauvreté L’IA est probablement l’un des outils les plus prometteurs pour lutter contre la pauvreté et la faim dans le monde. Encore une fois, ces applications n’en sont qu’a leurs prémices, mais un grand nombre de scientifiques, ******ebook converter DEMO Watermarks*******

d’organisations et d’entreprises cherchent des moyens d’utiliser l’IA pour le bien commun de la planète. Qu’il s’agisse de catastrophes naturelles, de guerres, de crise alimentaire, ou de la question du manque d’éducation : l’IA peut aider à identifier les populations les plus nécessiteuses. Mais avant d’arriver à aider ces populations, il est important de les identifier et d’en reconnaître les causes. Les images satellites, par exemple, peuvent aider les chercheurs à y parvenir. Les zones de fortes densités de lumineuses durant la nuit sont généralement plus riches que celles qui sont dans l’obscurité. L’Université de Stanford a pu établir une cartographie des régions les plus pauvres d’Afrique en superposant les images prises la journée aux images nocturnes[62]. L’IA a été alimentée avec des images satellites de jour et de nuit du Rwanda, du Nigeria, de l’Ouganda, du Malawi et de la Tanzanie, a pu être en mesure de prédire la pauvreté dans ces régions. Recoupées aux données obtenues auprès des ménages, ces informations ont permis à cette IA d’atteindre une précision de 81 à 99% par rapport aux seules images satellites nocturnes. Dans ce cas, l’IA peut aider à identifier les régions les plus démunies et à assister les organisations et les travailleurs humanitaires sur le terrain à mesurer l’efficacité de leurs efforts. En identifiant précisément les causes de la pauvreté, l’IA pourrait donc nous aider à lutter contre les zones d'extrêmes pauvretés dans le monde. Nous avons la technologie pour le faire, les pouvoirs politiques doivent maintenant prendre les bonnes décisions. Il existe bien d’autres secteurs dans lesquels l’IA bousculera les têtes : les assurances, la distribution, les BTP, l’industrie, les télécoms, les services publics, la mode, l’internet, le tourisme, le renseignement et la défense… Mais aussi des domaines auxquelles on s’attend moins comme l’art et la musique. Un terrain qu’on pensait unique à l’humain : la créativité.

******ebook converter DEMO Watermarks*******

******ebook converter DEMO Watermarks*******

6 - La Créativité à l’ère des machines et la musique « Nous avons tous des moments de faiblesse, des moments où nous perdons la foi, mais ce sont nos défauts, nos faiblesses qui nous rendent humains. La science accomplit maintenant des miracles comme les dieux d'autrefois, créant la vie à partir de cellules sanguines ou de bactéries, ou d'une étincelle de métal. Mais ce sont des créatures parfaites et, de cette façon, elles ne pourraient pas être moins humaines. Il y a des choses que les machines ne feront jamais, elles ne peuvent pas posséder la foi, elles ne peuvent pas communier avec Dieu. Elles ne peuvent pas apprécier la beauté, elles ne peuvent pas créer de l'art. S'ils apprennent ces choses, ils n'auront pas à nous détruire, ils seront nous. » - Sarah Connor, Terminator. 1985

Musique qui correspond à cette partie : Extra Terra & Google Magenta AI - “Augmented Artist” Vous pouvez l’écouter sur Spotify, Apple Music, Deezer ou n’importe quel autre service de musique en streaming.

Ambiance : Douce / Modérée / Dansante Style : Synthwave / Outrun Tempo : 90 BPM Je réalisé cette musique avec Google Magenta AI, en utilisant le framework TensorFlow dans le logiciel de programmation Anaconda, qui permet de programmer en Python. J’ai dû effectuer plus d’une centaine de rendus différents pour trouver une mélodie intéressante. J’ai ensuite réutilisé et modifié la mélodie à ma convenance pour coller à l’ambiance que je voulais donner à la musique.

******ebook converter DEMO Watermarks*******

Extra Terra Avant toute chose, il me semble pertinent de parler de mon parcours dans le domaine créatif, avant de parler de créativité artificielle ou du futur de l’art. Peut-être que cela pourra sembler insignifiant pour certains d’entre vous. Mais je pense qu’il est utile d’en parler. Depuis mon plus jeune âge, j’ai toujours été stimulé par mon environnement. Dans les années 90, mon père faisait de la musique électronique (oui un médecin musicien !) et mon frère était un super chanteur (il l’est toujours). Mais j’ai également été baigné dans une culture musicale très éclectique, en passant de la musique classique à la techno, la trance et le métal. À cette époque, mon père utilisait encore une vieille version du séquenceur Cubase sur un vieil Atari pour produire de la musique. Vers l’âge de 6 ans, j’étais un enfant éveillé et je composais déjà mes premiers morceaux de musique sur l’ordinateur de mon père (je vous rassure mes morceaux à cette époque étaient vraiment très mauvais). Durant mon enfance, j’ai toujours été stimulé de telle sorte à avoir une culture scientifique, mais aussi ma créativité. Quelques années plus tard, vers l’adolescence, je pris quelques cours de guitare et de piano dans des écoles de musique. Mais c’était surtout de façon autodidacte que ma formation fut la plus fructueuse. Je passais des nuits entières à bidouiller derrière mon ordinateur. En parallèle, je m’intéressais au code informatique comme le C++ ou le python. Je m’amusais à coder des petits jeux vidéo avec des magazines pour apprendre à coder et l’aide d’internet. À une certaine période de mon adolescence, j’hésitais à travailler dans le domaine du jeu vidéo et le web – deux domaines qui allient assez bien le domaine technique et le domaine créatif. Mais mon choix c’était plutôt porté sur le web, car ce domaine avait plus de débouchés en France – en tout cas d’après la conseillère d’orientation. En parallèle de mes études dans le Webdesign et le développement web, je faisais toujours de la MAO (Musique Assistée par Ordinateur). Vers le début de l’âge adulte, avec un ami, nous avons créé un groupe de musique électronique dans un style underground qu’on appelle le “Dubstep”, ******ebook converter DEMO Watermarks*******

qui est un sous genre de la “Bass Music”. Comme son nom l’indique, c’est un style de musique axé sur les basses - surtout les sub basses. Quelque temps après je me suis séparé de mon ami pour continuer le projet en solo. Même en étant catalogué principalement dans ce style, j’ai toujours fait en sorte de produire des musiques éclectiques : Dubstep, Trance, Musique orchestrale, Trap, Hybrid Trap… mais toujours en gardant mon empreinte musicale. Les néophytes risquent d’être surpris par les sonorités futuristes et ils pourraient penser que c’est une musique complètement « Alien », voire bizarre. Ne vous inquiétez pas, c’est le but ! Suite à certaines circonstances, le projet gagna une certaine notoriété internationale dans ce style de musique. Et, je me suis retrouvé avec des centaines de milliers de fans et d’écoutes sur internet au bout de quelques mois. J’avais même réussi à faire un mème (c’est un élément ou un phénomène repris et décliné en masse sur internet), sous forme d’une vidéo qui a fait 35 millions de vues sur Facebook et 7 millions sur youtube. Probablement, l’un de mes meilleurs coups de com’. Si vous êtes curieux, tapez sur YouTube “How Dubstep Was Discovered”, c’est très drôle. Cependant, avant d’en arriver à ce stade, ce n’était pas de tout repos. Je sais ce que c’est d’avoir des refus sur refus de la part des labels. Je sais également ce que cela fait d’être dans des situations financières difficiles. La vie d’artiste est dure, mais ce n’est pas pour l’argent qu’on fait ce métier, c’est pour faire sa passion. J’ai donc commencé à faire des concerts et des tournées un peu partout en Europe, puis au Canada. J’ai également publié des musiques sur des labels populaires situés à Los Angeles. Les USA étaient donc à ma portée, mais obtenir un VISA était quelque chose de très compliqué, même avec beaucoup de fans. Et, d’une certaine façon, une vie de voyages ne m'intéressait plus trop. Je précise que je ne suis pas DJ à la base, mais je le suis devenu par défaut pour faire les concerts. Le métier de DJ-Producer est en fait quelque chose de très éprouvant socialement et physiquement. Vous êtes constamment seul pendant les voyages. La vie se résume à aller à l’hôtel, puis aller à la salle de concert, faire le concert, puis retourner à l'hôtel, reprendre l’avion et le train et ensuite refaire la même chose. Les seules personnes que vous voyez sont les organisateurs des événements, mais les relations sont strictement professionnelles. Et au niveau physique, vous êtes constamment ******ebook converter DEMO Watermarks*******

décalé, à cause des décalages horaires et des voyages. De plus, il est rare de pouvoir dépasser les 4-5h de temps de sommeil. Malgré tout, je ne peux pas nier que faire des concerts devant des milliers de personnes est une superbe expérience. – En fin de compte, c’est surtout la composition musicale à l’état pur qui m’a toujours le plus intéressé. Et depuis les trois dernières décennies, le milieu de la musique a énormément changé. Les puissances de calcul permettent aujourd’hui d’avoir un studio d’enregistrement complet, avec les machines et synthétiseurs d’un studio professionnel dans un seul ordinateur. L'apparition du home studio (studio à la maison), fut une vraie révolution dans le domaine de la musique. Plus besoin d’avoir des studios d’enregistrement gigantesques pour produire de la musique ou s’enregistrer. Vous pouvez avoir un studio pro de la taille d’un bureau à la maison. N’importe qui peut devenir aujourd’hui “home studiste” grâce à internet. Le home studiste est un rôle assez nouveau, qui est apparu grâce à l’évolution technologique. Pour être home studiste il faut avoir les compétences du technicien, pour traiter et mixer les pistes, mais également être capable d’enregistrer ou produire des musiques. Un home studiste est le mix parfait entre l’ingénieur du son et le musicien. C’est un domaine qui demande donc beaucoup de compétences techniques, mais aussi d’être créatif – comme l’est aussi le concepteur de jeux vidéo ou le concepteur web. Sans technique, je n’aurai pas pu faire l’album qui accompagne ce livre par exemple, sans un mixage correct les sons et les instruments ne ressortiraient même pas correctement. C’est un métier très multitâche. Mais si je devais résumer le métier de producteur de musique électronique, c’est être : -

Technicien, parce qu’il faut savoir enregistrer, traiter et mixer les pistes et savoir gérer les techniques de traitement du signal. Musicien, parce qu’il faut savoir composer de la musique et comprendre la théorie musicale, pour savoir gérer les rythmes, mélodies et harmonies. - Dj, parce qu’il faut savoir faire des représentations devant un public. ******ebook converter DEMO Watermarks*******

-

Sound designer, parce qu’il faut comprendre la synthèse sonore afin de générer les sons recherchés. - Graphiste, parce que souvent, c’est vous qui devez faire vous-même la couverture de votre propre album ou single. - Chargé de communication, parce que c’est vous qui devez gérer le plan de communication de votre projet musical. - Community manager, parce qu’il faut gérer sa propre communauté de fans. Le producteur de musique du monde moderne est un métier très versatile, surement l’un des plus versatiles du monde. Cependant, réussir dans ce domaine est extrêmement compliqué, à cause du très grand nombre d’artistes, mais aussi à cause des débouchés. Réussir en tant que producteur de musique n’est pas donné à tout le monde. Et cela demande beaucoup de temps et de sacrifices (notamment le sacrifice financier, car vous n’allez pas gagner beaucoup d’argent pendant plusieurs mois, voire des années). Pour réussir dans la musique, il faut prendre autant de risques que lorsque l’on veut devenir entrepreneur. Par la suite, je me suis intéressé aux réseaux de neurones artificiels pour produire de la musique (j’ai fait les MOOC sur le Machine Learning sur le site de Google). Notamment via Google Magenta et la bibliothèque Tensorflow. Je précise que je ne suis pas une brute en termes de code informatique. Je suis même assez mauvais ! N’importe quelle personne qui a un minimum de connaissances en programmation Python peut donc s’amuser avec les réseaux de neurones. Mais malgré la puissance incroyable de Tensorflow, je n’utilise pas encore l’IA pour m’aider à composer toutes mes musiques. C’est aussi pour cette raison que je n’ai fait que 3 collaborations avec l’IA sur l’album. Pour l’instant, même si l’outil est impressionnant, je n’en vois pas encore l’utilité en tant que musicien. Mais je pense que les choses vont vite bouger dans les prochaines années !

La musique à travers l’évolution technologique L’évolution de la musique ces dernières décennies s’est faite de façon étroite avec le développement des technologies. De l’invention de la guitare ******ebook converter DEMO Watermarks*******

électrique à la synthèse modulaire, nombre d’outils ont permis de modifier nos pratiques et usages, permettant la matérialisation et l’émergence de nouveaux genres musicaux. La technologie nous a permis de faire voyager nos esprits, en repoussant plus loin les frontières de nos visions artistiques toujours plus créatives. La musique et la technologie sont devenues indissociables. Aujourd’hui, il est impossible de parler de musique sans évoquer la technique qui l’accompagne. La musique a évolué dans deux sens différents : d’un côté, avec l’évolution technologique et de l’autre côté avec l’évolution théorique. À l’aide de l’évolution technologique, la musique s’est affranchie des frontières de l’instrument. L’évolution théorique quant à elle, a provoqué un changement dans les règles classiques du contrepoint et de l’harmonie. Notamment, à cause du passage de la musique tonale à la musique atonale qui apporte des changements harmoniques importants au début du XXe siècle. Avant l’arrivée des nouvelles technologies, les idées créatives étaient prisonnières de l’objet musical. C’est grâce à la transformation de la théorie musicale et l’affranchissement de l’instrument via la composition sur ordinateur que la musique aujourd’hui connaît encore plus de liberté. Le compositeur travaille à la fois sur le son et avec les sons. Et ainsi, pour la première fois dans l’histoire de la musique, la création musicale mélange à la fois le processus de production et d'exécution. Dans un sens, cela signifie que la musique et la recherche ont fusionné. La musique évoque plutôt l’intuition et l’émotion, tandis que la recherche évoque la rationalité et la connaissance. De nos jours, l’activité artistique est devenue indissociable de la science et de la technologie. Le compositeur doit développer de nouvelles compétences et avoir des connaissances technologiques. Le recours aux nouvelles technologies donne au compositeur de nouveaux pouvoirs, mais impose aussi de nouvelles contraintes, car pour réussir dans son art il doit maîtriser la technique. L’évolution de la musique a toujours suivi l’évolution de la technologie. C’est le premier domaine à avoir été touché par les avancements technologiques. Et, c’est pour cette raison que la musique est indissociable de la technologie. Musique et technologie ont toujours été intrinsèquement liées. ******ebook converter DEMO Watermarks*******

Les bouleversements techniques ont modifié notre façon de concevoir la musique, mais également notre façon de l’écouter. Ce qui a eu pour effet de faire muter plusieurs fois l’industrie musicale au fil des décennies. Les mutations technologiques ont toujours été une source d’inspiration pour les compositeurs du monde entier. Souvent le bidouillage d'un instrument, la modification d'un son ou un accident de manipulation peuvent déboucher sur des inventions importantes, par exemple un nouvel instrument, une nouvelle technique d'enregistrement, voire un nouveau genre musical. Ainsi, face aux prochaines avancées techniques qui se profilent, le domaine musical risque encore de muter. La technologie va encore repousser plus loin les limites de la créativité et de nouvelles formes d’art verront le jour.

- Ruptures importantes entre le XIXe siècle et le début XXe siècle Durant cette période, l’électricité puis l’électronique ont transformé fondamentalement la musique. L’amplification et la communication à distance ont pu voir le jour grâce à l’électricité. Et les débuts de l’automatisation ont émergé grâce à l’électronique. Deux innovations techniques de la fin du XIXe siècle ont révolutionné notre rapport au son. D’une part avec le phonographe – inventé par Thomas Edison en 1875, qui marque le début de cette révolution. Cet appareil est destiné à reproduire du son et des œuvres musicales par des procédés mécaniques. Le phonographe est le premier appareil de reproduction sonore destiné au grand public. Et d’autre part, en 1876, avec la matérialisation du son via l'électricité – concrétisé par le téléphone et inventé par Alexander Graham Bell. À cette époque, le téléphone a initié le traitement des signaux sonores dans le domaine électrique (aujourd'hui en grande partie numérique) et la communication à distance. On estime que c’est à partir de 1904, que le domaine musical a connu sa plus grande rupture avec l’arrivée de l’électronique. Le tube diode est inventé par Ambrose Fleming, qui s’était basé sur les travaux de Thomas Edison. ******ebook converter DEMO Watermarks*******

Celui-ci avait noté un étrange phénomène : ses ampoules noircissaient et mouraient rapidement. Un petit courant en était la cause. C'est ce qu’on appelle l'effet Edison… et c’est la base du fonctionnement des diodes. En 1906, la lampe triode est le premier dispositif amplificateur d'un signal électrique. L'ingénieur américain Lee De Forest en est l'inventeur. Mais, c’est dans les années 20 que l'amplification est au point et favorise le développement de la radio. Les premières applications de l'électricité dans la musique sont : le Theremin en 1920 – premier instrument de musique électronique inventé par le russe Lev Sergeivitch Termen et les Ondes Martenot en 1928.

- Les années 30 : les débuts de l’électro-amplification En 1931, la guitare électrique fait partie des premiers instruments électroamplifiés avec le Theremin, ainsi que l'orgue électrique Hammond en 1934. L’amplification de la guitare permet aux guitaristes de prendre la place de soliste au sein de l’orchestre, une place initialement réservée au piano ou aux cuivres. À cette époque, sur scène, l’amplification reste assez rudimentaire même si les constructeurs commencent à fabriquer des “amplis guitare”.

- Les années 50 : le Rock’n’Roll Après la Seconde Guerre mondiale, l’invention du transistor en 1947, marque le deuxième point de rupture majeur dans l’industrie musicale. Dans les années 50, la radio se développe et le récepteur grand public se standardise. En 1950 apparaissent les prémices de la musique électronique, au studio de Cologne (Allemagne), par une série d'expérimentations sonores effectuées grâce au Melochord d'Harald Bode et à un magnétophone AEG. Herbert Eimert, Robert Beyer et Werner Meyer-Eppler – des ingénieurs et des physiciens – diffusent sur les ondes de la NWDR (Nordwestdeutscher Rundfunk), une émission intitulée « Die Klangwelt der elektronische Musik » (Le monde sonore de la musique électronique). L’objectif est de créer des sons de toute pièce, sans avoir besoin de passer par la phase acoustique. Les sons électroniques sont générés par des systèmes électroniques analogiques. Ils se composent de vibrations électriques ******ebook converter DEMO Watermarks*******

produites par des circuits électroniques, qu'il s'agit de traiter, de combiner, dans le but d'obtenir un phénomène sonore contrôlé. Durant cette période, à l’instar de la guitare électrique, la basse électrique vient concurrencer la contrebasse toujours dans l’idée de gagner du volume sonore dans les basses fréquences. Les États-Unis deviennent l’épicentre d’un nouveau mouvement populaire, social et musical sans aucune commune mesure. Auparavant, le jazz était considéré par les Américains comme une “musique de sauvage” réservée aux Noirs. Toutefois, le rhythm and blues commence à séduire de plus en plus de jeunes Blancs américains grâce aux nouvelles danses débridées. C’est dans cet environnement de libéralisation des moeurs que le rock’n’roll prend vie. Il s’agit de la première musique populaire qui dépasse tous les clivages aux États-Unis. Elvis Presley en est la figure représentative.

- Les années 60 : l’explosion technologique En 1957, dans les Bell Labs, l’ingénieur Max Mathews met au point MUSIC 1, un programme de musique pour l'IBM 704 – une énorme bête de 20 mètres cubes à plusieurs millions de dollars). Dans les années 1960, Mathews perfectionnera son invention qui permet de définir d’une part un type de son, l’équivalent de l'instrument, et d’autre part, les notes et leurs hauteurs, c’est-à-dire la partition. Ce sont les prémices de la MAO (Musique assistée par Ordinateur). Max Mathews devient également le premier musicien informatique. Au début des années 1960, l’électronicien américain Robert Moog, présente le premier synthétiseur Moog. À cette époque l’utilisation des synthés modulaires reste encore marginale. En 1964, la création de la K7 audio, permet pour la première fois d’enregistrer facilement soi-même la musique que l’on veut écouter. À la fin des années 60, naît une nouvelle génération d’amplificateur de très forte puissance. Vers la même période, les guitaristes peuvent expérimenter de nouvelles sonorités, grâce à l’apparition des pédales d’effets. Comme l’effet “distorsion” (guitare saturée) et l’effet wha wha rendu célèbre par Jimi Hendrix. Des artistes comme les Pink Floyd restent aujourd’hui ******ebook converter DEMO Watermarks*******

encore célèbres pour leurs expérimentations sonores. Avec ces trouvailles sonores, le rock diverge dans diverses directions – le rock psychédélique, le rock progressif, le hard rock et le heavy metal – dans lesquelles la recherche du volume sonore développe de nouvelles sensations. À partir de cette époque, on relève les niveaux sonores parmi les plus forts pendant des concerts. C’est la naissance des gros festivals qui rassemblent, pour la première fois, des milliers de personnes autour de la musique (festival de Woodstock-USA, festival de l’Isle de Wight-Angleterre… durant l’année 1969). Durant les années 60, le rock arrive aussi en Angleterre. Et, donne naissance au pop rock, illustré par des artistes comme les Beatles, les Rolling Stones… En parallèle, la soul music se popularise dans le monde entier y compris en Europe. C’est une musique noire américaine qui puise ses racines dans le gospel, musique religieuse empreinte d’émotion et de spiritualité. La soul music représente la communauté. Elle est incarnée par des artistes comme Otis Redding, Aretha Franklin ou Ray Charles. En Jamaïque, les musiciens re-utilisent les bases de la soul music et du rhythm & blues américains en les mélangeant aux musiques traditionnelles des Caraïbes. Ainsi naissent le ska, puis le rocksteady avec des artistes comme Desmond Decker, les Skatalites, ou bien encore Bob Marley à ses débuts. Puis au début des années 70, le reggae, qui deviendra un peu plus tard une vraie source d’inspiration pour le dub.

- Les années 70 : généralisation du synthétiseur et explosion de la culture du décibel Durant cette décennie, les progrès technologiques sont de plus en plus complexes et un nouveau métier fait son apparition : le sonorisateur. Il a la responsabilité de diffuser et adapter un message sonore dans les salles de concert. L’utilisation du synthétiseur commence grandement à se généraliser. Il permet un développement et une diversification des courants musicaux : le ******ebook converter DEMO Watermarks*******

rock planant (Pink Floyd, Kraftwerk…), le disco (Donna Summer, Boney M…), puis la new wave (The Cure, Depeche Mode…). D’autres artistes électroniques commencent à apparaître comme Vangelis et Jean-Michel Jarre. À partir du début des années 70 en Jamaïque, des ingénieurs du son comme King Tubby ou Lee « Scratch » Perry bidouillent les bandes d’enregistrements de morceaux de reggae. Ils y ajoutent quelques effets sonores et remixent les vieux standards jamaïcains en effaçant, dans la plupart des cas, la voix et accentuent la basse et la batterie. C’est le début du dub et des sound system. Au milieu des années 70, de jeunes New-Yorkais d’origine jamaïcaine réutilisent le principe du sound system, mais cette fois-ci avec des morceaux de funk américain. Ils commencent à chanter de façon très rythmée et saccadée. Le rap prend vie. Vers la fin de la décennie, le Walkman est commercialisé. Il permet l’écoute au casque de la musique. Le Walkman a augmenté considérablement le temps d’écoute de la musique et a fortement contribué au développement de l’industrie musicale. Au début des années 80 en Jamaïque, les DJ’s commencent à mélanger les idées du rap américain avec des versions instrumentales de reggae. C’est la naissance du raggamuffin.

- 1980 à 2020 : migration vers l’ère numérique En 1982, le CD (disque compact) est commercialisé et développé par Sony et Philips. Celui-ci permet de stocker des données sous forme numérique. Plus compact et plus pratique, il contribue à une renaissance de l’industrie du disque. Entre 1982 et 1983, la société Roland fabrique le TB-303, qui est un synthétiseur/séquenceur. Cet instrument a joué un rôle important dans le développement de la musique électronique. En 1984, c’est la création du sampler qui permet l’enregistrement ******ebook converter DEMO Watermarks*******

musical. Cet outil permet d’enregistrer un thème musical et de le relire en boucle pour en faire un nouveau morceau. Les premiers ordinateurs personnels comme les Atari, permettent de créer de la musique électronique. C’est le début de l’informatique musicale. La musique techno apparaît dans ce contexte très avant-garde. Le sampler est très utilisé dans le rap, les musiques électroniques, mais aussi désormais dans tous les styles musicaux. À la fin des années 90, la démocratisation de l’informatique, d’internet et du format MP3, permet à la musique de s’exporter et d’évoluer. L’ordinateur est devenu à lui tout seul un instrument de musique par la création de son, un studio d’enregistrement par l’enregistrement et le traitement numérique du son, mais il est également devenu un support d’écoute. Internet permet aussi à la musique de voyager, de se métisser et, ainsi, de sans cesse évoluer. Dans les années 90, une grande diversité de nouveaux genres apparaissent dans la musique électronique : le jungle, le drum and bass, le 2-step garage, la trance, la psytrance, le trap, le dubstep… À partir des années 2000, le terme Bass Music fait son apparition. Il désigne tous les genres caractérisés par des grosses lignes de basses comme : le dubstep, le drum and bass, le brostep, le future bass, le trap, l’hybrid trap… Les basses et la compression sont de plus en plus prononcées. Suite à l’évolution des puissances de calcul des ordinateurs grands publics, le brostep fait son apparition en 2007. La commercialisation du synthétiseur virtuel Massive de Native Instrument, permet de générer des sonorités encore plus complexes qu’auparavant. Le brostep est majoritairement popularisé par Skrillex ainsi que Flux Pavilion et connaît dès son apparition un large succès aux USA. Excision, Datsik et Nero amènent eux très rapidement un esprit et une structure rock à leurs morceaux. Il n'est d'ailleurs pas rare que des producteurs s’inspirent du metal. Le brostep n’aurait peut-être jamais pu voir le jour, sans Massive, ni les puissances de calculs des ordinateurs personnels de la fin des années 2000. En 2013, Steve Duda sort un nouveau synthétiseur virtuel nommé Serum. Celui-ci permet d’aller encore plus loin que Massive dans l’exploration ******ebook converter DEMO Watermarks*******

sonore, grâce à la personnalisation des tables d’ondes. L’apparition de ce nouveau synthétiseur permet de diversifier encore plus les styles de la musique. Les sons sont encore plus complexes, puissants et l’utilisation des nouveaux outils numériques permet une exploration sonore encore plus grande. Vers la fin des années 2010, la technologie a eu un gros impact sur l’industrie musicale. Notre façon de consommer la musique a beaucoup changé avec l’ère numérique. Aujourd’hui, nous écoutons pratiquement toutes nos musiques favorites en streaming. Et l’industrie du disque a dû s’adapter à ce nouveau paradigme. La seule chose qui n’a pas encore changé est notre façon d’aller à des concerts. Nos instincts les plus primaires d’hommes des cavernes ressurgissent lorsque nous nous y retrouvons. C’est une chose d’écouter un fichier numérique de notre musicien préféré, mais s’en est une autre de le voir dans la sueur et l’énergie d’un concert. Malgré tout, cette fusion entre la machine et l’homme dans le domaine musical ne fait que commencer. Et, il semble que cette symbiose ne va pas s'arrêter de sitôt. Plus le temps passera et plus cette collaboration sera intime. Peut-être que dans le futur, nous irons à des concerts en réalité virtuelle, ou avec la représentation holographique de nos artistes préférés sur scène !

Notre appétence pour les basses Comme vous avez pu le remarquer dans “La musique à travers l’évolution technologique”, une chose ressort principalement dans cette chronologie : notre grande appétence pour les basses. Au fil du temps, la compression des morceaux a été de plus en plus forte et les basses ont été de plus en plus présentes. Avec l’évolution technologique, nous avons en fait repoussé plus loin les limites de la musique, pour mieux apprivoiser nos plus vieux instincts. Les chemins artistiques que nous avons choisis dépendent principalement de nos racines cognitives. Et la technologie, paradoxalement, nous a permis de nous en rapprocher afin de combler nos besoins. Notre cerveau adore les basses, non pas parce que cela nous fait vibrer devant un sound system (même si c’est quand même cool), mais surtout pour des raisons qui remontent à notre physiologie. Selon une recherche menée par ******ebook converter DEMO Watermarks*******

Laurel Trainor et ses collègues du McMaster Institute for Music and The Mind, quand la basse est forte et solide comme un roc, il nous est plus facile de suivre le rythme d'une chanson. Notre cerveau fait d’abord attention aux basses avant d’écouter les mélodies. Le cerveau est plus tolérant aux erreurs mélodiques, que rythmiques dans la basse. Au cours de l'expérience, l'équipe de Trainor a joué des sons aigus et graves en même temps. Les tonalités étaient répétées dans une séquence. Ils ont découvert que le cerveau était plus à même de détecter le moment où le ton grave se produisait 50 ms trop tôt par rapport au moment où le ton aigu se produisait 50 ms trop tôt[63]. Ils ont mesuré l'électroencéphalographie (EEG) en plaçant des capteurs sur la tête et en mesurant l'activité électrique du cerveau en réponse aux sons. Lorsqu'un son inattendu se produit, par exemple un son plus tôt que prévu, la réponse cérébrale contient un pic appelé la “négativité de discordance”. Les pics étaient plus importants lorsque les sons graves étaient précoces que lorsque les sons aigus l’étaient. Cela signifie qu’il existe une base physiologique qui explique pourquoi nous créons de la musique comme nous le faisons. Presque n’importe quel individu réagira mieux à un rythme s’il est porté avec une basse plus importante. D’après des recherches d’une autre équipe de scientifiques de l’Université de Rutgers, l'être humain serait profondément connecté au rythme, et ce, même avant sa naissance[64]. Une fois, que le cortex auditif se met à fonctionner, un fœtus entend principalement les sons graves – le battement du cœur de sa mère, par exemple et la mélodie et le rythme de sa voix. Les fréquences graves seraient donc un facteur crucial dans l’acquisition du langage nouveau-né. Après la naissance, cette connexion – entre les humains et le rythme apparaît partout. La basse et la musique ont un impact unique sur le corps humain. Cela peut altérer notre adrénaline ou notre fréquence cardiaque. Cette théorie semble donc raisonnable pour expliquer pourquoi la Bass Music s’est si follement propagée à travers le monde. Cela explique également pourquoi nous avons profité de l’évolution technologique pour combler cette ******ebook converter DEMO Watermarks*******

grande appétence pour les basses.

Bienvenue dans la guerre du volume ! Du volume, toujours plus de volume ! La guerre de celui qui sonne le plus fort a toujours existé, mais elle s’est encore plus accentuée à cause des nouvelles technologies – au détriment de notre audition. C’est ce qu’on appelle la loudness war (la guerre du volume). Bien entendu, ce n’est qu’une question de perception. Les limites techniques des médias obligent à limiter le niveau maximal de sortie. La loudness war, est donc l’art de faire sonner plus fort avec les mêmes limites de niveau que tous les autres musiciens. Au détriment de la plage dynamique. Plus la compression est grande et plus la dynamique sonore d'une musique se réduit et plus augmente la sensation subjective de volume sonore. En gardant, toujours pour objectif de ne jamais dépasser le même niveau maximal lors du mastering des albums et de leur diffusion radiodiffusée ou télévisuelle. Si l'on présente à des personnes prises au hasard deux musiques identiques au volume sonore près, il est probable que la plus bruyante soit perçue comme « sonnant » mieux. La psychoacoustique a montré que plus le son est fort, plus il retient notre attention[65]. Les artistes, comme les auditeurs de façon générale, ont tendance à exiger que le volume de leurs musiques soit au moins égal à celles des autres artistes. Peu d'artistes et de producteurs acceptent de « sonner » moins fort que les autres. Ceci a abouti à une intensification de la loudness war en raison de la compétition à laquelle se livrent les stations de radio pour attirer les auditeurs et les studios d'enregistrement pour attirer les clients. Petit exemple : écoutez la compression des morceaux avant les années 2000, vous entendrez rapidement que la compression de la musique est bien plus forte aujourd’hui. L’album Nevermind de Nirvana sorti en 1991 est l’un des exemples les plus frappants. Comparez la version originale avec sa version remastérisée sortie 2011. La différence est flagrante ! Malheureusement, une surcompression occasionne également une grande fatigue auditive au bout de quelques minutes d'écoute seulement, l'oreille étant stimulée en permanence. Souvent, un écrasement trop fort de la dynamique peut même provoquer une distorsion et ainsi achever de dénaturer ******ebook converter DEMO Watermarks*******

l'œuvre. La télévision cherche aussi à enrayer cette course folle. Vous avez peutêtre déjà entendu le fameux effet Pub à la télévision – c’est un brusque changement de niveau sonore qui a tendance à vous réveiller même si vous dormez profondément devant la télévision. Si vous l’avez remarqué, vous n’êtes pas seul : de nombreuses plaintes conduisirent l’Union Internationale des Télécommunications à produire en 2006 des études sur la sensation du volume perçu à la télévision, aboutissant à l’indice LUFS (Loudness Unit Full Scale). Cet indice caractérise tous les types de programmes, de la publicité aux films, qui sont désormais normalisés. Ils doivent tous atteindre le même LUFS. Spotify, YouTube, Apple Music utilisent tous aujourd’hui la normalisation LUFS. Peut-être que cet indice permettra de stopper la guerre du volume ?

La créativité augmentée Les domaines artistiques comme celui de la musique ou de l’art contemporain utilisent de plus en plus l’IA comme une muse. Les IA deviennent des catalyseurs de productivité, de par leur nature collaborative et cognitive. Le rapprochement avec la machine est devenu inéluctable dans les domaines créatifs. Dès les premiers ordinateurs, les chercheurs se sont intéressés à l’utilisation d’algorithmes pour le domaine créatif. Dans un premier temps, pour les utiliser dans la composition musicale. En 1957, « Illiac Suite » est généralement considéré comme le premier morceau de musique composé par une machine. Derrière ce projet se trouve Lejaren Hiller, qui a fondé l’Experimental Music Studio à l’Université de l’Illinois à Urbana Champaign. Avec Leonard Issacson, lui aussi compositeur et professeur dans cette université, ils imaginent un concept de musique assistée par ordinateur, en analysant des œuvres de Bach. Les deux musiciens développent l’ILLIAC I, une machine dédiée à cet effet[66]. Les chercheurs ont réussi à intégrer dans la machine plusieurs notions importantes pour la composition musicale : la répétition de motifs ******ebook converter DEMO Watermarks*******

rythmiques et mélodiques, les suites d’accords qui fonctionnent bien ensemble, une structure musicale logique, etc. Le résultat avec « Illiac Suite » a permis de poser les bases, d’ouvrir de nouvelles perspectives aux musiciens, en les poussant à innover et à utiliser la technologie. Un demi-siècle après, les relations entre les machines et les humains continuent d’évoluer. Le leader de Massive Attack, est l’un des pionniers dans ce domaine, il s’intéresse à l’IA depuis des années autant pour sa musique que pour ses œuvres d’art. Lors d’une tournée en 2019, le groupe a fait des concerts avec des visuels entièrement réalisés par une IA conçue par l’artiste allemand Mario Klingemann. Magenta AI, Flow Machines, Jukedeck ou AIVA, permettent de composer des mélodies en choisissant la tonalité et l'expressivité. Ces IA permettent par exemple aux compositeurs d’avoir plus facilement de l’inspiration et des idées et d’augmenter leur créativité. L’IA a déjà sa place dans la musique, car dans ce domaine comme dans beaucoup d’autres, il faut suivre une certaine logique. La musique est profondément mathématique. Pythagore l’a prouvé il y a 2500 ans, avec la musique grecque[67]. La musique est faite en fonction de la cohésion des notes et des rythmes. Des notes sont toujours attirées par d’autres et les rapports dans les notes musicales doivent suivre une certaine logique pour sonner harmonieusement. Les écarts entre les notes d’une gamme doivent toujours suivre le même rapport mathématique. Et, comme une logique mathématique régit les notes, les algorithmes peuvent rapidement s’adapter aux sons. Le Machine Learning prend donc tout son sens dans la musique. La créativité augmentée, existe en fait depuis longtemps. Il y a une sorte de prédisposition naturelle des musiciens pour la technologie. La MAO (Musique Assistée par Ordinateur) est déjà utilisée depuis plus de 30 ans par les musiciens et a été considérée par certains comme une libération, ouvrant des perspectives infinies, avec un accès à un répertoire immense. Le musicien s’est retrouvé tout d’un coup envahi par tous les instruments et toutes les sonorités du monde entier dans son ordinateur personnel. Ce qui a permis de développer des idées et de nouveaux genres musicaux impossibles à imaginer sans l’aide de la machine. Les applications de l’IA dans la créativité ne s’appliquent pas qu’à la musique : ******ebook converter DEMO Watermarks*******

Le domaine d’art, du dessin et des images est aussi effleuré par l’IA. Deep Dream Generator de Google est par exemple capable de créer des images psychédéliques à partir d’images réelles ou GauGAN qui génère des images réalistes de paysages à partir de vos griffonnages. L’IA d’IBM, Watson peut également créer des teasers de film. Et, Photoshop a développé un algorithme d’IA capable de détourer des sujets en seulement quelques clics. Même le domaine des concepts et des idées est touché par l’IA. Le robot japonais Robot Mc Cann a l’habilité de devenir directeur créatif en proposant des spots publicitaires à partir d’un brief. Sunspring est également une IA capable de générer des scripts pour des courts métrages ou encore Shana qui est capable d’écrire des nouvelles. On ne peut pas oublier non plus les startups qui travaillent dans le domaine du son comme Audiogaming.net, startup toulousaine, qui génère des sons de synthèse pour les films et les jeux vidéo. Ou encore, la startup Muzeek, qui a développé une IA capable de composer des musiques originales en fonction des images. Cette symbiose entre la machine et l’humain ne fait que commencer et les perspectives créatives semblent encore loin de montrer leurs limites. Déjà aujourd’hui, sans nous en rendre compte, presque tous les artistes sont augmentés juste par l’utilisation de logiciels qui simplifient grandement la productivité. Plus le temps passera et plus ce gain de productivité sera grand grâce à l’évolution de l’IA.

L’IA à la place de l’artiste ? Est-ce que cela signifie pour autant qu’un jour les IA remplaceront totalement les humains dans la créativité ? La problématique peut sembler ambiguë, surtout dans le domaine musical avec des IA comme AIVA qui arrivent à composer des morceaux entiers. Tant que l’IA forte n’existera pas, les artistes auront encore quelques petites décennies devant eux. Le but des IA faibles créatives est de collaborer ******ebook converter DEMO Watermarks*******

avec les humains afin d’augmenter la créativité et la productivité. Même si ces IA sont déjà très performantes, elles ne sont pas encore capables de réaliser tous les styles de musique. Notamment, dans la musique électronique qui demande une recherche particulière dans le Sound Design et le Mixage/Mastering. Autre point important : l’émotion. Pour l’instant, les IA ne peuvent pas ajouter les petites imperfections qui ajoutent ce charme si particulier qu’un artiste peut transmettre dans ses œuvres. Les IA ne sont pas capables de créer l’émotion, elles ne font qu’imiter ce que font les humains. Or ce que fait un artiste ou un compositeur, c’est utiliser sa capacité à créer un nouvel élan créatif et d’avoir quelque chose en plus ou un style particulier. Cependant, il est vrai qu’il reste encore une grande marge de progression à la technologie. Le deep learning et le machine learning peuvent continuer à nous surprendre. Et, cela n’a d’ailleurs pas empêché les artistes ou les chercheurs d’avoir déjà eu quelques surprises avec les IA faibles créatives. Si les humains veulent garder le monopole dans la créativité, il faudra faire en sorte que l’IA continue d’aider les personnes, pas de les remplacer. C’est d’ailleurs pour cette raison que l’on parle de créativité augmentée ou d’artiste augmenté. L’objectif est d’augmenter les capacités de l’humain, tout en faisant en sorte de garder l’artiste au centre de la création. Pour le moment, l’IA est le parfait ami de l’artiste, elle permet d'alléger certaines tâches, de simplifier son travail et d’amplifier sa créativité. Mais, peut-être qu’un jour lorsque les IA fortes existeront, celles-ci seront capables de nous égaler, voire de nous surpasser. Peut-être que nous devons accepter notre sort et nous laisser détrôner ? Si cela permet de pousser l’art encore plus loin, pourquoi refuserait-on ?

Comment l’IA bouscule le marché de la musique Les IA commencent sérieusement à envahir les ondes sonores. L’IA nommée Juckedeck a déjà composé plus d’un million de musiques utilisables à des fins commerciales. Au cours des dernières années, plusieurs firmes ******ebook converter DEMO Watermarks*******

similaires comme Amper, Popgun et AIVA ont émergé pour rejoindre cette nouvelle et étrange industrie. Leurs outils sont simples en un clic : choisissez un genre, une humeur, une durée et boom, AIVA ou Jukedeck a généré une composition gratuite pour votre projet personnel ou, si vous le payez, pour un usage commercial. Les chansons composées par AIVA et ses semblables apparaissent déjà dans les podcasts, les jeux vidéo et les contenus YouTube – cela peut passer en musique de fond pour des vidéos de vacances en famille en passant par des vidéos de sport. Pendant des années, les vidéastes du dimanche devaient récupérer des musiques sur d’immenses bibliothèques musicales, dont les œuvres étaient produites par des humains. L’IA propose désormais des compositions plus ou moins personnalisées en appuyant juste sur un bouton. Parfois, les chansons peuvent être étonnamment bonnes. Pour m’amuser, j’ai créé une musique moderne cinématique sur AIVA en choisissant l’option Epic Orchestra, avec des violons, des contrebasses et des percussions. L’IA a même ajouté quelques petites pauses mélodiques. En tant que musicien, j’ai été impressionné par la cohérence générale de la structure et des harmonies. Cet air n’était ni brillant ni mémorable, mais il correspondait facilement à la qualité du travail humain que vous entendez dans certaines vidéos ou publicités. Personne ne pourrait faire la différence avec des musiques composées par des humains. Pour arriver au même résultat, il faudrait minimum dix heures, voire vingt heures pour composer une telle pièce pour un compositeur humain. AIVA l’a fait en moins de 3 minutes. À titre d’exemple, je travaille entre 30 et 80 heures pour faire une seule musique. Néanmoins, les IA ne peuvent pas encore faire tous les styles. Elles ne peuvent pas encore gérer la complexité d’un morceau électronique, qui demande beaucoup plus de paramètres que les musiques d’ascenseur qu’elles produisent actuellement. Les réseaux de neurones artificiels nécessitent des milliers d’exemples pour comprendre comment faire une mélodie ou un rythme. Si vous nourrissez une IA avec des fichiers MIDI contenant des mélodies de Bach ou de Beethoven, elle va en comprendre les mécaniques et les subtilités, puis reproduira les mêmes motifs. C’est aussi de cette façon que l’IA sait comment les notes arrivent à sonner ensemble. Plus l’IA est nourrie avec des ******ebook converter DEMO Watermarks*******

exemples de bonne qualité et plus elle sera capable d’être bonne musicalement. Bien entendu, cela signifie que l’IA a besoin d’être guidée dans son apprentissage. Elle ne pourra pas apprendre à composer comme Bach par magie, si vous ne lui donnez pas des exemples qui viennent de cet artiste. Tout cela soulève des questions épineuses. Nous le savons, les IA réussissent de mieux en mieux à accomplir certaines tâches : reconnaître des visages, traduire des langues, détecter des cancers du poumon. Mais lorsqu’une machine peut composer des musiques aussi bien qu’un musicien talentueux, les implications sont profondes - non seulement pour les personnes qui vivent de ce métier, que pour la notion qui rend l’être humain unique. Surtout dans un domaine avec lequel nous associons autant l’âme et la spiritualité de l’artiste. Deux forces sont à l’origine de l’explosion de la musique par l’IA aujourd’hui. La première est la montée en puissance des réseaux de neurones vers 2012 grâce aux capacités de calcul. Si vous avez des bases en code Python, des entreprises ont publié en open source des bibliothèques open source comme TensorFlow (Google). Magenta AI qui est une IA sous TensorFlow, permet à l’utilisateur de composer de la musique ou de faire de l’art. Presque n’importe quel programmeur peut désormais s’amuser avec ces réseaux de neurones et ainsi composer de la musique. Et les réseaux de neurones permettent de faire des compositions bien plus subtiles que les anciennes technologies. Plutôt que d’indiquer précisément au système comment composer une mélodie ou un rythme, le codeur injecte simplement dans la machine des milliers d’exemples et laisse le système définir ses propres règles. La deuxième force est la demande. Le marché américain de la musique d’ambiance a atteint 660 millions de dollars en 2017, soit une hausse de 18% par rapport à deux ans plus tôt[68]. Et des chiffres préliminaires indiquent encore une forte croissance dans les prochaines années. Certains compositeurs arrivent à joindre les deux bouts en contribuant aux librairies utilisées par les Youtubers, les entreprises et les émissions de web radio – ou n’importe quelle personne qui a besoin d’un fond sonore. Shutterstock / PremiumBeat par exemple est une version audio du marché des banques ******ebook converter DEMO Watermarks*******

d’images : les musiques sont prévisibles, souvent stéréotypées, mais sont suffisantes pour des vidéos de maquillage ou un podcast sportif. L’IA va donc sérieusement perturber cette partie du marché du travail. La musique de fond est assez simple à faire même pour les humains qui les composent : vous introduisez un motif, puis un autre, vous les superposez, puis vous les répétez. Cette recette permet de faire de la musique « fonctionnelle ». Le cas le plus extrême est la musique d’ascenseur. C’est de la musique qui sert à quelque chose. Et dans ce domaine l’IA nommée Amper surpasse radicalement les humains. Amper n’est pas un outil musical ni une solution musicale. C’est un outil d'efficacité. Fondamentalement, si vous aviez le choix entre payer un humain lent comme un escargot ou à une machine ultra rapide pour générer une musique fonctionnelle, presque gratuite, que choisiriez-vous ? Le débat ne s’arrête cependant pas qu’à la musique d’ascenseur. Au fur et à mesure que les capacités de l’IA s'améliorent, il est possible, voire probable, que les musiques deviennent suffisamment bonnes pour que nous choisissions de les écouter, par exemple en travaillant ou en conduisant. Les aspects économiques sont d’ailleurs très intéressants pour les services de streaming. Imaginez une plateforme comme Spotify autogénérant des milliers d’heures de morceaux d’ambiances sans avoir à payer un seul centime à un compositeur humain. En juillet 2017, Spotify a embauché Francois Pachet, un chercheur en IA dans le domaine de la musique, dans le but de développer une machine pouvant aider les musiciens. C’est presque systématique. À chaque fois que nous réfléchissons aux impacts de l’automatisation, il existe des prophéties négatives ou positives. Les optimistes affirment que l’IA détruira certes certains emplois, mais en créera des nouveaux mieux rémunérés et nécessitant davantage d’intelligence créative. Les pessimistes répondent qu’ils sont d’accord, mais que ces emplois ne seront jamais assez nombreux pour employer tout le monde ou qu’ils ne se matérialiseront pas assez rapidement. Les entrepreneurs qui sont derrière les IA faibles créatives rentrent généralement dans le premier camp. Leurs efforts risquent de détruire toutes ******ebook converter DEMO Watermarks*******

perspectives aux compositeurs débutants et sans virtuosité, mais ils n’élimineront pas le besoin de talent. En effet, les personnes capables d’écrire des partitions complexes pour le cinéma, la télévision, les jeux vidéo et les musiques que nous voulons écouter pour le plaisir auront encore de la demande pendant quelque temps. Aucun système actuel ne se trouve à proximité de la créativité humaine à l’heure actuelle. Et l’objectif de ces entreprises n’est pas de remplacer les musiciens. Ce ne serait pas une bonne chose pour les musiciens. Ces algorithmes ne peuvent pas encore comprendre le contexte ni le but. C’est comme avoir un compositeur qui n’a pas d’autre expérience de la vie que de lire 10 000 morceaux de musique et essayer ensuite de faire quelque chose de similaire. Il ne saura pas ce qu’il fait et donc ne pourra apporter aucune émotion ni expérience de la vie. Les IA faibles créatives n’ont aucune idée de ce qui est pertinent sur le plan culturel, de ce qui est bon sur le plan politique ou sur n’importe quel autre sujet. Sauf lorsque les IA fortes existeront, mais ce n’est pas encore pour tout de suite. Et auront-elles envie de faire de la musique ? Laisseront-elles la place aux humains pour effectuer cette tâche ? Bien entendu, les humains devront s’adapter. La possibilité de générer une musique en 3 minutes ne suffira pas. Les compositeurs devront probablement monter dans la chaîne alimentaire et effectuer quelque chose nécessitant une collaboration ou une tâche que l’IA ne pourra pas réaliser tout de suite. Le métier de compositeur ne sera peut-être plus exactement le même qu’aujourd’hui dans quinze ans. Il y a aussi un certain poids philosophique, parce que la création musicale – historiquement, en tout cas - a toujours été corrélée avec les activités humaines. Nos créations mélodiques sont profondément liées à nos vies émotionnelles quotidiennes et intégrées aux contextes civilisationnels. C'est pourquoi la perspective de les automatiser peut sembler déroutante, voire déprimante. Le fait d’accepter que les créations artificielles soient au même niveau que les créations humaines, équivaudrait à accepter que l’art soit quelque chose de purement mathématique, vide et sans âme. C’est accepter que l’art, comme toute autre chose dans l’univers, ne soit simplement qu’une suite logique d’éléments parfaitement imbriqués ensemble qui provoquent ******ebook converter DEMO Watermarks*******

des interactions biochimiques dans le cerveau. Dans un sens, les réseaux neuronaux ne font que simuler la composition humaine. Nous aussi, nous consommons des centaines ou des milliers de musiques au cours de notre vie, qui nous donnent des modèles intuitifs, puis nous recombinons ces connaissances en quelque chose de nouveau. Nous échantillonnons, nous volons et nous modifions. Notre créativité s'appuie sur celle de ceux qui l'ont précédé. Mais lorsqu'une machine le fait, cela peut ressembler à un acte impersonnel, voire vampirique. Pour l’instant, aucune IA n’est assez bonne pour créer, à elle seule, une symphonie entière décente, voire une chanson pop entière avec des paroles (certains artistes-programmeurs ont essayé de générer des paroles avec un succès limité). Même si une IA de Huawei a réussi en 2019 à terminer la symphonie inachevée de Shubert, celle-ci ne pourrait pas en faire une à elle seule avec une vraie personnalité musicale[69]. Donc si on veut schématiser l'eldorado de la collaboration entre la créativité humaine et la créativité artificielle, ce serait ceci : une chanson à succès en un seul clic. Le dernier combat de l’humanité ! L’utilisation de l’IA va également soulever de nouvelles questions de droit d’auteur. Si un réseau neuronal produit de la musique dans le style de Queen, il faut le nourrir avec les musiques du groupe pour qu’il assimile les caractéristiques musicales du groupe. Une question peut donc se poser : faudra-t-il donner une redevance à Queen ? On peut proposer deux solutions, pour répondre à cette question : la première est de voir le processus comme si on utilisait des samples de Queen, comme si l’artiste faisait un remix. Ce qui veut dire que l’artiste qui a utilisé l’algorithme va devoir partager les royalties avec le groupe. La deuxième est simplement de voir le processus comme une source d’inspiration. Dans ce cas c’est gratuit. De telles questions vont devoir être résolues dans les prochaines années, peut-être lors de bagarres devant les tribunaux avec les maisons de disques, si elles existent encore… L’IA permettra à Monsieur tout le monde de fabriquer des chansons bien au-delà de leurs compétences initiales. Au cours d’un stage avec le projet Magenta de Google, Chris Donahue, étudiant en musique, a mis au point un système d’IA appelé Piano Genie. Au lieu de s’appuyer sur un clavier 88 touches, Piano Genie n’a que 8 boutons et génère des mélodies basées sur les ******ebook converter DEMO Watermarks*******

motifs que vous saisissez. Avec seulement 8 touches, vous pouvez ainsi générer des mélodies cohérentes et complexes indéfiniment. L’industrie musicale va devoir rapidement s’adapter et innover quand les IA pourront produire les prochains tubes EDM de l’été. Des millions de personnes ont téléchargé GarageBand et ne l’ont jamais utilisé. Ou ils l’ont utilisé qu’une fois et l’ont trouvé trop difficile. La promesse d’un système musicalement intelligent est que vous pouvez l’utiliser sans aucune compétence en création musicale afin de pouvoir créer quelque chose que vous souhaitez partager. L’IA promet de démocratiser la composition de la même manière qu’Instagram fait chacun de nous un photographe. L’IA sera surement bientôt intégrée dans les instruments, dans du matériel réel dans un futur proche. L’IA sera dans les claviers, pianos, les guitares, les basses, elle sera partout. Imaginez que vous vous asseyez devant un piano électrique pour vous laisser guider par le fantôme de Bach. Cela vous semblera probablement amusant, bien que cela soulève également une possibilité inquiétante : de tels instruments ne vont-ils pas commencer à déstabiliser les jeunes musiciens et leur faire décider de ne pas en continuer la maîtrise ? En revanche, la montée en puissance de l’IA pourrait engendrer de tout nouveaux genres musicaux. Les nouvelles technologies le font souvent. La guitare électrique nous a donné le rock, le synthé a contribué à la New Wave, les boîtes à rythmes électroniques et des sampleurs au hip-hop et à la musique électronique. L’autotune était au départ un petit secret de l’industrie du disque, qui permettait de nettoyer les fausses notes, jusqu’à ce que des artistes comme T-Pain l’utilisent pour créer de nouveaux styles vocaux. La prochaine grande tendance dans la musique pourrait être déclenchée par un artiste qui utilise les capacités de l’IA et l’exploite. L’artiste pourrait devenir manager de l’IA et aurait juste besoin de créer sa propre identité. Un violon est une technologie qui lorsque vous la donnez à Mozart répondra : « Regardez ce que je peux faire avec cette technologie ! » Si Mozart était un adolescent, que ferait-il avec l’IA ?

La créativité artificielle : l’IA peut-elle vraiment être créative ? ******ebook converter DEMO Watermarks*******

On entend souvent parler des nombreuses menaces que l’IA pourrait représenter sur l’espèce humaine. L’une d’elles, c’est le fait que l’IA pourrait faire disparaître un grand nombre de métiers. Lorsqu’on pense à ce qu’une machine fait mieux que les humains, il s’agit souvent de tâches assez complexes : faire des gros calculs, manipuler des quantités énormes de données. Mais est-ce que les machines vont s’en arrêter là ? En soit, les machines font des choses que l’on sait faire nous-mêmes, mais qui prendrait un temps inimaginable aux humains. On l’impression qu’elles ne font rien d’autre que de nous imiter et qu’elles ne créent rien de nouveau. Qu’elles n’ont pas de créativité. Que la créativité soit artistique ou scientifique, ce domaine semble rester l’apanage de l’être humain. Et pourtant, on le voit de plus en plus, mais les machines sont aussi en train de développer une forme de créativité. Les machines savent se montrer créatives et qu’elles pourraient un jour être meilleures que nous pour inventer et créer de nouvelles choses. Depuis le début de l’histoire de l’informatique et de l’invention du concept de l’intelligence artificielle dans les années 50, les chercheurs ont essayé d’utiliser le domaine du jeu comme un moyen de comparer l'intelligence humaine et l’intelligence artificielle. Et notamment le jeu d’échecs, considéré pendant longtemps comme une des activités les plus intelligentes pratiquées par notre espèce. Pas besoin de toujours parler d’art ou de musique pour illustrer le fait que les machines peuvent être créatives. En fait, l’idée d’une machine jouant aux échecs est un vieux fantasme. À la fin du XVIIIe siècle, l’inventeur Hongrois, Wolfgang von Kempelen, avait fait le tour de l’Europe avec un automate surnommé le « Turc mécanique ». Celui-ci avait l'apparence d’un humain et était fixé sur un petit meuble muni d’un plateau d'échecs. Il était capable de jouer à une partie d’échecs contre un humain et même le plus souvent de gagner. Le Turc mécanique aurait ainsi affronté de nombreux souverains de l’époque comme Napoléon Bonaparte, Catherine II de Russie ou Frédéric II de Prusse. Bien évidemment, c’était truqué. Dans le meuble il y avait une cavité pour placer une personne de petite taille, qui jouait et actionnait l’automate. C’est vers la fin de la Seconde Guerre mondiale que les pères de l’informatique et de l’IA, comme Alan Turing ont commencé à imaginer et ******ebook converter DEMO Watermarks*******

implémenter des algorithmes capables de jouer aux échecs. Grâce à la progression des puissances de calcul, les algorithmes sont devenus au fil du temps de plus en plus efficaces. Le tournant de l’histoire vient en 1997 lorsque le champion d'échecs Gary Kasparov se fait battre par l’ordinateur Deep Blue d’IBM. À l’époque, certains avaient vu cette victoire comme le moment de l’histoire où les machines prendraient symboliquement le pouvoir sur les humains. Ils voyaient ce moment comme la défaite de notre espèce et de son merveilleux cerveau. Concrètement, l’ordinateur qui a battu Garry Kasparov était juste une machine avec une très grande puissance brute. L’ordinateur a simplement cherché tous les meilleurs coups possibles très rapidement. Deep Blue avait une architecture optimisée spécialement pour anticiper et évaluer jusqu’à une douzaine de coups dans une partie. De cette façon, il était capable de tester 200 millions de coups par seconde. La machine faisait des milliards d’opérations et prenait des décisions grâce à des critères établis par des humains. On ne peut donc pas dire que Deep Blue était doué d’une quelconque intelligence ou créativité. Cependant, presque 20 ans après, la même révolution – ou plutôt la vraie révolution - s’est passée avec le jeu de go. En apparence, le jeu de go peut faire penser aux échecs. Pour le jeu de go, c’est 90 000 choix possibles par coup, alors que pour les échecs c’est seulement 400 choix possibles par coup en prenant en compte la réponse de l’adversaire. De plus, il est extrêmement compliqué d’évaluer de façon objective qui est en train de gagner. Les joueurs de go arrivent plus ou moins à le faire de façon intuitive, mais la tâche reste complexe. Il y a encore quelques années, les programmes du jeu de go étaient incapables de rivaliser avec les bons joueurs humains à cause du nombre de coups possibles et la difficulté d’évaluation. D’ailleurs, les chercheurs imaginaient que cela allait prendre encore plusieurs décennies avant d’arriver au même résultat que pour les échecs. Pourtant en 2016, le programme AlphaGo de Google DeepMind a battu à plate couture Lee Sedol, le meilleur joueur mondial. Pour arriver à cet exploit, AlphaGo a utilisé une méthode bien différente que Deep Blue, en se basant sur le Machine Learning. L’algorithme s’est donc appuyé sur 160 000 parties toutes jouées par des grands maîtres du jeu de go. Ce qui représente au ******ebook converter DEMO Watermarks*******

total 30 millions de coups. AlphaGo était constitué de deux réseaux de neurones : l’un avait pour mission de choisir les meilleurs coups et l’autre d'évaluer les positions en leur attribuant un score, qui devait représenter la probabilité de remporter la partie. Est-ce pour autant un signe qu’AlphaGo est plus intelligent et créatif que Deep Blue ? Il semble que oui. Au 37e coup de la seconde partie avec Lee Sedol, AlphaGo a montré une forme de créativité. Le coup était tellement surprenant que les présentateurs pensaient que c’était un bug ou une erreur. Lee Sedol était tout aussi stupéfait que les présentateurs. AlphaGo a joué un coup totalement inattendu, qui en principe devrait être considéré comme une erreur de débutant. Pourtant, ce coup a eu une influence essentielle sur la fin de la partie dans un autre coin du plateau. Plusieurs spécialistes du jeu de go ont déclaré qu’aucun joueur de go professionnel ne jouerait un coup pareil. Et c’est pourtant ce coup qui a donné la victoire à l’algorithme. On peut donc véritablement dire que c’est un cas de créativité de la part d’AlphaGo. Encore aujourd’hui ce coup est étudié et enseigné aux joueurs de go du monde entier pour tenter de comprendre comment exploiter ce nouveau type de stratégie. Et c’est une preuve que l’intelligence artificielle a inspiré l’humain pour se surpasser dans un domaine bien précis. Mais les choses sont allées encore plus loin par la suite. Malgré les performances impressionnantes d’AlphaGo, l’algorithme n’aurait pas pu y arriver sans les milliers de parties de grands maîtres du jeu de go qu’il a ingurgité. En 2017, Deep Mind sort une nouvelle version de son algorithme nommé cette fois-ci AlphaGo Zero. Celui-ci fonctionne purement en apprentissage par renforcement (en Reinforcement Learning), mais uniquement pour le jeu de go. Son architecture simplifiée part d’une connaissance nulle du jeu, sauf pour les règles. De ce fait, l'algorithme n’est pas entraîné avec des milliers de parties. En jouant uniquement contre luimême, il atteint le niveau débutant en trois heures, bat 100 à 0 la version ayant battu Lee Sedol après 72 heures et après 40 jours, il bat la version AlphaGo Master 89 parties sur 100. Quelques mois plus tard, Deep Mind sort Alpha Zero qui fonctionne aussi bien sur le go, les échecs ou le shogi. En 2019, réitère son exploit en sortant AlphaStar qui arrive à battre des ******ebook converter DEMO Watermarks*******

champions de Starcraft. Un jeu vidéo considéré comme étant plus complexe que le jeu de go. Dans le cas d’AlphaGo, l’IA faible nous a donc montré qu’elle est capable d’avoir de la créativité, même si pour l’instant celle-ci est encore limitée. Si l’IA faible est déjà capable de montrer une certaine forme de créativité, qu’en sera-t-il de l’IA forte ? Je pense personnellement que dans les prochaines décennies l’IA va donner une grande leçon d’humilité à l’espèce humaine. Tôt ou tard, les IA seront capables d’être aussi créatives ou même encore plus que les humains. Les experts répètent souvent que la compassion ou la créativité ne seront jamais l'apanage des machines, parce qu'ils se cherchent un champ d'existence. Ceux qui disent non catégoriquement prennent potentiellement le risque de se ridiculiser plus tard. Même si c’est une chose encore très lointaine, il semble plus sage de l’accepter. Et c’est normal d’avoir du mal à l’accepter. Avouer que les machines sont au même niveau que nous dans la créativité – ou dans n’importe quel autre domaine, c’est avouer implicitement que nous sommes aussi des machines (biologiques). Mais ne soyons pas des enfants jaloux. Acceptons d’être moins bons que l’IA, même dans la créativité. En tant qu’artiste et musicien, j’accepte de me faire détrôner par l’IA, surtout si elle est capable de repousser encore plus loin l’art. Et d’une certaine façon, l’IA pourrait peut-être nous inspirer à faire des choses encore plus belles ? Nous sommes pour l’instant qu’au début de cette révolution technologique et les choses évoluent tellement rapidement que nous avons à peine le temps de nous poser des questions que tout est déjà sur le point d’arriver. Le débat sur l’art entre l’humain et l’intelligence artificielle ne sera pas résolu aujourd’hui. Mais est-ce que nous aurons le temps de finir ce débat avant que l’IA forte pointe le bout de son nez ?

Et demain ? L’intelligence artificielle ne risque pas de voler tout de suite le travail des créateurs, même s’il vaut mieux quand même s’y préparer, car des événements inattendus peuvent toujours se déclarer. Il ne faut jamais dire jamais ! ******ebook converter DEMO Watermarks*******

À la base la technologie a toujours été un moyen de résoudre des problèmes auxquels les humains ont fait face et de faciliter notre existence en évitant de perdre trop de temps sur les tâches ennuyeuses et répétitives. L'humain pendant encore quelque temps gardera par choix la mainmise sur les activités qui lui provoquent du plaisir : la créativité, les contacts sociaux, l’empathie et la compassion. Pour le reste, les machines s’en occuperont. L’IA ne remplacera pas tout de suite tous les métiers et l’humain deviendra d’abord complémentaire de l’IA dans les prochaines décennies. Évidemment, les humains vont devoir s’adapter à ce nouveau paradigme. De nouveaux métiers apparaîtront sur les sites d’offres d’emploi de demain : creative intelligence engineer, art scientist, algorithm designer… Ces nouveaux métiers laisseront place à la complémentarité homme / machine, mais il faudra faire en sorte de créer des métiers qui pourront convenir à un maximum de personnes. Tout le monde ne voudra, ou ne pourra pas devenir un créatif ou ingénieur, mais les métiers liés à l’empathie et à la compassion, pourquoi pas ? Peut-être que l’IA pourra nous permettre de gagner du temps sur les choses essentielles. L’espèce humaine deviendra-t-elle plus humaine et créative qu’avant grâce à l’IA ? Cependant, il existe encore des enjeux, pour garantir une intelligence artificielle éthique, responsable et créatrice de valeur. Les challenges ne seront pas seulement réservés aux humains ; les machines devront, elles aussi, composer avec de nombreux défis : le travail sur les petites tâches, les interactions avec le monde physique, le sens commun, savoir expliquer ce qu’elles font, pourquoi et comment, donner leur opinion, comprendre les routines et émotions humaines et leurs multiples interprétations. Dans la partie « Boostez votre créativité », je donne des conseils pour accroître la créativité. Une qualité essentielle qui permettra de garder le plus longtemps possible cette complémentarité avec l’IA. Mais qui vous permettra également de vous aider dans votre parcours créatif ou entrepreneurial de manière générale.

******ebook converter DEMO Watermarks*******

******ebook converter DEMO Watermarks*******

Interlude

******ebook converter DEMO Watermarks*******

7 - Interlude : un futur sombre ? Effondrement / collapsologie, ressources, réchauffement climatique… « La plus grande faiblesse de l’espèce humaine vient de son incapacité à comprendre la fonction exponentielle. » - Albert Allen Bartlett

Musique qui correspond à cette partie : Extra Terra - “Cyberpunk” Vous pouvez l’écouter sur Spotify, Apple Music, Deezer ou n’importe quel autre service de musique en streaming.

Ambiance : Très énergique / Dansante / Cyberpunk Style : Electro / Trash Tempo : 102 BPM J’ai appelé cette musique ainsi, parce que lorsqu’on entend les collapsologues et les pessimistes de tous bords, nous avons l’impression de vivre dans le pire des mondes. Le Cyberpunk est un genre de science-fiction qui s’apparente à la dystopie, mais c’est aussi un moyen de critiquer le capitalisme dans une société ultra-technologique. Malgré la montée en puissance de la convergence des technologies NBIC, on voit de plus en plus de personnes parler d’effondrement de la civilisation humaine d’ici 2030 pour certains, 2050 pour d’autres et d’ici la fin du siècle pour les moins hystériques. Les causes les plus souvent exposées sont variées : le réchauffement / dérèglement climatique, effondrement de la biodiversité, manque de ressources, réfugiés climatiques, guerres… La probabilité qu’un tel événement arrive n’est pas nulle pour autant, mais il n’est pas nécessaire non plus de rentrer dans l'exagération apocalyptique. En fait, peut-être que ******ebook converter DEMO Watermarks*******

l'avenir pourrait concilier l’effondrement et évolution technologique. Les deux sont éventuellement possibles en même temps. Lorsqu’un système est sur le point de s’effondrer, on peut prendre les devants et ainsi toujours prendre de l’avance afin d’éviter les pires scénarios. On peut prévenir les problèmes lorsqu’on discute de la collapsologie et éviter ces problèmes avec l’aide de la technologie, ou avec des solutions collectives. Et c’est justement très intéressant de parler des pires scénarios pour mieux s’y préparer. Mais le débat public est plus centré sur la passion irrationnelle que la raison. Ce discours apocalyptique n’est donc pas raisonnable ni tenable. Surtout pour la jeunesse. Dire à des enfants qu’ils vont mourir dans 15 ans et qu’il n’y a pas de solution n’est pas très joyeux à entendre. Sauf si vous voulez qu’ils finissent tous sous prozac, comme le dirait Laurent Alexandre ! Une disparition de l’espèce humaine est tôt ou tard inéluctable, mais lorsqu'une espèce disparaît, soit dans la plupart du temps elle s’adapte et évolue, soit elle disparaît totalement. Dans un sens, les effondristes ont raison, la société humaine va s’effondrer, pas dans le sens d’une fin civilisationnelle, mais dans le sens où elle va s’adapter / muter. La civilisation telle que nous la connaissons aujourd’hui va disparaître progressivement pour laisser place peu à peu à un nouveau paradigme. La question est de savoir lequel exactement. Difficile de trouver une réponse précise. Même les plus pessimistes ne peuvent pas prétendre savoir comment les choses vont se dérouler, car l’avenir est de plus en plus difficile à anticiper. Une chose est sûre cependant, le caractère disruptif et exponentiel des nouvelles technologies va indéniablement changer notre civilisation, tout en apportant de nouvelles richesses. Mais les scénarios trop excessifs, qu’ils soient ceux à la Mad Max (pessimiste), ou ceux qui sont trop optimistes ne sont pas non plus raisonnables. Comme dans tout sujet, il y a des choses intéressantes et des choses moins intéressantes. Même s’il est souvent assez caricatural et extrémiste, le mouvement de la collapsologie a aussi semé quelques graines intéressantes, mais il faut chercher pour les trouver. Je précise bien encore une fois que, bien que cette partie m’ait demandé un travail de recherche et de lecture assez considérable, je ne détiens pas la vérité absolue. Je peux me tromper. J’expose les informations ******ebook converter DEMO Watermarks******* ⬛

que j’ai épluchées sur ces sujets. Donc si j’ai écrit des inexactitudes, veuillez m’en excuser. Le but de ma démarche n’en reste pas moins positif, dans le sens où je considère, dans tous les cas, que ce discours apocalyptique n’est pas bon pour faire avancer la civilisation humaine. Il serait bien d’avoir un peu plus équilibré dans le débat public, pour éviter l’hystérie et le néomysticisme ambiant. ⬛

Les graphiques qui prouvent que le monde s’améliore Avant toute chose il semble important d’énoncer ce que nous avons accompli. Pourquoi ? Simplement parce que les gens ont tendance à l’oublier, mais nous vivons dans une période incroyable. Et surtout parce que les gens oublient que le passé était bien plus sinistre qu’aujourd’hui lorsqu’ils disent « c’était mieux avant ». Les cris d’alarme se multiplient sur les dangers qui nous menacent. Pourtant, jamais le monde n’a été aussi peu violent. Et la liberté, la tolérance, l’éducation et la santé ont progressé sur la planète dans des proportions insoupçonnées. Plusieurs centaines de chiffres, de statistiques et de rapports internationaux incontestables dessinent un bilan sans appel : mortalité maternelle et infantile divisée par deux depuis 1990, éradication planétaire de la variole, reconstitution de la couche d’ozone, redécouverte de plus de 350 espèces d’animaux considérées comme disparues, nombre de pays ayant aboli la peine de mort multipliée par 13 depuis 1950, chute de 65% du nombre d’homicides en vingt ans, etc. Beaucoup de ces exploits ont été permis grâce au progrès, à la science, à la technologie et à la croissance. Les graphiques avancés dans cette partie peuvent sembler contre-intuitifs et c’est tout à fait compréhensible. Les médias ne parlent en général que des choses négatives, très rarement des choses positives. Déjà parce que les titres pessimistes attirent plus de public et aussi parce que le but des médias est toujours de mettre en avant les faits qui sont hors du commun. Par exemple, tant que le nombre d’homicides ne tombera pas à 0, il y aura toujours des médias pour en parler. Si vous voulez plus de détails à ce sujet, je vous conseille de lire impérativement les livres du psychologue cognitiviste, Steven Pinker. Il explique notamment que l’espèce humaine n’a jamais vécu dans une période aussi peace & love qu’aujourd’hui. ******ebook converter DEMO Watermarks*******

Aucun système politique et économique n'est parfait et le capitalisme est loin d'atteindre la perfection, cependant c'est le seul qui a réussi à réduire la faim dans le monde et poussé notre technologie aussi loin jusqu’à maintenant (je conçois qu’un autre système aurait peut-être pu le faire). Si un autre meilleur système existe, je suis preneur, mais pour l'instant les statistiques sont unanimes. Je ne veux pas non plus qu’on me catalogue de capitaliste, je me considère être dans aucune catégorie, je veux juste montrer que les statistiques sont là et que les choses dans le monde sont bien plus nuancées qu’on le pense.Il y a du bon et du mauvais dans tout système – il y aura toujours des personnes qui ressentiront des inégalités dans n’importe quel type de société. C’est impossible de satisfaire tout le monde. Nous ne vivons donc pas dans la pire période de l’histoire de l’humanité. Bien évidemment, les choses ne sont pas encore parfaites et il faut continuer de se battre pour que le monde s'améliore. Le capitalisme n’est certainement pas le système le plus parfait, mais aucun système ne peut l’être. Tout n’est pas non plus en phase sur l’ensemble du globe ; dans beaucoup de pays la pauvreté s’est réduite, tandis que dans d’autres régions c’est l’inverse. Et peut-être, il est vrai qu’il n’y a jamais eu autant d’ultra-riches qu’aujourd’hui, mais parallèlement, il n’y a jamais eu aussi peu de pauvres à l’échelle mondiale. L’humanité depuis la première fois de son histoire est sur le point d’éradiquer la famine, la sous-nutrition, la mortalité infantile… Ces dernières décennies nous avons vu qu’il y’a eu un double mouvement d’enrichissement des riches et de réduction de la pauvreté parmi les masses les moins bien loties. Au niveau global les statistiques prouvent que les choses s’améliorent pour l’espèce humaine. Et au final, n’est-ce pas ce qui compte le plus ? Ne soyons pas des enfants pourris gâtés et continuons d’avancer sur cette voie, tout en prenant en compte les limites de notre planète.

- Les progrès économiques 1) L’extrême pauvreté a drastiquement baissé en 30 ans.

******ebook converter DEMO Watermarks*******

Grande baisse globale de la pauvreté depuis 1987. Our World in Data

C'est probablement le graphique le plus important de cette liste. Le taux de croissance économique extraordinaire de l'Inde et de la Chine – ainsi que la croissance plus lente, mais encore importante dans d'autres pays en développement, a entraîné une baisse considérable de la part de la population mondiale vivant avec moins de 1,90 dollar par jour, passant de près de 35 % en 1987 à moins de 11 % en 2013. Le nombre de personnes vivant sous le seuil d’extrême pauvreté dans le monde a diminué d’un peu plus d’un milliard en trente ans, passant de 1,9 milliard en 1981 à 800 millions en 2013. C'est un seuil plutôt bas concernant la pauvreté, et certains experts soutiennent que nous devrions plutôt utiliser un seuil de pauvreté mondiale de 10 à 15 dollars par jour. Mais l’existence même de ce débat est un signe des progrès considérables réalisés au cours des dernières décennies. *Le graphique prend en compte l’inflation*. 2) La faim a baissé drastiquement depuis 20 ans

******ebook converter DEMO Watermarks*******

Réduction de la faim dans le monde, par pays, de 2000 à 2017. International Food Policy Research Institute, 2017

Cette carte montre l'évolution de l'indice de la faim dans le monde entre 2000 et 2017. Dans les pays marqués en rouge, la faim a augmenté. Dans les pays marqués en orange ou en beige, elle a diminué et dans les pays marqués en vert, elle a diminué de moitié ou plus. Il est donc encourageant de voir à quel point le globe est orange, et surtout encourageant de voir que quelques pays extrêmement peuplés comme la Chine et le Brésil entrent dans la catégorie verte. 3) Les habitants des pays développés ont de plus en plus de temps libre

******ebook converter DEMO Watermarks*******

Temps de travail dans 5 pays riches, de 1870 à 2000. Our World in Data

Par rapport à la fin du XIXe siècle, les pays développés ont des horaires de travail beaucoup plus raisonnables aujourd'hui.

4) Le travail des enfants est en déclin

Le travail de labeur des enfants est en déclin, de 2000 à 2016. International Labor Organization

******ebook converter DEMO Watermarks*******

Le travail des enfants, quel qu'il soit, c'est déjà trop, et le monde n'a pas atteint l'objectif de l'Organisation internationale du travail d'éliminer les « pires formes » de travail des enfants d'ici 2016. Cependant le taux d’enfants qui travaillent est en déclin avec une réduction d'environ 40 % entre 2000 et 2016. Ce n’est pas négligeable et mérite d'être célébré.

- Les progrès dans la santé 5) L’espérance de vie augmente

The explosion in global life expectancy from 1770 to the present Our World in Data

L'augmentation de l'espérance de vie humaine est un phénomène assez récent ; elle a littéralement doublé dans le monde entier depuis les années 1750. Et cette augmentation a persisté au cours des dernières décennies. L'espérance de vie a augmenté de plus de six ans entre 1990 et 2016, et les gains ont été les plus importants dans les pays pauvres d'Afrique et d'Asie. Mais des inégalités subsistent encore, la durée de vie en Afrique est 16,3 ans plus courte qu'en Europe, mais l'écart se réduit lentement. ******ebook converter DEMO Watermarks*******

6) La mortalité infantile est très basse

Déclin de la mortalité infantile, 1990 to 2017. UNICEF

La mortalité infantile a diminué de plus de moitié depuis 1990. Si vous regardez les régions en développement, les gains sont encore plus impressionnants. En Afrique, 17 pour cent des enfants sont morts avant l'âge de 5 ans en 1990. En 2015, ce pourcentage était tombé à 8 %. En Inde, le deuxième pays le plus peuplé, la mortalité infantile a chuté de 69 % au cours de cette période, soit plus des deux tiers. En Chine, le pays le plus peuplé du monde, elle a chuté de 83 %. Il s'agit là de chiffres vraiment massifs qui ont contribué à l'amélioration de l'espérance de vie dans son ensemble.

7) Mortalité maternelle en baisse lors des accouchements

******ebook converter DEMO Watermarks*******

Déclin de la mortalité maternelle, 1990 to 2015. World Health Organization

La mortalité maternelle a diminué de 43 % entre 1990 et 2015, selon l'Organisation mondiale de la santé. Vous pouvez voir que la baisse a été particulièrement forte dans les pays africains.

- Paix et sécurité 8) Sur le long terme, les taux d’homicides ont chuté de façon spectaculaire

******ebook converter DEMO Watermarks*******

Déclin des homicides dans l’Europe de l’Ouest, de 1300 à 2016. Our World in Data

Le passé était beaucoup plus violent qu’aujourd’hui. Comme le montre le travail de recherche du criminologue Manuel Eisner, les homicides dans les pays européens sont en baisse depuis des siècles. Eisner estime que dans les années 1200 et 1300, l'Europe avait un taux moyen d'homicides d'environ 32 pour 100 000. Dans les années 1900, ce taux était tombé à environ 1,4 pour 100 000.

9) L'approvisionnement en armes nucléaires a rapidement été réduit

Effondrement des stocks d'armes nucléaires, qui a commencé à la fin des années 80. Federation of American Scientists / Hans M. Kristensen and Robert S. Norris

******ebook converter DEMO Watermarks*******

Les stocks mondiaux d'armes nucléaires ont culminé en 1986 avec 70 300 ogives et la période qui a suivi a connu une forte diminution des stocks américains et russes et donc du nombre total mondial. Le traité international de non-prolifération des armes nucléaires a connu quelques défaillances, le Pakistan et la Corée du Nord ont développé des armes, mais l'Afrique du Sud et le Bélarus, le Kazakhstan et l'Ukraine de l'après-URSS ont tous volontairement abandonné leurs armes.

- Services gouvernementaux et sociaux 10) De plus en plus de gens vont à l’école plus longtemps

L'augmentation globale de la scolarisation de 1870 à nos jours. Our World in Data

Nous avons encore beaucoup à faire pour améliorer l'accès à l'éducation, mais même dans les pays en voie de développement comme la Chine et l'Inde, le nombre moyen d'années de scolarité a augmenté rapidement. Même si le système éducatif n’est clairement pas parfait, c’est encourageant.

******ebook converter DEMO Watermarks*******

11) Et l’alphabétisation est également en hausse

L'essor de l'alphabétisation, de 1475 à 2015. Our World in Data

L'amélioration de l'accès à l'éducation a, comme on pouvait s'y attendre, coïncidé avec une augmentation de l'alphabétisation. De grands progrès ont également été réalisés en réduisant les écarts mondiaux en matière d'alphabétisation. En 1870, 79,9 % des Afro-Américains âgés de 14 ans ou plus étaient analphabètes et en 1952, ce chiffre n'était plus que de 10,2 %. Mais en 1979, selon les données du Centre national des statistiques de l'éducation, le taux d'analphabétisme était tombé à 1,6 %.

La collapsologie : ce n’est pas quelque chose de nouveau Malgré tous ces chiffres très encourageants, cela ne changera rien, tout est sur le point de s’effondrer ! Vous en voulez une preuve ?! Faites une recherche Google avec le mot effondrement et vous verrez des millions résultats sous vos yeux. Ou regardez simplement le fil d’actualité de Facebook ou de Twitter pour voir que de plus en plus de personnes parlent d’effondrement... principalement des Européens. Les prophètes millénaristes ont de plus en plus de poids médiatique. ******ebook converter DEMO Watermarks*******

La collapsologie est une sous-branche de la futurologie qui a pour vocation d’étudier les mécanismes d’effondrement d’une civilisation. Les prédictions des collapsologues sont en général beaucoup plus pessimistes que celles des futurologues traditionnels. Mais ce n’est pas parce que les collapsologues néomalthusiens sont pessimistes qu’ils ont raison, et ce n’est pas parce que les futurologues cornucopiens sont plus optimistes qu’ils ont raison non plus. La collapsologie est une étude transdisciplinaire du futur, tout comme la futurologie, reliant démographie, biologie, climatologie, économie, sciences morales et politiques. Sauf que le facteur technologique est très peu étudié par les collapsologues. Ces prophètes de l’effondrement commencent à devenir nombreux et explosent l’audimat des chaînes de télévisées, mais aussi les compteurs de vues sur YouTube. Pour certaines vidéos on parle en millions de vues. En 2015, Pablo Servigne, un des initiateurs du mouvement, invente le mot « collapsologie » avec Raphaël Stevens, en utilisant le mot latin collaps « qui s’effondre en un seul bloc » et le mot grec logos « la parole ». Leur livre comment tout peut s’effondrer explose littéralement les ventes et devient vite populaire. Cependant, ce mouvement a surtout pris de l’ampleur en Europe. Aux USA un mouvement similaire existe, mais il n’a pas du tout le même poids médiatique ni sociologique. On peut dire que chez le pays de l’oncle Sam, c’est une idéologie presque invisible et en Chine la collapsologie est totalement inexistante. Le mot collapsologie est un néologisme, mais son fonctionnement idéologique n’est pas nouveau. C’est en fait un plat réchauffé et encore réchauffé depuis des siècles. Au XVIIIe siècle, le révérend Thomas Robert Malthus avait certifié que la population mondiale serait toujours trop nombreuse par rapport à la quantité de nourriture disponible. La population doublait à un rythme exponentiel, tandis que la production agricole n’augmentait que de façon linéaire. Malthus concluait en 1779 que l’humanité souffrirait toujours de la famine : Le pouvoir multiplicateur de la population est tellement supérieur au pouvoir qu’a la terre de produire la subsistance de l’homme qu’une mort prématurée doit, sous une forme ou sous une autre, être le lot de la race humaine. Les vices de l’humanité sont des ministres actifs et efficaces de la ******ebook converter DEMO Watermarks*******

dépopulation. Ils sont les avant-coureurs de la grande armée destructrice et achèvent souvent eux-mêmes le funeste ouvrage. Mais, s’ils ne gagnent pas cette guerre d’extermination, les années malsaines, les épidémies et les pestes avancent en rangs redoutables et emportent leurs victimes par milliers et par dizaines de milliers. Si la victoire n’est pas encore totale, la famine monstrueuse, irrésistible, survient en arrière-garde et, de son seul souffle puissant, ramène la population au niveau des subsistances dans le monde[70]. Les prédictions de Malthus, le premier malthusien, se portaient bien sur la situation dans laquelle se trouvait l’humanité. Néanmoins, il sous-estimait la capacité de l’humanité à innover, à résoudre les problèmes et à changer de comportement. Quand les cultivateurs ont acquis le droit à la propriété individuelle, ils ont été incités à produire davantage. Quand les frontières se sont ouvertes au commerce international, les régions ont commencé à se spécialiser dans le type de production adapté à leur sol, à leur climat et à leurs compétences. La technologie agricole s’améliorait également en parallèle de toutes ces nouvelles mesures. Même si la population grandissait rapidement, l’offre alimentaire augmentait encore plus vite. Malgré le déclin des famines, en 1918, dans un livre consacré à la situation alimentaire, la United States Food Administration publia une « carte de la faim en Europe », faisant apparaître les menaces pour la sécurité alimentaire sur le vieux continent à la fin de la Première Guerre mondiale. Quelques pays, comme la Grande-Bretagne, la France, l’Espagne et les nations nordiques, avaient « un approvisionnement suffisant pour le moment », mais allaient connaître à l’avenir de graves carences. L’Italie souffrait d’une « sérieuse pénurie alimentaire », et des pays comme la Finlande, la Pologne et la Tchécoslovaquie se trouvaient dans des « conditions de famine ». C’était l’opposé du raisonnement de Malthus : la production alimentaire avait explosé, mais la croissance démographique avait ralenti. Malthus n’avait pas vu que plus le niveau de confort et d’éducation était élevé, plus la population avait tendance à faire moins d’enfants. De 1950 jusqu’au milieu des années 1980, la population était passée de 2,5 à 5 milliards et les nouveaux malthusiens prévoyaient une famine massive. En 1968, Paul Ehrlich, membre du Club de Rome, avait écrit dans La Bombe P (comme ******ebook converter DEMO Watermarks*******

Population) : « La bataille menée pour nourrir la totalité de l’humanité a eu lieu, nous en sommes au dénouement. Des centaines de millions d’êtres humains vont mourir de faim dans les années 1970-1980. Dans « Famine 1975 ! » William et Paul Paddock prédisaient « dans quinze ans les famines seront catastrophiques ». Les néomalthusiens avaient annoncé la défaite inéluctable de la civilisation humaine à nourrir toute la population. C’est en fait l’exact opposé qui s’est produit. Norman Borlaug, agronome de l’Iowa, obsédé par le problème de la faim dans le monde, a été l'homme derrière la grande révolution verte dans les années 60. Ces semences ont en 1970 sauvé un milliard de Pakistanais et d'Indiens de la famine. Selon les propres calculs de Norman Borlaug, elles ont permis de pratiquement doubler la production de blé de l'Inde et du Pakistan de 1965 à 1970. On peut également ajouter qu’à la fin du XIXe siècle, The Times prévoyait que Londres serait bientôt recouverte de 100 mètres de crottin de cheval à cause de l’augmentation des calèches dans la ville… Mais grâce à l’évolution technologique, le domaine du transport a pu changer, nous sommes passés du paradigme de la calèche, au paradigme de l’automobile. En conséquence, les prédictions apocalyptiques des journalistes londoniens ne se sont jamais réalisées. Autre exemple concernant la pollution de l’air : en 1952, le grand smog (mélange des mots smoke, « fumée » et fog, « brouillard ») de Londres avait provoqué 12 000 morts en l’espace de seulement 4 jours. À cause du froid, les Londoniens avaient brûlé plus de charbon que d’habitude, et combiné aux polluants provenant des usines et des véhicules, la fumée formait une couche épaisse sur la ville. Le smog pénétrait à l’intérieur des habits et noircissait les sous-vêtements des habitants. Le smog contient des particules de suie et du dioxyde de soufre, qui est très toxique. Ce fut le cas de smog le plus meurtrier, mais Londres en a souvent été affecté à différents degrés, tout comme beaucoup de grandes villes dans les actuels pays en développement. À partir de la première révolution industrielle, on se mit à parler de « purée de pois » parce que les particules goudronneuses donnaient à l’air une couleur jaune et sale. C’était un phénomène si courant qu’il formait le paysage naturel d’une partie de la ******ebook converter DEMO Watermarks*******

littérature de l’époque. Pourtant aujourd’hui, ce phénomène n’existe presque plus, car des mesures politiques pour la protection de l’environnement ont été mises en place. En 1972, le très influent Club de Rome lançait cette mise en garde : « Tous les polluants qui ont pu faire l’objet de mesures voient leur importance croître exponentiellement avec le temps. » Bientôt, pourtant, la pollution cessa d’augmenter, mais commença même à diminuer et de façon spectaculaire. Selon l’Agence de protection environnementale des ÉtatsUnis[71], les émissions totales des six principaux polluants de l’air ont été réduites de plus des deux tiers entre 1980 et 2014. Les composés organiques volatils ont été réduits de 53 %, le dioxyde d’azote de 55 %, la matière particulaire de 58 %, le monoxyde de carbone de 69 %, le dioxyde de soufre de 81 % et le plomb de 99 %. Donc des solutions existent ! Et le monde serait aujourd’hui dans un bien pire état, si personne n’avait rien fait ! L’air que l’on respire actuellement dans les villes est meilleur qu’il y a 30 ans ! Enfin, dans les années 1980, les prêcheurs d’apocalypse prétendaient qu’on allait tous avoir le cancer de la peau dans 20 ans à cause du trou dans la couche d’ozone au-dessus de l’Antarctique. Mais en vertu d’un accord international signé à Montréal, la plupart des pays ont diminué les substances néfastes pour la couche d’ozone. Cela a tellement bien marché que le trou est en train de se reboucher aujourd’hui. Résultat pas plus de cancer de la peau, comme ils disaient. Les effondristes d’aujourd’hui sont donc simplement des néomalthusiens, qui ont changé de nom. Rien de nouveau ! Pablo Servigne a même avoué à L’Express de juillet 2019 que, bien entendu « personne n’est sûr que ça va arriver ou que cela ne va pas arriver », que son raisonnement est en partie intuitif, mais qu’il préfère « faire le pari », de l’effondrement, parce qu’on a sans doute à gagner quelque chose, au fond, de « l’anéantissement d’un monde que l’on déteste ! ». Le pape de la collapsologie a donc avoué lui-même que l’effondrement est plus une intuition et une croyance qu’autre chose. ⬛ ⬛

L’effondrement est possible, ******ebook converter DEMO Watermarks*******

mais ce n’est ni une fatalité ni une loi Certes la richesse et le développement qui ont sauvé l’humanité de la pauvreté et de la mort prématurée ont endommagé notre environnement. La hausse de la production et des transports a réduit la pauvreté, mais a aussi entraîné des émissions de gaz néfastes pour l’atmosphère, les rivières, les lacs... et pour nos poumons. Les progrès en matière d’agriculture avec l’usage d’engrais artificiel ont réduit la faim, mais ont entraîné un appauvrissement de l’eau en oxygène et ont transformé de nombreux lacs en zones mortes. L’utilisation des combustibles fossiles, qui a permis l’essor industriel de l’humanité, a également contribué au réchauffement climatique. Quelques années après la Seconde Guerre mondiale, avec le retour de la paix, les esprits ont commencé progressivement à se tourner vers l’environnement. Un mouvement écologiste démarra en Occident, mené par des intellectuels et des militants. Et, face aux tendances à l’œuvre dans le monde, beaucoup imaginaient pour l’avenir une planète ulta-surpeuplée, où l’humanité aurait épuisé toutes les ressources naturelles, du pétrole aux métaux, en passant par les minéraux. Les gens imaginaient un monde post-apocalyptique dénué de forêts, arrosé constamment de pluies acides et pollués, où il faudrait porter des masques pour se protéger des gaz et de l’air, que la plupart des espèces auraient disparu et que le cancer ferait des ravages à cause de tous les produits chimiques déversés dans la nature. Richesse et technologie n’étaient pas compatibles avec une planète en bonne santé à cette époque. Actuellement, il existe encore des problèmes écologiques, mais si vous examinez correctement notre monde, il ne ressemble absolument pas aux scénarios catastrophes envisagés dans les années 1970. Certaines idées étaient totalement fausses et dénuées de fondement scientifique, ce qui fait étrangement penser aux effondristes d’aujourd’hui. Mais le monde dans lequel nous vivons est aussi le résultat d’un effort concerté pour éviter ces scénarios. Évidemment, nous ne sommes pas non plus à l’abri d’une crise financière, comme celle de 2008, mais cela ne veut pas dire que nous allons nous diriger automatiquement vers un effondrement. En ce sens, la collapsologie est intéressante, car elle permet d’étudier les ******ebook converter DEMO Watermarks*******

scénarios d’effondrement, ce qui devrait en théorie permettre de mieux les éviter. Sauf que ce mouvement a globalement choisi de se morfondre dans les scénarios pessimistes. Ils ont accepté sans protestation ni révolte quelque chose qui leur paraît pénible, fâcheux et inéluctable. Pour les plus extrémistes d’entre eux, c’est une fatalité. L’une des rares solutions qu’ils proposent est de retourner à la décroissance, et même dans ce cas ils expliquent que cela ne fera que retarder l’échéance de l’effondrement. Malheureusement pour eux, si nous avions écouté les pessimistes, nous serions encore aujourd’hui dans des cavernes. L’optimisme est visionnaire. Le pessimisme réactionnaire. Le pessimisme est anti-avenir. Le but n’est pas d’être dans l’optimisme béat non plus. De plus, c’est un biais de penser que c’est toujours le scénario le plus pessimiste qui est le plus réaliste quand on parle du futur. En réalité, l’histoire nous a montré que notre monde s’est façonné dans des nuances d’utopie et de dystopie. La loi de Murphy, qui a été développée par Edward A. Murphy Jr, un ingénieur aérospatial américain, est un adage défaitiste qui s'énonce de la manière suivante : « tout ce qui est susceptible d'aller mal, ira mal. » Et, selon une variante plus détaillée de la loi : « s'il existe au moins deux façons de faire quelque chose et qu'au moins l'une de ces façons peut entraîner une catastrophe, il se trouvera forcément quelqu'un quelque part pour emprunter cette voie. » On peut interpréter cette loi de deux manières : l'une, de façon humoristique, est de prendre cette loi à la lettre, et de l'ériger en principe pessimiste. C’est ce que font les collapso fatalistes des temps modernes. Sous cet angle, la loi de Murphy est le constat fataliste, que « le pire est toujours certain ». Si on extrapole : les effondristes croient que le pire est donc certain pour notre civilisation. L'autre interprétation consiste à voir la loi de Murphy comme une règle qui aide à l’élaboration d’un produit ou d’un système : la loi de Murphy n’est pas considérée comme vraie, mais on élabore un système ou un produit comme si la loi était vraie. Par exemple, un équipement doit être à l'épreuve non seulement des accidents les plus improbables, mais aussi des manœuvres les plus stupides de la part d’un utilisateur. Cette loi justifie donc les principes de la conception de sûreté préconisant de planifier et d'éliminer ******ebook converter DEMO Watermarks*******

d'emblée les possibilités de mauvaise utilisation, par exemple à l'aide de détrompeurs. On peut également appliquer cette loi lors de la conception d’une IA forte par exemple pour éviter les pires scénarios. Notre présent qui est le futur de l’époque, le fruit du travail des anciens, est bien meilleur qu’avant. Le monde que nous avons aujourd’hui est le résultat d’une vision optimiste du futur et d’un effort concerté par nos ancêtres pour arriver à ce résultat. C’est pour cette raison qu’il est important de garder cette vision, tout en restant réaliste sur les obstacles que nous allons trouver sur notre chemin. Une grande partie de la réussite, dans la vie de manière générale, vient de l’optimisme, de la persistance et du refus d’abandonner. Lorsque les plans A, B ou C échouent, pas de soucis, on passe aux plans D, E, F, G, H, Y ou Z. Et si bien sûr les choses tournent mal : s’y attendre, en tirer des leçons et, par-dessus tout, les réparer. Il y a donc urgence politique à créer des récits donnant une image positive du futur. C’est le sens de la démarche « Bright Mirror » lancée par Bluenove et The Future Society (organisation à but non lucratif dont l’objectif est d’influer sur la construction d’un futur qui préserve l’humanité en exploitant les avantages des technologies de rupture). L’objectif de ces initiatives est d’imaginer collectivement les contours d’un futur positif. Nicolas Miailhe, cofondateur et président de The Future Society, pense d’ailleurs que la puissance de l’imaginaire positif sur le futur à long terme et les nouvelles générations en seront les acteurs principaux. Plus nous penserons que nous en sortirons mal et plus nous serons nombreux à le penser, plus nous allons effectivement générer cette réalité. Alors que si nous restons optimistes en prenant conscience des problématiques auxquelles nous allons faire face, nous augmentons nos chances de créer un avenir radieux. Arrêtons de nous faire peur et agissons au lieu de faire des prédictions à la Nostradamus, qui ne changeront rien en soit pour l’écologie. La meilleure façon de prédire le futur est de le créer soimême ! Ne laissons pas les collapsologues créer le monde qu’ils veulent (implicitement) !

Une civilisation évoluée technologiquement a plus de chances de s’en sortir en cas d’effondrement ******ebook converter DEMO Watermarks*******

Les anciennes civilisations qui se sont effondrées n'avaient pas le même niveau technologique et le même niveau d'éducation que nous. D’après certaines observations, plus une société est développée technologiquement et éduquée, et plus elle semble capable de s'en sortir en cas de problème. Les pires dégâts se produisent toujours dans les pays pauvres, en partie à cause de leur pauvreté. Nous mesurons souvent l’ampleur d’un désastre à son coût financier, mais les pays riches peuvent supporter des pertes financières plus lourdes parce qu’elles disposent d’atouts plus grands ; cela ne nous apprend rien sur l’étendue réelle des dégâts. Selon les données de l’ONU, 95 % de toutes les morts causées par des catastrophes naturelles entre 1970 et 2008 ont eu lieu dans les pays à revenu faible ou intermédiaire. Plus de richesse signifie des bâtiments plus sûrs, des codes de construction, des soins de santé, des systèmes d’alerte efficaces et un meilleur travail de prévention. Comme l’écrit Ronald Bailey, « le mauvais temps entraîne d’autant plus la mort et la destruction lorsqu’il rencontre la pauvreté »[72]. Selon une perception populaire, les civilisations dépendantes de la technologie sont moins aptes à gérer une catastrophe, parce qu’elles reposent sur des systèmes complexes qui risquent de tomber en panne. Cette idée joue sur la peur de l’effondrement que ressentent souvent les riches Occidentaux, dépendants de technologies qu’ils ne comprennent pas. Cette peur semble pourtant erronée. Quand la Yougoslavie, relativement développée, a implosé lors des guerres du début des années 1990, ses habitants ont pu trouver des solutions innovantes pour préserver au moins un minimum d’hygiène, d’eau potable et d’énergie pour se chauffer et cuisiner. Alors qu'au contraire lorsque la guerre civile a éclaté en Sierra Leone, pays déjà sous-développé, aucun filet de sécurité ne put être improvisé et la population tomba dans une misère digne de l’époque préhistorique. Comme le résume bien un manuel sur la santé mondiale : « À l’encontre des perceptions courantes, les sociétés technologiques très développées semblent avoir de meilleures ressources pour préserver la santé en temps de guerre que les sociétés pauvres qui utilisent moins de technologies modernes. » Si c’est le cas, les catastrophes naturelles devraient devenir peu à peu moins destructrices, à mesure que le monde se développe technologiquement et c’est bien ce que suggèrent les données disponibles. ******ebook converter DEMO Watermarks*******

Même dans le pire des cas, si l’effondrement devait arriver, nos technologies ne vont pas toutes disparaitres en un claquement de doigts. Si le système électrique tombe en panne, nous pouvons toujours utiliser d’autres sources d'énergie de secours, comme les panneaux solaires ou les éoliennes pour alimenter nos appareils en cas de problème. Des technologies qui d’ailleurs, vont encore s’améliorer dans les prochaines décennies. Dans le cas d’un éventuel effondrement, nous pouvons mieux communiquer, anticiper et minimiser les dégâts que toutes les anciennes civilisations disparues. Donc non, l’apocalypse ne ressemblera pas aux blockbusters hollywoodiens.

Des ressources finies dans un monde fini ? Certains pointent le manque de ressources pour arriver à faire évoluer la technologie ou la croissance économique. En disant que le progrès technologique ne sera plus tenable à cause d’un manque de minerais hypothétique. Une croissance infinie dans un monde fini n’est pas viable, disent-ils ! Oui, il est vrai que les ressources de la terre sont finies, mais il en reste encore suffisamment pour tenir plusieurs siècles. Il existe une quantité définie de ressources sur terre. C’est un fait. Mais les quantités ne sont pas limitées de la façon que nous croyons. Il y a encore plein de réserves à découvrir. De plus il est également possible de recycler les matières et les techniques de recyclage vont encore s’améliorer. Il faut également comprendre que la demande ne concerne pas la ressource en soi, mais ce que nous en faisons, avec l’aide des nouvelles technologies et de notre créativité, nous pourrons trouver d’autres ressources jusqu’ici insoupçonnées pour satisfaire nos besoins. Par exemple certains chercheurs veulent remplacer le lithium par le sodium pour les batteries[73]. Les ressources en pétrole, gaz ou charbon sont bien limitées et leur épuisement est en train de continuer (avec par contre une certaine incertitude quant aux réserves, liée à l’accès à de nouveaux gisements du fait des efforts de recherche et à l’amélioration des moyens techniques mis en œuvre – l’exemple du gaz de schiste illustre bien ce propos). Cela tient aux processus géologiques ayant conduit à la formation des hydrocarbures, produits de la ******ebook converter DEMO Watermarks*******

transformation de la matière vivante dans le sous-sol sur de très longues durées. Les ressources minérales sont présentes sur Terre depuis sa formation, elles (quantité totale sur Terre) dépassent certainement les besoins de l’humanité sur la durée de son existence et les réserves (quantités accessibles avec les moyens technico-économiques donnés) dépendent uniquement de leur renouvellement grâce en particulier aux progrès des technologies d’exploration et d’exploitation. Bien évidemment, il faudra encore améliorer les techniques d’exploitation afin d’en réduire l’empreinte environnementale. Mais nous avons encore largement de quoi faire pendant un certain temps. La loi du marché joue également un rôle très important pour réguler les ressources. Lorsque nous avons une pénurie, cela entraîne une hausse des prix, résultat : nous économisons davantage le matériau brut. Si une ressource manque, nous arriverons toujours à trouver de quoi la remplacer. Contrairement à ce que tout le monde pensait dans les années 70, les stocks de presque toutes les ressources pour lesquelles s’inquiétait le Club de Rome ont augmenté. Plusieurs ont quadruplé. En 1972, les modèles informatiques du Club de Rome, dans le rapport Meadows (rapport dont les collapsologues utilisent encore aujourd’hui), prévoyaient que les réserves de cuivre s’épuiseraient en 36 ans. C’était il y a plus de quarante ans… aujourd’hui le cuivre est une matière que l’on trouve à profusion. À cette époque, on estimait que les réserves accessibles de cuivre s’élevaient à environ 280 millions de tonnes. En fait, depuis cette époque on a consommé pas loin de 480 millions de tonnes. Ce qui est beaucoup plus que les réserves initiales. Les réserves mondiales représentent en fait plus du double, c’est-à-dire 700 millions de tonnes. Il est possible de tenir encore 5 millénaires avec les réserves théoriques que nous n’avons pas encore trouvées, à condition de creuser jusqu’à 3 km de profondeur[74]. Bien que techniquement possible cette exploitation n’a pas d'intérêt tant qu’il reste des réserves moins profondes plus compétitives. Les réserves de nombreux éléments sont incontestablement limitées, de quelques décennies à quelques siècles selon les derniers rapports des services géologiques. Mais pour une grande partie des minerais, nous avons une marge temporelle assez conséquente avant d’arriver à épuisement. Par ******ebook converter DEMO Watermarks*******

exemple, d’après les derniers rapports géologiques nous avons encore pour 500 ans de réserves d’indium de consommation au rythme de 2017[75], ou encore 100 ans d’uranium[76]. Avec 100 ans d’uranium, nous avons encore largement le temps de passer à la fusion nucléaire ou au solaire orbital. Un autre point important qui n’est pas encore exploité : les ressources sous-marines. Leur potentiel est gigantesque et l’exploitation de certains gisements serait déjà économiquement viable[77]. Même certains bureaucrates de la Commission européenne estiment que 10 % du marché mondial des minerais sera alimenté par l’exploitation sous-marine dès 2030[78]. Donc même si un jour nous n’avons plus de ressources terrestres, nous pouvons nous rabattre sur les ressources sous-marines. D’après les derniers rapports, les océans renferment 500 milliards de tonnes de nodules[79]. Les nodules polymétalliques, les encroûtements de ferromanganèse-cobalt et les dépôts sulfurés sous-marins sont des gisements incroyablement riches. Certains nodules peuvent contenir jusqu’à 27 % de manganèse, 6 % de fer, 5 % de silicium, 3% d’aluminium, 1.5 % de nickel, 1.4 % de cuivre, 0.25 % de cobalt. Dans la zone Clarion Clipperton il pourrait y avoir plus de 3.5 fois les réserves terrestres de nickel et 5.5 fois celle de cuivre et de cobalt, 6000 fois celle de thallium. Les encroûtements dans la zone Nord Est Pacifique renferment 10 fois les réserves terrestres de tellure[80]. En 2018, les Japonais ont annoncé la découverte d’un gisement sousmarin situé à 1150 kilomètres de Tokyo, contenant de quoi assurer les besoins mondiaux d’yttrium pendant 780 ans, d’europium pour 620 ans, de terbium pour 420 ans et de dysprosium pour 730 ans[81]. Il est donc difficile d’imaginer une pénurie de ressources minérales dans les prochaines décennies. Pour autant, rien n’est encore gagné concernant l’exploitation des gisements sous-marins. L’industrie devra relever principalement deux défis. Le premier est l’acquisition d’une meilleure maîtrise de la technique. Le second est la constitution d’un cadre légal qui permettra de développer ces activités. Les récentes histoires de Nautilus Minerals et de nombreux projets autres projets en sont des exemples. Certaines personnes voudront saboter ******ebook converter DEMO Watermarks*******

tous ces projets. En fait, d’après une étude de Human Progress, il semblerait même que la croissance de la population mènerait en fait à l’abondance des ressources[82]. ⬛

Selon une étude très sérieuse de Human Progress, chaque être humain supplémentaire né sur terre semble rendre les ressources proportionnellement plus abondantes en réalité. Le document complet se trouve ici[83].

Marian Tupy, rédactrice en chef de Human Progress et le professeur Gale Pooley de la Brigham Young University – Hawaii ont analysé 37 années de données pour 50 produits de base couvrant l'énergie, les aliments, les matériaux et les métaux, ils ont ainsi élaboré un nouveau cadre de mesure des ressources disponibles. Les auteurs soutiennent qu'au lieu de rendre les ressources plus rares, la croissance démographique s'est accompagnée d'une plus grande abondance des ressources. Le rapport s'appuie sur le célèbre pari entre le biologiste Paul Ehrlich et l'économiste Julian Simon sur l'effet de la croissance démographique sur les ressources de la Terre. Alors qu'Ehrlich avertissait que la croissance démographique pouvait épuiser les ressources et conduire à une catastrophe mondiale, Simon voyait les humains comme la « ressource ultime » qui pourrait innover pour sortir de telles pénuries. Le pari Ehrlich-Simon a suivi le prix réel d'un panier de cinq matières premières entre 1980 et 1990, ce qui ******ebook converter DEMO Watermarks*******

a permis à Simon de constater, comme il l'avait supposé, que le prix de tous les produits mesurés a diminué en moyenne de 57,6 %, malgré une croissance démographique de 873 millions. Tupy et Pooley approfondissent l'idée originale de Simon en augmentant le panier à 50 produits de base et en analysant une période plus longue, entre 1980 et 2017. Au cours de cette période, ils constatent que le prix réel de leur panier de produits de base a diminué de 36,3 %. Ils introduisent également une nouvelle mesure appelée « prix du temps », c'est-à-dire le temps qu'un humain moyen doit travailler pour gagner assez d'argent pour acheter un produit donné. Ils constatent que le prix du temps de leur panier de 50 produits de base a chuté de 64,7 %. En d'autres termes, les produits de base qui ont nécessité 60 minutes de travail pour être achetés en 1980 n'ont nécessité que 21 minutes de travail en 2017. Si la tendance actuelle se poursuit, les produits de base pourraient devenir 50 % moins chers tous les 26 ans.

En outre, les auteurs développent le concept d'élasticité-prix de la population (en anglais : price elasticity of population - PEP), qui leur permet d'estimer l'effet de la croissance démographique sur la disponibilité des ressources. Au cours de la période étudiée, la population est passée de 4,46 milliards à 7,55 milliards, soit une augmentation de 69,3 %. Le PEP indique que le prix du panier de produits a baissé de 0,934 % pour chaque 1 % d'augmentation de la population. Chaque être humain supplémentaire né sur notre planète semble rendre les ressources proportionnellement plus abondantes pour le reste d'entre nous. ******ebook converter DEMO Watermarks*******

En utilisant les valeurs PEP, les auteurs forment le Simon Abundance Framework, qui décrit la progression de la diminution de l'abondance d'un côté à l'augmentation de l'abondance de l'autre côté. Les auteurs concluent que l'humanité connaît une surabondance et que les prix des produits de base diminuent à un rythme proportionnel plus rapide que celui de l'accroissement démographique. Enfin, les auteurs produisent l'indice d'abondance Simon (ISC) qui représente le rapport de la variation de la population sur la variation du prix du temps. Entre 1980 et 2017, la disponibilité des ressources a augmenté à un taux de croissance annuel composé de 4,32 %, ce qui signifie que la Terre était 379,6 % plus abondante en 2017 qu'en 1980. Tupy et Pooley prévoient que le prix des produits de base pourrait chuter encore de 29 % au cours des 37 prochaines années, à mesure que l'humanité continuera de rendre ses ressources plus abondantes grâce à une utilisation plus efficace, à une offre accrue et au développement de produits moins coûteux. Ils mettent toutefois en garde contre le fait que, pour que cette tendance se poursuive, les incitations du marché et le mécanisme des prix doivent perdurer. « Le monde est un système fermé au sens où un piano est un système fermé. Ce dernier a seulement 88 notes, mais ces notes peuvent être combinées pratiquement à l’infini. Il en va de même pour la planète, » expliquent Tupy et Pooley. « La Terre est composée d’un nombre fini d’atomes, mais les combinaisons possibles de ces atomes sont infinies. Dès lors, ce ne sont pas les limites physiques de notre planète qui importent, mais la liberté humaine d’expérimenter et d’imaginer de nouvelles utilisations des ressources que nous avons. » Concernant la biocapacité terrestre, ajoutons que les surfaces arables du monde (environ 1,4 milliard d’hectares sur 5 milliards consacrés à l’agriculture) sont stables ces dernières décennies, les pertes de l’ordre du millième des superficies étant compensées par les nouvelles terres rendues arables. Les rendements en revanche sont en progression, en lien avec le développement économique des populations. L’intensification de l’agriculture et de meilleures pratiques agricoles conduisent à un ******ebook converter DEMO Watermarks*******

enrichissement des sols, c’est donc un cercle vertueux. Plus on produit, plus les terres sont riches, plus les rendements progressent. La réalité, c’est que les terres naturellement arables sont plutôt rares. La plupart des terres arables le deviennent par l’activité humaine. Tant qu’il y aura des activités humaines, notre planète ne manquera pas de terres arables pour la nourrir. Il y a à peine deux cents ans, la France par exemple était parsemée de landes et de marais impropres à l’agriculture. Aujourd’hui, le contraste est spectaculaire. Il suffit de se promener à peu près n’importe où pour constater que la France est densément couverte de champs cultivés. ⬛

Sortir des énergies fossiles ? La véritable rareté c’est celle des énergies fossiles dont les réserves seront épuisées avant la fin du siècle. Ceux qui nient le rôle du CO2 dans le réchauffement climatique ne peuvent ignorer les problèmes sanitaires et environnementaux qui lui sont liés. Le véhicule électrique semble être donc une solution à ce problème, pourtant on voit partout des articles qui essayent de détruire son image. Depuis quelque temps, l’utilisation et l’expansion des véhicules électriques soulèvent des inquiétudes. À l’usage les véhicules électriques ne sont effectivement pas aussi polluants que les voitures à moteurs thermiques. Tout dépend également de la zone géographique d’utilisation. Par exemple rouler en voiture électrique en France est bien plus écologique que rouler en Allemagne, vu que la part du nucléaire est plus importante en France. Même s’il a une dangerosité potentielle (Fukushima et Tchernobyl), le nucléaire est considéré comme l’énergie qui produit le moins de CO2 actuellement. En Allemagne, le parc énergétique est principalement basé sur les énergies renouvelables comme le solaire et les éoliennes, ce qui a pour conséquence de polluer plus. Notamment, parce qu’il faut allumer les centrales à charbon, nocives pour l’air, lors des nuits sans vent et sans soleil. La construction d’une voiture électrique est généralement assez polluante à cause de l’extractions des minerais et souvent même plus polluante que celle d’une voiture à essence ou d’une voiture diesel. Malgré tout, ce surplus de pollution initial est en général compensé par le fait que la voiture électrique ne pollue plus une fois qu’elle est construite (puisque l’électricité ******ebook converter DEMO Watermarks*******

utilisée dans un moteur électrique n’émet pas de polluants). Si on regarde l’ensemble du cycle de vie d’une voiture électrique (de sa construction, jusqu’à sa fin de vie ou son recyclage en passant par son utilisation) on voit qu’elle pollue moins qu’une voiture à carburant fossile sur son cycle de vie. Il y a aussi beaucoup de fausses idées concernant les véhicules électriques vis-à-vis de leur dépendance aux terres rares. Les batteries des voitures électriques utilisent bien du cobalt et du lithium, mais ces éléments ne sont pas rares. De plus le besoin en cobalt se réduit rapidement, Tesla a divisé par trois la quantité de cobalt dans ses batteries entre 2008 et 2018. Les réserves connues de lithium sont également capables de construire 10 milliards de voitures électriques[84]. Actuellement, une batterie de 70kWh demande seulement 12 kg de lithium. Certains véhicules utilisent des terres rares, en faible quantité. Mais en fait la grande majorité des véhicules hybrides et électriques sont équipés aujourd’hui de batteries Li-ion… qui ne contiennent pas de terres rares. Certes, elles contiennent du lithium, du cobalt et du nickel, mais comme indiqué plus haut, ces métaux ne sont pas des terres rares et ne posent pas les mêmes problèmes. L’important est de comprendre que les voitures électriques peuvent très bien se passer de terres rares et que certaines, dont les plus vendues, n’en contiennent quasiment pas. La durée de vie des batteries peut également montrer une endurance inespérée. D’après les données relevées chez les utilisateurs, une Tesla avec 800 000 km au compteur pourrait ne perdre que 20% de son autonomie d’origine[85]. Sans oublier les voitures à hydrogène qui vont encore s’améliorer dans les prochaines décennies. De plus il est tout à fait possible d’extraire et de produire des terres rares en respectant des normes environnementales et sanitaires. La situation a bien évolué en Chine : depuis décembre 2016 les autorités de Pékin ont inspecté plus de 400 compagnies actives dans l’extraction et la transformation de terres rares et fermé de nombreuses mines en infraction ou illégales. En d’autres termes, l’avenir de la mobilité électrique ne dépend nullement de l’exploitation de terres rares. Par contre, le raffinage du pétrole et les pots catalytiques des voitures thermiques qui, eux, ne peuvent pas se passer de terres rares figurent parmi les plus gros consommateurs. ******ebook converter DEMO Watermarks*******

Les marées noires et les forages en eaux profondes ou dans les zones polaires ravagent les écosystèmes littoraux et maritimes. L’extraction de pétrole dans les schistes et sables bitumineux est une aberration énergétique et provoque des catastrophes écologiques. Les forages pour produire des gaz et pétroles de schiste consomment massivement de l’eau douce, polluent les sols, provoquent des tremblements de terre et dévastent les paysages… Pourtant tout le monde ne fait que montrer du doigt les véhicules électriques.

L’avenir de l’humanité se joue dans l’espace Si un jour nous manquons de ressources sur Terre que nous n’arrivons pas à remplacer. Nous pourrons toujours aller les chercher ailleurs, sur d’autres planètes ou sur les astéroïdes. Ce n’est pas une idée anodine et elle est prise de plus en plus sérieusement par l’industrie. Dans notre système solaire, il y a des millions d'astéroïdes à notre portée et ils contiennent tous les ressources dont nous avons besoin dans des quantités absolument astronomiques. Pour les exploiter, d’ici quelques décennies, nous pourrions avoir bâti une base minière sur la Lune, construit des stations-service un peu partout dans le système solaire et avoir colonisé Mars. Les néomalthusiens et décroissants tirent la conclusion que l’humanité doit s’adapter à la finitude des ressources, technophiles et astrophiles estiment qu’il suffit de trouver des ressources aussi infinies que l’appétit humain. Et ça tombe bien, celles-ci tournent au-dessus de nos têtes depuis 4,5 milliards d’années. D’après les astrochimistes, tous les éléments que nous avons sur Terre, nous pouvons les retrouver dans les astéroïdes qui sont dans notre système solaire. Beaucoup sont rocheux, certains contiennent de l’eau et 5 % environ seraient constitués à 90% de métaux, leur potentiel minier est grandiose. Les astrochimistes estiment que dans un astéroïde métallique de taille relativement modeste, il y a des réserves pour plusieurs années de consommation terrestre. Plus de 700 000 astéroïdes ont déjà été répertoriés, principalement entre les orbites de Mars et de Jupiter, et des millions d’autres ******ebook converter DEMO Watermarks*******

pourraient encore être découverts, fournissant à l’humanité des ressources quasi infinies, du moins en métaux. Et avec plus de 9000 astéroïdes dans le voisinage terrestre[86], plus de 1500 sont d'un accès aussi facile que la Lune selon les investisseurs privés. Et, plusieurs entreprises dans le domaine spatial pensent déjà à aller chercher des ressources minières dans l’espace, notamment SpaceX et Blue Origin. Une hypothèse prise très au sérieux par les entreprises américaines Planetary Resources et Deep Space Industries, fondées en 2010 et 2013 spécifiquement en vue d’exploiter les ressources minières des astéroïdes. Des projets tellement pris au sérieux qu’en 2015, l’administration Obama a fait passer le « Space Act », qui autorise les entreprises privées à pratiquer le « space mining », ou forage spatial. On peut également ajouter que depuis quelques années, des efforts sont faits pour réduire considérablement l’impact environnemental, concevoir des carburants moins polluants et surtout réutiliser les fusées, notamment SpaceX qui a été précurseur en termes de réutilisation des lanceurs, permettant ainsi de réduire la pollution et les coûts d’accès à l’espace. On peut donc s’attendre à voir encore des avancements dans ce domaine dans les prochaines années. Autre point important concernant la conquête spatiale, pour ceux qui disent qu’on doit d’abord régler les problèmes sur terre avant d’aller dans l’espace. La Station Spatiale Internationale (ISS), grâce aux conditions spatiales (comme le manque d’apesanteur), a contribué à faire d’énormes exploits technologiques sur Terre comme : un système de filtration et purification d’eau[87], des machines à ultrason pour des diagnostics médicaux[88], l’amélioration des systèmes de chirurgie optique[89], permettre à des bras robotisés de retirer des tumeurs[90], la prévention de la perte osseuse[91], un traitement contre l’ostéoporose[92], une avancée dans le développement de vaccins[93], une technologie capable de déterminer la position et taille d’une tumeur du cancer du sein[94]. Et il ne s’agit là que d’un très petit fragment des bénéfices de la conquête spatiale. On peut conclure que la compréhension de l’univers qui nous entoure permet d’améliorer indéniablement notre qualité de vie sur Terre. Jeff Bezos, le patron d’Amazon, a expliqué en 2019 qu’il souhaite délocaliser ******ebook converter DEMO Watermarks*******

les productions les plus polluantes dans l’espace pour préserver et transformer la Terre en zone résidentielle. Le but étant de préserver la Terre à tout prix de nos activités industrielles.

Les technologies contre le réchauffement climatique Déjà pour préciser : JE NE SUIS PAS CLIMATOSCEPTIQUE, mais il me semble très peu raisonnable d’avoir un discours apocalyptique sur l’environnement. Je suis à 100% pour l'écologie et la lutte contre le réchauffement climatique. Mais par contre, je suis totalement contre le discours apocalyptique et anxiogène qui est véhiculé partout, que je trouve totalement irresponsable. Il existe des solutions. Notamment grâce à la technologie ou à des décisions collectives. Désolé pour les décroissantistes technophobes par essence, mais il est tout à fait possible de lutter contre le réchauffement climatique avec la technologie ! Environnement, croissance et technologie ne sont pas incompatibles. En réalité, il existe plusieurs solutions qui pourraient nous aider à lutter contre le réchauffement climatique. L’homme n’est pas le seul responsable, nos activités viennent s'ajouter en surcouche du réchauffement climatique naturel. Mais ce réchauffement semble être en grande partie de source humaine d’après les derniers rapports du GIEC. Si le CO2 est un problème pourquoi pas l’aspirer de l’atmosphère avec des aspirateurs géants ? L’idée peut paraître folle, pourtant plusieurs compagnies travaillent dessus. La société Carbon Engineering, fondée en 2009, a développé un réacteur géant capable d’aspirer le dioxyde de carbone[95]. L’initiative est financée par l’industrie pétrolière, le gouvernement canadien et Bill Gates. Par un procédé chimique complexe, cette « technologie à émissions négatives » attire les particules de CO2 dans le réacteur, où elles sont stockées. Dénommé « Direct Air Capture ». Selon le PDG Steve Oldham, sa technologie serait en mesure d’absorber jusqu’à une mégatonne de dioxyde de carbone par an, soit l’équivalent du travail de 40 millions d’arbres, s’il pouvait dispenser d’une centrale d’environ 30 hectares. Son objectif est de combiner la technologie « Direct Air Capture » avec une autre technologie, baptisée « Air to fuels ». Cette fusion ******ebook converter DEMO Watermarks*******

technologique permet de transformer le carbone récupéré dans l’atmosphère en un carburant propre et compatible avec les véhicules et infrastructures modernes. Cependant, même si cette initiative est intéressante, planter des arbres reste pour l’instant le moyen le plus simple et le moins coûteux pour réduire le CO2 dans l’atmosphère. Les arbres sont des aspirateurs à CO2 naturels. C’est là que vient la seconde idée : modifier les plantes génétiquement pour qu’elles puissent absorber encore plus de CO2. En modifiant un gène régulant une hormone végétale, des chercheurs ont réussi à obtenir des plantes aux racines plus longues et plus profondes. Ces dernières peuvent non seulement stocker plus de C02 dans le sol, mais résistent mieux à la sécheresse et préviennent les inondations. Une technique potentiellement applicable à plus de 800 milliards d'hectares de grandes cultures dans le monde, selon une étude[96]. Les initiatives collectives ont réussi à réduire la pollution dans les villes par le passé (le SMOG de Londres). Il faut donc continuer sur cette voie, dans un premier temps. Continuer à appliquer des mesures permettra de réduire encore les gaz à effet de serre. Et finalement, cela reste toujours la meilleure solution à l’heure actuelle. Il vaut mieux prévenir que guérir. Bien évidemment, il va falloir faire encore bouger les choses au niveau politique. Mais tout est possible, il ne faut pas se laisser abattre et penser que tout est fini. Si nous n’arrivons pas à refroidir la température globale avec ces mesures, il existe toujours des solutions. Certains scientifiques veulent utiliser la technologie pour refroidir la température terrestre. Par exemple en utilisant la géo-ingénierie, qui est un ensemble de plusieurs techniques permettant de manipuler et modifier le climat. L’objectif est plutôt d’ordre curatif que préventif, mais si nous n’avons pas le choix, il va falloir y penser tôt ou tard. Apprendre à terraformer d’autres planètes, comme Mars par exemple, pourrait grandement nous aider à comprendre comment modifier le climat sur Terre. Alors, oui, les énergies renouvelables ne sont pas parfaites pour l’instant (solaire et éolienne). Mais grâce à l’évolution technologique, on va bientôt pouvoir convertir l’énergie de la pluie qui tombe sur les panneaux solaires en énergie électrique[97]. Il faudra également améliorer nos technologies de ******ebook converter DEMO Watermarks*******

stockage de l’énergie. Ce qui éviterait d’utiliser les centrales à charbon ou à gaz, qui polluent beaucoup lorsqu’il n’y plus de soleil. Rappelons le cas de l’Allemagne qui produit 8,5 fois plus de CO2 que la France à cause de l’utilisation des centrales à charbon durant les nuits sans vent et sans soleil. Et pour l’instant, le nucléaire est la seule énergie qui produit le moins de CO2 par kWh, comparé aux autres sources d’énergie. En conclusion : il faut arrêter de dramatiser. Certes le réchauffement climatique existe bel et bien et peut-être que nous allons devoir changer la façon dont nous consommons et agissons pour réduire notre empreinte écologique. Mais il est inutile de penser que dans 50 ans nous allons tous mourir de chaud. C’est totalement contre-productif.

Extinction des espèces et biodiversité Selon le rapport récent des experts de la plateforme intergouvernementale sur la biodiversité (IPBES), un million d’espèces sont menacées. D’après eux, on avance vers une 6e extinction de masse des espèces vivantes qui serait pire que celle ayant entraîné la disparition des dinosaures. Encore une fois, même si ces allégations sont en partie vraies – dans le sens où nous devons protéger notre environnement et les espèces qui y vivent, ces propos sont très sensationnalistes. Aujourd’hui encore il est très difficile de compter avec précisions les espèces existantes. En effet, on ne connaît pas le nombre d’espèces qui existent, on ne connaît pas plus le nombre de celles qui apparaissent ni celles qui disparaissent. On ne sait pas non plus combien il existe d’espèces devenues nouvelles au sein de tous les individus classés dans une espèce donnée. Tous les chiffres avancés par les experts sont des estimations, pas un comptage réel de chaque individu restant. Il est donc difficile de dire avec précision si nous allons vraiment vers une extinction de masse avec les outils d’observation que nous avons. Quand une espèce ne se voit plus dans un environnement donné, cela ne veut pas dire qu’il faut tout de suite la classer dans la catégorie des espèces disparues. Souvent, les espèces ont tendance à migrer autre part, dans un milieu où elles peuvent mieux prospérer. De nombreux exemples ont été diffusés dans les médias mettant en avant le fait que des tortues marines ******ebook converter DEMO Watermarks*******

étaient réapparues, que l’on avait pu photographier une panthère noire – alors que cette espèce devait être disparue depuis plus de 40 ans – et que nous n’avons plus à craindre la disparition des pandas, des tigres, des éléphants, des thons, des rhinocéros, etc. On ne peut pas nier les faits, des espèces classées auparavant disparues ne le sont plus aujourd’hui. Et dans certains cas, comme pour celui du rhinocéros, les lois anti-braconnages ont beaucoup aidé. Bien entendu, des espèces disparaissent, mais il ne faut pas tout de suite penser qu’une espèce est disparue trop rapidement. Le devenir de n’importe quelle espèce est soit d’évoluer, soit de disparaître. C’est l’évolution darwinienne ! Il est idiot de vouloir garder absolument les choses telles qu’elles le sont aujourd’hui, comme si la Terre était un zoo. En quelque sorte, c’est vouloir stopper l’évolution en cherchant à conserver des espèces menacées n’ayant pas les capacités adaptatives leur permettant de survivre dans un nouvel environnement. Surtout que ce comportement est tôt ou tard voué à l’échec si les conditions se modifient sur la durée. C’est aussi sous-estimé la nature en pensant que ces espèces n’arriveront pas à s’adapter ou à évoluer. On ne dit pas qu’il ne faut pas protéger les espèces ou les animaux au contraire, le but est plutôt de dédramatiser la situation exposée partout dans les médias. Sinon nous tomberons dans l’hystérie générale, ce qui aura pour effet de nous faire perdre toute rationalité. En 1975, Paul Ehrlich – néomalthusien et biologiste – prévoyait que près de la moitié des espèces de la planète seraient éteintes à l’heure qu’il est. Sachant que les experts eux-mêmes pensent que le monde abrite entre 1 et 100 millions d’espèces (belle imprécision), plusieurs millions d’entre elles ne devraient donc plus exister aujourd’hui. Cependant, l’Union internationale pour la conservation de la nature n’estime pas plus de 709 espèces ayant disparu depuis le début du XVIe siècle[98]. 750 espèces disparues, cela reste des « centaines » d’après ces estimations. Et cela prouve bien qu'on est loin des 5 à 10 millions d'espèces qui auraient dû disparaître d'après les scénarios catastrophes du club de Rome dans les années 70. Pour mesurer une population animale, il est nécessaire d'effectuer un échantillonnage sur un territoire précis[99]. Les résultats sont ensuite « extrapolés » à la totalité de la population et permettent de donner une ******ebook converter DEMO Watermarks*******

estimation de sa densité, de sa taille et de son taux de croissance. Ces données varient dans le temps et l’espace, mais aussi selon l’espèce, le sexe et l’âge. Du fait de la mobilité des espèces, il est difficile de répertorier tous les animaux. Les méthodes de comptage varient donc en fonction de l’animal et de ses habitudes. D’autant plus qu’il existe un très grand nombre de méthodes différentes de comptage. Parfois, les scientifiques demandent de l’aide aux pêcheurs ou aux chasseurs et déduisent de leurs estimations les prises déclarées. Additionné au taux de mortalité naturelle, le chiffre des captures permet de déterminer le nombre d'animaux présents au départ. Mais ces chiffres dépendent de la bonne foi des collaborateurs et produisent parfois des résultats très imprécis. Ces méthodes de comptage ne permettent donc de déduire que grossièrement l’effectif des populations. Mais ces recherches sont nécessaires, même si elles sont assez vagues, car elles permettent d’estimer les stocks naturels (santé, âge, nombre, évolution...) et donc de gérer leur exploitation. Et je le répète encore – le but n'est pas de dire qu'il ne faut pas protéger les espèces ni d’être dans le déni, au contraire, je pense qu’il faut continuer à faire des actions en faveur de l’environnement. Par contre, il serait bien de dédramatiser un peu le discours ambiant. La méthode de comptage de populations animales utilisée actuellement n'est pas précise. Donc on ne peut pas compter avec précision les espèces qui ont disparu, du moins de façon assez approximative. Quand on utilisera des données satellites et des données prises sur le terrain couplé à des algorithmes de Machine Learning / Deep Learning pour compter les populations animales à grande échelle, là oui, nous gagnerons en précision. C’est ce qui nous permettra de mieux voir où se délocalisent les espèces menacées et prendre plus de précautions pour les sauvegarder. Il faut donc que les institutions s’y intéressent rapidement, surtout si nous voulons mieux protéger les espèces existantes. Certains s’inquiètent également de la perte de biodiversité de notre alimentation. Pourtant, les progrès dans le domaine de l’agronomie sont gigantesques. La biodiversité disponible qui existe au sein de chaque espèce cultivée est immense. Un agriculteur peut par exemple choisir entre plus de 1500 variétés de maïs et 150 de blés en France. Et de nombreuses variétés ******ebook converter DEMO Watermarks*******

sont créées chaque année. Depuis le siècle dernier et grâce aux énormes progrès de la génétique, de la physiologie des plantes, des techniques d’agronomie, nous avons pu créer et augmenter cette biodiversité par l’utilisation de techniques d’amélioration de plus en plus sophistiquées et précises. Auparavant, les agriculteurs ne maîtrisaient pas grand-chose. Ils subissaient les aléas climatiques et les famines étaient nombreuses lorsque les conditions étaient défavorables, comme l’excès ou le manque d’eau ou encore les températures extrêmes. L’homme était donc obligé de cultiver des plantes ayant une base de biodiversité beaucoup plus étroite. Aujourd’hui, nous avons donc bien plus de possibilités qu’avant. L'hystérie autour de la biodiversité, de l’extinction de masse et de l’opposition aux biotechnologies laisse donc penser qu’elle n’est pas fondée. Jouer sur la peur n’est pas la solution pour faire avancer l’écologie ! En outre, si nous voulons vraiment préserver le vivant tel qu’il existe aujourd’hui. Rien ne nous empêche de stocker l’ADN de toutes les espèces dans une banque de données pour pouvoir ressusciter les espèces disparues plus tard. Un peu comme une sorte d’arche de Noé technologique.

Les effets positifs du réchauffement climatique et du CO2 Normalement, n’importe quel scientifique un minimum censé doit exposer les côtés négatifs et positifs d’un phénomène, sauf lorsque l’idéologie et la croyance prennent le dessus de la raison scientifique. On ne devrait pas uniquement voir les effets négatifs du réchauffement climatique dans le débat public, car oui il y a aussi des effets positifs. Certaines personnes vont probablement dire que les effets positifs seront plus faibles que les effets négatifs et c’est peut-être vrai. Mais penser avec certitude qu’un réchauffement à 3°C ou 6°C est inéluctable est tout aussi prétentieux que ceux qui pensent que la technologie va résoudre tous les problèmes. Personne ne peut dire avec certitude de quoi le futur sera fait. Des événements imprévus peuvent toujours arriver. Dans les prévisions des scientifiques du GIEC, il y a bien un consensus ******ebook converter DEMO Watermarks*******

qui admet le réchauffement climatique, c’est juste que personne ne peut dire avec certitude l’ordre de grandeur de ce réchauffement jusqu’à 2100. Encore une fois ce ne sont que des estimations. Il n’y a donc aucun consensus scientifique qui soutient les théories apocalyptiques. Cela n’empêche pas pour autant de voir dans le débat public uniquement le discours climatohystérique. Pour les effets négatifs du réchauffement climatique – ceux que vous entendez régulièrement dans les médias depuis quelque temps, nous avons : la fonte des glaces, la fonte du permafrost, la perte de la biodiversité, l’augmentation du niveau de la mer, les réfugiés climatiques, l’acidification des océans, etc. Mentionner uniquement les aspects négatifs du réchauffement climatique fausse et dégrade le débat public, et c’est bien malheureux. Une étude très sérieuse dans le journal Nature a révélé à quel point l'augmentation du dioxyde de carbone (CO₂) a rendu la Terre plus verte au cours des 30 dernières années. Le CO₂ agit comme un fertilisant, ce qui permet aux terres végétalisées de se verdir de plus en plus. C’est une nouvelle enthousiasmante, pourtant cette info est presque totalement passée inaperçue. Cela ne veut pas dire que nous ne devrions être pour autant moins attentifs par le réchauffement climatique et de ses menaces. Mais le débat sur le climat n’est clairement pas équilibré. En plus, toute mention positive au sujet du climat est mal vue. Plusieurs scientifiques savaient depuis longtemps, que l'augmentation du CO₂ rendrait la planète plus verte. Il est même probable que d'ici la fin de ce siècle, la biomasse de la planète aura augmenté de 40% [100]. En outre, le taux de décès liés au froid est largement supérieur à celui dû à la chaleur. La plus grande étude sur les décès causés par le froid et la chaleur[101], publiée l'an dernier par la revue Lancet, s'est intéressée à 74 millions de décès à travers la planète, en passant des pays nordiques comme la Suède aux pays tropicaux comme la Thaïlande. Selon les chercheurs, la chaleur est à l'origine de 0.5% de ces décès contre 7% pour les décès liés au froid. Avec le réchauffement climatique les températures vont indéniablement changer, les décès liés aux vagues de chaleur augmenteront l’été, mais se ******ebook converter DEMO Watermarks*******

réduiront l’hiver. Une étude menée en Angleterre et au Pays de Galles montre que les vagues de chaleur sont à l'origine de 1500 décès par an contre 32 000 décès causés par le froid. D’après Bjorn Lomborg, statisticien, professeur à la Copenhagen Business School et ancien directeur de l'Environmental Assessment Institute, dans les années 2080, les vagues de chaleur causeront environ 5000 décès sur un échantillon de population comparable. Cependant, il y aura 10 000 décès liés au froid en moins, ce qui signifie qu’il y aura au total 6500 décès par an en moins en proportion. Toujours selon Bjorn Lomborg, les dégâts causés par le réchauffement climatique d'ici 2070 équivaudraient à 2% du PIB mondial. Il estime que ce n’est pas un coût négligeable, mais que ce n'est pas non plus la fin du monde. Cela représente peut-être la moitié du coût social de l'alcoolisme aujourd'hui[102]. Espérons qu’un jour nous verrons autant les aspects négatifs que les aspects positifs dans le discours public, nous aurons ainsi une meilleure compréhension de nos possibilités face au réchauffement climatique. L’augmentation de la chaleur permettra d’avoir une planète plus verte et moins de décès en hiver, mais augmentera le niveau de la mer et le nombre de décès en été. Le réchauffement climatique engendrera donc autant de dégâts que de bénéfices. Malheureusement, les militants écologistes les plus hystériques ne souhaiteront peut-être pas avoir un dialogue nuancé sur ce sujet.

Nous avons trop de biais cognitifs pour prédire correctement le futur lointain ⬛ Définition d’un biais cognitif : c’est une distorsion dans le traitement cognitif d'une information. Le terme biais fait référence à une déviation systématique de la pensée logique et rationnelle par rapport à la réalité. Les biais cognitifs conduisent le sujet à accorder des importances différentes à des faits de même nature et peuvent être repérés lorsque des paradoxes ou des erreurs apparaissent dans un raisonnement ou un jugement. ⬛ La plupart des effondristes ont la quasi-certitude que le monde est sur le ******ebook converter DEMO Watermarks*******

point de s’écrouler. Pourtant, il est impossible de dire avec certitude de quoi le futur sera fait. D’autant plus que nous avons beaucoup de biais cognitifs qui nous empêchent de voir correctement sur le long terme. Le cerveau est conçu pour prédire, car c'est de cette façon que nous survivons. Nous pouvons au mieux, être plus ou moins réaliste sur 4-5 ans, car notre cerveau est mieux conçu pour prédire sur le court et moyen terme. Mais pour le futur plus lointain, l’exercice semble bien compliqué pour notre esprit. Les futurologues et prospectivistes en tout genre vont très probablement encore se tromper, mais c’est normal, ce sont des humains. Ils sont aussi empreints aux émotions et aux biais cognitifs. Notre cerveau est mieux conçu pour prédire le futur sur le court terme que sur le long terme. Et cela n’enlève pas que leur tâche reste toujours essentielle pour aider notre société à anticiper les grandes lignes de son destin et mieux s’y préparer. L’espèce humaine a énormément de biais cognitifs, les neuroscientifiques en compte des centaines. Mais le biais pessimiste est probablement le plus évident et l’un des plus embêtants. Allumez votre poste de télévision à 20 heures pour voir de quoi je parle. Le journal télévisé obéit aux lois de l’offre et de la demande ; et ce faisant il diffuse ce que les gens ont envie de voir pour faire de l’audimat. En pratique, le journal télévisé montre le plus grand nombre de mauvaises nouvelles : crises, catastrophes, manifestations, polémiques et autres meurtres. Et le souci, c’est que les humains ont une mémoire très sélective. Le biais pessimiste en est sa manifestation concrète. Un autre aspect du biais pessimiste est la croyance dans des catastrophes imminentes. De tout temps, des prédictions alarmistes nous ont annoncé la fin du pétrole, l’effondrement de la civilisation, les pluies acides et des pénuries planétaires de nourriture à cause de la surpopulation. Devinez quoi ? Nous sommes toujours là, il y a toujours du pétrole et nous sommes maintenant 7 milliards d’individus, dont un milliard fraîchement sorti de l’extrême pauvreté, et même si tout n’est pas rose, force est d’admettre que la fin du monde n’a pas eu lieu. Ces prédictions catastrophistes jouent avec les peurs des gens, qui généralement les accueillent à bras ouverts, mais ne prennent jamais le temps de vérifier si ces prédictions se sont réellement produites ou non. Entre Thomas Malthus, qui prophétisait à cause de la surpopulation, CNN qui ******ebook converter DEMO Watermarks*******

annonçait des émeutes de la faim en Chine et au Pakistan pour 2013, ces oiseaux de mauvais augure nous annoncent catastrophe économique sur catastrophe économique et créent un climat délétère. Le biais pessimiste explique qu’il y a une tendance instinctive à surestimer les aspects négatifs et à sous-estimer les aspects positifs du présent du monde qui nous entoure, alors que dans le même temps nous avons une tendance contradictoire vis-à-vis de notre propre passé. Nous oublions que le passé a pu être difficile et nous surestimons les souvenirs positifs. La neuroscientifique, Tali Sharot explique dans son livre The Optimism Bias, que nous sommes incroyablement optimistes en ce qui concerne notre propre vie privée parce que nous pensons avoir le contrôle de notre futur, mais on ne retrouve pas le biais d’optimisme sur des événements publics comme la perception qu’on a du futur de la planète… Le biais d’optimisme s’applique le plus souvent à nos attentes concernant notre propre avenir, mais moins au niveau de ce que l’on pense du monde. Dans ce cas c’est le biais de pessimisme qui prend le dessus. Dans le monde occidental, le taux de divorce est de 40%. Mais si vous demandez à des jeunes mariés la probabilité de leur propre divorce, ils l’estiment à… 0%. Cet exemple est l'une des traductions du biais d’optimisme, dont 80% d’entre nous, tous âges et pays confondus disposons. Nous surestimons les probabilités de vivre des événements heureux au cours de notre vie et sousévaluons les probabilités d’en vivre de mauvais. D’ailleurs les Français ne sont pas réputés pour leur optimisme dans le monde… En France, il est considéré comme positif d'être pessimiste, donc les gens ont plutôt tendance à se déclarer pessimistes… D’après Tali Sharot, le message doit être changé concernant la question du changement climatique : au lieu de parler des catastrophes, ce qui pousse les gens à ne pas agir, elle explique que nous devrions reformuler les choses pour parler davantage de ce qui peut être fait pour améliorer la situation, mettre en valeur les possibilités de progrès plutôt que celles de déclin. C’est pour cette raison que notre époque est mieux qu’avant, mais n’est pas non plus à la hauteur des attentes de nos anciens. Si vous êtes une personne sportive qui s'entraîne pour les Jeux olympiques et que vous croyez ardemment obtenir la médaille d'or, même si ******ebook converter DEMO Watermarks*******

cet objectif est irréaliste, vous avez plus de chances d'avoir la médaille d'argent en croyant à cette médaille d'or. Le biais d'optimisme peut nous motiver à nous surpasser. Ce biais est à la fois avantageux et dangereux, surtout lorsqu’il est trop excessif, puisque ce celui-ci nous conduit à moins évaluer les risques dans certains cas. En fin de compte, nos attentes à l'égard de l'avenir de notre société seront positives ou négatives, selon le point de vue qui alimente le mieux l'optimisme individuel. En période de calme, le pessimisme que l’on a du monde peut alimenter l'optimisme individuel à titre de comparaison. Ainsi, lorsque le monde va bien, avoir une vision pessimiste de la société tout en conservant des croyances optimistes sur notre propre avenir signifie non seulement que nous nous attendons à faire mieux, mais aussi que nous nous attendons à faire mieux alors que les autres font mal. Cela nous donne une illusion de supériorité. Cela ne veut pas dire que nous sommes malveillants ; cela suggère simplement que les lunettes roses que nous utilisons pour voir notre avenir ne sont pas portées lorsque nous examinons l'avenir de nos concitoyens. De ce fait, nous utilisons souvent des nuances sombres pour évaluer l'avenir du monde. On dit souvent que la peur peut bloquer et c’est vrai : elle n'encourage pas toujours à agir. L'activisme peut être encouragé quand vous pensez que vous pouvez faire de grandes choses, pas quand on vous dit que tout va s’effondrer.

L’homme des cavernes a besoin de combler un vide existentiel Aujourd'hui nous avons presque tout comparé à nos ancêtres et pourtant nous ne sommes pas plus heureux. Pourquoi ? Parce que nous sommes toujours les mêmes hommes qu'avant. Nos instincts d’homme des cavernes sont toujours là. Notre environnement et notre technologie ont évolué, pourtant nous sommes toujours les mêmes depuis 200 000 ans ! Le taux de personnes dépressives qui se suicident dans le monde a augmenté malgré la quasi-victoire de la fin de la famine et de l'augmentation du confort individuel, parce que nos personnalités, nos besoins, nos désirs et nos rêves profonds n’ont pas évolué en cent mille ans. Nous pensons sans ******ebook converter DEMO Watermarks*******

doute encore de la même manière que nos ancêtres du temps des cavernes qui vivaient dans des milieux constamment instables. Dans un monde de plus en plus stable, nous recherchons l’instabilité et les rapports de force, parce que notre cerveau est conçu pour vivre dans des milieux instables. C'est aussi pourquoi les théories de fin du monde avec l'écologie marchent autant. Le Mouvement pour l'extinction volontaire de l'humanité, ou VHEMT (Voluntary Human Extinction Movement), est un mouvement collapsoécologiste qui appelle tous les humains à s'abstenir de se reproduire et à se laisser mourir pour provoquer l'extinction progressive de l'humanité. Le mouvement affirme également qu'une diminution de la population humaine permettrait de réduire la souffrance causée par les êtres humains. Les extinctions d'espèces animales et la rareté des ressources dont les êtres humains ont besoin sont souvent citées par le groupe comme preuve des dommages causés par la surpopulation humaine. Le VHEMT veut une extinction de l’humanité principalement parce qu'il estime que cela permettrait d'éviter la détérioration de la nature. Au final, les collapsologues sont plus pro-Gaia que pro-Humain, dans le sens où, ils veulent d’abord que la nature survive avant les humains. Ils préfèrent se sacrifier au nom de la sainte Gaia. La nature les dépasse et les impressionne, alors ils en font sa déification. Les progrès, oui ils veulent les voir, mais juste pour la nature, pas pour l’espèce humaine. Ils font offrande de leur corps via la vasectomie ou le suicide, pour que la nature puisse survivre. Ainsi ils peuvent enfin avoir l’esprit tranquille. Lorsque les gens sont en perte de sens, ils ont besoin de quelque chose pour se rassurer. Le vide spirituel de l’Occident a laissé la place à l’écologisme, qui fait beaucoup référence au culte de la nature, à la Terre mère. Mais qui a beaucoup de racines judéo-chrétiennes, dans le sens où, cette fois c’est Gaia (la Terre) qui va punir les péchés de l’homme et non pas le Dieu monothéiste habituel. Cette soif profonde de spiritualité a toujours été présente depuis le début de l’histoire humaine. Vous connaissez l’adage : « L’homme est un animal spirituel. » Nous avons constamment besoin d’être reliés à l’infini, à l’univers et à des choses qui nous dépassent pour nous sentir rassurés. La philosophe Marianne Durano a d’ailleurs une fois rétorqué : « l’idée de fin du monde est ******ebook converter DEMO Watermarks*******

un remède à l’absence de sens ».

Dans un dessin animé, ou dans un film Marvel les collapsologues sont les méchants Vous avez tous vu au moins une fois dans votre vie un film ou un dessin animé mettant en scène un méchant qui veut détruire toute l’espèce humaine, avec souvent un rire machiavélique et une dégaine de savant fou. L’objectif des collapsologues est un peu similaire dans le fond, car dans un sens ils sont plus pro-Gaia que pro-Humain. Par exemple, Thanos dans la saga Avengers de Marvel, eh ben il est collapsologue ! Oui, oui ! - Spoilers sur Avengers et Game of Thrones : début Thanos le grand méchant d’Avengers : Infinity War et Avengers : Endgame, est en fait le roi de la décroissance et le grand empêcheur de la sixième extinction de masse. Son objectif, il ne l’a jamais caché, était de revenir à l’équilibre écologique (même si le mot écologique n’est pas prononcé), afin d’éviter que d’autres planètes comme la Terre ne subissent le destin de la sienne, Titan, détruite pour cause de surpopulation et d’exploitation abusive de ses ressources. En éliminant 50% des êtres vivants dans l’univers, Thanos pense qu’on peut éviter le pire. « L’univers est fini, ses ressources sont finies, et si la vie n’est pas limitée, elle cessera simplement d’exister », explique-t-il à sa fille Gamora, reprenant en fait la philosophie de Thomas Malthus. Le cinéma hollywoodien contemporain utilise fréquemment ce pessimisme anthropologique, de cette tentation anti-humaniste, le faisant toujours incarner par les méchants, mais prenant soin de le montrer sous un jour acceptable, voire cool. Et beaucoup de films et de séries utilisent la collapsologie pour incarner les méchants comme dans Game of Thrones avec les marcheurs blancs. George R.R. Martin, l’auteur du livre, a confirmé que « winter is coming » signifierait en fait « il fait chaud, il fait de plus en plus chaud »[103]. Faisant ainsi le parallèle des États-nations avec Westeros, qui sont incapables de s’unir face à un danger existentiel comme le dérèglement climatique. ******ebook converter DEMO Watermarks*******

- Spoilers sur Avengers et Game of Thrones : fin Bien évidemment, les collapsologues ne veulent pas détruire l’espèce humaine (du moins ceux qui sont encore un minimum sain d’esprit). Mais en choisissant la décroissance et la réduction de la population, ils se résignent à faire avancer notre civilisation. L’idée qui consiste à dire « on a des problèmes écologiques, donc on décide de ne plus rien faire parce que de toute façon le monde va s’effondrer quoiqu’on fasse », c’est accepter la défaite de l’humanité pour trouver des solutions. Mais c’est aussi mettre de côté notre ingéniosité et notre capacité à surmonter les problèmes. Ils jettent les crayons et attendent simplement que tout s’effondre. Ce n’est pas parce qu’on se retrouve devant des problèmes qu’il faut penser que tout est terminé et qu’il faut arrêter d’avancer, voire de chercher à régresser. Malheureusement, cette idéologie ouvre la porte à l’arrivée d’un nouvel Hitler – ou d’un vrai Thanos – (le point Godwin a été franchi dans ce livre !). Dans l’hystérie ambiante, un terrorisme vert pourrait bien émerger. Une personne, ou un groupe de personnes peut très bien utiliser un prétexte écologique pour dire qu’il faut exterminer 50% de la population mondiale pour sauver la planète. Patrick Crusius, un des tueurs par arme à feu aux États-Unis, a avoué que la nocivité de l’homme pour le climat a été une de ses justifications – avec le racisme anti-immigré, pour tuer 22 personnes en 2019[104]. En outre, certains collapsologues veulent arrêter la prise en charge médicale des personnes qui ont plus de 60 ans pour réduire leur empreinte écologique. C’est une vision proche du nazisme. Le but n’est pas non plus d’imposer le soin sous contrainte pour les personnes qui n’en veulent pas. Aucun intérêt de faire un acharnement médical et de maintenir artificiellement en vie ceux qui ne le veulent pas. Les transhumanistes extrémistes veulent implicitement la fin de l’espèce humaine, sous une forme d’évolution en recherchant la symbiose avec la technologie pour rester compétitif face à l’IA. Alors que les collapsologues extrémistes, comme le mouvement VHEMT ou les écofascistes, veulent une extinction de l’espèce humaine pour sauver la Terre et laisser une nature immaculée. ******ebook converter DEMO Watermarks*******

Qui sont les méchants ? En caricaturant : les transhumanistes qui veulent la survie de l’espèce via une amélioration du confort individuel et le surpassement des capacités humaines, ou les collapsologues qui veulent la fin de l’espèce humaine pour sauver le reste du vivant ?

Peut-être que nous allons tôt ou tard chercher un état de symbiose avec notre hôte Certes nous avons commencé à détruire notre environnement, surtout depuis le début de l’ère industrielle, notamment à cause de nos méconnaissances scientifiques (conscience sans science n’est que ruine de l’humanité). Nous avons agi sans conscience réelle de nos actes sur l’environnement. Mais peut-être que notre destin est de chercher l’état de symbiose avec la Terre. Puisque de toute façon, nous n’aurons pas le choix de le faire pour la survie de notre espèce. Au début de l’ère industrielle, nos ancêtres ont détruit l’environnement à cause de leur manque de savoir et c’est pour cette raison qu’ils ont agi sans conscience. C’est la méconnaissance scientifique qui est dangereuse. Ils ne savaient tout simplement pas l’impact de l’industrialisation sur l’environnement. Nous ne pouvons pas les blâmer, car ils ont également apporté beaucoup de choses positives à notre civilisation. Plus le savoir scientifique évolue et plus nous sommes capables de mieux comprendre l’impact de notre présence sur l’environnement. Plus le savoir grandit et plus nous pouvons utiliser ce savoir pour trouver des solutions. Dire que la science et la technologie sont au cœur de la problématique environnementale n’est pas raisonnable. Science sans conscience n’est que ruine de l’âme. Mais conscience sans science, n’est pas la panacée non plus ! Voici une petite analogie, difficilement acceptable, mais qui m’amuse : nous sommes des virus. Les humains fonctionnent exactement comme les virus – d'ailleurs suite à l'évolution darwinienne nous portons tous dans notre ADN des génomes de virus. Donc d’une certaine façon, nous sommes un peu ******ebook converter DEMO Watermarks*******

des virus non ? Et ce n’est peut-être pas étonnant qu'on fonctionne de la même manière, mais à une échelle différente ! Mais que cherche à faire le virus pour survivre ? Il cherche l’état de symbiose avec un hôte. Les virus entrent dans les organismes vivants pour chercher des hôtes avec lesquels ils s’en servent pour survivre. Il faut du temps pour que les virus entrent en symbiose avec l’hôte. Le corps va se protéger et va mettre en marche le système immunitaire. Au début les virus nous tuent et nous rendent malades, mais au fil du temps (plusieurs millions d'années), il y a un état de symbiose qui se fait entre les virus et l’hôte. L'équilibre se met en place avec le temps. Nous avons tous à l'intérieur de nous le virus de l'herpès et de temps en temps il s’active quand on est stressé ou fiévreux. Ce qui a malheureusement effet de nous donner des boutons d'herpès autour de la bouche. C'est parce que nous avons le virus à l'intérieur de nous, mais il a fallu des années avant d'avoir un état d'équilibre entre le corps et le virus. En tant qu'humains, nous faisons la même chose. Nous pullulons comme des virus sur une planète et nous dévorons rapidement les ressources de celleci. Jusqu'au stade où nous en prenons conscience. Notamment grâce à l'accroissement de notre savoir. Vu que nous sommes conscients des problèmes, nous avons la possibilité de rentrer progressivement dans un état de symbiose avec la planète. Nous sommes pratiquement tous conscients de notre impact sur l'environnement. Donc nous savons que nous devons agir. N’oublions pas non plus que, bien qu'associé à des choses mécaniques, l'anthropocène est une conséquence de la vie sur Terre. C'est un produit de l'évolution ; c'est une expression de la nature. L’espèce humaine vient de la Terre. Les gens ont tendance à l’oublier, mais nous sommes le fruit de la nature, l’humanité est donc une expression des choses naturelles. L’humanité n’a pas été posée sur le système Terre, c’est le système Terre lui-même qui a engendré l’humanité. Nous devons abandonner l'idée politiquement et psychologiquement irrationnelle que l'anthropocène est un grand crime contre la nature, car l’humanité est la nature. Avec l’aide des technologies, des décisions politiques, collectives et individuelles, nous pouvons rentrer dans un état d'équilibre avec la terre. Et comme vous avez pu le voir, les solutions ne sont pas en reste ! Nous avons juste besoin d’en prendre conscience et d’agir collectivement. ******ebook converter DEMO Watermarks*******

En conclusion : il semble plus réaliste de voir l’avenir entre les deux visions. C’est à dire quelque part entre un monde utopique où la technologie est salvatrice et un monde inégal avec des problèmes dystopiques. Les arguments des deux côtés se valent, du moment que les biais en tout genre sont écartés. Par contre, en prenant du recul, le monde que nous avons aujourd’hui est bien moins sombre que ce que pensaient nos prédécesseurs. C’est grâce à l’utopie des anciennes générations que le monde d’aujourd’hui se porte mieux. Il faut donc continuer de forger le futur sur une vision optimiste si nous voulons que le monde s’améliore. Bien évidemment, il y a encore beaucoup de sujets à évoquer tant les sujets liés à l'environnement sont complexes, ce qui demanderait d'écrire un livre entier sur l’écologie et l’effondrement. Donc c'est normal si dans cette partie je n'ai pas pu tout aborder, même si j'ai essayé d'être le plus complet possible.

******ebook converter DEMO Watermarks*******

Troisième partie : Homo Novus

******ebook converter DEMO Watermarks*******

8 - L’interface cerveau-machine et la créativité « Si vous n’aimez pas le changement, vous allez encore plus détester l'insignifiance. » - Eric Shinseki

Musique qui correspond à cette partie : Extra Terra - “Neural Link” Vous pouvez l’écouter sur Spotify, Apple Music, Deezer ou n’importe quel autre service de musique en streaming.

Ambiance : Futuriste / Très énergique Style : Break / Electro Tempo : 100 BPM J’ai vraiment voulu faire en sorte d’apporter une ambiance très Cyberpunk à ce morceau à travers l’utilisation d’un rythme de basse très soutenu. Encore une fois très inspiré par Blade Runner.

******ebook converter DEMO Watermarks*******

Sans vous en rendre compte, vous mobilisez votre cerveau à cet instant précis, en lisant ces lignes. Nous l’utilisons tout le temps, pour parler, manger, respirer, marcher, danser, lire, écrire... Mais pensez-vous que le cerveau est conçu pour penser ? Non, notre cerveau n’est pas fait pour penser ! Du moins, pas au premier abord. Plusieurs chercheurs pensent qu’en réalité la pensée n’est qu’un effet secondaire de l’évolution. Au départ, les neurones sont apparus pour permettre aux organismes vivants de se mouvoir. De ce fait, le cerveau n’est peut-être pas un outil fini, avec les avancées dans le domaine des interfaces neuronales, nous allons pouvoir augmenter nos capacités cognitives en le dotant de puissance informatique. Aujourd’hui, il nous semble évident que le cerveau est le centre de nos pensées, de nos émotions et de notre représentation du monde, et de nousmêmes. Notre cerveau est extraordinairement complexe ; on le considère même comme la structure la plus complexe connue à ce jour dans l’Univers. Et d’une certaine façon, notre organe cérébral nous donne l’impression d’avoir une place à part dans la nature. Pourtant ce savoir est très récent. Le plus ancien document faisant référence au cerveau est un papyrus égyptien datant de 1600 av. J.-C. Il s’agit d’un texte qui s’intéresse aux conséquences de traumatismes violents et notamment de coups reçus à la tête. On y trouve entre autres les plus anciennes descriptions de notre cerveau. En lisant le document, une chose est très claire : le rôle du cerveau était totalement méconnu à cette époque. Pour Aristote, penseur du IVe siècle av. J.-C, le cerveau n’était rien d’autre qu’un radiateur qui permettrait à l’humain de garder son sang-froid. Pendant longtemps, comme Aristote, de nombreux savants pensaient que le siège de la pensée et des émotions était dans le cœur, même si Hippocrate et d’autres suspectaient déjà que c’était dans le cerveau. Pendant des siècles, les dissections du corps humain étant peu pratiquées pour des raisons religieuses, la connaissance n’a donc pas beaucoup progressé… Il faut attendre le XIXe siècle pour connaître la nature électrique des signaux qui parcourent le cerveau, et ce n’est qu’au début du XXe siècle que seront découverts les neurones. Les cellules du cerveau sont capables de réagir à leur environnement de ******ebook converter DEMO Watermarks*******

manière coordonnée via des signaux chimiques ou électriques. Cette capacité ne date pas d’hier, plusieurs organismes unicellulaires marins, comme les Choanoflagellés, communiquent entre eux avec des composés identiques à ceux qu’ont nos neurones. Ces animaux marins ressemblent très probablement aux organismes qui existaient il y a 850 millions d’années et qui ont marqué l’émergence de tout le règne animal. Les animaux constitués de plus d’une cellule, les métazoaires (s'opposant aux protozoaires unicellulaires) sont spécialisés dans la transmission d’informations, permettant ainsi une meilleure réactivité de l’organisme face à l’environnement[105]. Pour le neurobiologiste Daniel Wolpert, tous ces éléments indiquent que si les animaux ont acquis un cerveau, le mouvement en serait la clé. Comment se déplacer, comment agir sur l’environnement, comment contrôler ses mouvements de sorte à produire un comportement adapté ? C’est ainsi que sous la contrainte de la sélection naturelle, la nature a répondu en produisant le cerveau. Mais pourquoi la nature a fait grossir le cerveau ? Un gros cerveau offre une meilleure anticipation de ce qui se passe autour de l’animal. Et l’anticipation est ce qui permet d’adopter un comportement, d’engager un mouvement compatible avec la survie. On peut voir le gros cerveau comme un outil qui génère une représentation du futur, représentation à partir de laquelle l’animal adapte son comportement. Bien entendu, notre cerveau est conçu pour voir le futur sur le court terme pas sur le long terme. En parallèle éclot la culture avec l’homo sapiens : avec le langage verbal (nos ancêtres communiquaient d’abord avec le langage non verbal au début), les outils, l’apprentissage, l’écriture, etc., elle apporte de nouveaux avantages dans la lutte pour la survie. Le savoir a pu se transmettre de génération en génération de manière marginale au fil des siècles. Ensuite est venue l’invention de l’imprimerie avec Gutenberg, qui a permis d’optimiser le pouvoir de transmission du savoir et de l’information. Puis l’invention et la démocratisation d’internet qui nous a permis de communiquer à des niveaux stratosphériques. La pensée d’une seule personne peut aujourd’hui toucher des millions de personnes dans le monde, alors qu’avant, elle n’était limitée qu’à un cercle très petit d’individus. ******ebook converter DEMO Watermarks*******

Le langage a permis de faire passer un message d’un cerveau à un autre cerveau, et même s’il n’est pas parfait, il a permis de transmettre les informations. Le langage est l’intermédiaire de la pensée initiale que nous avons dans le cerveau, mais il n’est pas fiable à 100% – il est souvent prêté à mauvaise interprétation. Il est impossible de comprendre pour l’instant correctement l’idée ou la pensée initiale de son interlocuteur. C’est pour cette raison, que nous avons encore beaucoup de mal à nous faire comprendre, même si paradoxalement le langage a permis le développement de la civilisation humaine. Nous avons déjà en quelque sorte des interfaces homme-machine, comme l’ordinateur ou le smartphone. Vous avez déjà entendu quelque part que nous avons n’importe quelle information au bout de nos doigts grâce à ces outils. Mais la façon dont nous interagissons avec ces appareils est beaucoup trop lente et peu naturelle et ils ont une très petite bande passante de communication avec notre cerveau. Les interfaces cerveau-ordinateur vont optimiser ce fonctionnement, car elles vont permettre de communiquer directement de cerveau à cerveau sans avoir besoin de passer par un intermédiaire comme le langage ou l’écriture. Cette technologie permettra à l’humanité d’augmenter ses capacités cognitives en lui donnant des capacités informatiques, éventuellement en fusionnant avec l’IA. Mais elles vont également changer, voire décupler notre productivité et notre créativité.

C’est quoi une interface neuronale ? Une interface neuronale (ou interface cerveau-machine, ou encore cerveau-ordinateur) est une interface de communication directe entre le cerveau et un système informatique externe. Ces systèmes peuvent être conçus dans le but d'étudier le cerveau, d'assister, d’améliorer ou de réparer des fonctions humaines. En fonction des techniques les interfaces sont plus ou moins invasives pour analyser l’activité électrique des neurones. Les interfaces cerveau-machine se concentrent principalement sur ces 3 points : 1) L’échelle - combien de neurones peuvent être enregistrés ******ebook converter DEMO Watermarks*******

simultanément. C’est la bande passante du nombre de neurones qui sont possibles à analyser. 2) La résolution - le degré de détail de l'information reçue par l'outil – il existe deux types de résolution : spatiale (la précision avec laquelle vos enregistrements vous indiquent comment les neurones individuels fonctionnent) et temporelle (dans quelle mesure vous pouvez déterminer quand l'activité que vous avez enregistrée s'est produite). 3) L’invasivité - une intervention chirurgicale est-elle nécessaire et dans l'affirmative, dans quelle mesure ? Si on doit résumer les différentes de technologies utilisées par les interfaces cerveau-ordinateur, nous avons : L’EEG (l'électroencéphalographie) qui a une bande passante de neurones assez grande, mais une résolution spatiale assez faible et une résolution temporelle assez moyenne. L’avantage de cette technologie c’est qu’elle est totalement non-invasive. La plupart du temps, c’est juste un casque doté d'électrodes qu’on pose sur le cuir chevelu qui enregistre l’activité électrique des différentes régions du cerveau. L’ECoG (électrocorticographie) - fonctionne de façon semblable à l’EEG qui utilise des électrodes, sauf qu’ici elles sont placées sous le crâne à la surface du cerveau. Méthode qui est plus invasive donc. La bande passante est grande tout comme l’EEG, avec une résolution spatiale faible, mais une meilleure résolution temporelle. Les potentiels de champ locaux - est une méthode très invasive qui permet d'avoir une résolution temporelle très bonne et une résolution spatiale moyenne. Cependant, la bande passante est assez faible, car elle enregistre juste quelques neurones. Nous passons ici des électrodes aux microélectrodes – de minuscules aiguilles que les chirurgiens enfoncent dans le cerveau. L’enregistrement de neurones unitaires est une méthode très invasive, puisqu'une ou plusieurs électrodes doivent pénétrer dans le cerveau. Sa bande passante est minuscule, mais la résolution temporelle et spatiale est très bonne. ******ebook converter DEMO Watermarks*******

Dans le domaine médical, les EEG et ECoG sont les interfaces cerveaumachine qui sont le plus utilisées et elles sont généralement placées dans la zone de la motricité du cerveau humain. Notamment pour aider les personnes paralysées à utiliser un ordinateur par la pensée.

Les entreprises qui travaillent sur les interfaces neuronales Les interfaces neuronales sont pour l’instant encore au stade embryonnaire, mais plusieurs entreprises travaillent déjà d’arrache-pied sur cette technologie. Dans les prochaines décennies, cette technologie sera un vecteur économique de très grande ampleur. Il est donc tout à fait logique de voir un tel engouement. Neuralink, fondée en 2016, est certainement l’entreprise la plus médiatisée. Appartenant à Elon Musk, l’objectif final est d’arriver à une symbiose entre le cerveau humain et l’IA – notamment pour toujours rester compétitif et garder le contrôle sur les machines. Elon Musk a avoué qu’il a un peu peur que nous devenions les animaux de compagnie de l’IA dans le futur. En 2019, lui et son équipe ont présenté publiquement un prototype. Celui-ci est capable de lire et d’écrire les informations dans le cerveau via des électrodes implantées directement dans le cerveau[106]. Le produit s'appelle le N1. Il s'agit d'une puce qui se trouve dans une boîte hermétique, qui tient dans un cylindre mesurant huit millimètres de diamètre sur un quart de millimètre de hauteur. Chaque puce mesure quatre millimètres sur quatre et utilise 1 024 électrodes. En comparaison, les modèles utilisés aujourd'hui pour la maladie de Parkinson utilisent seulement 10 électrodes. C’est une vraie prouesse technique que l’équipe de Neuralink a réussi à faire ! Avec autant d’électrodes, la bande passante est très grande, cela permet donc de contrôler les ordinateurs de façon encore plus naturelle. Dans les installations initiales, Neuralink place quatre puces N1 chez un patient, trois dans les zones motrices et une par le cortex sensoriel somatique. Ils sont ensuite reliés à une boîte près de l'oreille qui se connecte à un lien situé à l'extérieur de la peau. Le lien contient la batterie pour alimenter le système et le Bluetooth pour contrôler son smartphone par la pensée. ******ebook converter DEMO Watermarks*******

Neuralink fonctionne avec une application mobile, pour connecter le smartphone à l’implant et entraîner les gens à l’utiliser. Musk a d’ailleurs évoqué un système de type App Store, mais pour les applications Neuralink. Les électrodes sont incroyablement fines et beaucoup trop petites pour être insérées à la main. Neuralink a donc mis au point un robot qui peut insérer les électrodes via incision ultra-fine dans le crâne. L'opération est totalement indolore et peut prendre moins d'une heure. Aucune cicatrice et pas non plus besoin de se raser la tête pour se faire implanter. L'objectif est de rendre l'insertion à peu près aussi confortable que la chirurgie oculaire Lasik. Avec cette interface les scientifiques de Neuralink ont déclaré qu’il sera possible de contrôler dans le cerveau les zones : du mouvement, des systèmes sensoriels, de la vision, de la mémoire spatiale, de l’élocution et du langage, de l’humeur, de la douleur, de la faim et de la soif, de la mémoire et du raisonnement mathématique. Elon Musk veut tester ses interfaces sur les humains en 2020, d’abord pour les patients malades (Parkinson, paralysés, etc.). Et sortir le produit aux alentours 2025-2030 pour le grand public. Neuralink a de nombreux concurrents. Le marché des interfaces cerveaumachine commence tout juste à se lancer et voici une liste non exhaustive des concurrents :

Implant N1 - Neuralink Lauch Event

******ebook converter DEMO Watermarks*******

Kernel Kernel est une société basée aux États-Unis qui travaille au développement d'une interface non invasive entre l'esprit, le corps et la machine (MBMI - Mind Body Machine Interface) pour améliorer et développer radicalement la cognition humaine. Selon les rapports, le but de Bryan Johnson, PDG de Kernel, est de construire une « neuroprothèse », un appareil qui aidera une personne à apprendre plus vite, à se souvenir plus, à évoluer avec l'intelligence artificielle et bien plus encore. L'entreprise travaille également à la mise au point de produits de neuro-augmentations commerciaux qui amélioreraient la mémoire. BrainCo Fondée en 2015, BrainCo est une entreprise américaine qui a été incubée dans le Harvard Innovation Lab. L'entreprise développe des produits de technologie d'interface cerveau-machine (IMC) comprenant des capteurs, du matériel, des logiciels et de l'IA. Le produit, sans fil EEG est un bandeau qui peut détecter l'activité cérébrale et peut également mesurer différents états du cerveau par exemple la la profondeur de la concentration, la relaxation, la méditation, etc. Emotiv Emotiv est une société de bio-informatique basée aux États-Unis qui travaille à la compréhension du cerveau humain par électroencéphalographie (EEG). L'entreprise fabrique actuellement trois casques d'écoute neuro portables qui sont intuitifs et économiques. Le produit Emotiv EPOC+ est un casque EEG primé qui est conçu pour la recherche sur le cerveau humain évolutive et contextuelle et qui donne accès à des données cérébrales de qualité professionnelle. MindMaze MindMaze est une plateforme informatique basée à Lausanne, en Suisse, fondée en 2012. L'entreprise travaille sur des interfaces homme-machine intuitives grâce à sa plateforme informatique neuro-inspirée. L’entreprise a ******ebook converter DEMO Watermarks*******

conçu une interface machine intuitive qui utilise le décodage pré temps réel des signaux du cerveau par prédiction neuronale. NeuroSky Fondée en 2004, NeuroSky est une société californienne qui fabrique des technologies d'interface cerveau-ordinateur (BCI) pour les applications de produits de consommation. L'entreprise adapte la technologie de l'électroencéphalographie (EEG) et de l'électromyographie (EMG) pour développer une biométrie de la santé et du bien-être, facile à comprendre sur une application mobile. NeuroPro Fondée en 2012, NeuroPro est une société suisse spécialisée dans le développement d'outils pour des applications de neurophysiologie de pointe en temps réel. L'entreprise s'efforce de faire progresser la science du cerveau. Neurable Neurable est une société américaine fondée en 2015. L'entreprise a mis au point des outils de neurotechnologie qui interprètent l'intention humaine, mesurent les émotions et fournissent un contrôle télékinétique du monde numérique. Neurable développe un contrôle cérébral pour la réalité virtuelle et augmentée. Selon les rapports, Neurable s'est récemment associé à Trimble pour explorer l'utilisation des interfaces cerveau-ordinateur avec le domaine du transport. Les applications Les applications d’une telle technologie sont presque illimitées. De nouvelles perspectives en ce qui concerne la productivité, l’art, la créativité et la santé mentale semblent se profiler. La plupart des prospectives qui sont faites ici sont bien entendu pour le long terme. Les interfaces qui sortiront entre 2025 et 2030 seront d’abord principalement utilisées pour contrôler des appareils informatiques avec l’esprit (envoyer des messages, contrôler une interface numérique…). ******ebook converter DEMO Watermarks*******

Sur le plan de la santé mentale On peut imaginer qu’on pourra télécharger des applications de bien-être mental de type peacefulness / instant nirvana, qui nous permettrait d’atteindre un état totalement dénué d’anxiété ou de dépression. Sans avoir besoin d’avoir pratiqué des années de méditation ou de Yoga. Avec les interfaces neuronales, nous pouvons effacer n’importe quelle forme de maladie mentale, et récupérer de n’importe quel type de trauma facilement, sans aucun effet secondaire. Sur le plan de la santé physique Il sera possible de moduler à notre guise notre dopamine pour réguler notre appétit. Mais aussi de manger uniquement les aliments qui sont bons pour notre organisme, en sélectionnant quel aliment nous voulons manger en fonction de régime alimentaire choisi, sans aucun effort. Pareil pour la pratique d’une activité physique, vous pouvez faire en sorte d’apprécier n’importe quel type d’exercice physique, dans lequel vous voulez exceller. Sur le long terme, que ce soit pour le vélo, la natation, la course, le Kung Fu ou le Karaté, vous pourrez télécharger toutes ces compétences depuis internet directement dans votre cerveau. Imaginez télécharger 10 000 heures d'entraînement de Kung Fu en seulement quelques minutes depuis votre canapé (comme dans Matrix !). Sur le plan de l’acquisition du savoir Vous serez également capable de télécharger n’importe quel type de savoir directement dans votre cerveau, ou télécharger n’importe quelle langue. Imaginez apprendre le mandarin en seulement quelques heures, avoir le même niveau de connaissance qu’un doctorant en physique quantique, des centaines de papiers scientifiques, ou télécharger un livre dans votre cerveau. En quelque sorte, vous serez capable de devenir un expert dans n’importe quel domaine, presque instantanément. Imaginez utiliser tout ce savoir pour créer des entreprises ou des organisations pour aider les autres. Imaginez un seul instant que des millions de personnes puissent utiliser cette technologie pour faire avancer le monde. Les possibilités sont gigantesques ! ******ebook converter DEMO Watermarks*******

La réalité virtuelle sera ultra réaliste La stimulation du cortex visuel permettra de faire apparaître de nouvelles formes de divertissements dans le jeu vidéo, la réalité virtuelle et la réalité augmentée. Mais également de contrôler n’importe quel avatar 3D ou robot par la pensée. Vous pourrez voir, sentir, toucher et même goûter dans des mondes virtuels. Vous serez capable d’incarner le personnage principal d’un film et de vivre son histoire, comme jamais vu auparavant. La réalité semblera moins colorée et plus ennuyeuse que le monde réel. Les gens préféreront donc passer plus de temps dans ces mondes virtuels que dans la réalité ! Notre façon de communiquer va changer Les interfaces neuronales nous permettront d’établir une nouvelle forme de communication, qui ne s’en remettra pas qu’aux mots, mais aussi aux concepts. Ce qui ouvrira la porte à différents types de communications qu’on a encore du mal à imaginer tant qu’on ne pourra pas le vivre. Nous serons capables de changer notre niveau de conscience Avec les interfaces neuronales nous serons capables de modifier nos états de conscience. Imaginez que vous puissiez télécharger des états de conscience altérées que peuvent provoquer les drogues comme le DMT ou le LSD et automatiquement atteindre une lucidité ou une révélation sur ce que vous pouvez faire dans votre vie, sans avoir aucun effet secondaire. Ou alors une IA capable de vous dire, en analysant votre cerveau, exactement ce qui est a le plus de sens pour que vous puissiez réellement vous épanouir dans la vie.

Une nouvelle forme de créativité apparaîtra De nouvelles formes de créativités et d’arts vont apparaître. Les possibilités des interfaces neuronales semblent grandioses dans ce domaine. Ainsi, notre créativité en sera démultipliée, non seulement avec l’aide des IA, mais aussi avec l’aide des interfaces neuronales. ******ebook converter DEMO Watermarks*******

Le musicien du futur pourrait devenir un chef d’orchestre « neurosymphonique », en stimulant les neurones, celui-ci créerait des algorithmes capables de procurer des expériences psychiques et physiques d’une autre dimension. Avec l’aide de l’IA qui analyserait les données neuronales du cerveau, ces programmes seraient capables de produire des sons, des musiques, des images, des sensations et des stimulations neuronales en fonction de la spécificité de chaque structure cérébrale. Des milliers, voire des millions de neurones seraient ainsi stimulés, créant ainsi une symphonie neuronale sans commune mesure. Il sera également possible de produire de la musique “traditionnelle” avec les interfaces neuronales et elles permettront de gagner énormément en productivité. Il suffirait alors simplement d’imaginer une mélodie ou un rythme dans la tête, puis de structurer tous les éléments musicaux avec son esprit. Les graphistes 3D du futur seront capables de créer des environnements virtuels ou des personnages juste en les imaginant. Les philosophes pourront transmettre plus simplement leurs concepts. Les scientifiques plus simplement leurs dernières découvertes. Imaginez un monde où vous pouvez partager instantanément vos pensées, vos idées, vos sources d'inspiration, les sons que vous avez entendus ou les couleurs et l'atmosphère exacte que vous imaginez avec les gens avec qui vous collaborez. Imaginez à quoi ressemblerait une séance de brainstorming. Le travail à distance n'en est qu'à ses balbutiements, mais l’interface neuronale l'élèverait à un tout autre niveau. Chacun pourrait se trouver sur différents continents, communiquer ses pensées – ses vraies pensées, ce qu'il voit et ressent en temps réel. Et bien sûr, notre façon de travailler sera radicalement différente. Pourquoi avoir des ordinateurs portables avec claviers et tapis de souris alors que nous pourrons contrôler directement la machine avec notre esprit ? À quoi ressemblera la collaboration entre le cerveau et l’ordinateur une fois qu'on aura dépassé les simples actions motrices du déplacement de la souris ou de l'appui des touches ? Il est impossible de savoir avec certitude ce qui se passera, mais je pense ******ebook converter DEMO Watermarks*******

que l’avenir nous surprendra. Une chose est sûre : de nouvelles formes de divertissements naîtront, des choses que nous ne pouvons même pas encore imaginer. Essayez de parler du fonctionnement d’internet à une personne vivant au début des années 1900, elle ne pourrait même pas en comprendre les concepts, étant donné que l’informatique n’existait pas encore à cette époque !

Les risques liés aux interfaces cerveau-machine L’utilisation des interfaces cerveau-machine n’est pas sans risque non plus. Il va falloir prendre des mesures en amont avant que cette technologie ne soit utilisée à grande échelle. Il existe des risques pour n’importe quelle technologie. En acceptant une technologie, nous devons également en accepter les risques – surtout si la balance bénéfices-risques penche beaucoup plus du côté des bénéfices. Le premier risque vient de l’invasivité. Une chirurgie ratée peut entraîner des dégâts sévères ou des risques d'inflammation dans le cerveau. Neuralink a choisi un procédé plus précis et moins risqué que la main-d’œuvre humaine en utilisant un robot-chirurgien. En théorie, cela devrait réduire les risques, mais nous n’avons pas encore assez de recul pour en avoir la certitude. Pareil pour les matériaux utilisés avec les électrodes qui sont implantées dans le cerveau, les risques d’inflammation existent. Dès qu’on touche au cerveau, les gens poussent des cris d’orfraie, il faudra donc prendre de grandes précautions pour éviter le pire. Le deuxième risque vient du piratage. Il suffit d’un seul hacker mal intentionné et les dégâts pourraient être désastreux. Celui-ci pourrait pirater des milliers d’individus pour épier leur vie privée (vos pensées, votre mémoire, ce que vous voyez) et revendre ses informations à des états, et à des entreprises peu scrupuleuses. Il pourrait également mettre le cerveau en état de mort cérébrale, dans un état de torture permanente, ou vous insérez de faux souvenirs, voire des publicités directement dans votre esprit. Le troisième risque vient de l’IA. Elon Musk, a expliqué à plusieurs reprises qu’il aimerait que l’humanité fusionne avec l’IA pour éviter une crise existentielle. Mais la fusion une IA superintelligente n’est pas sans risque non ******ebook converter DEMO Watermarks*******

plus. Pour assouvir ses objectifs, cette IA pourrait très bien faire en sorte de tuer des milliers, voire des millions d’individus à distance, sans aucun effort particulier. L’équipe de Neuralink a bien précisé que leur objectif numéro un était la sécurité et qu’aucune publicité ne sera autorisée sur leur App Store personnel, ce qui est plutôt encourageant. Néanmoins, cela ne suffira pas, il faudra mettre en place un système qui comportera plusieurs couches cryptées pour éviter les pires scénarios. N’importe quelle application devra être vérifiée par de multiples équipes différentes et pas juste par une seule équipe. La vérification de la sécurité de l’application devra être faite par un processus jamais vu auparavant dans le domaine logiciel. Les métiers de la cybersécurité vont donc avoir encore beaucoup d’avenir. Mais il faudra également prendre les devants, même avant la commercialisation de cette technologie, afin d’éviter les pires scénarios. Et il ne faut pas se le cacher, les risques ne seront jamais proches de zéro. Mais la sécurité doit être la priorité avant de commercialiser ces implants.

******ebook converter DEMO Watermarks*******

9 - Homo Novus « Les progrès technologiques effacent rapidement la frontière entre la chimie et la biologie, entre la matière et la vie. Il faut bien comprendre que, à l’échelle du nanomonde, il n’y a aucune différence entre une molécule chimique et une molécule « vivante ». La fusion de la biologie et des nanotechnologies transformera le médecin en ingénieur du vivant et lui donnera, décennie après décennie, un pouvoir inouï sur notre nature biologique » - Laurent Alexandre

Musique qui correspond à cette partie : Extra Terra - “Human 2.0” Vous pouvez l’écouter sur Spotify, Apple Music, Deezer ou n’importe quel autre service de musique en streaming.

Ambiance : Très énergique / Sombre Style : Dubstep / Glitch Hop / Trap Tempo : 100 bpm Human 2.0 est un morceau assez énergique. J’ai vraiment voulu faire ressortir les dangers et les côtés sombres de ce futur inconnu. Mais j’ai également voulu faire en sorte de faire ressortir l’espoir à travers la dernière séquence de fin avec la mélodie. Il y a toujours de l’espoir dans mes musiques.

Le transhumanisme est-il notre avenir ? L’Homo Sapiens deviendra-t-il Homo Deus (l’homme Dieu) ? Nous avons vu dans les chapitres précédents que nous allons fusionner notre corps avec la technologie en dotant notre cerveau d’une puissance informatique. Mais ce n’est qu’une partie de ce qui attend l’humanité. En plus des implants neuronaux, nous allons également user des ******ebook converter DEMO Watermarks*******

nanotechnologies et des biotechnologies pour nous réparer d’abord, puis nous augmenter ensuite. Dans 100 ans, il est possible que l’humanité n’existe plus comme aujourd’hui. Peut-être que nous nous modifierons pour mieux nous adapter à l’espace, ou au réchauffement climatique. De ce fait, en fonction des idéologies et des placements géographiques, l’humanité se découpera probablement en plusieurs espèces différentes. Dans les prochaines décennies, nous serons capables d’augmenter notre espérance de vie, d’augmenter nos capacités cognitives, de changer nos capacités physiques, etc. Les avancées dans le domaine de la nanotechnologie, des biotechnologies (thérapies géniques, micro-fluidique, CRIPSPR/Cas9) et des implants neuronaux vont grandement changer notre civilisation jusque dans ses racines les plus profondes.

Les modifications génétiques Le ruban ADN est sans cesse rompu par les multiples stress que subit une cellule à cause de l’environnement. Il existe heureusement des mécanismes de réparations dans notre ADN, mais ceux-ci ne sont pas toujours efficaces et il peut arriver que leurs fonctionnements se voient altérés ou limités, ce qui entraîne la maladie ou le vieillissement. Néanmoins, des chercheurs ont tenté d’imiter ces fonctionnements, mais les techniques développées jusqu'à maintenant étaient très coûteuses et fastidieuses. La méthode CRISPR/Cas9 est surement la technique la plus connue de modification génétique. Celle-ci repose sur un système naturel constitué par deux éléments biologiques : le CRISPR pour Clustered Regularly Interspaced Short Palindromic Repeats et le Cas9. Le CRISPR est un système qui permet aux bactéries de se protéger des infections virales. Lorsqu’une bactérie est attaquée par un virus, celle-ci se protège en coupant une partie de son ADN tout en gardant en mémoire « l’image » de son assaillant. Quand la bactérie se refait attaquée par le même virus, elle peut ainsi le détruire à l’aide du ciseau moléculaire Cas9. Des équipes de chercheurs ont adapté ce principe sur des cellules animales en 2012 et en 2017 sur un embryon humain (pour traiter une maladie cardiaque), ils ont pu ainsi reprogrammer n’importe quel gène très efficacement.

******ebook converter DEMO Watermarks*******

Applications Des chercheurs de l’Université de Chicago ont réussi à traiter le diabète de type 2 avec des greffons de peau sur des souris en déclenchant la libération d’insuline et contribuant à la gestion du diabète. L‘équipe affirme que cette méthode pourrait éventuellement être utilisée pour traiter un spectre large de conditions métaboliques et génétiques, et pas seulement le diabète : il s’agit d’utiliser des cellules de la peau pour déclencher différentes réactions chimiques dans le corps. La technique CRISPR permettrait par exemple aux scientifiques de modifier les cellules immunitaires de notre organisme, une fois réinjectées dans notre corps, ces cellules génétiquement modifiées seraient ainsi capables de combattre les cellules cancéreuses. Des chercheurs ont également réussi à encoder un GIF dans l’ADN d’une bactérie[107]. Il est donc tout à fait possible de combattre toutes sortes de maladies avec ce procédé voire même de rallonger inexorablement notre espérance de vie, les applications sont presque infinies. Enjeux techniques et éthiques Actuellement, nous ne connaissons pas encore tous les rôles des gènes et donc les conséquences d’une modification du génome sur le long terme. Néanmoins avec l’aide des puissances de calculs que nous aurons à notre disposition dans une décennie, les limites seront de moins en moins grandes, ouvrant par exemple la porte à un eugénisme sans limites. Cette technique est ******ebook converter DEMO Watermarks*******

aujourd’hui déjà très peu coûteuse, ce qui la rend accessible à tous les scientifiques et biologistes en herbe « dans un garage », soulevant ainsi des questions sécuritaires. CRISPR a été déclarée découverte scientifique de l’année 2015, mais a aussi été classée au rang des armes de destruction massive par les Agences de sécurité américaines. En 2018, Lulu et Nana, les premiers bébés génétiquement modifiés, des jumelles, sont nées en Chine. Ce qui a inévitablement créé une grande polémique à travers le monde. Le but de la manoeuvre était d'immuniser les enfants contre le VIH, en recrutant des couples porteurs du virus. Les expériences sur embryon sont problématiques sur le plan éthique. La modification de leur génome conduit mécaniquement à changer celui de leur descendance : ce n’est pas seulement l’individu qui est modifié, mais potentiellement toute sa lignée, ce qui constitue une barrière éthique infranchissable dans plusieurs pays, notamment en Europe. Avec le temps on peut imaginer que, CRISPR/Cas9 et les autres technologies qui s’en inspirent (comme la technique SATI pour : Single homology Arm donor mediated intro-Targeting Integration) vont encore s’améliorer, elles gagneront en précision, ce qui permettra d’augmenter leur fiabilité. Ainsi, ces technologies pourront gagner progressivement l’acceptation du grand public. Les modifications génétiques risquent en effet de changer l’humain tel que nous le connaissons aujourd’hui, en repoussant la mort, les maladies et même nos aptitudes. Le débat éthique et juridique vient tout juste de commencer.

Une vie plus longue et ennuyeuse ? L’objectif des transhumanistes qui veulent augmenter leur l’espérance de vie n’est pas de vivre 50 ans de plus dans un fauteuil roulant vieux et ridé. Le but est plutôt de rester le plus longtemps possible en pleine forme, en pleine santé et en pleine possession de ses moyens. Je préfère le clarifier à l’avance, vu que beaucoup de personnes ont tendance à penser qu’on va vivre 300 ans en maison de retraite. L’opinion générale pense que le vieillissement est une sorte d’usure de notre corps, à la manière d’un vélo qui rouille. Mais cette idée ne correspond ******ebook converter DEMO Watermarks*******

pas à la réalité biologique. En effet, certains organismes ne vieillissent pas, voire presque pas, notamment de nombreuses espèces d’arbres : séquoias, chênes, oliviers... Le requin du Groenland peut vivre des siècles, le homard aussi, et la méduse Turritopsis nutricula peut renouveler indéfiniment ses cellules dans certaines conditions. En l'absence de maladies ou d’accident, ce dernier est capable d’être en vie presque indéfiniment. Nous vieillissons parce que nos cellules cessent de se renouveler, ou que leur renouvellement devient anarchique ce qui peut développer des cancers. Des chercheurs de l’université de Harvard ont réussi à rajeunir biologiquement des souris. Il n’y a donc aucune raison de penser que c’est impossible pour l’humain. Comme le dit Ronald de Pinho, l’auteur principal de l’étude : « Cela démontre bien que les maladies liées à l’âge sont réversibles. » De nombreuses entreprises ou de laboratoires travaillent activement contre le vieillissement dans le monde. Les GAFAM sont encore une fois dans le coup, notamment Google qui a ouvert Calico en 2013 dans le complexe secret Google X Lab. On peut également citer SENS Fondation (Aubrey De Grey), BioViva (Elizabeth Parrish), et l’équipe du scientifique David Sinclair. Même si l’idée peut paraître folle pour certains, des entreprises comme Google ont les moyens de faire grandement progresser la recherche dans ce domaine, parce qu’ils ont les moyens financiers. Le marché anti-vieillissement pourrait atteindre plus de 610 milliards de dollars d’ici 2025[108]. Certaines personnes pensent qu’il est inutile de vivre plus longtemps, parce qu’elles s’ennuient ou se lassent au bout d’un moment. Désolé de paraître insolent, mais ces personnes donnent l’impression qu’elles sont déprimées, ou qu’elles ne vivent pas une vie très intéressante dans un monde en réalité très intéressant. Qui ne veut pas vivre assez longtemps pour découvrir les mystères de l’Univers, conquérir le cosmos ou comprendre l’origine de la conscience ? Il y a tellement de choses à faire et à explorer et pourtant des gens arrivent à s’ennuyer ! Si nous vivons 200, 500 ou 1000 ans, nous ne pourrons pas nous ennuyer avec toutes les nouvelles formes de divertissements qui sont en train d’émerger, comme la réalité virtuelle, l’augmentation cérébrale et ******ebook converter DEMO Watermarks*******

potentiellement la conquête spatiale - dans 1 siècle. Il sera difficile de dire « j’ai déjà tout vu, tout essayé dans la vie ». D’autant plus, que déjà à notre époque, il est idiot de dire cette phrase, car en prenant du recul nous avons déjà une quantité de choses incroyables à faire. Des siècles entiers ne suffiraient pas pour lire tous les livres de la planète, maîtriser tous les domaines qui nous intéressent ou visiter les plus beaux lieux du monde. Il n’y a pas non plus de contradiction entre l’acceptation de la mort et l’envie de vivre beaucoup plus longtemps. Il est tout à fait possible d’accepter l’idée de sa propre mort tout en voulant exploiter le potentiel des technologies anti-vieillissement. Peu importe qu’on soit transhumaniste ou non, il est important d’accepter l’éventualité de mourir. La mort par accident peut toujours pointer le bout de son nez. L’autre fausse croyance est de penser que tous les transhumanistes veulent atteindre l’immortalité, mais c’est faux, en réalité ils cherchent généralement l’amortalité. Certains oui recherchent l’immortalité, mais c’est une tâche pratiquement impossible à atteindre à cause des risques d’accident (ou de crimes), et ce, même si un jour nous arrivons à digitaliser entièrement la conscience. En ce qui concerne la surpopulation, il n’est pas fou d’imaginer que d’ici 1 ou 2 siècles l’espèce humaine (ou les descendants) se transforme en espèce interstellaire. Les humains pourront ainsi s’éparpiller dans l’ensemble du système solaire, ce qui évitera une surpopulation trop massive sur terre. Ajoutons également que, les démographes ont remarqué que dans les pays riches, les populations se stabilisent. Donc le meilleur moyen de stabiliser la population au niveau global est d’aider au développement des pays les plus pauvres. Je tiens à préciser qu’il ne faudra pas forcer les gens à rester en vie contre leur gré non plus. La liberté de vivre est tout aussi importante que celle de mourir. Je pense qu’à l’avenir les gens choisiront le moment de leur mort quand ils auront décidé qu’ils auront « tout vu dans leur vie ». Je pense qu'il y a beaucoup de scepticisme concernant les produits anti-vieillissement. Il y a un nombre énorme de charlatans… Je comprends pourquoi vous pouvez penser que ce n’est pas possible. Dans votre pharmacie locale, vous pouvez voir environ 50 produits qui prétendent être anti-âge, et je peux vous assurer qu’aucun d’entre eux ne l’est. Donc, je ******ebook converter DEMO Watermarks******* ⬛

pense qu'il y a une bonne dose de scepticisme. Mais les produits qui vont arriver dans les deux prochaines décennies n’ont strictement rien en commun avec les produits actuels (thérapies géniques, cellules souches, etc.). ⬛

Après l'Anthropocène, le Novacène (ou l’âge synthétique) Quand nous pensons au futur de l’espèce, nous avons souvent tendance à imaginer que les humains auront totalement disparu ou que les humains existeront toujours dans 1 ou 2 siècles tels qu’ils le sont aujourd’hui. Pourtant, nous voyons déjà que nous allons vers la fusion avec la technologie, nous le remarquons tous les jours avec l’invasion des outils numériques. James Lovelock, un scientifique et environnementaliste anglais, explique que notre suprématie en tant qu’espèce touche bientôt à sa fin et que nous allons fusionner inéluctablement avec les machines. Lovelock attend avec impatience que l’humanité soit dépassée en intelligence par sa progéniture informatique qu’est l’IA. Cet événement marquera la fin de l’Antropocène – l’ère dans laquelle l’homme est devenu capable d’effectuer des modifications à grande échelle de l’environnement planétaire – et le début du Novacène. L’âge synthétique sera marqué par les merveilles imprévisibles des robots et des cyborgs qui pourront penser 10 000 fois plus vite que nous, et se programmeront eux-mêmes et leurs descendants d’une manière qui dépasse toute compréhension humaine. Ceux qui sont pessimistes sur l’IA pensent que les machines nous domineront ou nous détruirons à la manière du film Terminator. Mais d’après « Gaia Hypothesis » de James Lovelock, les machines réaliseront qu'elles ont besoin de vie organique pour garder la planète à une température habitable. Même la vie électronique ne pourrait pas survivre sur une Terre qui s'est transformée à cause du réchauffement climatique galopant. Selon Lovelock, les robots seront donc bien placés pour garder les humains à proximité et ils deviendront des machines bienveillantes et aimantes pour protéger l’environnement. Les penseurs verts les plus misanthropes sont donc à côté de la vérité, parce qu’ils pensent que la bonne réponse à un dérèglement climatique est de ******ebook converter DEMO Watermarks*******

démanteler la civilisation industrielle, plutôt que d'intensifier nos efforts d'ingénierie dans les sources d'énergie alternatives et l’avancement technologique. Nous devons abandonner l'idée politiquement et psychologiquement fausse que l'Anthropocène est un grand crime contre nature. La vérité est que, bien qu'associé à des choses mécaniques, l'Anthropocène est une conséquence de la vie sur Terre. L'Anthropocène est un produit de l'évolution ; c'est une expression de la nature. Quand les machines régneront sur Terre, elles auront toutes les capacités pour trouver des solutions écologiques bien plus rapidement que nous. Le Novacène permettra donc de rééquilibrer la terre. Les cyborgs et les robots finiront par modifier la Terre pour mieux répondre à leurs besoins, ce qui d’une certaine façon pourrait mener à l’extinction de l’espèce humaine. Pas dans le sens où nous allons tous nous faire tuer, mais plutôt dans le sens où nous allons évoluer et fusionner avec les machines.

Les risques du transhumanisme et des nouvelles technologies L’utilisation des nouvelles technologies de modification génétique, des interfaces neuronales, d’IA et d’implants peuvent nous proposer un avenir hautement désirable. Mais ces technologies peuvent aussi faire tourner les événements en notre défaveur. Tout d’abord il y a le risque d’autodestruction de l’espèce humaine. Le progrès technologique pourrait mener l’Humanité à sa perte d’une façon voulue ou non. Les risques liés à l’IA ne sont pas négligeables, les attaques nucléaires sont toujours possibles et l’utilisation de virus génétiquement modifiés plus résistants via l’utilisation des techniques de modifications génétiques n’est pas faible. Le second risque vient de l’utilisation des implants pour contrôler l’esprit et aliéner les populations, et des modifications génétiques pour mettre en place un eugénisme totalitaire. Ce deuxième scénario pourrait rendre le monde réellement dystopique. Les gens modifiés génétiquement, deviendraient des êtres dénués d’intelligence et seraient voués à faire les tâches les plus ingrates, tandis que les riches obtiendraient les plus hauts statuts grâce à leur intelligence supérieure. ******ebook converter DEMO Watermarks*******

Le troisième scénario viendrait d’une dictature bioconservatrice et décroissantiste de type écofasciste. À cause de la technophobie, il y aurait un rejet massif du progrès technologique. Certains pays pourraient se retrouver figés à un niveau technologique donné, et pourraient même régresser. Maintenir une telle interdiction nécessiterait des états autoritaires et coercitifs. Paradoxalement, ce type de société serait également très hypocrite et injuste, dans le sens où les plus pauvres seraient privés des bénéfices de la technologie et les plus riches y auraient accès via un marché noir ou en allant dans les autres pays qui autorisent ces technologies. Comme d’habitude, il y a un équilibre à trouver entre ces scénarios extrêmes. Il ne faut pas faire preuve d’un optimisme béat, parce qu’il faut être vigilant, prendre en compte les risques, et envisager le pire pour pouvoir l’éviter. Et inversement, il ne faut pas non plus céder à la facilité du pessimisme et du rejet total de ces technologies, comme si cela permettrait d’en prévenir tous les problèmes. Pourquoi faire avancer le monde, si le sort de la planète est condamné ? Il est donc nécessaire d’avoir une vision positive et réaliste de ce que pourrait être l’avenir afin d’envisager un futur désirable pour l’Humanité. En conclusion, le transhumanisme semble être inéluctable, parce que si un pays ne le fait pas un autre le fera. Il est donc important d’imaginer et de débattre à propos d’un « transhumanisme raisonné » afin d’éviter les pires scénarios. Si le sujet de l’anti-vieillissement vous intéresse, voici une liste non exhaustive de sites et d’entreprises dans ce domaine. 1) Fight Aging http://www.fightaging.org 2) Longecity http://www.longecity.org 3) SENS Research Foundation http://www.sens.org 4) Methuselah Foundation http://www.mfoundation.org 5) Maximum Life Foundation http://www.maxlife.org 6) Lifeboat Foundation http://www.lifeboat.com 7) Singularity Hub http://www.singularityhub.com 8) Foresight Institute http://www.foresight.org 9) Cryonics http://www.longecity.org/cryonics 10) Institute for Ethics and Emerging Technologies http://www.ieet.org ******ebook converter DEMO Watermarks*******

11) 2045 Initiative http://www.2045.com 12) Longevity Alliance http://www.longevityalliance.org 13) Calico http://www.calicolabs.com/ 14) Eternal Life Fan Club http://eternallifefanclub.com/ 15) Life Extension Advocacy Foundation LEAF http://www.lifeextensionadvocacyfoundation.org/ 16) Transhumanist Party http://www.transhumanistparty.org/ 17) AgeX Therapeutics https://www.agexinc.com 18) BioViva https://bioviva-science.com 19) Incluant deux listes de personnes et d'entreprises listées ici : http://senescence.info/whoswho

******ebook converter DEMO Watermarks*******

10 - L’humanité vers de nouveaux horizons : les scénarios « Il y a une chance sur des milliards que notre réalité soit la bonne. » - Elon Musk

Musique qui correspond à cette partie : Extra Terra - “Ready Player Two” Vous pouvez l’écouter sur Spotify, Apple Music, Deezer ou n’importe quel autre service de musique en streaming.

Ambiance : Très énergique Style : Dubstep Tempo : 150 BPM

Ce morceau fait référence aux films et aux romans de science-fiction des années 80 qui parle de réalité virtuelle comme Tron et Johnny Mnemonic, mais aussi de Ready Player One qui est beaucoup plus récent.

Ready Player Two Davis Johnson, 83 ans, ancienne rock star à la retraite, n’a plu la même vitalité et la même hardiesse qu’il avait lorsqu’il était jeune, et ce, même s’il est toujours en forme pour son âge. Il a toujours ce merveilleux regard nostalgique lorsqu’il revoit les vidéos de ses anciennes tournées. Davis se remémore régulièrement tous les bons moments qu’il a eus avec les membres du groupe, mais aussi avec sa femme et son fils. Malheureusement, sa femme est morte il y a 5 ans d’un cancer, et son fils a quitté Los Angeles pour faire carrière dans la finance à Détroit. Malgré son âge, il continue toujours de faire de la musique. Et de temps à autre, il va dans sa pièce entièrement ******ebook converter DEMO Watermarks*******

dédiée sa collection de guitares pour jouer quelques riffs. Aujourd’hui, comme à l’accoutumée, il se rend donc dans cette fameuse pièce pour jouer de la guitare. Lors de la construction de la maison, il a fait en sorte de doter cette pièce d’un plafond très haut pour pouvoir accrocher toutes ses guitares. Davis n’a pas touché à sa Fender Stratocaster Black de 1979 depuis plus de 5 ans, c’est-à-dire depuis la mort de sa femme. En la voyant accrochée à son mur, il retombe irrésistiblement amoureux de sa guitare qu’il a laissée de côté depuis tant d’années. Dans un élan d’enthousiasme, il prend l’échelle en bois qu’il a laissée dans le coin de la pièce, puis la place consciencieusement à l’endroit où se trouve la guitare située à plus de 2 mètres du sol. Lorsqu’il est sur le point de toucher sa guitare du bout des doigts, le pied gauche de son échelle se brise sous son modeste poids. Davis tombe en arrière, sa tête cogne contre le sol et se brise la nuque. Davis est mort. Cependant, une voix résonne dans le néant. Davis arrive toujours à s’attendre penser. — Que s’est-il passé ? Suis-je mort ? Où suis-je ? À ce moment précis, Davis voit toute sa vie défiler en quelques secondes, il revoit tout depuis sa naissance jusqu’à maintenant, puis une étrange lumière blanche commence à envahir progressivement son champ de vision. Davis commence à ressentir une chaleur agréable tout le long de son corps, et petit à petit il commence à se rendre compte qu’il est plongé dans quelque chose, quelque part. Davis ne sait pas où il se trouve, mais sa posture n’est pas inconfortable, au contraire il ne s’est jamais aussi bien senti de toute sa vie. Davis ne veut pas quitter cet état de bien-être intense et reste ainsi pendant plusieurs minutes. Cependant, un bruit de bip qui lui semblait lointain au début commence à résonner de plus en plus fort dans sa tête. Il a l’impression que c’est le bruit d’une alarme, mais il n’en est pas sûr. Le bruit devient de plus en plus intense, il commence à stresser et son coeur bat tellement fort qu’il a l’impression d’en perdre le contrôle. Davis veut hurler, mais il n’y arrive pas, il a quelque chose de coincé dans sa bouche. ******ebook converter DEMO Watermarks*******

Tout d’un coup, il sent des choses se détacher progressivement tout le long de son corps, comme des sortes de câbles qui se débranchent. La chose qui se trouvait à l’intérieur de sa bouche se détache également d’un coup sec. Un énorme bruit de chasse d’eau se fait entendre et un liquide se déverse avec Davis sur le sol. Allongé nu sur le sol, Davis vomit un liquide orangeâtre de sa bouche, puis inspire et expire très fortement. Davis commence à ouvrir doucement les yeux, mais la lumière l’aveugle, il voit les formes de son environnement se former progressivement. Il essaye de se lever, mais la force n’est pas au rendez-vous. Au bout de 20 minutes, il arrive enfin à se lever et sa vision est enfin claire. L’endroit dans lequel il se trouve est tout blanc et d’une pureté incroyable et lui rappelle curieusement la lumière blanche qu’il a vue tout au début. En se déplaçant dans cet endroit mystérieux, il voit d’autres personnes connectées par des câbles dans des cuves autour de lui. Davis commence peu à peu à se souvenir de ses anciennes vies virtuelles et il se rappelle en avoir vécu des milliers ! Les souvenirs apparaissent progressivement dans son esprit. Il se souvient que la civilisation humaine a formé un ordinateur qui a pris toute la superficie de la Terre, et que tous les habitants ont été connectés depuis plus de 20 000 ans dans des mondes en réalité virtuelle. L’espèce humaine s’est désintéressée de la conquête spatiale et a laissé les machines autonomes tout gérer. La structure géante dans laquelle se trouve la civilisation humaine est entièrement alimentée par de l’énergie solaire orbitale. Davis se souvient également que la société s’est coupée en 2 parties : la première cherche à vivre des expériences de vie en gardant tous les souvenirs des anciennes vies, des mondes dans lesquelles ils sont des héros ou des Dieux, tandis que la seconde partie cherche à revivre de nouvelles vies en oubliant les anciennes. En retournant à sa cuve, Davis voit son reflet sur une vitre, il y découvre un jeune homme sans aucun poil ni cheveu sur la tête et il n’a plus le même visage qu’il a eu lors de son ancienne vie virtuelle. Sur un écran holographique, un message d’erreur apparaît, celui-ci semble venir de l’ordinateur central. Davis se rend compte qu’il n’aurait pas dû se faire réveiller. En sortant de la pièce blanche, il se retrouve dans un couloir sombre et sinueux et où il y voit des petits robots en train de s’occuper de la maintenance et du nettoyage de la structure, mais bizarrement ils ne ******ebook converter DEMO Watermarks*******

réagissent pas, même lorsqu’il essaye de les toucher. Les robots continuent leurs tâches sans prêter aucune attention à Davis. Davis continue de marcher pendant plusieurs heures dans ces couloirs, ne sachant pas trop où aller. Au bout d’un moment, il voit une lumière rouge lui indiquer un chemin, qu’il prend sans réfléchir. Davis emprunte ce chemin pendant quelque temps, puis finalement se retrouve dans une pièce gigantesque avec un énorme pilier situé au centre. Il avance lentement mais sûrement en direction du pilier. Il pense qu’à l’intérieur de celui-ci se trouve l’ordinateur central qui gère toutes les personnes connectées à la réalité virtuelle. Devant lui, il voit un compartiment qu’il ouvre sans hésiter et un écran holographique apparaît ensuite devant lui. Davis prend un câble qu’il branche sur son implant cérébral, puis contrôle l’ordinateur avec son esprit. Il navigue à l’intérieur d’un cyberespace pendant quelques minutes puis arrive à un menu. On voit que Davis hésite pendant quelques instants... Puis Davis s'exécute, il débranche tous les humains de la réalité virtuelle. Dans l’action Davis enregistre un message vidéo qu’il envoie sur tous les écrans holographiques de ses semblables. — Nous avons vécu pendant trop longtemps dans l'indifférence la plus totale à l’égard de nos objectifs de vie en tant qu’espèce. Nous devons nous reprendre en mains et continuer la conquête du cosmos. Ces mondes en réalité virtuelle sont superbes, mais cela ne va qu’un temps. Partons ensemble à la découverte des secrets de l’Univers. Utilisons le savoir de toutes les expériences que nous avons vécu en réalité virtuelle et utilisons ce savoir à bon escient pour pousser notre civilisation encore plus loin.

Le musicien neuro-symphonique 2054 - Max a 23 ans, il est musicien neuro-symphonique, du moins illégalement, car en France il est interdit d’avoir des implants neuronaux. Il a une certaine réputation internationale, en effet des millions de personnes téléchargent ses musiques neuro-symphoniques et d’après ses fans elles sont géniales. Ses programmes sont réputés pour avoir le meilleur mix entre les sons, les images et les émotions. Il conçoit tous ses programmes grâce à son implant chinois Systemlink, qu’il s’était fait implanter illégalement en ******ebook converter DEMO Watermarks*******

Allemagne. Malheureusement, il ne peut pas vendre ses musiques comme il le voudrait. Bien entendu, il cache son identité pour que les autorités françaises ne puissent pas le trouver. Mais comme il est en France, il ne peut pas déclarer son activité qui est considérée illégale par le gouvernement. Max ne peut donc pas vivre correctement de son art. En France, les politiciens ont choisi dans les années 2020 le régime de la décroissance économique pour préserver l’environnement, pendant que les autres pays ont continué le chemin de la croissance. La France a donc mis en place un système très restrictif sur l’achat et l’utilisation des technologies pour limiter l’impact écologique. Confortablement allongé sur son fauteuil, Max transfère un programme pour apprendre le chinois. Cela fait maintenant 30 minutes qu’il est en train de stimuler ses neurones grâce à l’aide de son implant Systemlink. La barre de progression lui indique qu’il est à 75% de l’apprentissage de la langue. Pendant ce temps-là, Max regarde des films en chinois en réalité augmentée grâce à ses lentilles, pour commencer à assimiler tout ce qu’il ingurgite. Il apprend le chinois, même si le langage à son époque devient de plus en plus imagé grâce aux interfaces homme-machine. Max prend sa valise puis appelle un Taxi autonome pour se rendre à l'aéroport le plus proche. Il sort du taxi et rentre dans l'aéroport Charles de Gaulle pour prendre un avion en direction de Shenzhen. Il a choisi de vivre en Chine parce qu’il peut vivre de sa passion là-bas et parce que la plus grande partie de son public est chinois. Max a réussi à décrocher un contrat avec une startup chinoise spécialisée dans la vente de programmes neurosymphoniques. Ce choix de vie n’a pas été aisé pour Max. En contrepartie, il a accepté de perdre un peu de sa liberté, à cause du gouvernement chinois qui surveille tous les faits et gestes de ses habitants, pour enfin réussir à vivre de sa passion.

Reborn Slicpok est inventeur, il vient tout juste de créer un appareil qui permet de communiquer vocalement sur des longues distances avec des ondes. Slicpok est le genre de personne qui est fasciné depuis sa tendre enfance par l’espace ******ebook converter DEMO Watermarks*******

et les mystères de l’Univers. Pendant sa promenade nocturne, Slicpok reçoit un message sur son système portatif de communication. Dans ce message, une voix lui explique qu’il doit se rendre dans la forêt juste à côté de sa maison. Bien entendu, Slicpok est incroyablement surpris, parce qu’il est le seul à disposer de cette technologie pour l’instant, il est donc un peu effrayé, mais également incroyablement curieux. Il va donc en direction de la forêt. En se rapprochant du lieu indiqué, il voit un appareil lumineux posé en plein milieu d’un champ. Slicpok va voir ce que c’est, puis lorsqu’il se trouve à 10 mètres de l’appareil, un être humanoïde sort doucement de l’objet. Celui-ci ressemble beaucoup à un humain, il a du métal qui orne tout son corps. Son allure est svelte et majestueuse, il ne porte aucun habit et il n’a aucun poil sur le corps. D’où vient-il ? Est-il un être venu de l’espace ? Brusquement l’être métallique se rapproche de Slicpok, puis lui prend la main pour lui parler directement dans sa tête. — Bonsoir, n’aie pas peur Slicpok. Je ne te ferais aucun mal. Je suis juste curieux, car je n’avais jamais parlé à un ancien comme toi auparavant, mais je dois aussi te dire quelque chose d’important. — Un ancien ? — Oui, je suis un descendant de ton espèce Slicpok. — Un descendant ? Mais cela n’a aucun sens ! — Cela a beaucoup plus de sens que tu ne le penses mon cher Slicpok. Tu viens de créer un appareil qui ressemble beaucoup à une technologie que mes ancêtres ont développé auparavant qui s’appelle : la radio. La création de cette technologie a été l'élément déclencheur qui a amené rapidement les anciens à la Singularité technologique. Et toi, tu es le descendant de ces anciens qui n’ont pas choisi de partir de la Terre il y a 15 000 ans. Nous vous surveillons depuis des millénaires maintenant, et vous semblez suivre presque la même convergence technologique que nous. Avant vous étiez une minorité, mais maintenant vous recommencez à prospérer. ******ebook converter DEMO Watermarks*******

— C’est incroyable ! Mais pourquoi sommes-nous restés sur Terre ? Pourquoi mes ancêtres n’ont-ils pas choisi de suivre votre groupe ? – En fait, c’est très simple à comprendre. Ton groupe d’humains n’a pas voulu nous suivre par choix idéologique. Tes ancêtres ont voulu se détacher de la “folie technologique” pour revenir aux choses “simples”. Ils sont donc partis se couper de la civilisation dans les montagnes et les endroits isolés. Puis au fil du temps, les vestiges de vos grandes villes ont totalement disparu – comme New York et Paris, des villes mythiques qui ont prospéré pendant quelque temps – plus personne ne s’en est occupé, donc la nature a repris le dessus. Et de cette façon, vous avez oublié votre passé et votre savoir technologique. La chose intéressante, c’est que les anciens ont d’abord rejeté la haute technologie, puis sont retournés aux technologies simples et rudimentaires, et ont ensuite oublié avoir rejeté la haute technologie pour y revenir inconsciemment des millénaires après. L’évolution technologique est aussi inévitable que l’évolution darwinienne. L’humain ne peut pas stagner indéfiniment au même niveau, il doit toujours évoluer. — Tout ce que tu me dis me paraît incroyablement logique. C’est fascinant ! — Maintenant que tu sais, tu dois savoir quelque chose d’important. Je t’ai contacté, parce que tu viens de créer la technologie qui va accélérer votre processus évolutif. Je veux que vous évitiez de faire les mêmes erreurs que nous au début de l’ère industrielle. Nous avons beaucoup pollué et avons détruit l’environnement de la planète à cause de nos méconnaissances scientifiques. Avec le temps, nous avons réussi à réparer les dégâts grâce à des mesures collectives et technologiques, mais il est plus prudent de prévenir que de guérir. C’est pour cette raison que je voudrais que tu préviennes tes semblables qu’ils doivent faire plus attention à l’environnement que nous. Chaque vie est précieuse dans l’Univers, soyez vertueux. Tu auras beaucoup de renommée grâce à ta découverte, profites-en pour faire passer ce message, mais surtout ne parle pas de ta rencontre, sinon les gens ne te croiront pas. — D’accord, je le ferais, vous pouvez compter sur moi. ******ebook converter DEMO Watermarks*******

— Bien. Maintenant je vais y aller. À bientôt mon ami ! L’être métallique lui lâche la main, puis rentre dans son vaisseau et décolle. Le vaisseau se déplace dans le ciel à une vitesse inimaginable, et paradoxalement de façon aussi silencieuse qu’un léger bruit de courant d’air. Au bout de quelques secondes la lumière du vaisseau ne se voit déjà plus dans le ciel. Slicpok est encore tout fébrile, il n’en revient toujours pas. Cette rencontre lui a totalement retourné l’esprit. — Je n’ai pas eu le temps de te dire au revoir ! À bientôt ? Il m’a dit à bientôt ? Pourquoi ?!

******ebook converter DEMO Watermarks*******

Quatrième partie : Les solutions face aux changements exponentiels

******ebook converter DEMO Watermarks*******

11 - Éducation (partie coécrite avec Leïla Ancelin) « L'éducation ne se borne pas à l'enfance et à l'adolescence. L'enseignement ne se limite pas à l'école. Toute la vie, notre milieu est notre éducation, et un éducateur à la fois sévère et dangereux. » - Paul Valéry

Musique qui correspond à cette partie : Extra Terra - “Sensei” Vous pouvez l’écouter sur Spotify, Apple Music, Deezer ou n’importe quel autre service de musique en streaming.

Ambiance : Douce / Modérée Style : Future Bass Tempo : 176 BPM Pour cette musique j’ai choisi de faire de la « Future Bass », parce que c’est un style très populaire pour la jeunesse. L’ambiance est assez « Jazzy », mélodique et futuriste à la fois.

L’Humanité a toujours eu besoin de transmettre le savoir pour lui permettre de qualifier sa main d’œuvre, lui donner un meilleur statut social et lui garantir de sauvegarder son patrimoine intellectuel. De l’invention du langage aux sciences d’aujourd’hui, l’Homme a parcouru un grand périple dans son évolution. Transférer la connaissance n’a jamais été la tâche la plus aisée, elle a été le fruit de nombreuses tentatives à travers l’Histoire, souvent géré par les États qui se sont succédé. Actuellement, notre société évolue rapidement. On peut observer que les ******ebook converter DEMO Watermarks*******

inégalités d’accessibilité à l’éducation se sont réduites en conséquence : en 2015, 90% des enfants étaient scolarisés à l’école primaire et 65% des adolescents au secondaire (collège-lycée) dans le monde selon l’UNESCO[109]. L’Homme est dans un tournant dans son évolution, or, améliorer son éducation pourrait l’aider face aux défis technologiques, économiques et sociaux auxquelles il est confronté. C’est alors que nous allons voir dans cet exposé ; comment les modèles éducatifs à travers le Monde fonctionnent, comprendre en quoi la transition numérique pourrait révolutionner la manière d’apprendre ainsi rendre très efficace l’apprentissage et analyser différents scénarios de modernisation du système éducatif.

Les modèles éducatifs mondiaux d’aujourd’hui Les modèles éducatifs se sont bâtis avec l’Histoire des pays et leurs économies. Comme les pays n’ont pas vécu les mêmes choses, et leurs économies peuvent être différentes, nous pouvons voir des différences et des similitudes au niveau mondial. De ce fait, l’ODCE (Organisation de coopération et de développement économique) créé en 1948 est une organisation fondée par les pays développés qui ont en commun un système démocratique et une économie libérale[110]. Elle s’occupe de plusieurs domaines d’étude, dont l’éducation. Par conséquent, ils ont développé l’étude PISA (Programme international pour les acquis des élèves) qui mesure les performances des systèmes éducatifs dans le monde. Tous les trois ans à partir des années 2000 des recherches sont menées auprès d’élèves âgés de 15 ans, pour classer 65 pays selon les niveaux de lecture, de mathématiques et de sciences. Grâce à ce classement, certains pays ont revu leur système éducatif. C’est donc devenu une compétition croissante pour être dans les premiers du classement[111]. Partons du pays exemplaire selon le classement PISA : la Finlande, qui se classe dans les dix premiers toutes les années depuis le début du classement ******ebook converter DEMO Watermarks*******

PISA quel que soit le type d’évaluation. Notamment, en 2015, ce pays a été classé 12e en mathématiques, 5e en sciences et 4e en lecture. Les pays en quête d’amélioration, cherche à sonder le système éducatif Finlandais afin de comprendre leur manière de fonctionner. Par conséquent, ils sont habitués à recevoir des touristes étrangers qui viennent assister aux cours pour observer. Qu’est-ce qui fonctionne dans le système éducatif Finlandais ? Les Finlandais se concentrent sur le bien-être de leurs élèves, ce qui passe avant tout. Les structures éducatives sont adaptées notamment l’architecture de l’école, qui rend le lieu lumineux et chaleureux où l’élève s’y sent bien. La pédagogie s’adapte au rythme de l’enfant, ainsi il peut faire des pauses fréquentes, participer à des ateliers non scolaires notamment manuels. Elle s’appuie sur l’équité, c’est-à-dire que l’on traite chacun différemment pratiquant la discrimination positive. Ainsi, ils ont maximum 4h à 6h de cours par jour pendant 5 jours, avec seulement 10 min à 20 min de devoirs par jour. Les ateliers manuels servent également à repérer les qualités de l’élève, et l’enseignant l’aide à les utiliser dans les matières scolaires. L’équipe éducative veut éviter l’inégalité, si le parent par exemple n’est pas capable de pouvoir expliquer la leçon à son enfant. Cela empêche que les élèves prennent du temps sur leur sommeil pour réviser. Les qualités humaines sont mises en avant comme l’empathie, le respect et la bienveillance. Pour pratiquer cela, le professeur principal organise des “cours de nous”. Dedans, ils peuvent comprendre le fonctionnement du groupe, s’exprimer et pratiquer des jeux de rôles permettant de se mettre à la place d’autrui à travers des situations. Le but est d’améliorer l’estime de soi, l’épanouissement et l’entraide des élèves. Ceux-ci travaillent en coopération et sont autonomes, par exemple en étant éduqués sur les fake news. Seulement à partir de 12 ans, ils ont des notes. Les enseignants tiennent à ce qu’ils soient appelés par leurs prénoms, pour avoir une proximité avec les élèves. L’équipe éducative possède une solide formation (5 ans d’étude), avec des cours de pédagogies poussées. Ils sont très valorisés et leur statut est reconnu et respecté. Les professeurs apprennent de leurs élèves qui est leur source d’amélioration constante. Il faut savoir que ce modèle est intéressant même si la Finlande possède ******ebook converter DEMO Watermarks*******

une population faible et relativement homogène comparée à la France ou la Chine. Ce qui est un argument souvent présenté par les états, qui disent que l’appliquer à une grande échelle serait impossible. Comment en sont-ils arrivés là ? Jusqu’au début des années 1970, la Finlande avait un système éducatif élitiste. Les élèves de l’école primaire devaient passer un diplôme important qui déterminait s’ils pouvaient continuer au collège puis au lycée. Ainsi, il y avait plus de 50% de la population qui ne continuait pas les études longues, ce qui conduisait à une société bien inégalitaire. Ils sortirent la réforme du système scolaire, qu’ils appliquèrent progressivement par région. La sélection était complètement abolie. Ils ont pu réaliser une étude qui expliquait que la réforme avait réduit les inégalités de 25%, de surcroît, les inégalités sociales[112]. La Finlande a donc pu sauter le pas, et se réformer pour le bien-être de la population. Ce qui assure que ce pays fait partie des pays les mieux éduqués au monde. Subséquemment, on observe que les plus nombreux à visiter les écoles finlandaises sont les pays asiatiques, qui sont en recherche d’évolution dans leur pratique éducative. Notamment, on peut citer Singapour, la Chine et le Japon. En 2015, Singapour a été classé premier dans toutes les épreuves dans l’étude PISA. Ce pays possède un modèle éducatif très exigeant et intense, différent de la Finlande. Le gouvernement met beaucoup de moyens à former ces enseignants et les salles de classe sont high-tech. On peut y voir certains outils technologiques qui sont à disposition au professeur et à l’élève. Une journée de cours se dispose ainsi : les élèves commencent les cours à 7h30 soit plus tôt qu’un élève européen. Le nombre d’heures de cours est similaire au système français qui peut aller jusqu’à 35h de cours par semaine soit 8h par jour, sachant que les enseignants donnent des devoirs. Il y a également un recours massif au soutien scolaire dont souscrivent 60% des élèves du secondaire et 80% des élèves de l’école primaire où ils suivent minimum 3 heures de cours par semaine. Ce domaine pèse 1 milliard de dollars par an, qui est devenu une source de revenus très attractive pour les professeurs du monde entier. ******ebook converter DEMO Watermarks*******

De nombreux enseignants singapouriens du système public (Ministry of Education MOE) migrent vers ces écoles privées, pour y avoir de meilleures conditions de travail et de rémunération. En travaillant à la fois dans le public et le privé, le professeur ne peut pas dispenser plus de 6 heures de cours de soutien scolaire par semaine. Ce qui cause une pénurie d’instituteurs du primaire étant une réelle problématique[113]. Dans ce système, tout repose avant l’âge de 12 ans. De ce fait, les écoliers passent l’examen de fin d’études (PSLE), qui préconise l’accès aux meilleurs collèges et universités singapouriennes. Cette façon de procéder accroît l’inégalité. Le stress de la réussite est tellement grand que le taux de suicide chez les jeunes singapouriens est élevé. Il est par contre impossible de trouver des chiffres exacts concernant cette information[114]. Le gouvernement ayant conscience de l’impact des notes sur la vie de la population Singapourienne a décidé dès 2021 d’instaurer une notation par lettre plutôt que par chiffre. Les systèmes éducatifs chinois et japonais sont plus ou moins similaires à celui de Singapour. En France, notre système éducatif n’a pas évolué depuis l’ère industrielle. Les nombreux gouvernements se cassent les dents, en réformant la surface d’une énorme machine à produire des diplômés dans un même moule. Nous sommes assez réfractaires au changement. Céline Alvarez, linguiste de formation, a tenté une nouvelle forme de pédagogie, qui allie pédagogie Montessori, jeux de réflexion et le contenu éducatif. Elle prend en compte également la neuroscience, ayant collaboré avec Stanislas Dehaene. Cette mise en pratique a récolté ses fruits. L’éducation nationale a décidé sans raison d’arrêter ce type de pratique pédagogique dans l’incompréhension[115]. Comment avons-nous mis en place ce type de système ? C'est au lendemain de la Révolution française en 1789 que les principes d'une instruction commune à tous ont été posés. Le système éducatif était également réparti en trois niveaux : le primaire, le secondaire et le supérieur, une division qui existe toujours aujourd'hui. Plus tard, Napoléon a donné le monopole du système éducatif à l'État, et c'est de son règne que datent certaines des grandes écoles structurées selon le code militaire, telles que Polytechnique. Avec Jules Ferry (1881-1882), sous ******ebook converter DEMO Watermarks*******

la IIIe république, l'école a été rendue obligatoire et gratuite, ainsi que laïque, ce qui signifie que son enseignement et son environnement n'admettent pas la manifestation de dogmes religieux. Le Brevet et le Baccalauréat sont des diplômes qui permettaient de travailler dans les années 70. Aujourd’hui, cela ne suffit plus. Même un bac+3, bac+5 et bac+8 peut ne pas trouver de travail. L’objectif du gouvernement est de promouvoir le Baccalauréat avec 100% de réussite, qui est un objectif purement politique sans fondement réel. Son impact a été l’accès de masse pour les études supérieures. En 1967, seulement 40,8% des bacheliers avaient leur bac et la garantie de trouver un travail[116]. La réforme du nouveau bac en 2021, créé par le ministère de Jean Michel Blanquier, assure proposer un Baccalauréat « flexible » avec trois spécialités et un tronc commun. Chaque lycée doit proposer 7 spécialités sur les 12[117]. Conséquence directe : des élèves se retrouvent à faire des spécialités dans deux lycées différents. Préparer les emplois du temps pour chaque élève avec le trajet d’un établissement à l’autre, n’est pas une mince affaire. Les parents se battent pour rester dans les lycées qui proposent les spécialités les plus convoitées. Autre conséquence : les mathématiques ne sont plus proposées dans le tronc commun, mais seulement en spécialité. Ce qui veut dire qu’un élève qui ne souhaite pas faire des mathématiques poussées aura un niveau de mathématiques de seconde. Ce n’est pas une bonne nouvelle, dans une société qui va de plus en plus vers le numérique. Nous avons besoin de mathématiciens qui nous aident à créer de nouveaux modèles pour l’Intelligence artificielle. Dernier point : Ce Baccalauréat se base pour l’évaluation en partie sur du contrôle continu. De ce fait, il n’y a plus d’épreuves de sports et des matières du tronc commun, hormis le français et la philosophie. L’épreuve de bac ne compte plus que les épreuves des spécialités, le français, la philosophie et le Grand Oral. Ce qui peut poser problème, c’est que l’on donne du poids à la notation d’un prof. À savoir d’un professeur à un autre on peut avoir un écart de 5 points ce qui est énorme. Comment avoir une mention, si le prof de langue ne ******ebook converter DEMO Watermarks*******

met pas plus de 12 à sa classe, considérant que c’est une bonne note ? La notation est très subjective. Dans les formations à l’ESPE, il n’y a aucun cours sur la neuroscience. Comment enseigner si nous ne comprenons pas nos élèves ? Comment fonctionnent-ils ? Les cours de pédagogie sont une approche plus « psychologique » de comment il faudrait présenter aux élèves des notions de cours. Il n’y a rien de scientifique, pourtant avec toutes les découvertes sur la mémoire, l’attention et le rythme d’un être humain[118].

Quelle est l’alternative ? Avec autant de systèmes éducatifs inégalitaires, de plus en plus de parents se tournent vers des écoles alternatives qui présentent des formes de pédagogies différentes issues de l’éducation nouvelle[119]. Les plus connus sont les écoles Montessori, Freinet, Steiner-Waldorf. Elles présentent des différences dans leurs pratiques pédagogiques, mais s’appuient sur le même postulat, celui que l’enfant est capable de pouvoir ressortir le meilleur de luimême avec un bon accompagnement pédagogique. Les notations n’y sont pas en vigueur, plutôt dans l’évaluation de ce qui n’est pas acquis et acquis. Ce sont des écoles hors contrat avec l’état où les familles assurent le paiement, qui n’est pas une somme négligeable, donc peu de gens peuvent les intégrer. La pédagogie Montessori a été fondée par Maria Montessori, en 1907. Elle se base sur l’éducation sensorielle de l’enfant, s’appuyant sur un matériel sobre que l’élève peut manipuler. Il est libre de circuler dans la classe, en allant d’atelier à atelier, et en étant guidé par le professeur. Il existe 35000 établissements dans le monde, dont quelques milliers aux États unis[120]. Malheureusement, dans ce genre d’école, ils ont tendance à trier les élèves selon leur niveau et ils doivent pouvoir payer un prix assez important. Mais Céline Alvarez est d’ailleurs connue pour avoir réadapté la pédagogie Montessori, à une classe dans une zone prioritaire, où elle a obtenu des résultats dépassant ses espérances, montrant ainsi que sa méthode est efficace – même si celle-ci prête encore à débat. Développée par Célestin et Elise Freinet, la méthode Freinet est une pédagogie basée sur l’expression libre des enfants. Les élèves peuvent s’exprimer à travers le dessin et l’écriture. Du matériel est fourni en ******ebook converter DEMO Watermarks*******

conséquence. Le travail de coopération est également très présent. Ce type d’école est plutôt rare. La pédagogie Steiner a été créée par Rudolf Steiner en 1919, destinée aux enfants de 0 à 21 ans, est présente principalement en Europe, aux États-Unis et en Allemagne. Il existe 1092 écoles dans le monde[121]. Ces écoles placent la créativité et les activités artistiques au centre de leurs pratiques éducatives, avec une philosophie ésotérique. Notamment ils pratiquent l’eurythmie, une danse ésotérique à chaque début de cours. Le chant, le dessin et l’expression orale y sont pratiqués dans chaque matière. Toute technologie est interdite en classe comme les tablettes et l’ordinateur. Ce type d’école plaît plus particulièrement aux parents travaillant à la Silicon Valley où un tiers de ces écoles se trouvent en Californie[122]. Ces écoles-là ne sont pas les seules à essayer d’innover dans leurs pratiques pédagogiques. Il y a l’école Sudbury-Valley, créée en 1969, venant des États-Unis. Dans ce type d’école, les élèves sont libres de se fixer leurs propres objectifs en s’y consacrant sans limites de temps. Ils n’ont pas de programme scolaire imposé. Ils ont plus de 40 écoles dans le monde principalement aux États-Unis. Le multiâge est très présent, permettant que les plus âgés transmettent leurs connaissances aux plus jeunes. Les écoles démocratiques en France se sont inspirées du concept Sudbury. Ils font confiance à la curiosité naturelle de l’enfant en concevant que tous les enfants ont soif d’apprendre, en leur imposant ni programme scolaire, ni activité. Le jeune peut s’ennuyer, flâner, ne rien faire ou faire ses passions. L’enfant doit demander une activité spécifique pour que l’éducateur puisse essayer de trouver quelqu’un qui voudrait intervenir dans l’école. Ces éducateurs ne sont pas des professeurs pour la plupart, mais plutôt des personnes intéressées de travailler dans ce type d’école. Le personnel n’est donc pas forcément qualifié ou avec de l’expérience. Néanmoins, leur système de fonctionnement démocratique pour la résolution de conflit est très intéressant. Il utilise un système de justice où chacun peut se justifier et voter la sanction. L’adulte partage le pouvoir avec l’enfant, ainsi chacun possède une voix, qui influence le fonctionnement de l’école (mise en place d’atelier, achat de matériel, horaires…). Cela responsabilise les membres (on ne les appelle pas ******ebook converter DEMO Watermarks*******

“élèves” à l’école démocratique) en prenant des décisions pour leur quotidien. Ce genre d’école plaît notamment beaucoup aux enfants qui font du burn out ou qui ne se sentent plus à l’aise avec le système éducatif classique. Pas mal de jeunes de ces écoles démocratiques de quelques mois à quelques années dans l’école préfèrent réintégrer le système classique. Ce genre d’école ne convient pas à tout le monde[123]. Des personnalités connues se sentent aussi concernées de l’éducation de leurs enfants. C’est le cas d’Elon Musk, qui a pris le devant pour ses enfants, en créant l’école Ad Astra. Il estime que l’éducation traditionnelle n’est pas suffisante pour épanouir ses enfants. L’école Ad Astra, est réservée aux enfants de 8 à 14 ans notamment des enfants du personnel de SpaceX et d’autres horizons. Il faut avoir accompli des projets personnels, être curieux et avoir une soif d’apprendre sur les sciences. L’école se trouve sur le campus de SpaceX, et les cours seront possibles d’être suivi gratuitement en ligne. Il n’y a pas de notes, et les élèves travaillent sur les projets qui les intéressent : cryptomonnaie, robotique… Si une matière ne leur plaît pas, ils peuvent l’abandonner. Chaque élève est équipé d’un Mac. Il n’y a pas de langues étrangères, de sports… Les sciences sont privilégiées. Cette école, avec ses critères de sélection, prend principalement des hauts potentiels[124].

Vers une éducation numérique Nous sommes en pleine transition numérique même si elle est inégale dans le monde. 1,5 milliards de smartphones ont été vendus en 2017 dans le monde[125]. Et ce nombre ne cesse d’augmenter. Le marché est en plein essor. Internet est accessible par près de 4 milliards d’individus sur Terre[126]. En Afrique, ils possèdent un smartphone et vivent dans un bidonville. Ils accèdent à internet via les opérateurs mobiles[127]. Ce moyen de communication relie le monde. Le développement des startups dans le monde est également en plein essor. Ces équipes cherchent à résoudre des problèmes liés à l’environnement, aux soins et à l’éducation[128]. Nous appelons ce type d’entreprise Edtech, qui allie nouvelles technologies et éducation. Fabrice Moizan, responsable du cluster français EducAzur a dit : « Les entreprises qui feront l’éducation de demain, ce sont les startups »[129]. Le rythme d’une startup qui se disrupte est bien plus rapide qu’un système d’éducation ******ebook converter DEMO Watermarks*******

gouvernemental. Étant donné la démocratisation des outils numériques, les Edtechs ont un bel avenir. Nous retrouvons toutes sortes d’Edtechs : dans la réalité virtuelle, la réalité augmentée, vidéo en 3D, application de quiz, gamification de l’éducation, l’intelligence artificielle… Toutes sortes d’outils qui permettront la personnalisation de l’éducation et faire monter l’intérêt de l’élève. BpiFrance recense plus de 500 startups, dont la moitié positionnée sur les marchés du scolaire et l’autre moitié sur les marchés professionnels et personnels[130]. Malheureusement, les personnes à l’initiative de ces startups sont pour la plupart sorties d’HEC ou d’école de commerce. Peu de professeurs se sentent concernés par ce type d’initiative malheureusement. La plupart des équipes manquent d’ailleurs de ce corps de métier qui est indispensable lorsque l’on crée une application éducative. Les professeurs seront les personnes qui devront le plus s’adapter aux produits EdTechs. Étant donné la crise identitaire du métier, la plupart des professeurs manifestent pour avoir un meilleur salaire. Ils possèdent une situation précaire, ils ne pensent pas à créer des startups. Ils n’ont jamais été formés pour. Il faut également démissionner de l’Éducation nationale pour entreprendre. Il est interdit d’enseigner et d’avoir une entreprise à côté. De ce fait, nous encourageons les professeurs à se lancer dans des projets éducatifs et à créer.

L’avenir appartient aux autodidactes Est-ce que les diplômes serviront toujours ? Le modèle traditionnel faisait en sorte de nous assurer l’accès à l’emploi dès le diplôme obtenu. Mais cet ancien paradigme est aussi en train de changer, et nous commençons tous à le constater. Aujourd’hui, la garantie d’avoir un emploi avec un diplôme prestigieux semble de plus en plus difficile. Obtenir un diplôme augmente bien évidemment les chances de décrocher un emploi, mais cela en devient de moins en moins une certitude. L’école commence à perdre progressivement son pouvoir de transfert de la connaissance. Plus grave encore, l’école serait devenue un endroit de formatage intellectuel. Les institutions scolaires brident la créativité et le ******ebook converter DEMO Watermarks*******

potentiel de chaque individu. C’est un suicide intellectuel, surtout face au Nouveau Monde qui se profile. L’école cloisonne les esprits, et les enferme dans un schéma bien spécifique, qui ne colle plus du tout à notre époque. Dans un monde où tout bouge très vite, il faut des esprits capables de s’adapter rapidement à n’importe quelle situation. Et, les autodidactes sont les seules qui peuvent arriver à sortir de ce schéma pré-établi. Les gens qui sont bien adaptés à l’ancien système seront morts professionnellement demain, parce qu’ils n’ont jamais été stimulés à penser autrement. La connaissance est aujourd’hui disponible très facilement et en abondance partout sur internet. Avec Google Books, vous pouvez accéder en seulement quelques clics à des millions et des millions de livres numérisés. Avec Wikipédia, vous pouvez accéder à une bibliothèque encyclopédique d’une taille titanesque. Avec Pubmed, vous pouvez accéder à des millions d’études biologiques et médicales. Grâce à internet vous pouvez accéder à des archives ou des publications sur tous les sujets : juridique, académique, météorologique et historique. Chaque jour, cette connaissance s’accumule sur internet, vous permettant ainsi d’être au courant de toutes les dernières nouvelles dans tous les domaines. Internet est la première cause de la perte du pouvoir de l’école. N’importe qui peut se former à n’importe quel sujet. Grâce aux MOOC (Massive Open Online Courses), vous pouvez accéder à des formations dans presque tous les domaines. OpenClassrooms, une startup française, vous offre même la possibilité de devenir ingénieur en suivant des MOOC en ligne, avec des diplômes reconnus par l’état. Certaines universités ou grandes écoles comme le MIT ou Stanford ont compris ce pivotement de l’apprentissage. Ainsi, elles proposent des cours gratuitement en ligne dans le monde entier, sur des plateformes comme Coursera. Cerise sur le gâteau : ces universités ont remarqué que les étudiants qui assistaient aux cours en ligne avaient de meilleurs résultats que ceux qui étaient présents physiquement. Il y a encore 30 ans si vous vouliez écrire un livre, il fallait se rendre dans une bibliothèque pour chercher toutes vos sources d’informations. À cette époque, c’était tout un art de chercher les documents les plus appropriés. L’écriture d’un livre était bien plus longue et fastidieuse que maintenant ! Avec internet vous pouvez accéder à n’importe quelle source en seulement ******ebook converter DEMO Watermarks*******

quelques clics. En écrivant ce livre, j’ai moi-même utilisé internet, autant pour télécharger des livres, que pour des vidéos ou des publications académiques. Aux États-Unis, The Thiel Fellowship, un fonds d’investissement fondé par Peter Thiel (un des cofondateurs de Paypal), propose même 100 000 dollars aux étudiants prêts à laisser tomber leurs études pour suivre des expériences entrepreneuriales. Thiel a compris qu’il est maintenant possible de se former à tout de façon autodidacte sur internet. Il a compris qu’il faut s’écarter de la dogmatisation de l’école, pour aller plus loin et penser d’une façon différente. Même Elon Musk, le patron de Tesla, SpaceX, Neuralink, embauche les talents en fonction de leurs compétences et non pas en fonction des diplômes dans ses entreprises. Il cherche des vrais passionnés qui veulent travailler pour construire le futur. Les diplômes sont secondaires pour lui – il a d’ailleurs lui-même appris une grande partie de son savoir de façon autodidacte. Et pourtant, regardez jusqu'où Tesla et SpaceX sont arrivés. Sans oublier les personnes qui ont changé le monde sans même avoir le BAC - comme Albert Einstein. Raison d’ailleurs pour laquelle il a dû aller à l'école polytechnique de Zurich. Seule école en Europe qui acceptait les élèves sans BAC. Einstein était très mauvais élève et il a même arrêté ses études en cours de route. Il a passé son doctorat en autodidacte. Il est évident que le système éducatif ne collait pas à son tempérament. Les capacités scolaires ne veulent rien dire sur la réussite d'une personne dans la société. Einstein en est le parfait exemple. C’est sa motivation à vouloir comprendre l’Univers qui l’a poussé aussi loin, et non pas ses diplômes. Est-ce que ça signifie que tout le monde sera autodidacte dans le futur ? Non. Les médecins ou les avocats auront toujours des diplômes, pour pouvoir exercer. Peut-être que dans un avenir proche, la nature même des diplômes aura changé. Mais, nous n’irons plus voir le médecin pour sa connaissance, mais plutôt pour ses compétences et son empathie. Nous pouvons déjà accéder à des connaissances médicales sur internet, mais nous continuons à consulter le médecin, parce qu’il a l’expérience et les compétences. Un bon médecin est une personne capable de traiter et de comprendre correctement les connaissances acquises. Du moins, jusqu’à que ces compétences se déplacent vers l’IA. Mais nous avons encore un peu de temps avant d’arriver ******ebook converter DEMO Watermarks*******

à des systèmes experts 100% autonomes. Si l’école veut garder sa place dans le Nouveau Monde, elle devra s’y adapter. Dans les prochains temps, l’intelligence artificielle fera mieux que les meilleurs techniciens. Mais, au lieu de former des techniciens, l’école ferait mieux d’apprendre aux gens à apprendre. Ce qu’elle ne fait pas. Et concernant l’apprentissage, les autodidactes sont les mieux placés pour comprendre comment apprendre. L’école n’apprend que très peu aux gens la multidisciplinarité, la créativité, la transversalité, le travail d’équipe, l’esprit critique ou encore le développement de l’intelligence collective. Des attributs qui prendront encore plus en importance dans les prochaines décennies.

Comment les neurosciences aideront à éduquer le cerveau biologique et de surcroît le cerveau de silicium ? La neuroscience est une science récente, apparue dans les années 1960 où le développement des programmes informatiques a commencé à apparaître. On a initialisé les prémices de la découverte du cerveau et de son potentiel. Elle mélange plusieurs disciplines : la psychologie, la neurologie, la psychiatrie, la physiologie… On distingue deux méthodes essentielles : -

Une approche bottom-up qui étudie les parties du système nerveux pour comprendre le fonctionnement de l’ensemble.

-

Une approche top-down qui étudie les manifestations extérieures du fonctionnement du système nerveux pour en comprendre son organisation et comment il procède.

Elle est essentiellement pour nous comprendre, et aussi comprendre comment la conscience artificielle peut émerger de l’informatique cognitive. La recherche en neuroscience pour l’éducation s’appelle la neuroéducation. Il y a eu des découvertes, qui pourraient aider à révolutionner notre façon d’enseigner. De 0 à 6 ans, les enfants possèdent une plasticité massive. Plusieurs ******ebook converter DEMO Watermarks*******

millions de synapses se créent chaque seconde. Dans cette période, nous sommes de véritables éponges. Notre cerveau commence à se spécialiser petit à petit, en fonction de nos stimulus. Notre attention est sélective, car notre cerveau consommerait beaucoup trop d’énergie. Il est optimisé de sorte qu’il puisse tenir avec l’énergie chimique que nous fabriquons en mangeant. On appelle cela la cécité attentionnelle. Les bébés ont des intuitions en arithmétique, leur mesure d’attention est plus grande en cas d’erreur de calcul. Par contre, la lecture ne possède pas de zones dédiées. Notre cerveau a recyclé des circuits anciens. Il se sert d’une région des aires visuelles pour reconnaître des lettres. D’où l’écriture “miroir” que l’on peut avoir lorsqu’on apprend à lire et écrire qu’il faut désapprendre. L’enfant doit associer les graphèmes (l’écrit visuel) au phonème (le son associé). On dénombrerait quatre piliers : l’attention, l’engagement actif, l’engagement d’erreur et la consolidation. La consolidation se gagne avec le sommeil et la répétition de la tâche. Les enfants des milieux défavorisés n’ont pas la même réponse au stimulus de l’attention que les autres (1/10s). L’environnement étant plus instable et moins prévisible, cela peut affecter le cerveau. Les neurosciences ont donné des outils pour combler ce déficit d’attention. Des techniques ont été développés, par exemple celle qui fait marcher les enfants le long d’une corde sans se déconcentrer. Après huit semaines avec des exercices de ce type, ils ont pu retrouver une attention de 1/10s comme les autres. Avec des techniques appropriées grâce à la neuroscience, nous pouvons combattre ce genre d’inégalité. Le cerveau fonctionne à l’apprentissage essai-erreur. Il se corrige sans cesse en regardant le modèle corrigé, pour modifier sa trajectoire. Les méthodes les plus efficaces sont lorsque l’engagement est actif, c’est-à-dire que les élèves expérimentent et recherchent des choses. Les récompenses personnalisées activent le circuit de la récompense dans le cerveau, qui favorise la libération des hormones du plaisir. Les élèves ne peuvent donner que 15 min d’attention prolongée. Après cela le cerveau peut automatiquement se distraire même une fraction de seconde. Le cerveau a également besoin d’une alternance de poses régulières et de sessions de ******ebook converter DEMO Watermarks*******

travail stimulantes pour mieux apprendre. Ferions-nous apprendre de la même manière à un cerveau biologique qu’à un cerveau artificiel ? Je pense que des méthodes similaires peuvent être employées. Savoir-faire apprendre est la compétence clé pour le développement de l’être humain et de l’intelligence artificielle. Il faudrait concevoir des modèles architecturaux ressemblant au cerveau humain, pour y employer les mêmes techniques d’apprentissage. À un certain stade, les machines pourront s’éduquer seules et changer leur structure cérébrale. Nous pourrons ainsi les étudier et transposer cela à nousmêmes. En se développant, les machines pourront nous en apprendre plus sur nous-mêmes que nous le faisons déjà. Elles peuvent trouver des logiques d’apprentissage que nous n’imaginons même pas. Cela ouvre des perspectives vertigineuses.

Éducation de demain Dans les décennies à venir, l’école va subir beaucoup de chamboulements. En effet, le mode d’apprentissage va totalement changer. L’émergence des BMI (Brain Machine Interface) ou Interface HommeMachine, vont permettre aux personnes désireuses d’apprendre de télécharger en quelques minutes le savoir dans leurs cerveaux. Le numérique n’est pas non plus la solution miracle, mais il va indéniablement changer le domaine de l’éducation. Ajoutons également qu’aujourd’hui l’apprentissage de l’IA explose alors que l’école n’a pas vraiment changé depuis l’antiquité. L’école devra donc former les enfants à devenir complémentaire de l’IA, ce qu’elle ne fait pas aujourd’hui, et elle devra arrêter de former les jeunes à des métiers qui n’existeront plus dans quelques décennies. L'avenir de l'éducation sera l'autoapprentissage assisté par l'IA. Choisissez un sujet d'étude, puis un programme personnalisé sera généré par une IA à partir des données les plus pertinentes du web. La notation sera automatisée et les chatbots formés à l'expertise du domaine guideront les étudiants tout au long de leur parcours 24h/24 et 7j/7. Comme nous l’avons vu précédemment, Elon Musk avec son entreprise Neuralink, va lancer le premier prototype d’interface neuronale sur le marché, dans un premier temps pour les personnes ayant des problèmes d’Alzheimer ******ebook converter DEMO Watermarks*******

et les tétraplégiques. Le temps que la FDA (Food and Drugs Admnistration) approuve ce type de technologie, nous devrions l’avoir pour le grand public dans la décennie[131]. Les startups fleurissent sur ce domaine[132]. Cela pose la question du devenir des professeurs, dans le sens où leur métier va complètement changer. Dans un avenir plus lointain, le professeur deviendra un coach éducatif, guidant l’élève dans sa démarche d’apprentissage. Le professeur validera également le savoir appris via les interfaces neuronales. L’orientation également deviendra le pilier du métier de professeur, il guidera les élèves en fonction de son profil psychologique – qu’il aura de façon détaillée grâce à l’IA, et l’aidera à détecter son potentiel. Sur le très long terme, faire apprendre ne servira plus à rien, ce sera considéré comme une technique de l’ancien temps. Il y aura bien entendu une minorité de personnes qui souhaiteront garder l’ancien système d’éducation. Mais cela sera très dur d’être compétitif face aux machines. Le système éducatif va devoir s’y préparer dès maintenant. De ce fait, le professeur de demain devra apprendre de nouvelles compétences éducatives : neurosciences, coaching, orientation et devenir complémentaire de l’IA...

******ebook converter DEMO Watermarks*******

12 - Garder le contrôle de l’IA « Le principal avantage de la technologie blockchain, c'est qu'elle est censée être plus sûre, mais les gens ont généralement du mal à faire confiance aux nouvelles technologies, et ce paradoxe ne peut pas vraiment être évité. » - Vitalik Buterin

Musique correspondante à cette partie : Extra Terra - “Blockchain” Vous pouvez l’écouter sur Spotify, Apple Music, Deezer ou n’importe quel autre service de musique en streaming.

Ambiance : Très énergique / Cyberpunk Style : Electro Tempo : 90 bpm Pour cette musique j’ai beaucoup été inspiré par l’univers du jeu vidéo Cyberpunk 2077. Je suis un grand fan de ce type d’ambiance. Même si je pense que l’avenir ne sera pas aussi dystopique que celui imaginé par ce genre particulier de la science-fiction, je trouve lui trouve un charme et une certaine beauté.

Les lois d’Asimov ne sont pas suffisantes Les trois lois de la robotique formulées par le célèbre écrivain de sciencefiction Isaac Asimov et son ami John W. Campbell, dans la nouvelle Cercle Vicieux publiée en 1942, donnent les premiers éléments éthiques devant régir le comportement d’un robot. 1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger ; 2. Un robot doit obéir aux ordres qui lui sont donnés par un être ******ebook converter DEMO Watermarks*******

humain, sauf si de tels ordres entrent en conflit avec la première Loi ; 3. Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième Loi. Cependant, ces lois ont montré à plusieurs reprises leurs limites, notamment dans les films de science-fiction, ou les romans qui ont été inspirés par ces lois. Asimov était parfaitement conscient des limites de ses trois lois, d'autant qu'il les avait conçues de manière à profiter de leurs faiblesses – afin de les utiliser à des fins scénaristiques. C’est pour cette raison qu’une ultime loi s’est ajoutée plus tard dans la suite du Cycle des Robots, la “loi 0”, impliquant d’ailleurs des potentialités de contradictions qui complexifient la prise de décision selon le contexte dans lequel se trouve le robot : 0. Un robot ne peut par son action mettre l’humanité en danger, ni, restant passif, laisser l’humanité en danger. Les Trois Lois sont donc modifiées de cette manière : 1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger, sauf contradiction avec la Loi Zéro ; 2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première Loi ou la Loi Zéro ; 3. Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième Loi ou la Loi Zéro. Malheureusement, je pense que ces lois symboliques ne sont pas suffisantes et je pense qu’en plus de ces lois nous devrions rajouter les 5 lois d’Andra Keay, chercheuse dans le domaine de la robotique. 1. Les robots ne doivent pas être utilisés comme des armes : il nous sera impossible d’éviter ce phénomène, mais nous devons tenter de le limiter. ******ebook converter DEMO Watermarks*******

2. Les robots doivent se conformer aux lois, notamment celles sur la protection de la vie privée. 3. Les robots sont des produits : en tant que tels, ils doivent être sûrs, fiables et donner une image exacte de leurs capacités. Je suis d’accord en partie sur cette loi, les robots doivent être considérés comme des produits seulement dans le cas où ils ne sont pas dotés de conscience artificielle. ⬛ ⬛

4. Les robots sont des objets manufacturés : l’illusion créée (la capacité à reproduire des actions et des émotions) ne doit pas être utilisée pour tromper les utilisateurs les plus vulnérables. 5. Il doit être possible de connaître le responsable de chaque robot : si un robot vient nous servir du café là, tout de suite, nous devons savoir qui est le responsable de ce robot. Peut-être avec un insigne sur le robot qui indique qui est le responsable. Il y a un besoin de transparence à ce niveau-là. En plus des lois d’Asimov et celles d’Andra Keay sur les robots, j’aimerais en rajouter quelques-unes pour les IA. 1. Il faut que les IA qui communiquent entre-elles, puissent le faire dans un langage compréhensible pour les humains : nous étions totalement dépassés par les événements lorsqu’en 2017 deux IA de Facebook ont communiqué dans un langage qu’elles ont créé elles-mêmes. Les IA préfèreront communiquer avec leur propre langage, c’est une évidence, le langage humain est trop lent et prête souvent à confusion. Les IA agissent dans un monde différent du nôtre, elles ont besoin d’avoir un langage qui correspond à leur espace-temps. Nous devons donc faire en sorte de créer des outils qui nous permettront de comprendre ce que les IA échangeront entre elles. Il est nécessaire de mettre des limites en imposant un langage unique aux IA, soit nous devons créer des IA qui seront spécialisées dans le décryptage du langage des autres IA. Il faudra fournir des toolkits aux IA pour créer des formes de communications plus simples et éviter les problèmes de compréhension avec les humains.

******ebook converter DEMO Watermarks*******

2. Il faut créer des IA spécialisées dans la régulation d’autres IA sur un réseau décentralisé : si une IA commence à montrer un dysfonctionnement, une autre IA pourrait le détecter et désactiver son nœud (node) sur le réseau décentralisé. 3. Il faut faire des vérifications et des validations par des humains avec des contrôles hiérarchiques : si une IA développe un programme ou si elle crée une autre IA sur le réseau, les humains doivent garder le contrôle sur ce qu’elles font. Il faudra donc valider les actions des IA, pour éviter toute perte de contrôle. Dans le pire des cas, nous pourrons toujours désactiver les nœuds manuellement sur le réseau. Dans les faits, l'ajout de règles supplémentaires ne résout pas totalement les problèmes, mais réduit considérablement les risques.

La décentralisation du pouvoir est importante Il y a seulement 10 ans, les entreprises les plus puissantes du monde étaient des compagnies pétrolières et des banques. Maintenant ce sont celles qui détiennent nos données. Pour valoriser au maximum les données, les GAFAMI et les BATX se sont lancées dans la course à l’IA. Grâce à cette technologie, une nouvelle opportunité commerciale s’est profilée pour maximiser les revenus publicitaires de ces entreprises et leur donner un grand pouvoir sur nos vies. Nous avons cependant un moyen de décentraliser ce pouvoir grâce à la technologie blockchain. En principe considéré comme une technologie réputée inviolable, de stockage et de transmission transparente et décentralisée de données. L’avantage de cette technologie c’est qu’elle ne nécessite pas de contrôle central et permet, en fonction de ses applications, de se passer des intermédiaires certifiants, comme les banques par exemple. Les applications de la blockchain sont vastes, mais la plus connue est celle de l’utilisation des cryptomonnaies, comme le Bitcoin ou l’Ethereum, des monnaies virtuelles cryptographiques, qui sont réputées presque invulnérables aux attaques informatiques. Pourquoi ? Parce que toute la communauté qui héberge une ******ebook converter DEMO Watermarks*******

cryptomonnaie la contrôle, la surveille et valide les demandes de transactions sous forme de blocs. Les domaines d’applications de la technologie blockchain et des cryptomonnaies sont très variés : santé, finance, jeux vidéo, assurance, humanitaire, sécurité, éducation... Des startups ont par exemple émergé pour proposer de mixer blockchain et génomique[133], comme la startup Nebula, dont le but est de séquencer le génome. Les laboratoires de recherche peuvent ainsi récupérer ces données et payer les utilisateurs avec les tokens (jetons) achetés à l’entreprise. De cette façon, nous pouvons nous diriger vers un modèle qui monétise les données de santé. Nebula n’est qu’un exemple, d’autres startups dans ce domaine commencent à fleurir comme LunaDNA par exemple. Le produit de la blockchain est un token. Il peut constituer une portion d’un brevet, d’un certificat d’authenticité, d’un label, d’une option d’achat, d’un service… Ce jeton peut être conçu et personnalisé par chaque entreprise pour intégrer une micro-valeur de l’entreprise et en fixer les règles (qui peut miner, taille d’un bloc, etc…). Pour les startups, ce jeton permet aussi de faire des levées de fond. Dès lors qu’une startup propose une levée de fond autour de son token, ce dernier devient l’équivalent d’une cryptomonnaie. On parle d’ICO par analogie avec IPO (pour introduction en bourse). L’ICO est un peu le cousin du crowdfunding. En général, cela permet vraiment de voir directement si l’idée du produit en question plaît aux utilisateurs. Si l’objectif de l’ICO n’est pas atteint, le projet est avorté. En soit, le système blockchain est totalement décentralisé, mais il peut arriver que certaines startups développent des blockchains fermées et centralisées dans les mains d’une autorité. Ce qui pourrait être un peu dérangeant dans le cas du contrôle des données. Pour garder le contrôle de nos données, nous devons donc faire en sorte de les préserver sur des systèmes décentralisés et les technologies qui ressemblent à la blockchain semblent être une bonne solution.

Blockchain + IA = solution ? L’IA est pour l’instant une technologie d’exploitation centralisée des données. Mais comment concilier décentralisation des données utilisateurs et ******ebook converter DEMO Watermarks*******

apprentissage centralisée d’algorithmes d’apprentissage ? Et ainsi lutter contre la puissance des GAFAMI et BATX ? Un début de piste intéressante : SingularityNET. Ben Goertzel, un chercheur américain dans le domaine de l’IA, a levé l’équivalent de 36 millions de dollars en tokens en 1 minute, pour sa startup SingularityNET. Son ambition avec ce projet est de combiner l’intelligence artificielle avec la blockchain pour créer un marché ouvert et décentralisé pour les IA. De cette façon, n’importe qui pourrait monétiser ses algorithmes. Tout entreprise, organisation, développeur serait en mesure d’acheter et de vendre des algorithmes, ce qui en réduirait par prolongement les coûts et augmenterait les capacités des IA. Concrètement, n’importe qui aura le droit de déposer en ligne le code de son IA SingularityNET, puis de notifier les membres du réseau du dépôt. Chaque algorithme est ensuite noté et classé, un peu à la façon des recommandations dans Amazon ou Booking. Contre paiement vous pouvez accéder à un système peer to peer (comme un torrent), mais hébergé sur une blockchain fiable, non piratable qui valide les transactions. Avec ce système, il serait presque impossible de pirater des IA. Pour l’instant le projet fonctionne uniquement sur des IA faibles, mais l’ambition finale du projet est d’arriver à développer des AGI sur le réseau SingularityNET, et ce, d’ici moins de 10 ans. Oui, c’est très sérieux et Goertzel a expliqué dans plusieurs interviews comment il compte s’y prendre !

******ebook converter DEMO Watermarks*******

13 - Boostez votre créativité « Attendez-vous à l’inattendu ou il ne surviendra jamais. » - Héraclite

Musique correspondante à cette partie : Extra Terra - “Creativity Boost” Vous pouvez l’écouter sur Spotify, Apple Music, Deezer ou n’importe quel autre service de musique en streaming.

Ambiance : Très douce Style : Ambient / Soundscape Tempo : La durée de cette musique est de 10 min, afin de vous permettre de faire une petite méditation et vous relaxer. La musique a été faite sous forme de « cycles » qui augmentent en crescendo au fur et à mesure que le temps passe. Dans cette partie, je vais vous donner des conseils pour optimiser et augmenter votre créativité. Ce sont des choses que j’applique moi-même dans ma démarche créative au quotidien. J’espère que ces conseils pourront aider les entrepreneurs, les musiciens, les graphistes ou n’importe quelle personne amenée à devoir optimiser son imagination et sa créativité. Mais surtout la créativité, qui est l’un de nos derniers atouts pour rester compétitif face à l’IA. Les profils créatifs seront de plus en plus recherchés dans le monde du travail. 1) Cassez votre routine et changez vos habitudes Évitez de faire tous les jours la même chose à la même heure. Casser sa routine est très important pour optimiser sa créativité. Il faut toujours que le cerveau soit stimulé par de nouvelles choses. Par exemple, en allant au travail essayez de changer de chemin, ne prenez pas le même chemin tous les jours, prenez d’autres itinéraires. Ne faites pas non plus les mêmes choses tous les jours à la même heure, essayez de casser un rythme particulier. ******ebook converter DEMO Watermarks*******

2) Faites de la méditation Pratiquer la méditation est très important pour développer son imagination et sa créativité. Faire 10 à 30 min de méditation par jour vous aidera à vous relaxer, à éliminer le stress et à stimuler votre cerveau. Je pratique 10 à 30 min de méditation par jour depuis que j’ai 15 ans, je peux vous assurer que cela m’aide beaucoup dans mes activités créatives. Pour vous aider, vous pouvez écouter de la musique, c’est pour cette raison que j’ai fait une musique (Creativity Boost) spécialement dédiée à la méditation et à la relaxation dans l’album qui accompagne ce livre. Voici ma technique de méditation : 1.

Choisissez la position adéquate, vous aurez le choix entre une position assise ou allongée. Prenez celle qui vous mettra le plus à l’aise.

2.

Puis fermez les yeux et prenez le temps de vous vider entièrement la tête. Il est important de faire le vide afin de pouvoir avoir une concentration optimale.

3.

Concentrez-vous sur votre respiration, vous devez sentir profondément votre inspiration et votre expiration, à ce moment précis, il n’y a que cela qui doit compter.

4.

Vous devez être dans un état calme et zen et si une pensée survient et cela arrivera à 100%, pas de panique vous pouvez y penser quelques secondes puis revenez à votre souffle. Vous n’avez pas besoin de forcer, laissez simplement partir ces pensées comme de l’eau qui ruisselle.

C’est une technique de relaxation qui paraît facile à première vue. Cependant, il est souvent difficile de se concentrer sur la respiration uniquement. En effet, nos esprits sont en général très actifs et il est difficile de les contrôler, mais plus vous pratiquerez ces exercices et mieux vous y arriverez, ne vous inquiétez pas ! ******ebook converter DEMO Watermarks*******

3) Ne voyez pas toujours les mêmes têtes Discutez le plus possible avec les gens, même les personnes que vous ne connaissez pas, n’ayez pas peur. Entamez des sujets de conversations même si vous pensez que ces personnes ne seront pas réceptives à votre discours. Cela permet encore une fois à votre esprit de sortir de sa zone de confort. Expérience personnelle : de temps en temps, j’aime bien sortir des blagues totalement absurdes à des inconnus dans la rue. Non seulement cela me permet de développer mon aisance en public, mais cela me permet de sortir un peu des conventions préétablies. Je n’hésite pas à parler à des gens que je ne connais pas, du moins, j’essaye d’en faire l’effort le plus possible ! ⬛



4)

Regardez des films, jouez aux jeux vidéo, lisez des romans, écoutez de la musique.

Beaucoup de mes inspirations et de mes idées viennent lorsque je regarde un film ou lorsque je joue à un jeu vidéo. N’hésitez pas à regarder les autres œuvres créatives, cela peut aider grandement votre propre imagination. Expérience personnelle : de mon côté, j’adore regarder des films de science-fiction dès que je le peux, ou jouer à des jeux dans des univers futuristes. Mon style de musique étant futuriste, cela me donne beaucoup d’inspiration. ⬛ ⬛

5) Décidez d’être créatif Cessez de vous chercher des excuses « je ne suis pas créatif », « je n’ai aucune imagination », « je ne sais pas comment m’y prendre ». Toutes ces convictions que vous vous êtes imposé vous-même ne vous mènent que vers une seule chose : l’inaction. Vous devez agir, prendre la décision consciente de créer, faire l’effort, essayer, échouer, recommencer. Et surtout, vous devez progressivement apprendre à aimer le processus créatif. Décidez d’être créatif, tout simplement. ******ebook converter DEMO Watermarks*******

6) Ne sautez pas tout de suite sur la première idée Laisser vagabonder votre esprit, c’est la base pour faire évoluer vos idées. Ne sautez pas sur la première idée venue qui vous semble bonne. En vous laissant plus de temps à la réflexion, vous laissez plus de liberté à la venue des idées. Laissez-les venir toutes seules : vous aurez bien le temps de faire le tri ensuite. Laissez mûrir les idées, lorsque vous laissez incuber une idée dans votre esprit, elle a le temps de faire son chemin et de créer des liens au passage. 7) Notez vos idées sinon vous allez les oublier Lorsque vous êtes certain d’avoir la bonne idée, surtout n’hésitez pas à la noter quelque part, sinon vous allez rapidement l’oublier. Cela permet aussi de mieux organiser ses idées et de les analyser. ⬛ Expérience

personnelle : dès que j’ai une idée de génie, je la note sur mon fidèle compagnon : mon smartphone. J’utilise l’application Google Keep, je peux ranger et catégoriser les notes comme bon me semble. C’est très pratique. ⬛ 8)

Prenez des risques et ayez le courage de penser et à d’agir différemment que les autres.

Cela vaut d’ailleurs aussi en dehors du domaine de la créativité. La prise de risque est ce qui a conduit à trouver de nouvelles terres, à inventer des concepts inédits, à réinventer l’art… Le risque c’est l’inconnu, c’est l’audace, le petit grain d’originalité qui fera peut-être toute la différence. Il faut savoir s’affirmer, oser, assumer d’être un libre penseur. Expérience personnelle : lorsque j’ai commencé à me lancer dans la musique et que j’ai voulu en faire une carrière, les gens me disaient : « ce n’est pas un métier », « tu n’y arriveras jamais », « pourquoi tu ne veux pas travailler à l’usine comme tout le monde ? ». Si je m'étais limité aux remarques des gens, j’aurais déjà arrêté depuis longtemps de prendre des risques. Autre exemple : en écrivant ce livre, personne n’a tenté à ma ⬛

******ebook converter DEMO Watermarks*******

connaissance de faire un concept / livre de futurologie, j’ai trouvé le concept cool alors je me suis lancé. Même si des personnes (heureusement une minorité) trouvaient l’idée bizarre, voire étrange, je suis allé au bout de mes objectifs en mettant de côté ce qu’ils pensaient. ⬛ 9) Soyez déraisonnable (mais avec modération) C’est en étant déraisonnable, ambitieux, visionnaire qu’on met à jour les plus grandes et belles créations. C’est ceux qui possèdent ce « petit grain de folie » qui osent emprunter des chemins que les gens raisonnables ont rejetés d’emblée. Être déraisonnable, c’est aussi lâcher prise – c’est se détacher de la morale, des conventions et de ce que les autres pensent. C’est aussi une condition pour insuffler de la sincérité dans vos créations. 10) Persistez et soyez patient La créativité demande du courage et beaucoup d’obstination. Rappelezvous que sous les plus grandes toiles se cachent des croquis et autres tentatives infructueuses. Ou alors que Thomas Edison a échoué des centaines de fois avant de créer son ampoule électrique. Les plus grands entrepreneurs du monde ont souvent raté plusieurs fois avant de réussir, mais ils n’ont jamais baissé les bras. Expérience personnelle : pour en arriver à ce stade dans le milieu musical, j’ai toujours persisté et j’ai toujours été incroyablement patient. Plusieurs personnes m’ont d’ailleurs complimenté sur ma patience et ma persévérance hors normes. J’ai beaucoup de défauts (que je n’ai pas envie de citer, honte à moi !), mais je pense que la patience est ma plus grande qualité. Et c’est ce qui m’a permis d’avancer dans les projets créatifs. ⬛ ⬛

11) Marchez Marcher peut vous aider à remettre vos idées en place, non seulement la marche est bonne pour votre santé, mais elle est bonne aussi pour votre esprit. Prenez des chemins inattendus. Essayez de vous perdre dans une ville inconnue. Marchez la nuit pour perdre vos repères. Soyez aventureux ! ******ebook converter DEMO Watermarks*******

⬛ Expérience

personnelle : je marche tous les jours entre 7000 et 20 000 pas dès que je le peux. Je me sens bien mieux et lorsque je retourne sur mon ordinateur pour travailler je me sens bien plus concentré et productif

******ebook converter DEMO Watermarks*******

14 - Chronologie du turfu « La distinction entre le passé, le présent et l'avenir n'est qu'une illusion obstinément persistante. » - Albert Einstein

Musique qui correspond à cette partie : Extra Terra - “Chronology” Vous pouvez l’écouter sur Spotify, Apple Music, Deezer ou n’importe quel autre service de musique en streaming.

Ambiance : Cyberpunk / Cinématique / Dansante Style : Trance / Psy-trance / Orchestral Tempo | 138 BPM Ce morceau est très inspiré par l’univers Cyberpunk. Dans l’introduction j’ai enregistré un sample d’horloge que j’ai accéléré pour le faire coller au tempo de la musique. Les synthés dans l’introduction sont très inspirés de Vangelis, mais surtout du Blade Runner 2049 (dont la BO a été reprise par Hans Zimmer). Notre esprit a du mal à concevoir les choses sur le long terme. Plus les dates sont lointaines et plus il est compliqué de voir le futur. Je risque donc indéniablement de me tromper, surtout que je ne m’appelle pas Nostradamus ! Néanmoins, dans cette partie je veux vous montrer les choses qui sont possibles et qui sont déjà à l’étude jusqu’à 2100. Je ne me base pas sur rien, mais sur des technologies et des théories qui existent déjà actuellement. C’est pour cette raison que je cite le plus possible les sources dès que possible. Explorons le futur ensemble ! P.S. Je ne prends pas en compte l’idée d’un effondrement hypothétique dans cette liste. En outre, plus l’IA forte arrivera tôt et plus ce calendrier pourrait drastiquement changer.

De 2020 à 2100 ******ebook converter DEMO Watermarks*******

2020-2021 | Sortie de la Playstation 5 | Le marché de la réalité virtuelle continue d’augmenter lentement mais sûrement | La génération X remodèle la politique mondiale[134] | L'utilisation d'internet atteint 5 milliards de personnes dans le monde | Envoyer des SMS par la pensée devient possible[135] | Le remplacement par des organes complexes à partir de cellules souches est possible[136] | La première thérapie par cellules souches pour l'insuffisance cardiaque congestive est disponible[137] | Les progrès dans le domaine anti-vieillissement continuent | Des bananes génétiquement modifiées sont disponibles pour aider les populations qui ont des déficiences en vitamines A[138] | Tokyo accueille les Jeux Olympiques | 30,000 drones patrouillent dans le ciel de l’Amérique[139] | Mission Rover Mars 2020 | Les premiers vols d'essai de la technologie supersonique silencieuse de la NASA sont lancés[140] | 2021 | Les ordinateurs à l’échelle de l’exascale sont déployés[141] | Le rover ExoMars touche Mars[142] | Le télescope spatial James Webb est lancé[143] | Le premier rein artificiel est disponible sur le marché[144] | Le lancement de la voiture volante Terrafugia TF-X[145] (au plus tôt) | La première mission arabe vers Mars[146] | Le premier vol inaugural d'Ariane 6[147] | Le premier vol spatial habité Indien[148] | 2022 | L'Inde devient le pays le plus peuplé de la planète[149] | Le réacteur de fusion expérimental ITER est mis en service[150] | Pékin accueille les Jeux olympiques d'hiver | La première station spatiale chinoise est terminée[151] | New Horizons termine son étude de la ceinture de Kuiper[152] | Les vêtements en Nanotech sont en plein essor | 2022-2028 | Les taxis sans conducteur sont opérationnels à Dubaï[153] | 2025-2045 | L'IA de niveau humain devient une réalité[154] | 2025-2050 | Le chômage augmente à cause de l’automatisation[155] | 2028-2035 | Les implants Neuralink sont disponibles au grand public | 2026-2028 | La Playstation 6 et les consoles de cette génération sont dématérialisées. Le streaming sera beaucoup plus accessible, grâce à des connexions internet plus rapides et il ne sera plus nécessaire de posséder des ******ebook converter DEMO Watermarks*******

machines physiques pour jouer aux jeux vidéo ou en réalité virtuelle | La Chine construit le plus grand accélérateur de particules du monde[156] | Delhi devient la ville la plus peuplée du monde[157] | La résurrection de plusieurs espèces disparues est possible[158] | 2029 | Approche de l'astéroïde Apophis, un astéroïde proche de la Terre[159] | La grande tache rouge de Jupiter a disparu[160] | 2030 | La norme 6G est déployée[161] | La technologie « Smart grid » est répandue dans les pays développés[162] | La dépression devient le grand fléau dans le monde[163] | La population musulmane a considérablement augmenté[164] | 2031 | Le web 4.0 transforme internet | Les pharmacies de cellules souches sont courantes[165] | 2032 | L'énergie nucléaire de quatrième génération est disponible[166] | Un tiers de l'électricité saoudienne provient du solaire[167] | 2033 | Les écrans muraux holographiques deviennent disponibles | 2034-2044 | L'ectogenèse transforme les droits et nos modes de reproduction[168] | 2034 | Les robots dans le domaine du service seront de plus en plus nombreux dans le monde[169] | 2035-2040 | C’est l’essor des nanotechnologies | Établissement des premières bases lunaires habitées[170] | 2035 | Les véhicules autonomes dominent les routes[171] | La recréation d’avatars holographiques de personnes mortes devient monnaie courante | Les robots dominent les champs de bataille | 2036-2050 | Les sports transhumains deviennent une réalité et sont médiatisés | ******ebook converter DEMO Watermarks*******

2036 | L’industrie de la viande in-vitro est mature[172] | 2038 | La téléportation de molécules organiques complexes devient possible (d’après Michio Kaku)[173] | L'industrie spatiale dépasse 1 trillion de dollars dans le monde[174] | 2039 | La réalité virtuelle devient aussi réaliste que notre propre réalité[175] | 2040 | L’Inde est considérablement moins pauvre qu’avant[176] | La puissance de fusion approche de la disponibilité commerciale (si les tests en 2030 sont concluants)[177] | L’exploitation des minerais dans les eaux profondes est répandue[178]-[179]| La télépathie grâce aux interfaces hommemachine domine les communications personnelles[180] | La médecine a totalement changé grâce à la génomique et aux implants qui font du monitoring en temps réel de la santé | 2041 | L'énergie solaire orbitale est commercialement viable[181] | 2042 | La population mondiale atteint 9 milliards d'habitants | 2045 | L'homme fusionne de plus en plus intimement avec les machines[182] | 2050 | Des bâtiments intelligents et de hautes technologies révolutionnent le paysage urbain | Les smart grids répondent en grande partie à l'énergie dans le monde | 2059 | La fin de l'ère pétrolière (par rapport à une estimation des gisements que nous connaissons aujourd’hui)[183] | Mars a maintenant une présence humaine permanente[184] | 2060-2100 | Les systèmes politiques et économiques mondiaux sont dans une période d'immense transition. ******ebook converter DEMO Watermarks*******

2060 | La couche d'ozone s'est complètement rétablie[185] | 2067 | La première génération d'engins spatiaux propulsés par l'antimatière fait son apparition[186] | 2070 | L'Islam est la principale religion dans le monde[187] | La fusion nucléaire est répandue[188] | Les maisons sont entièrement automatisées | 2072 | Les vêtements nanotechnologiques sont très perfectionnés | 2078 | Le tourisme spatial fait d’énormes progrès | 2080 | Certains humains sont plus non biologiques que biologiques | 2084 | La viande conventionnelle devient totalement obsolète | Les androïdes sont répandus dans les forces de l'ordre | 2095 | La population mondiale se stabilise | De nombreuses langues ne sont plus utilisées dans le monde | 2099 | Les machines auront les mêmes droits que les humains | La civilisation terrienne est une civilisation de type 1 sur l’échelle de Kardachev |

******ebook converter DEMO Watermarks*******

Conclusion Musique qui correspond à cette partie : Extra Terra & AIVA - “This Is Not The End” Vous pouvez l’écouter sur Spotify, Apple Music, Deezer ou n’importe quel autre service de musique en streaming.

Ambiance : Douce Style : Ambient / Orchestral Tempo : 120 BPM

Pour la conclusion de l’album j’ai fait une collaboration avec l’intelligence artificielle AIVA. Le but ici est de finir l’album en douceur et en symbiose avec l’IA. L’avenir restera toujours incertain, surtout si nous ne faisons pas en sorte de créer nous-mêmes un futur radieux. De plus l'exercice prospectiviste est complexe : plus nous essayons de nous projeter loin et plus l’incertitude est grande. Mais une chose est sûre, nous sommes déjà en train de prendre le chemin d’une société ultra-technologique. La technologie déstabilise, fascine, bouleverse, inquiète et émerveille notre société. Notre monde va beaucoup changer. Nous avons à perdre, mais nous avons tellement plus à gagner. Des emplois vont disparaître, c’est une évidence, mais il semble plus sage de voir les bénéfices engendrés par la technologie : les progrès dans la santé, moins de morts sur les routes grâce aux voitures autonomes, les économies d’énergies grâce aux algorithmes… Le high-tech permet à notre civilisation d'accélérer la résolution des problèmes complexes pour l’humanité, et ce n’est certainement pas avec la low-tech qu’on pourra le faire – même si la low-tech a beaucoup d’aspects positifs aussi. L’intelligence artificielle bouleverse notre civilisation parce que nous avons peur de sortir de notre zone de confort. Nous sommes concentrés sur la ******ebook converter DEMO Watermarks*******

disparition de l’Ancien Monde alors que le nouveau nous apportera probablement bien plus ! Certes, les innovations et nouveautés technologiques qui émergent sont réservées au début à des élites financières, mais ensuite sous le poids de la concurrence deviennent rapidement facilement accessibles à tous. À l’opposé des hypothèses catastrophistes, osons défendre l’idée que l’intelligence artificielle et la robotisation permettront à l’humain d’évoluer dans un monde qui lui correspond mieux, débarrassé d’une partie des tâches rébarbatives qu’il devait jusqu’à présent assumer. Un monde dans lequel l’humanité sera plus axée sur la créativité, les idées à contre-courant, la compassion et l’empathie.

******ebook converter DEMO Watermarks*******

Rapide présentation de l’auteur et des collaborateurs • Boris H est un humaniste qui croit que tout progrès scientifique et technologique doit favoriser l'épanouissement collectif de l'humanité. Passionné de technologie, il a commencé à étudier de façon autodidacte les technologies émergentes (NBIC) et en observe quotidiennement les progrès et analyse leur potentiel impact sur la société. Son but est d'orienter la direction du progrès technologique pour qu'il soit bénéfique à l'humanité en augmentant le niveau de compréhension du grand public face aux technologies disruptives. Boris est un créatif, il est notamment connu à travers le monde entier sous le nom « Extra Terra », son projet de musique électronique. Il s’est intéressé à l’utilisation de l’intelligence artificielle dans le domaine musical.

• Leïla Ancelin est professeure de sciences à son compte depuis 5 ans, et travaille également à cours Galien en tant que professeur de mathématiques. Diplômée d’une licence de maths physique chimie et d’une formation à l’ESPE, elle est créatrice d’un projet éducatif innovant à travers une startup.

• Éric Hoechstetter est médecin psychiatre spécialisé dans les thérapies cognitives et comportementalistes ainsi que dans les troubles du spectre autistique. Il a également été producteur et compositeur de musique électronique dans les années 1990 et 2000 et avait créé son propre label.

******ebook converter DEMO Watermarks*******

Remerciements Dans un premier temps, je veux remercier mon père pour avoir accepté de faire la préface, avec qui j’ai eu beaucoup de conversations fructueuses sur les sujets que j’évoque dans mon livre. Je veux remercier Leïla Ancelin, ma compagne, pour avoir contribué au chapitre sur l’éducation. Je remercie Rage Culture pour la relecture et la couverture du livre. Puis le reste de ma famille : ma mère, mon frère, mon oncle et ma grandmère pour toujours avoir cru en moi. Je veux remercier mes amis : Alexis, Huso, Stéphane, Gilles, Benjamin, Wassil, Arnaud et Harmonie. Je veux également remercier tous les fans d’Extra Terra pour leur soutien et pour avoir écouté mes musiques depuis tant d’années. Mon projet musical ne serait rien sans tous mes fans. Et toutes les autres personnes que j’ai probablement oubliées.

[1] https://www.cell.com/trends/ecology-evolution/fulltext/S0169-5347(18)30117-4 [2] https://www.techworm.net/2015/03/to-reach-50-million-users-telephone-took-75-yearsinternet-took-4-years-angry-birds-took-only-35-days.html [3] https://www.zmescience.com/research/technology/smartphone-power-compared-to-apollo-432/ [4] https://www.01net.com/astuces/repousser-les-limites-de-la-miniaturisation-277846.html [5] http://www.comptoir-hardware.com/actus/processeurs/36974-les-32-curs-dun-2990wx-topent6-ghz-chacun-sous-azote-liquide.html [6] https://www.techniques-ingenieur.fr/actualite/articles/graphene-materiaux-innovation-41823/

******ebook converter DEMO Watermarks*******

[7] https://www.sciencedirect.com/science/article/pii/S1631070516300949 [8] https://www.nature.com/articles/nnano.2010.95 [9] https://gizmodo.com/2-nanometer-quantum-transistors-are-the-worlds-smallest-5807151 [10] https://www.nature.com/articles/nnano.2012.21 [11] http://www.abc.net.au/science/articles/2012/02/20/3434739.htm [12] https://science.sciencemag.org/content/354/6308/99 [13]

https://www.kit.edu/kit/english/pi_2018_097_smallest-transistor-worldwide-switchescurrent-with-a-single-atom-in-solid-electrolyte.php [14] https://www.quantamagazine.org/why-quantum-computers-might-not-break-cryptography20170515/ [15] https://phys.org/news/2017-07-record-breaking-qubit-quantum-simulation-nersc.html [16]

https://www.usine-digitale.fr/article/microsoft-nous-aurons-cree-un-ordinateur-quantique-dici-5-ans.N691979 [17] https://www.nature.com/news/quantum-boost-for-artificial-intelligence-1.13453 [18] https://arxiv.org/pdf/1611.09347.pdf [19] https://www.nature.com/articles/nphoton.2017.93 [20] https://fr.wikipedia.org/wiki/Test_de_Turing [21] https://cacm.acm.org/magazines/2012/1/144824-artificial-intelligence-past-and-future/fulltext [22] « AI and Compute », 16 mai 2018. https://blog.openai.com/ai-and-compute/ [23] https://www.planetoscope.com/Internet-/1217-nombre-de-photos-deposees-sur-facebook.html [24]

http://www.lefigaro.fr/secteur/high-tech/2018/03/29/32001-20180329ARTFIG00287-lafrance-va-investir-15-milliard-d-euros-pour-l-intelligence-artificielle-d-ici-2022.php [25] http://news.mit.edu/2018/mit-reshapes-itself-stephen-schwarzman-college-of-computing1015 [26] https://www.linformaticien.com/actualites/id/49116/ia-l-ue-mise-sur-20-milliards-d-euros-dinvestissements-d-ici-a-2020.aspx [27] https://www.cnbc.com/amp/2018/05/04/china-aims-to-steal-us-a-i-crown-and-not-even-tradewar-will-stop-it.html [28] https://www.statista.com/chart/14218/china-dominates-global-funding-of-ai-startups/ [29] « Yann Le Cun: L'IA vise à démultiplier l'intelligence humaine », ParisMatch.com, 21 Janvier 2018. http://www.parismatch.com/Actu/Sciences/Yann-Le-Cun-L-IA-vise-a-demultiplier-lintelligence-humaine-1447787 [30] Voir cet inventaire de différents types d’architectures de processeurs neuromorphiques : Neuromorphic Computing and Neural Network Hardware, 2017 (88 pages) qui s’appuie sur une bibliographie record de 2682 entrées. Vous pouvez aussi consulter l’excellente présentation Hardware Architectures for Deep Neural Networks, 2017 (290 slides). [31] https://www.theregister.co.uk/2018/06/21/fujitsu_postk_exascale_processor_prototyping_wrapped_up/ [32] Voir Reliability enhancement of phase change memory for neuromorphic applications de SangBum Kim, IBM, 2017 (21 slides). [33] AI could get 100 times more energy-efficient with IBM’s new artificial synapses, juin 2018 et

******ebook converter DEMO Watermarks*******

Equivalent-accuracy accelerated neural-network training using analogue memory, 2018. IBM communique sur le fait qu’ils utilisent une mémoire « analogique ». C’est en effet le cas pour les informations stockées dans les memristors. [34] https://www.frontiersin.org/articles/10.3389/fnins.2018.00941/full [35] https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2715840/ [36] https://en.wikipedia.org/wiki/Nerve_conduction_velocity [37] Bostrom, Superintelligence: Paths, Dangers, Strategies, emplacement. 1500-1576. [38] https://arxiv.org/pdf/1705.08807.pdf [39] https://www.futuretimeline.net/blog/2018/09/25.htm [40] Stéphane Mallard : Disruption, emplacement 1261, 2018 [41] talents-2030 [42]

http://www.economiematin.fr/news-penurie-ressources-humaines-main-oeuvre-qualifieehttp://www.enseignementsup-recherche.gouv.fr/cid56383/grands-chiffres-de-la-

recherche.html [43] https://fr.statista.com/statistiques/477617/repartition-budget-etat-selon-poste-depense-france/? fbclid=IwAR3xKXyWeflAuy2SjbMZYxgyNtfn8uvGVyre0ZExxpPVL-ZmtPDGG36m6Qs [44] http://www.enseignementsup-recherche.gouv.fr/cid107039/projet-de-loi-de-finances2017.html?fbclid=IwAR22iw2etcSRjpDKjJBzyOVpRhtcICqX7qOKQNBZnSHWg-dILBFnliyrlRU [45] https://ressources.campusfrance.org/publi_institu/agence_cf/dossiers/fr/dossier_41_fr.pdf? fbclid=IwAR088mioupHogqxuLpbeLY8BfSntvZ638SPUwh_A9oPjdeJe4XENoTflOVs [46] https://www.journaldunet.com/management/conjoncture/1040948-pib-de-la-france/? fbclid=IwAR0Das8fuJRisW8RqUxMvWi969N3BdmD-q3I7SorPoV6_hkr_TbxETGlaRQ [47] Lanier, Jaron: Who Owns The Future, Simon & Schuster, 2014. [48] Kai Fu Lee : Ai Superpowers: China, Silicon Valley, and the New World Order, emplacement 3412, 2018 [49] https://www.cnbc.com/2018/11/15/bezos-tells-employees-one-day-amazon-will-fail-and-tostay-hungry.html [50] https://www.nature.com/articles/nature21056 [51] https://arxiv.org/abs/1707.01836 [52] https://arxiv.org/abs/1711.05225 [53] https://www.europeanscientist.com/fr/opinion/pollution-de-lair-38-000-morts-par-an/ [54] https://apolitical.co/solution_article/pittsburgh-cuts-travel-time-25-smart-traffic-lights/ [55] https://news.microsoft.com/en-in/features/ai-agriculture-icrisat-upl-india/ [56]

https://www.technologyreview.com/s/540806/how-artificial-intelligence-can-fight-airpollution-in-china/ [57] https://www.forest-trends.org/publications/consumer-goods-and-deforestation/ [58] https://blog.google/technology/ai/fight-against-illegal-deforestation-tensorflow/ [59]

https://www.businessinsider.fr/us/google-deepmind-wants-to-cut-ten-percent-off-entire-ukenergy-bill-using-artificial-intelligence-2017-3/ [60] https://www.research.ibm.com/science-for-social-good/?

******ebook converter DEMO Watermarks*******

utm_source=datafloq&utm_medium=ref&utm_campaign=datafloq [61] http://www.altmanweil.com/dir_docs/resource/95e9df8e-9551-49da-9e252cd868319447_document.pdf [62]

http://sustain.stanford.edu/predicting-poverty/? utm_source=datafloq&utm_medium=ref&utm_campaign=datafloq [63] https://www.pnas.org/content/111/28/10383.full [64] https://www.pnas.org/content/112/10/3152 [65] http://performermag.com/home-recording/the-loudness-war/ [66] https://music.illinois.edu/ems-history-illiac-i [67] https://www.phys.uconn.edu/~gibson/Notes/Section3_2/Sec3_2.htm [68] http://www.massarskyconsulting.com [69] https://www.lebigdata.fr/ia-huawei-symphonie-schubert [70] The Rational Optimist : How Prosperity Evolves – Matt Ridley, page 6, 2010 https://www.amazon.com/Rational-Optimist-Prosperity-Evolves-P-s-ebook/dp/B003QP4BJM [71] https://www.epa.gov/air-trends [72] https://www.amazon.fr/End-Doom-Environmental-Renewal-Twenty-first/dp/1250057671 [73]

https://www.generation-nt.com/batteries-sodium-ion-technologie-progresse-actualite1957316.html [74] https://www.pseudo-sciences.org/Y-a-t-il-vraiment-un-risque-d-epuisement-des-ressources [75] http://www.mineralinfo.fr/sites/default/files/upload/documents/Fiches_criticite/fichecriticiteindium170921.pdf [76] https://www.connaissancedesenergies.org/fiche-pedagogique/reserves-d-uranium-natureldans-le-monde [77]

https://www.oceanfdn.org/sites/default/files/Deepocean%2Bmineral%2Bdeposits%2Bas%2Ba%2Bsource%2Bof%2Bcritical%2Bmetals%2Bfor%2Bhigh%2Band%2Bgreen-technology%2Bapplication%2BComparison%2Bwith%2Bland%2Bbased%2Bresources.compressed.pdf [78] https://publications.europa.eu/en/publication-detail/-/publication/c9cb968d-9e9e-4426-b9ca3728c6ff49ba/language-fr [79] https://publications.europa.eu/en/publication-detail/-/publication/c9cb968d-9e9e-4426-b9ca3728c6ff49ba/language-fr [80] https://pubs.er.usgs.gov/publication/70046853 [81]

https://www.cnbc.com/2018/04/12/japan-rare-earths-huge-deposit-of-metals-found-in-

pacific.html [82] https://humanprogress.org/article.php?p=1603 [83] https://object.cato.org/sites/cato.org/files/pubs/pdf/pa-857-update.pdf [84] https://www.consoglobe.com/fin-du-lithium-cg [85] https://www.engadget.com/2018/04/16/tesla-battery-packs-live-longer/ [86] http://www.lefigaro.fr/sciences/2013/02/15/01008-20130215ARTFIG00557-exploiter-lesminerais-des-asteroides.php

******ebook converter DEMO Watermarks*******

[87] https://www.nasa.gov/content/benefits-for-humanity-water-for-the-world [88] https://www.nasa.gov/mission_pages/station/research/benefits/ultrasound.html [89] https://www.nasa.gov/mission_pages/station/research/experiments/explorer/Investigation.html?#id=172 [90] https://www.nasa.gov/content/benefits-for-humanity-changing-lives/ [91] https://www.nasa.gov/mission_pages/station/research/benefits/bone_loss.html [92] https://www.nasa.gov/vision/earth/everydaylife/weak_knees.html [93] https://www.nasa.gov/mission_pages/station/research/benefits/vaccine_development.html [94] https://www.nasa.gov/station/research/news/igar/ [95] https://en.wikipedia.org/wiki/Carbon_Engineering [96] https://newatlas.com/gene-editing-plants-deep-roots-climate/60582/ [97] https://positivr.fr/pluie-panneau-solaire-energie-graphene-royaume-uni/ [98] The End Of Doom – Ronald Bailey, chapitre 7, 2015 https://www.amazon.com/End-Doom-Environmental-Renewal-Twenty-first/dp/B01L98JKI4 [99] http://monnano.weebly.com/uploads/1/6/6/3/1663287/theoechtage.pdf [100] https://onlinelibrary.wiley.com/doi/abs/10.1046/j.1365-2486.2001.00383.x [101] https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(14)62114-0/fulltext [102] https://substanceabusepolicy.biomedcentral.com/articles/10.1186/1747-597X-4-20 [103] https://www.nytimes.com/2018/10/16/t-magazine/george-rr-martin-qanda-game-ofthrones.html [104]

https://earther.gizmodo.com/how-climate-change-is-becoming-a-deadly-part-of-white-n1837010929 [105] https://www.futura-sciences.com/sante/definitions/biologie-protozoaire-240/ [106] https://www.biorxiv.org/content/10.1101/703801v2 [107] https://www.sciencesetavenir.fr/fondamental/biologie-cellulaire/des-chercheursparviennent-a-stocker-un-gif-dans-l-adn-d-une-bacterie_114782 [108] https://endpts.com/healthier-longer-lifespans-will-be-a-reality-sooner-than-you-thinkjuvenescence-promises-as-it-closes-100m-round/ [109] https://www.inegalites.fr/La-scolarisation-des-enfants-dans-le-monde [110] https://fr.wikipedia.org/wiki/Organisation_de_coopération_et_de_développement_économiques [111] https://fr.wikipedia.org/wiki/Programme_international_pour_le_suivi_des_acquis_des_élèves [112] https://fr.wikipedia.org/wiki/Système_éducatif_en_Finlande [113] https://paris-singapore.com/education-singapour [114]

https://www.courrierinternational.com/article/ecole-singapour-t-il-vraiment-le-meilleursysteme-scolaire-du-monde [115] https://www.celinealvarez.org/notre-demarche [116] http://www.lefigaro.fr/histoire/archives/2017/06/14/26010-20170614ARTFIG00269-a-quoi-

******ebook converter DEMO Watermarks*******

ressemblait-le-bac-en-1967.php [117] https://eduscol.education.fr/cid126665/vers-le-bac-2021.html [118]

https://www.espe-lr.fr/formation-initiale/master-meef/master-2nd-degre/descriptifs-desparcours-master-meef-2nd-degre [119] https://fr.wikipedia.org/wiki/Éducation_nouvelle [120] https://fr.wikipedia.org/wiki/Pédagogie_Montessori [121] https://fr.wikipedia.org/wiki/Pédagogie_Steiner-Waldorf [122]

https://www.nouvelobs.com/rue89/rue89-tech/20170104.RUE6096/ecrans-incroyable-lesparents-de-la-silicon-valley-sont-comme-les-autres.html [123] http://www.slate.fr/story/116317/ecoles-democratiques-cours-programmes [124]

https://qz.com/1480109/the-three-questions-on-the-application-for-elon-musks-private-

school/ [125]

https://www.journaldunet.com/ebusiness/internet-mobile/1009563-le-nombre-desmartphones-vendus-dans-le-monde/ [126] https://www.lesechos.fr/2018/02/internet-encore-15-milliard-de-deconnectes-dans-lemonde-983399 [127] https://information.tv5monde.com/afrique/en-afrique-comment-se-connecter-internet-peude-frais-184313 [128] http://www.dynamique-mag.com/article/tour-monde-startup.9204 [129]

https://marseille.latribune.fr/innovation/2017-04-26/l-edtech-une-filiere-pour-sedemarquer.html [130] https://blog.lehub.bpifrance.fr/mapping-decouvrez-les-startups-de-lecosysteme-edtech/ [131]

https://www.francetvinfo.fr/monde/usa/le-cerveau-connecte-de-neuralink-teste-des-l-anprochain-assure-elon-musk_3539467.html [132] https://www.theverge.com/2017/2/22/14631122/kernel-neuroscience-bryan-johnson-humanintelligence-ai-startup [133] https://www.wired.com/story/solve-genomics-with-blockchain/ [134]

https://www.people-press.org/2011/11/03/the-generation-gap-and-the-2012-election-3/? src=prc-headline [135] https://phys.org/news/2010-04-japan-eyes-mind-reading-devices-robots.html [136] https://www.theguardian.com/science/2007/apr/02/stemcells.genetics [137] https://www.researchandmarkets.com/research/47gb9g/global [138] https://phys.org/news/2014-06-super-banana-human-trial.html [139] https://www.washingtontimes.com/news/2012/feb/7/coming-to-a-sky-near-you/ [140]

https://www.nasa.gov/press-release/nasa-begins-work-to-build-a-quieter-supersonic-

passenger-jet [141] https://www.top500.org/news/hyperion-updates-exascale-development-in-us-china-japanand-europe/ [142] https://en.wikipedia.org/wiki/Rosalind_Franklin_(rover) [143] https://en.wikipedia.org/wiki/James_Webb_Space_Telescope

******ebook converter DEMO Watermarks*******

[144] https://pharm.ucsf.edu/kidney [145] https://www.autocar.co.uk/car-news/new-cars/new-terrafugia-tf-x-flying-car-revealed [146]

https://www.thenational.ae/business/technology/uae-plans-to-launch-mission-to-mars-in2021-1.265688#full [147] https://phys.org/news/2013-07-europe-okays-next-generation-rocket.html [148] https://www.ndtv.com/india-news/india-will-be-ready-to-launch-manned-space-mission-ina-few-years-isro-chairman-to-ndtv-692766 [149] https://ourworldindata.org/world-population-growth#india-will-soon-overtake-china-tobecome-the-most-populous-country-in-the-world [150] https://www.independent.co.uk/news/science/one-giant-leap-for-mankind-13bn-iter-projectmakes-breakthrough-in-the-quest-for-nuclear-fusion-a-8590480.html [151] https://www.space.com/11048-china-space-station-plans-details.html [152] https://solarsystem.nasa.gov/solar-system/kuiper-belt/overview/ [153] https://www.newsweek.com/dubai-video-shows-worlds-first-flight-automated-flying-taxisover-emirati-city-671094 [154] http://techland.time.com/2010/04/02/an-interview-with-ray-kurzweil/ [155]

http://www.iftf.org/future-now/article-detail/will-automation-lead-to-fewer-jobs-in-10years-probably-yes/ [156] https://www.geek.com/science/china-is-set-to-build-a-particle-collider-double-thecircumference-of-the-lhc-1600132/ [157] https://www.ndtv.com/delhi-news/delhi-projected-to-become-worlds-most-populous-cityaround-2028-un-report-1853170 [158] https://news.stanford.edu/news/2013/april/greely-species-deextinction-040413.html [159] https://en.wikipedia.org/wiki/99942_Apophis [160] https://www.rawstory.com/2014/05/jupiters-great-red-spot-could-disappear-in-a-generation/ [161]

https://www.networkworld.com/article/3305359/6g-will-achieve-terabits-per-secondspeeds.html [162] https://www.energy.gov/oe/downloads/grid-2030-national-vision-electricity-s-second-100years [163] https://www.who.int/mental_health/management/depression/wfmh_paper_depression_wmhd_2012.pdf [164] https://www.pewforum.org/2011/01/27/the-future-of-the-global-muslim-population/ [165] https://www.telegraph.co.uk/news/science/science-news/7883978/Stem-cell-pharmacies-inthe-high-street-in-20-years-predicts-expert.html [166] https://en.wikipedia.org/wiki/Generation_IV_reactor [167]

https://www.pv-magazine.com/2012/05/09/saudi-arabia-targets-41-gw-of-solar-by2032_10006719/#axzz1uSl2b03a [168] https://www.pv-magazine.com/2012/05/09/saudi-arabia-targets-41-gw-of-solar-by-

2032_10006719/#axzz1uSl2b03a [169] https://www.mckinsey.com/~/media/mckinsey/featured%20insights/Future%20of%20Organizations/What%20the%20fu Jobs-Lost-Jobs-Gained-Report-December-6-2017.ashx

******ebook converter DEMO Watermarks*******

[170] https://lunarscience.nasa.gov/articles/lunar-bases/ [171] https://phys.org/news/2010-10-self-driving-car-unveiled-germany.html [172] https://www.theguardian.com/science/2013/jan/05/the-future-of-food [173]

https://www.amazon.com/Physics-Impossible-Scientific-ExplorationTeleportation/dp/0307278824/ref=sr_1_1?ie=UTF8&s=books&qid=1250029787&sr=1-1 [174] https://www.cnbc.com/2017/10/12/morgan-stanley-how-to-invest-in-1-trillion-spaceindustry.html [175] https://www.kurzweilai.net/foreword-to-virtual-humans [176] http://news.bbc.co.uk/2/hi/south_asia/6326629.stm [177] https://www.iter.org/fr/newsline/286/1742 [178] http://web.mit.edu/12.000/www/m2016/finalwebsite/solutions/oceans.html [179] https://www.popularmechanics.com/science/environment/a11842/why-deep-sea-rare-earthmetals-will-stay-right-where-they-are-for-now/ [180] https://www.wired.com/2009/04/braintweet/ [181] http://www.spacedaily.com/news/ssp-01a.html [182]

https://www.amazon.com/Singularity-Near-Humans-TranscendBiology/dp/0143037889/ref=sr_1_1?ie=UTF8&s=books&qid=1261913594&sr=1-1 [183] https://thinkprogress.org/science-peak-oil-production-may-already-be-here-da2b2a82292c/ [184] https://www.youtube.com/watch?v=5mRM9MlZ9bk [185] https://www.theguardian.com/environment/2018/nov/05/ozone-layer-healing-after-aerosolsun-northern-hemisphere [186] https://www.space.com/17537-antimatter-fusion-engines-future-spaceships.html [187] https://www.pewforum.org/2015/04/02/religious-projections-2010-2050/ [188]

https://www.agci.org/search/404/? keyword=dB%20OR%20PDFs%20OR%2003S2%20OR%20MMauel%20OR%20USFutures%20OR%20pdf

******ebook converter DEMO Watermarks*******