La rationalité scientifique: Aujourd'hui 9782759820573

Les études sur les sciences se font actuellement dans des cadres divers, tant à l’intérieur qu’à l’extérieur des science

174 24 619KB

French Pages 98 [94] Year 2017

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

La rationalité scientifique: Aujourd'hui
 9782759820573

Citation preview

La rationalité scientifique aujourd’hui Sous la direction de Claude DEBRU, Jean-Pierre KAHANE et Évariste SANCHEZ-PALENCIA

ACADÉMIE DES SCIENCES

17, avenue du Hoggar Parc d’activités de Courtabœuf, BP 112 91944 Les Ulis Cedex A, France

Illustration de couverture : « Louis Pasteur » par Robert Thom in Bender Georges A. Great Moments in Pharmacy Detroit: Northwood Institute Press, 1966. Détail. C’est dans un ballon de ce type que Pasteur accomplit l’expérience la plus convaincante en réfutation de la notion de génération spontanée. Une fois stérilisé, le contenu du ballon ne se trouble, du fait de la croissance de microorganismes, que si ce contenu est mis en contact avec les poussières de l’air qui se sont déposées dans la partie basse du col. (Les auteurs remercient Annick Perrot, Conservateur honoraire du musée Pasteur, et Maxime Schwartz, Membre correspondant de l’Académie des sciences, Directeur général honoraire de l’Institut Pasteur.)

Imprimé en France

© 2016, EDP Sciences 17, avenue du Hoggar, BP 112, Parc d’activités de Courtaboeuf, 91944 Les Ulis Cedex A Tous droits de traduction, d’adaptation et de reproduction par tous procédés réservés pour tous pays. Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des pages publiées dans le présent ouvrage, faite sans l’autorisation de l’éditeur est illicite et constitue une contrefaçon. Seules sont autorisées, d’une part, les reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective, et d’autre part, les courtes citations justifiées par le caractère scientifique ou d’information de l’oeuvre dans laquelle elles sont incorporées (art. L. 122-4, L. 122-5 et L. 335-2 du Code de la propriété intellectuelle). Des photocopies payantes peuvent être réalisées avec l’accord de l’éditeur. S’adresser au : Centre français d’exploitation du droit de copie, 3, rue Hautefeuille, 75006 Paris. Tél. : 01 43 26 95 35. ISBN 978-2-7598-1979-9

Présentation Les études sur les sciences se font actuellement dans des cadres divers, tant à l’intérieur qu’à l’extérieur des sciences proprement dites. Les contributions des scientifiques à la réflexion sur leurs propres domaines au cours du siècle dernier ont été particulièrement marquantes. Qu’en est-il de la rationalité scientifique aujourd’hui ? Des spécialistes de disciplines variées contribuent à cette réflexion des sciences sur elles-mêmes, dans le nouveau contexte scientifique, philosophique et sociétal. Les textes réunis dans cet ouvrage sont pour la plupart issus du colloque « Les scientifiques et l’épistémologie : la rationalité scientifique aujourd’hui » (10 décembre 2014), organisé par le Comité Histoire des sciences et épistémologie de l’Académie des sciences.

Liste des auteurs Catherine Bréchignac

Secrétaire perpétuel de l’Académie des sciences

Édouard Brézin

Membre de l’Académie des sciences – Professeur émérite à l’École normale supérieure et à l’École polytechnique

Antoine Danchin

Membre de l’Académie des sciences – Président et directeur scientifique d’Amabiotics SAS

Claude Debru

Membre de l’Académie des sciences – Professeur émérite à l’École normale supérieure

Gerhard Heinzmann

Professeur à l’université de Lorraine – Directeur des Archives Henri Poincaré

Jean-Pierre Kahane

Membre de l’Académie des sciences – Professeur émérite à l’université Paris-Sud Orsay

Bertrand Saint-Sernin

Membre de l’Académie des sciences, morales et politiques – Professeur émérite à l’université Paris-Sorbonne

Évariste Sanchez-Palencia

Membre de l’Académie des sciences – Directeur de recherche émérite au CNRS

Cédric Villani

Membre de l’Académie des sciences – Directeur de l’Institut Henri Poincaré

Coordination éditoriale : Jean-Yves CHAPRON, directeur du service des publications de l’Académie des sciences, assisté de Joëlle FANON.

Table des matières Introduction – La démarche scientifique ou les langages de la raison 7 Catherine Bréchignac Chapitre 1 – Rencontres fortuites dans le monde des idées : de la chance en recherche mathématique 13 Interview de Cédric Villani par Claude Debru Chapitre 2 – Sur l’origine et la portée des concepts mathématiques 27 Jean-Pierre Kahane Chapitre 3 – Le flair

35

Bertrand Saint-Sernin Chapitre 4 – Vérité scientifique en deçà des Pyrénées… vérité au-delà 43 Édouard Brézin Chapitre 5 – Rigueur, approximation et évolution des connaissances 49 Évariste Sanchez-Palencia Chapitre 6 – Comprendre ce qu’est la vie : la biologie synthétique 59 Antoine Danchin

Chapitre 7 – La rationalité, une et complexe

75

Gerhard Heinzmann Chapitre 8 – La rationalité scientifique face à deux défis distincts : le relativisme cognitif, l’anti-science Claude Debru

79

Introduction

La démarche scientifique ou les langages de la raison Catherine Bréchignac Au fil du temps, les hommes ont accumulé des savoirs pour comprendre, se protéger, se soigner, ou tenter d’agir sur leur environnement. C’est ainsi que la science est définie dans le Trésor de la langue française comme  : « la somme de connaissances qu’un individu possède ou peut acquérir par l’étude, la réflexion ou l’expérience ». Il est clair que, de nos jours, un seul individu ne peut posséder à lui seul l’ensemble des connaissances déchiffrées par l’humanité, et qu’il en reste encore beaucoup à acquérir, ce qui engendre dans nos sociétés des questionnements, voire des peurs, quant à l’utilisation des connaissances sans en connaître l’étendue des effets, et des critiques envers la science qui laisse certaines questions sans réponse. L’observation du ciel et les mathématiques constituent le berceau de la connaissance scientifique. Les origines de l’astronomie remontent au-delà de l’Antiquité. La pierre gravée, trouvée le 15 août 2006 au nord-ouest de la Chine, montre une représentation de la Grande Ourse qui date d’environ 10  000  ans  ; elle témoigne que l’homme scrutait le ciel il y a fort longtemps. Avec l’apparition de l’écriture, les observations astronomiques sont consignées avec soin et ceci dans les quatre foyers de civilisations qu’étaient la Mésopotamie, l’Égypte, la Chine et ce que nous appelons aujourd’hui les civilisations précolombiennes. Mais à cette époque, qui nous a transmis des

8

La

rationalité scientifique aujourd’hui

calendriers d’une grande précision, aucune civilisation ne cherchait à comprendre le « pourquoi » des phénomènes célestes observés. La grande nouveauté vient de la Grèce antique lorsque les mathématiques sortent de l’utilitaire pour devenir conceptuelles, et qu’émerge la philosophie. Avec Thalès, le principe d’explication des phénomènes observés n’est plus transcendantal mais réel. Les lois sont dictées par la nature et des théories rationnelles, où les mathématiques sont dominantes, procurent des explications chiffrées ou géométriques. L’attraction de Pythagore pour les rapports numériques dans les harmonies en musique lui a permis de définir la gamme qui fut en usage jusqu’à la fin du Moyen Âge. Si une corde a une longueur qui donne un do, une corde d’une longueur vibrante deux fois plus courte donne un do à l’octave supérieure. Il définit aussi la quinte par son rapport 3/2 sur le monocorde. Ce fut la première mathématisation de la musique. Cependant, en ces temps, des discussions philosophiques menaient à des paradoxes dont Zénon d’Élée fut le porte-parole. Celui bien connu d’Achille et la tortue a rapport au temps. Achille court plus vite que la tortue, mais si celle-ci part avec quelques mètres d’avance sur lui, un raisonnement construit par itérations successives montre qu’il ne la rattrapera jamais car lorsqu’il arrivera au point de départ de la tortue, elle sera déjà plus loin. L’expérience montre qu’il n’en est rien, d’où le paradoxe. Ce raisonnement, basé sur la dichotomie du temps, n’est pas approprié pour décrire des mouvements continus. C’étaient les prémices de la démarche scientifique. Il fallut attendre encore près de 2 000 ans pour voir poindre la « démarche scientifique » au sens où nous l’entendons aujourd’hui. Elle est née en Europe au début du xviie  siècle. C’est Galilée qui en donna le coup d’envoi. Il construisit des expériences simples, relatives à la chute des corps, et définit les formules qui les régissent. Il affirme dans L’Essayeur, paru en 1623, que le livre de la Nature est écrit « en langage mathématique ». La démarche scientifique, au sens de la confrontation entre la théorie et l’expérience, devint l’une des méthodes puissantes qui fit progresser la connaissance. Elle s’étendit au monde entier, et fit de l’Europe le geyser de la science. La démarche scientifique est une démarche de pensée. La pensée est indissociable du langage, et l’écrit aide à fixer la pensée. On peut se poser la question : pourquoi, avant notre ère, les civilisations olmèque et maya qui peuplaient un côté de la planète, ainsi que la civilisation chinoise qui peuplait l’autre côté et dont la pensée est riche et originale n’ont-elles pas engendré, avec les mêmes observations que celles que firent des siècles plus tard les Européens, la démarche scientifique ? Si cette question est sans réponse, il est à remarquer que les formes linguistiques des langues chinoise ou maya basées sur des idéogrammes sont très différentes des langues alphabétiques,

La

démarche scientifique ou les langages de la raison

9

plus abstraites et linéaires, transcrivant les mots par la combinatoire de lettres, et les idées par un ensemble de mots. La langue chinoise par exemple n’est pas vraiment lexicalisée, et la pensée chinoise est plus une pensée globale qu’une pensée analytique. Or, la démarche scientifique, quant à elle, est une démarche d’investigation qui passe en premier lieu par l’analyse. Observer, analyser, accumuler des données, établir des lois pour expliquer les faits expérimentaux, tout en cherchant s’il n’existe pas un contre-exemple qui mette la loi en défaut, faire des synthèses est, depuis la fin du xvie siècle, la méthode qui a permis d’accroître la somme de nos connaissances. C’est ainsi que ne sont conservées que les théories qui ne se contredisent pas entre elles, qui s’emboîtent, les unes étant des approximations locales des autres au périmètre plus étendu. Elles nous permettent d’appréhender le monde qui nous entoure d’une manière conceptuelle et synthétique, et présentent, outre un raisonnement rationnel, l’avantage de minimiser la place qu’occuperait la mémorisation d’un grand nombre d’observations dans notre cerveau. La démarche scientifique fut tout d’abord déterministe. Construite pour la physique, elle permit à la chimie de devenir ce que nous appelons une science exacte. C’est Lavoisier dans Méthode de nomenclature chimique, publié en 1787, qui, devant le nombre de substances connues en constante augmentation, a rationalisé leur appellation et utilisé un mode d’écriture constitué de symboles instituant ainsi la charte fondatrice de la chimie. C’est Dimitri Ivanovitch Mendeleïev, un maniaque de l’ordre, qui écrivit l’alphabet de la chimie avec la classification périodique, explicitant ainsi les affinités chimiques. Le 6  mars 1869, il présente devant la société russe de chimie un projet de classification périodique à lignes et colonnes  ; les symboles des éléments chimiques s’inscrivent sur une ligne en fonction de leur masse, allant à la ligne afin que les éléments ayant des propriétés chimiques similaires se retrouvent en colonnes. Il laissait des cases vides pour les éléments non encore connus à l’époque, qui furent remplies par la suite. La réactivité chimique n’était plus empirique mais entrait dans la logique déterministe. Suivant cette même idée, Claude Bernard, considéré comme le fondateur de la physiologie moderne, dit dans son célèbre ouvrage de 1865, Introduction à l’étude de la médecine expérimentale : « Le raisonnement est toujours le même, aussi bien dans les sciences qui étudient les êtres vivants que dans celles qui s’occupent des corps bruts. Mais, dans chaque genre de science, les phénomènes varient et présentent une complexité et des difficultés d’investigation qui leur sont propres. C’est ce qui fait que les principes de l’expérimentation sont incomparablement plus difficiles à appliquer à la médecine et aux phénomènes des corps vivants qu’à la physique et aux phénomènes des corps bruts… »

10

La

rationalité scientifique aujourd’hui

À la fin du xixe siècle, la démarche scientifique déterministe était un outil qui fascinait, il permettait de prévoir, et comme l’exprimait Bergson dans son ouvrage L’évolution créatrice, publié en 1907, «  savoir c’est prévoir pour agir ». Mais, au début du xxe siècle, afin de répondre à des questions où la physique classique échouait, émergea le champ extraordinaire et jusqu’alors inexploré de la mécanique quantique. Son aspect probabiliste, et le principe d’incertitude d’Heisenberg exprimant que l’on ne peut pas connaître exactement et simultanément la vitesse et la position d’une particule quantique, sema le doute dans la démarche scientifique déterministe utilisée jusqu’alors. L’idée des théories probabilistes était cependant ancienne. Elle vient des jeux de hasard. L’exemple considéré par un mathématicien italien, le moine franciscain Luca Pacioli, en 1494, est le suivant  : une brigade joue à la paume. La partie se joue en 60 points, et chaque coup vaut 10 points. L’enjeu est de 10 ducats. Un incident survient qui force les soldats à interrompre la partie commencée, alors que le premier camp a gagné 50 points et le second 20. Quelle part de l’enjeu revient à chaque camp  ? Doit-elle être répartie proportionnellement aux gains ? Proportionnellement aux pertes ? Ou bien doit-elle s’appuyer sur un raisonnement mathématique ? C’est Pascal qui, un siècle et demi plus tard, donnera la solution. C’est Christian Huygens qui, en 1667, écrira le premier traité des probabilités. De nos jours, les probabilités constituent un champ entier des mathématiques, basées autour d’un langage qui leur est propre. Elles sont l’outil indispensable dès lors qu’une des variables de l’expérience présente un caractère aléatoire. Mais si l’on peut prévoir avec certitude l’ensemble des résultats possibles avant l’expérience, comme dans le cas simple du joueur de dés, l’unicité de la solution n’est révélée que lorsque la mesure est faite. La théorie des jeux initialement développée par les mathématiciens a été enrichie par les économistes en représentant les stratégies des différents acteurs en interdépendance. Les travaux de Jean Tirole, le très récent prix Nobel d’économie, s’appuient sur ce concept. Le raisonnement probabiliste n’est pas moins rigoureux, et tout aussi utile que le raisonnement déterministe, la difficulté vient du fait que l’on peut beaucoup plus facilement y faire entrer la subjectivité et que certains confondent alors doute et probabilité. La compréhension des systèmes complexes présente une autre difficulté. Contrairement à ce que préconisait Descartes dans le Discours de la méthode : « conduire par ordre mes pensées en commençant par les objets les plus simples, et les plus aisés à connaître, pour monter peu à peu comme par degrés jusques à la connaissance des plus composés », dans un système

La

démarche scientifique ou les langages de la raison

11

complexe le tout n’est pas la somme des parties, et la connaissance des parties n’est souvent pas suffisante pour connaître les propriétés du tout, elle n’est même parfois pas nécessaire. Les systèmes complexes font souvent émerger de nouvelles propriétés comme les effets collectifs. Chez les systèmes inertes, comme les systèmes vivants, la complexité perce par étapes. Il faut, par exemple, moins d’une dizaine d’atomes métalliques pour que se construise la résonance collective des électrons, qui domine toutes les excitations individuelles et conduit à la conductivité des métaux. Les cellules du muscle cardiaque, mises en culture dans une boîte de Petri, ne se contractent d’une manière synchrone que lorsqu’elles dépassent la centaine. Les milliards de neurones qui composent notre cerveau, et qui n’ont individuellement aucune intelligence, en élaborent une en se couplant. À ce stade, prévoir les propriétés émergentes d’un système complexe à partir des propriétés moléculaires n’est sans doute plus adapté. Peut-être que nos amis Chinois qui ont, de par leur langue, une pensée plus globalisée que les Occidentaux, pourraient apporter un nouvel éclairage à cette question. Aujourd’hui, la technologie du numérique nous fournit la possibilité de jongler avec d’impressionnantes masses de données, les mégadonnées ou les données massives dont il nous faut repenser le transfert, le stockage et le traitement si nous voulons en tirer du sens. Dans le Grand collisionneur de hadrons (LHC), des particules entrent en collision environ 600 millions de fois par seconde. Chaque collision produit des particules qui se décomposent souvent de façon très complexe en formant des particules plus nombreuses. C’est cependant en exploitant ces données avec des algorithmes informatiques spécifiques que fut mis en évidence le boson de Higgs, la particule élémentaire manquante au modèle standard. Les recherches en métagénomique – c’està-dire l’ensemble des génomes présents dans un environnement complexe, comme le microbiote intestinal, ces milliards de bactéries qui peuplent notre tube digestif – ne peuvent se faire sans le concours des informaticiens. C’est ainsi qu’est née la bio-informatique. La démarche scientifique est ainsi un outil de la raison que l’homme construit pour accroître les connaissances, comme il façonne ses outils pour résoudre les problèmes techniques. Elle n’est donc pas figée. Cependant, elle ne doit en aucun cas laisser place à un langage approximatif, pauvre et sans construction. Elle doit au contraire construire des langues riches et précises, afin de rendre la pensée humaine plus intelligible. Mais la limite ultime de la démarche scientifique réside dans l’impossibilité de démontrer qu’une hypothèse n’existe pas. Galilée nous rappelle que la nature est écrite en langage mathématique. Le zéro est cependant un nombre à part. Son apparition fut longue et délicate, suivant les civilisations qui n’ont pas toutes ressenti le besoin d’inventer un symbole pour représenter l’absence d’objets. Le zéro n’est pas mesurable. Si nous émettons une hypothèse qui

12

La

rationalité scientifique aujourd’hui

n’existe pas, on peut passer un temps infini à ne pas en trouver l’existence. L’hypothèse de la génération spontanée, émise par les Grecs, résista jusqu’à Pasteur qui, avec ses expériences à col-de-cygne et sa découverte de la « pasteurisation  », la fit tomber en désuétude. L’hypothèse de l’éther, substance uniforme qui remplirait tout l’espace et transmettrait les effets entre les corps, fut reprise au cours des siècles jusqu’à l’expérience de Michelson et Morley qui, avec une grande précision, n’a pu déceler aucun mouvement de la Terre par rapport à l’éther. En 1889, Poincaré écrivit, dans le sens de sa philosophie du conventionnalisme : « Peu nous importe que l’éther existe réellement, ce n’est là qu’une hypothèse commode, un jour viendra sans doute où l’éther sera rejeté comme inutile. » De nos jours, la médiatisation de la science qui incite à rendre mystérieux ce qui n’est pas visible et à donner du corps à ce qui n’existe pas nous entraîne encore loin du rationnel. C’est le cas de ce que nous entendons autour de la mémoire de l’eau. L’eau, élément indispensable à la vie, conserverait une empreinte des propriétés de certaines molécules qui ne font que la traverser. La formulation est certes poétique, mais à ce jour, aucune expérience reproductible n’a permis de conclure à la validité d’une telle hypothèse. C’est le temps l’arbitre de ce qui n’existe pas. Devant une question qui se pose et à laquelle nous aimerions savoir répondre, deux chemins s’offrent à nous. La voie empirique qui puise dans l’ensemble des connaissances stockées dans notre mémoire et cherche par analogie la solution qui apparaît la plus appropriée, la voie rationnelle qui suit une théorie chiffrée et peut parfois conduire à une réponse contreintuitive. Cette dernière qui, avec de l’entraînement peut s’avérer rapide, est cependant plus lente que le mode empirique, ce qui fait dire à Olivier Houdé dans son dernier ouvrage qu’il faut « apprendre à résister ». Prendre le temps de raisonner, c’est ce qu’a suggéré le programme pédagogique porté par la fondation La main à la pâte qui, à la trilogie de Jules Ferry lire, écrire, compter, a ajouté raisonner. Pour conclure, j’aimerais citer Diderot qui, dans les Pensées philosophiques, dit ceci : « On croirait faire injure à la raison, si l’on disait un mot en faveur de ses rivales que sont les passions. Cependant il n’y a que les passions, et les grandes passions, qui puissent élever l’âme aux grandes choses. Sans elles, plus de sublime, soit dans les mœurs, soit dans les ouvrages ; les beaux-arts retournent en enfance, et la vertu devient minutieuse. » Et j’ajouterai que de nos jours il faut redonner à nos sociétés la passion d’apprendre, de comprendre et le plaisir de l’effort. Texte présenté à l’Académie des sciences en séance solennelle de remise des prix, le 14 octobre 2014.

Chapitre

1

Rencontres fortuites dans le monde des idées : de la chance en recherche mathématique Interview de Cédric Villani par Claude Debru Claude Debru  : Quels sont les commentaires que peut inspirer le paradoxe entre la rigueur des démonstrations et l’irrationalité des chemins de découverte en mathématiques ? Cédric Villani : Il y a une tension constante dans la pratique mathématique entre, d’une part, la rigueur qui accompagne le produit final et le fait que les briques de base des démonstrations sont des éléments logiques qui suivent des règles précises, et d’autre part, le fait que tous les moyens sont bons pour parvenir au chemin de la démonstration, le fait qu’il est issu d’un certain travail d’imagination et qu’il est souvent issu d’un travail irrationnel – l’irrationnel étant très efficace parfois pour découvrir des relations, pour imaginer des plans, ce qui n’empêche pas que l’exécution, ensuite, soit parfaitement rationnelle. Pour prendre une analogie évidente : tous les moyens sont bons pour trouver la mélodie d’une musique, mais l’instrument de musique se conforme aux strictes règles de la physique.

14

La

rationalité scientifique aujourd’hui

Quelques exemples célèbres de processus scientifiques obtenus d’une manière tout à fait irrationnelle : l’un des plus marquants et des plus célèbres est celui de Kepler. Kepler obtient les lois du mouvement des planètes autour du Soleil avec des explications et des arguments qui sont parfaitement fantaisistes et parfaitement mystiques, en tout cas complètement impénétrables. Newton pour sa part va beaucoup plus loin que Kepler dans la mathématisation de l’affaire, mais là encore il est reconnu comme une grande figure mystique, occupé à des questions alchimiques et à trouver des harmonies étranges entre différents éléments du monde. On voit bien ici que l’un des outils clés du mathématicien et d’une manière générale un des outils clés de l’intelligence étant l’analogie, l’association d’idées, des processus qui mènent aux associations d’idées, si irrationnels soient-ils, ont des chances d’amener à découvrir le pot aux roses. On va citer encore, pour rester dans le xiie  siècle, parmi les étonnantes trajectoires sinueuses de la pensée scientifique, Galilée, que l’on connaît bien pour l’expression de son credo d’un monde qui est fait de mathématiques, écrit en langage mathématique. On le connaît aussi pour la découverte des trajectoires paraboliques des projectiles. On apprend cela au lycée  : une balle que l’on lance en l’air décrit une parabole. Galilée est effectivement le premier à dire cela, mais sur la base d’arguments plus que branlants. En fait, il a mis bout à bout deux raisonnements erronés pour obtenir une conclusion juste. Il a cru, sans que l’on puisse vraiment comprendre pourquoi, que le problème de la balle est le symétrique du problème de la chaînette, de la corde pesante, et il a cru, qui sait pourquoi, que la corde pesante décrit une parabole. Et l’on peut vérifier à la fin qu’il est arrivé à une parabole. Il commence par faire une analogie entre différents phénomènes, puis il raisonne géométriquement. Les figures sont justes, mais le raisonnement est faux. L’idéal bourbakiste est de raisonner juste sur des figures fausses, là c’est le contraire. On peut citer d’autres exemples, mais il est assez fréquent que les gens soient amenés à faire des découvertes sur la base de processus très peu rigoureux, avec des erreurs, avec des idées qui viennent ici et là pour des raisons de croyance, pour des raisons d’intuition qui ne sont pas fondées sur grand chose. J’ai décrit dans Théorème vivant l’un des moments clés de la quête de l’amortissement lambda où mon collègue Étienne Ghys me donne une indication précieuse sur la base d’un raisonnement totalement faux. Ce n’est même pas un raisonnement faux, car il avait été inspiré par des figures que j’avais tracées sur le tableau pour discuter avec un collègue, et ces figures représentaient en fait la situation dans laquelle le théorème que je cherchais à démontrer n’était pas vrai, et il a fait le lien correspondant à la situation dans laquelle le théorème s’applique. Donc on ne peut pas imaginer plus faux. Et pourtant à la fin, cela a marché.

Rencontres

fortuites dans le monde des idées : de la chance en recherche mathématique



15

Derrière cela se trouve bien sûr l’idée que, quand vous êtes en phase d’exploration, toutes les idées sont bonnes à prendre. D’où qu’elles viennent, on peut les tester, les explorer. Parfois il peut être utile de tester une idée qui a surgi pour de mauvaises raisons. En mathématiques, il y a cette tension permanente entre la rigueur des raisonnements et la multitude considérable d’arguments et de plans possibles. Et la vie du mathématicien est dominée par ces deux tensions, l’une, la pression de ne pas faire d’erreurs, car il faut que chaque étape soit rigoureuse, et l’autre, la pression de trouver le bon argument, alors qu’il y a tellement de possibilités. Dans un cas, c’est juste une question de rigueur, de vérification, dans l’autre cas, c’est une question d’exploration dans un espace de possibles gigantesque. Et là, c’est la quantité qui est vertigineuse. Ce contraste entre rationalité de la conclusion et irrationalité souvent du chemin est lié à cette tension entre la nécessité de la rigueur et le besoin de trouver son chemin dans un espace infini. Je vais citer textuellement un collègue de Georgia Tech à Atlanta, Michael Loss, pour qui j’ai beaucoup d’admiration, qui dit à ses collègues, à ses étudiants : il ne faut jamais perdre de vue que nous démontrons des résultats mathématiques par des méthodes non scientifiques. Il entend par là, non que la démonstration n’est pas juste, mais que pour arriver à la démonstration on emploie des chemins non scientifiques. Pour faire un parallèle avec l’autre grande figure populaire de la déduction, l’inspecteur Colombo  : l’inspecteur Colombo utilise systématiquement l’argumentation logique pour la démonstration finale, mais il commence à repérer le coupable juste au flair. On voit très bien que Colombo a la certitude de l’identité du coupable au premier contact parce qu’il sent les choses. Et après seulement, il met en place le piège autour du coupable. Claude Debru  : Qu’est-ce que la démonstration de la conjecture de Poincaré a ouvert, sur la longue durée de l’histoire des mathématiques ? Cédric Villani : La conjecture de Poincaré date du tout début du xxe siècle. En termes modernes, elle pose la question, sans s’engager d’ailleurs, sans parier sur le résultat : est-ce qu’il existe plusieurs géométries tridimensionnelles, bornées, sans trous, ou est-ce qu’il en existe une seule ? Qu’est-ce que cela veut dire ? Les géométries peuvent être déformées les unes les autres. Poincaré s’intéresse à la nature topologique d’une géométrie en imaginant des droites faire des déformations, en étirant les distances ou en les contractant. Même si on fait cela, on ne pourra jamais changer cette surface de Möbius en un disque. Il y a une obstruction topologique. Ce sont des objets de nature différente. Maintenant on s’intéresse, non pas comme dans le ruban de Möbius à des surfaces qui ont un bord (le bord tranchant du papier, si le ruban est en

16

La

rationalité scientifique aujourd’hui

papier), mais à des objets sans bords comme une sphère (on avance sur la sphère sans jamais trouver de fin), des objets fermés, des objets bornés. Et par exemple, si je prends une bouée, ou un beignet, quand on regarde les enveloppes géométriques, c’est la même chose à une déformation près, et si je déforme ainsi, je peux obtenir cette tasse. Imaginez le centre de la bouée, le trou. Il y a un des côtés de la bouée que j’ai déformé, remodelé – mais il est possible de faire cette déformation. Mais si ma tasse a deux anses, il est impossible de déformer une tasse à une anse en une tasse à deux anses, sauf à créer un trou quelque part, à ouvrir un trou, à brutaliser la surface. Ce que l’on vient de dire correspond en gros à ce qu’on appelle le théorème de classification des surfaces. C’est un des grands accomplissements du xixe siècle, disant que pour classifier les surfaces il suffit de connaître le nombre de trous de la surface. Une sphère n’a aucun trou, un coup-de-poing américain qu’on peut enfiler sur les quatre doigts aura quatre trous peut-être, et ainsi de suite. Un trou, ici, on pourrait l’appeler une anse, si l’on veut. C’est quelque chose autour de quoi on peut enrouler une ficelle, les mathématiciens disent un lacet. Si j’ai une tasse, je peux entourer l’anse avec une ficelle, avec un lacet, et je peux suspendre la tasse avec cette ficelle. Si c’est une sphère, et que j’essaie de faire la même chose, que j’entoure la sphère avec un lacet, si je suspends, la sphère peut très bien passer à travers le trou. Il suffira qu’elle se déforme un peu, qu’on la ratatine un peu, et elle pourra s’échapper, tandis que j’ai beau ratatiner, déformer autant que je veux ma tasse dont l’anse est prise par une ficelle, elle ne pourra jamais s’échapper. Donc la tasse a un trou, la sphère n’a aucun trou. Maintenant, imaginons un univers, j’entends par là une géométrie de dimension 3 et non 2 comme la surface de la tasse. Il se peut qu’il y ait des trous dans cet univers, il se peut aussi qu’il n’y en ait pas, et on cherche à classifier. Question  : est-il possible de déformer un univers sans trou en un autre univers sans trou ? Il y a un univers sans trou qui serait l’analogue de la sphère, c’est la 3-sphère, la sphère de dimension  3, qu’il faut imaginer comme une partie de l’espace de dimension 4, et donc c’est un peu un modèle, c’est l’espace sans trou le plus naturel parmi l’espace fermé. Question : est-ce qu’il existe des géométries sans trou qui sont différentes de la 3-sphère, fondamentalement, topologiquement différentes, ou est-ce qu’il n’y en a pas ? Il est assez intéressant de remarquer que Poincaré pose la question dans la dernière annexe d’une série d’articles novateurs sur la topologie. Dans les dernières lignes de cette dernière annexe, donc à la fin de ce travail de plusieurs centaines de pages, on trouve posée la question. La toute dernière phrase de l’article est : « mais cette question nous entraînerait trop loin ». Il s’est écoulé cent ans avant que l’on puisse répondre à la question. Avant cela, il y avait eu des réponses partielles, et pas moins de trois médailles

Rencontres

fortuites dans le monde des idées : de la chance en recherche mathématique



17

Fields attribuées pour des réponses partielles à la question. Une pour celui qui a démontré qu’en dimension 5 et plus, la conjecture était vraie, pas en dimension 3 forcément, mais 5 et plus. Une pour celui qui a traité la dimension 4. Et une pour celui qui a montré comment, en dimension 3, la conjecture de Poincaré pouvait être vue comme un cas particulier d’un grand théorème de classification de tous les espaces de dimension  3. Il s’appelait William Thurston, et il est reconnu comme l’un des grands géomètres du xxe siècle. Avant le travail de Thurston, les géomètres n’étaient pas tous d’accord entre eux sur la validité de la conjecture de Poincaré, à savoir si la réponse était oui ou non. Mais quand Thurston est arrivé, il a montré qu’on pouvait écrire cela dans un théorème beaucoup plus général, très beau, avec une magnifique vision de ce que serait l’ensemble des espaces de dimension 3, et comment la conjecture de Poincaré venait s’y inscrire si la réponse était positive. Cela a convaincu tout le monde. C’est un exemple de conviction par esthétique. Vous montrez à votre interlocuteur mathématicien quelque chose qui est tellement beau qu’il dit : c’est forcément vrai. Une conjecture qui est tellement belle qu’elle est forcément vraie. Et il ne savait pas plus démontrer la grande conjecture que la petite, mais il a fait quelques avancées, et l’honneur est revenu à Grigori Perelman, vers 2002, d’annoncer une démonstration de la petite et de la grande conjecture tout à la fois. Cela a été une révolution, d’abord parce que c’était le point fort d’un programme qui existait depuis plus d’un siècle, ensuite parce que la preuve était très surprenante pour des géomètres : une preuve très analytique, passant énormément de temps à s’interroger sur les propriétés qualitatives d’une équation d’évolution, une équation aux dérivées partielles, non linéaire, qui est une sorte d’équation de diffusion portant sur la courbure. On l’appelle le flot de Ricci, et il a été introduit par le mathématicien Richard Hamilton. Il a fallu à peu près quatre ans à la communauté pour vérifier cette preuve. Trois équipes s’y sont mises, des articles, des livres ont été écrits, et des versions simplifiées de la démonstration de Perelman ont été écrites. Cela a donné un coup d’envoi à des recherches de grande ampleur sur certains flots géométriques. En termes de renom de l’analyse géométrique, analyse des équations posées sur des variétés, il y a l’avant et l’après Perelman. Après Perelman, toutes les grandes universités éprouvent le besoin de se renforcer dans cette direction de recherche en voyant la puissance de cette machinerie. Un flot géométrique est un peu n’importe quelle équation mathématique qui permet de prédire une évolution posée dans une géométrie qui peut se déformer éventuellement. L’exemple de flot géométrique le plus simple est le flot de courbure moyenne. On a ici une courbe qui a une certaine forme. On fait agir une équation d’évolution très précise qui dit comment se déforme la courbe. Cela s’appelle le flot de courbure moyenne. Plus la courbure est importante, plus cela pousse la courbe. Au fur et à mesure que le flot avance,

18

La

rationalité scientifique aujourd’hui

la courbe va devenir de plus en plus ronde. Dans le flot de Ricci, on met cela en œuvre sur des géométries qui ne sont pas comme cela à une dimension, sur des géométries à trois dimensions ou plus. Pour terminer sur Perelman, le point le plus marquant est ce bouleversement des équilibres entre sousdomaines des mathématiques, à l’interface entre géométrie et analyse. Claude Debru : Pourriez-vous commenter le rôle de l’erreur et le fait qu’il n’y a pas d’infaillibilité du mathématicien ? Cédric Villani : Les mathématiciens font tous des erreurs et d’habitude on ne voit pas ces erreurs de l’extérieur parce que le processus est un processus d’erreur et d’autocorrection. Pendant longtemps, on avance, puis on se corrige, puis on se révise, puis on se recorrige et ainsi de suite. Et ce n’est qu’une fois qu’on est bien sûr de soi qu’on présente l’affaire. Mais au moment de la découverte, on procède énormément par essai, erreur et correction. Donc, le fait qu’un mathématicien fasse des erreurs chez soi, et qu’il les corrige, ne serait pas qualifié d’erreur, mais serait considéré comme un processus normal de la création. Il arrive cependant qu’on « se plante » vraiment, et qu’on publie un résultat dont la preuve est entachée d’erreurs. Certainement l’exemple le plus célèbre est celui d’Henri Poincaré avec ses travaux fondateurs en théorie des systèmes dynamiques, en mécanique chaotique. On sait que la version qu’il avait publiée en réponse à un concours était grossièrement fausse. Les preuves étaient fausses et la conclusion aussi. Puis il a tout réparé. Il y a d’autres exemples. La première preuve d’Andrew Wiles pour le théorème de Fermat était fausse. Le théorème de Fermat avait fait l’objet auparavant de centaines de démonstrations fausses. Les académies des sciences d’un peu partout, les grandes académies des sciences recevaient régulièrement des preuves du théorème de Fermat. À partir d’un certain moment, on ne les lisait même plus, tellement il y en avait. Chaque fois qu’on les examinait en détail, elles se révélaient fausses. Mais le fait que Wiles, qui est l’un des plus grands mathématiciens de notre temps, ait pu proposer cette preuve radicalement fausse montre bien que les meilleurs sont atteints. Il n’a pas publié, mais l’article qu’il a soumis était faux, et c’est dans le processus d’expertise que la faute a été décelée. Il y a des exemples spectaculaires, dans les systèmes dynamiques aussi, dans lesquels un même problème se trouve plusieurs fois résolu par des démonstrations fausses et par des mathématiciens pourtant extrêmement sérieux. Étienne Ghys a fait une très belle recension de l’un de ces problèmes qui sont maudits, dans l’un de ses articles. Il s’agit d’un problème de Hilbert, dont la solution a été annoncée plusieurs fois : à chaque fois c’était faux, et de même certaines démonstrations que l’on a crues justes pendant longtemps se sont révélées fausses cinquante ans après avoir été rédigées. Claude Debru : Peut-on rendre rigoureux un raisonnement intuitif ?

Rencontres

fortuites dans le monde des idées : de la chance en recherche mathématique



19

Cédric Villani : Parfois on peut rendre rigoureux un raisonnement intuitif, parfois on ne le peut pas. Il y a des cas dans lesquels l’intuition rejoint la preuve du problème et dans lesquels on peut juste transformer l’intuition en une démonstration qui tient la route, par exemple pour un raisonnement physique approximatif. Et il y a des cas où on n’y arrive pas. Qu’est-ce que cela nous dit sur l’intuition ? L’intuition d’une preuve mathématique, la façon dont on comprend les résultats, procède par grands ensembles, par blocs, et c’est une sorte de cheminement de pensée entre ces différents blocs, entre tel morceau, tel autre, une échelle de raisonnement dans laquelle on ne se préoccupe pas des détails, et dans laquelle on s’autorise des raccourcis. Par exemple, on admet telle ou telle chose si elle nous rappelle une situation que l’on a déjà vue par ailleurs. Quelquefois, il s’agit de mettre les grandes lignes d’un raisonnement et de mettre à côté la démonstration complète avec tous les détails. Il y a cette notion de grandes lignes du raisonnement, qui est fondamentale dans la compréhension. Y a-t-il en mathématiques une trajectoire de la preuve ? En mathématiques, on cherche à relier la source, l’ensemble de ce qui est connu au départ, avec la cible, ce que l’on veut atteindre. Parfois on essaie de partir de la cible, parfois on essaie de s’élancer à partir de la source. À la fin, il faut une direction, un pont, il faut que ce qui est issu de la cible rencontre ce qui est issu de la source. Tant qu’on n’a pas trouvé un peu ce pont, on ne peut se lancer dans la partie rigoureuse. Claude Debru : Qu’apporte l’ordinateur ? Cédric Villani  : Pour la plupart des mathématiciens, l’ordinateur sert d’auxiliaire qui serait plus du type esclave que du type élève – un outil qui sert à communiquer par courriers électroniques ou qui sert parfois à faire des calculs selon des règles qu’on lui a prescrites, qui représentent tel ou tel modèle. Cela joue un rôle important de nos jours, en particulier à travers l’intuition que peuvent apporter les simulations par ordinateur, qui remplacent le rôle des expériences. Maintenant, il y a d’autres directions de recherche qui font beaucoup plus raisonner l’esprit. Ce sont celles qui ont lieu à l’aide de l’intelligence artificielle et plus spécifiquement la faculté d’organiser, de vérifier une preuve. C’est un domaine à l’interface entre mathématiques et informatique, dans lequel l’Inria joue un rôle historique important, et il est probable que, dans un avenir pas très lointain, on aura des logiciels qui permettront de vérifier des preuves, de vérifier la logique des arguments et de les remplacer par des versions détaillées jusqu’au moindre détail de ces preuves, donc des versions qui sont en pratique illisibles par des humains – parce que si on n’utilise pas des boîtes ici ou là pour les raisonnements, si on ramène tous les détails, on

20

La

rationalité scientifique aujourd’hui

n’arrive pas à lire. Le temps où l’on verra des ordinateurs trouver des démonstrations mathématiques est probablement très reculé. Pour l’instant, c’est véritablement la vérification qui concentre les efforts, avec des enjeux industriels importants, en particulier dans le domaine des systèmes embarqués pour les véhicules de transport. Le mathématicien est quelqu’un qui fait des preuves. Qu’est-ce qu’une preuve mathématique  ? Ce sujet est un peu délicat. Jusqu’à ce que les ordinateurs s’en mêlent, c’étaient un peu des paroles en l’air. Maintenant, c’est un sujet plus sérieux. Il y a plusieurs façons de voir les preuves mathématiques. On peut dire que c’est comme un algorithme, un raisonnement qui permet de passer des postulats de départ à la conclusion finale avec une suite d’opérations très précises. On peut dire aussi que c’est un raisonnement qui permet de convaincre d’autres mathématiciens, et que, pour cela, il va être important que le mathématicien qui fait sa preuve expose les choses de la manière la plus compréhensible possible en indiquant quelles sont les raisons qui font que la preuve marche, en indiquant quels sont les points importants. Dans une démonstration mathématique, stricto sensu, cela n’a pas de sens qu’il y ait des points importants et des points secondaires. Pour la démonstration finale, si une étape est fausse, tout est faux. Mais il y a quand même des points que l’on appelle importants et des points secondaires. Les points importants sont ceux par exemple que l’on utilisera pour expliquer à un collègue pourquoi cela marche, pour résumer la démonstration. Dans un séminaire, au tableau, on écrira les quelques concepts clés, et c’est la façon dont on se représente les choses, avec des droites qui représentent différentes étapes et qui s’appuient en partie sur une culture commune pour permettre la compréhension. Un peu comme si on regardait les différents chapitres d’un roman, en parlant juste des titres des chapitres, et de ce qui s’y passe, sans aller dans le détail de ce qui a été écrit. Enfin, l’important quand on parle de mathématiques, quand on pense mathématiques, ce qui domine sont les concepts. Un concept n’a pas de définition claire, c’est une représentation d’un ensemble de recettes et de relations mathématiques par exemple – l’idée étant qu’à partir de cette trame conceptuelle on pourrait facilement, ou difficilement, reconstituer le détail, ou lire facilement le détail, ou se convaincre de tout ce qui n’y est pas. On trouve des mathématiciens qui sont extrêmement inspirants par leurs concepts, par leur vision, et incapables de rédiger une preuve juste, avec des fautes dans les détails à tous les étages. Un mathématicien professionnel donnera sans hésitation plus de mérite à celui qui a de bonnes idées mais qui n’est pas rigoureux qu’à celui qui a des idées banales mais qui fait preuve d’une rigueur sans faille. L’enchaînement des idées, l’enchaînement

Rencontres

fortuites dans le monde des idées : de la chance en recherche mathématique



21

des grands concepts prime toujours sur la forme et la rigueur. Pour prendre une analogie littéraire, un Tolstoï qui passe pour avoir beaucoup de souffle et un piètre style serait considéré comme un très grand mathématicien. Et d’ailleurs certains mathématiciens russes sont devenus légendaires pour à la fois leur vision inouïe et leur incapacité à écrire quoi que ce soit sans qu’il y ait des fautes un peu partout. Je vais faire la transition avec la question suivante en parlant de mon style de rédaction de preuve. Je n’ai pas de recette particulière et parfois je pars de la source, parfois je pars du but. Un de mes leitmotivs est toujours de me demander quel est le bon degré de généralité des preuves, quel est le bon cadre dans lequel il faut se placer. Il m’est arrivé plusieurs fois de découvrir des preuves intéressantes, importantes même, pour résoudre un problème. Je me demande comment le formuler en plus grande généralité, avec moins de détails, moins de structures, ce qui est aussi une façon de se rajouter des contraintes. Quand on généralise l’énoncé, quand on veut qu’il soit vrai sous des circonstances plus générales, on ajoute des contraintes, et parfois, quand on a plus de contraintes, on trouve la solution plus facilement. Donc, il n’y a pas de manière systématique pour déterminer les ingrédients à utiliser, les contraintes à poser. J’apporte également un soin considérable à la rédaction, au style des preuves. Les preuves sont écrites, réécrites, et je fais même partie des mathématiciens à l’ancienne qui commencent par écrire les preuves complètes à la main avant de passer à l’étape dactylographiée. En outre, le plan d’ensemble est important pour moi. Il m’arrive régulièrement de reprendre toute la démonstration à zéro, de tout refaire. Donc, pour moi, cela est également un vrai exercice de rédaction. Claude Debru : Il est toujours difficile de tirer des leçons générales d’un itinéraire personnel. Quelles leçons pour les autres tirer d’un itinéraire personnel comme le vôtre ? Cédric Villani  : Il y a des enseignements à tirer de mon parcours. Je vais commencer par la partie d’enseignement supérieur, dès les classes préparatoires. J’ai revu l’an dernier un colleur qui m’avait bien connu du temps où j’étais en classes préparatoires. Il m’a dit à peu près la chose suivante : «  Cédric, tu n’étais pas à coup sûr le plus costaud, le plus puissant par rapport à ceux qui étaient là ou ceux qu’on a vus, mais à coup sûr l’un des plus originaux.  » C’est quelque chose qu’il m’a fallu très longtemps avant de comprendre vraiment, peut-être dix ans de carrière avant de comprendre que l’impact que l’on peut avoir en tant que mathématicien dépend de beaucoup de choses, et que ce qu’on appellera la force technique, la puissance technique, la faculté de résoudre des exercices difficiles, n’est qu’un élément parmi d’autres. La recherche est une activité qui requiert énormément de compétences. Au début de ma carrière, je pensais que j’étais limité par le fait que

22

La

rationalité scientifique aujourd’hui

je n’étais pas aussi puissant que d’autres, mais j’ai compris après que cela n’était pas un facteur limitant. Mon parcours à l’École normale supérieure a été marqué par une forte irrégularité, alternant les périodes où je travaillais comme une brute et les périodes où je ne suivais plus les cours. Quand je suis devenu Président de l’Association des élèves, cela a failli être la fin de ma carrière scientifique. Pendant un moment j’étais occupé à plein-temps à organiser des événements pour l’Association, cela pouvait être le bal du Bicentenaire de l’ENS, cela pouvait être la recherche de sponsors,  etc. Je me débrouillais assez bien pour ce genre de choses, et le début de ma thèse a été marqué par une quantité de travail complètement insuffisante. Il est très probable que j’aurais simplement abandonné l’idée de faire une thèse si les enseignants n’étaient pas venus me repêcher en me faisant miroiter la perspective d’un poste de caïman1. Comme on le sait bien, la vie est longue, la carrière scientifique l’est aussi, et l’on peut très bien alterner des périodes productives et des périodes contre-productives – mais, chaque fois, elles ne sont pas réellement contre-productives, c’est simplement que l’on est en train d’explorer ailleurs. Pour un chercheur, le maintien de la motivation est l’un des ingrédients les plus importants, et le fait de prendre à certaines périodes de la vie des temps de vacances peut être important aussi. Autre particularité de mon parcours, j’ai eu plusieurs directeurs de thèse ou tout comme. Mon directeur de thèse, Pierre-Louis Lions, était très pris, c’était après sa médaille Fields. J’ai été aussi influencé par trois autres : il y a eu Yann Brenier, mon tuteur à l’ENS, il y a eu Éric Carlen de Georgia Tech, il y a eu Michel Ledoux à Toulouse, rencontrés à des moments différents au cours de ma thèse. Ce sont vraiment ces quatre – c’est quelque chose à quoi j’ai réfléchi par la suite, parmi tous ceux que j’ai rencontrés et avec qui j’ai travaillé –, ce sont eux dont j’ai vraiment lu les travaux, digéré le style, qui m’ont vraiment influencé, à tel point que dans ma thèse je peux voir que là j’ai étudié ce problème sous l’influence de celui-ci, que là le style ressemble à celui-là, ainsi de suite. Sur ces quatre personnes différentes, travaillant sur des thèmes mathématiques plutôt différents, Carlen et Ledoux sont relativement proches l’un de l’autre, mais entre Carlen et Ledoux d’une part, Brenier et Lions d’autre part, il y a de vraies différences dans le style et dans les sujets. Cette multi-identité, que j’ai bien gérée et bien absorbée, a été extrêmement profitable pour moi. Dès le début, comme Lions n’avait pas tellement de temps pour s’occuper de moi, j’ai dû me débrouiller tout seul. Quand on est thésard, il est très dur d’être seul. Au début on ne comprend rien, c’est un exercice vraiment difficile que de travailler seul, mais cela se regagne après. Le fait que j’ai été très peu supervisé m’a aussi beaucoup formé. Je suis persuadé 1

 Agrégé-répétiteur.

Rencontres

fortuites dans le monde des idées : de la chance en recherche mathématique



23

qu’actuellement, au niveau de l’enseignement supérieur, le problème est que l’on est devenu globalement trop dirigiste avec les étudiants, car après ils manquent d’autonomie au moment où il faut passer le cap, où il faut se faire sa propre identité, et ne plus être juste l’élève de son patron. Dernière particularité de mon cursus : je n’ai jamais cessé d’enseigner. De toutes les médailles Fields françaises, je suis le seul à n’avoir jamais occupé de poste au CNRS. Je n’ai même jamais posé ma candidature au CNRS, avec cette idée, qui était pour moi comme une évidence, qu’il fallait enseigner. Les postes, pour moi, cela a été d’abord caïman, puis professeur des universités. Je ne dis pas qu’il faut enseigner comme une brute, et à un moment je suis entré à l’IUF, mais j’ai toujours enseigné, pas seulement des cours d’université, mais aussi des groupes de travail. J’ai passé un temps considérable à écrire des notes de cours, et mon premier livre sur le transport optimal, paru quand j’avais trente ans et devenu l’introduction de référence sur le sujet, était au début des notes de graduate course à Atlanta. Mon deuxième livre sur le transport optimal, c’était aussi au départ des notes de cours. C’est l’un des deux ou trois grands projets de ma carrière. Cela fait quelques années que je travaille à la seconde édition. La première a été écrite en deux à trois ans. J’ai ouvert le fichier en janvier 2005, et l’ouvrage est paru en 2008. Les collègues n’ont pas compris comment cela a pu être écrit si vite. Quand on voit l’ouvrage, on a plutôt l’impression que c’est un projet pour huit ans. Je l’ai fait à toute allure et pourtant chaque page a été écrite et réécrite et à nouveau réécrite. Donc il y avait un niveau d’obsession et l’investissement total, de tout mon être, qui encore aujourd’hui me surprend. Je dirai aussi que, d’une certaine façon, c’est ce cours qui m’a sorti d’une crise de motivation pour diverses raisons, à la fin 2004, comme cela arrive. Un séjour aux États-Unis ne s’était pas très bien passé. Le fait de me mettre à travailler sur ce cours, de le retravailler, m’a vraiment relancé et donné un enthousiasme considérable. Le cours m’a complètement envahi. Au début, je m’étais mis des limites, en me disant que j’en aurais pour six mois avec 120 pages, pas plus, et petit à petit cela a grossi. Je ne pouvais pas m’en empêcher, j’étais pris dans une frénésie qui faisait qu’il était impossible d’arrêter avant que cela ne soit complet. Parmi les enseignements que je tire, il y a donc l’importance des cours. Certains se demandent ce qu’ils font, quel est leur but. Je crois que faire cours sur un sujet qui vous intéresse est un moyen de se remotiver. Faire cours est toujours un travail de communication, soit avec les élèves quand ils sont là, soit avec un lecteur fictif pour lequel on écrit. Ce travail de communication fait énormément de bien, aide à avoir des idées claires et à connaître les choses. Tous les sujets que je connais vraiment sont ceux que j’ai enseignés. Je les connais parce que je les ai enseignés.

24

La

rationalité scientifique aujourd’hui

Autre morale  : c’est une faculté fondamentale du chercheur que d’être capable de s’obséder, de devenir complètement consumé par son projet, qui peut être un projet long ou un projet court, une affaire d’un mois, de quelques semaines, de quelques mois – mais cette faculté de s’enflammer pour un sujet donné est essentielle. J’ai toujours été à cheval sur des identités. Par exemple, alors que j’étais très clairement analyste, quand je suis arrivé à l’École normale supérieure de Lyon, je me suis mis en tête de participer au montage d’une équipe de probabilités. J’assistais à tous les séminaires de probabilités. Et alors que j’étais très clairement un mathématicien, je me suis mis à lire beaucoup de physique, à discuter avec des physiciens. La multiplication des identités, si l’on veut, fait presque partie de mes règles de vie. Aujourd’hui, je suis à la fois lyonnais et parisien, à la fois administratif et auteur et enseignantchercheur, et cela a toujours été ainsi. Il y a là une espèce de compulsion : chaque fois que je vois une activité, j’ai envie de m’y investir, chaque fois que je vois un sujet, j’ai envie de m’y mettre, chaque fois que je fais un cours, j’ai envie d’écrire un livre là-dessus, et, en multipliant les casquettes, cela m’a valu plusieurs fois d’être accusé de jouer contre mon camp, certainement parce que je ne me sentais pas particulièrement d’un camp ou d’un autre. Mais finalement, cela a été beaucoup plus enrichissant que pénalisant. Quand on essaie d’analyser les circonstances qui mènent à un résultat, à un projet, c’est vertigineux, car on se trouve toujours pris à explorer des coïncidences, des choses qui reposent sur des coups de chance en cascade, avec l’un qui répond sur l’autre et ainsi de suite. Tout a été comme cela parce que notre vie de chercheur dépend énormément de ces petits instants, de ces petites coïncidences. C’est pour cela qu’on voyage tellement et qu’on rencontre tellement de gens. Je vais vous parler d’un exemple que je donne régulièrement, celui où je suis invité par des entreprises à faire des présentations à leurs troupes sur des sujets comme l’innovation. C’était à peu près à la fin de ma thèse, je me retrouvais chez moi en train de lire le cours de Michel Ledoux, le cours de probabilité qui n’était pas spécialement en rapport avec mon sujet de thèse. Ce cours m’avait été indiqué par Éric Carlen comme quelque chose d’intéressant, sur lequel il était bien que je m’investisse. Je lisais cela, que je trouvais passionnant, extrêmement bien écrit. C’est comme une grande histoire avec des acteurs qui se répondent. À un moment je me suis dit : cela me dit quelque chose, il y a des concepts que je connais bien. Je tombe sur un théorème, dont je me dis qu’il ressemble vraiment trop à des choses vues récemment. Je me demande s’il n’y a pas un lien avec une théorie que présentait ce jeune collègue allemand il y a quelques semaines dans un séminaire organisé par Yann Brenier. Le fait qu’il y ait eu les deux à si peu d’intervalle

Rencontres

fortuites dans le monde des idées : de la chance en recherche mathématique



25

était un coup de chance. Et je me suis dit qu’il y avait là quelque chose. En un quart d’heure peut-être, j’ai trouvé une heuristique, intuitivement, qui permettait de faire le lien entre les deux. Cela a demandé quelques jours de travail pour transformer cela en une preuve qui tienne à peu près debout, deux semaines de plus avec le collègue allemand en question, Felix Otto, pour en faire un article qui tienne vraiment la route. Cet article a eu un grand succès : à ce jour c’est toujours mon article le plus cité. Il créait un pont entre deux domaines. Ce n’était pas tellement qu’il démontrait des choses nouvelles, mais il faisait un pont, et la conjonction de ces domaines a été extrêmement fructueuse. Il doit y avoir maintenant au moins cent articles qui ont été écrits sur cette combinaison d’ingrédients. En tout cas ce n’était que le début, j’avais cet article, et à quelque temps de là j’étais invité à Atlanta par Carlen pour y passer une semaine. Il me connaissait pour mes travaux sur l’équation de Boltzmann. Quand j’arrive, je me dis que je vais leur montrer ce que j’ai fait là, et je le leur montre. Il se trouve qu’un collègue de Carlen à Atlanta, Wilfrid Gangbo, était l’un des experts de la théorie du transport optimal. C’était la première fois que je faisais quelque chose avec le transport optimal. Gangbo a été très marqué par le fait de voir « ce gars qui ne s’ennuie pas, qui démontre tout cela », car c’était son domaine. Il s’est débrouillé pour que je puisse revenir et m’a invité à passer six mois à Atlanta l’année d’après. J’y suis allé (je n’ai pas hésité une seconde), et j’ai enseigné ce cours qui a donné lieu à mon premier livre sur le transport optimal. Le cours à Atlanta a été l’occasion de rencontrer plus de monde. Cela a été aussi l’occasion plus tard d’être invité à Berkeley, parce que le jour où le collègue de Berkeley qui était aussi spécialiste du transport optimal a vu mon cours, il a dit tout de suite «  il me le faut  », et c’est comme cela que je me suis retrouvé à Berkeley en 2004 sur un emploi de professeur invité. À Berkeley les gens étaient trop occupés, n’avaient pas le temps de discuter avec moi, mais j’ai rencontré quelqu’un qui était là en visite en même temps que moi : John Lott. Il venait d’Ann Arbor (Michigan), était un spécialiste d’analyse géométrique, l’un de ceux qui d’ailleurs allaient plus tard relire la preuve de Perelman. Il arrive et me dit : « j’ai lu votre article, il faut qu’on fasse quelque chose ensemble, sur une théorie synthétique de la courbure, c’est exactement les ingrédients qu’il faut ». Et il se lance dans l’explication d’un programme de recherche, m’expliquant quelles étaient les problématiques en géométrie synthétique, faisant mon éducation sur le sujet. Je l’ai vu sur place à Berkeley peut-être deux fois, au total peut-être trois quarts d’heure. Ce fut le début de plusieurs années de collaboration par courrier électronique, avec un article qui a un peu dépoté ! Nous avons résolu tous les problèmes que nous nous étions posés à l’époque, d’autres ont continué, d’autres l’ont repris, maintenant c’est un sujet florissant.

26

La

rationalité scientifique aujourd’hui

Quand on fait le chemin en arrière, on voit à quel point cela repose sur des choses ténues. Tout le travail de la recherche est d’arriver à exploiter les choses ténues. De temps en temps, on a de la chance. Il faut repérer qu’on a de la chance. Sans arrêt on est en train de discuter, d’échanger, d’écouter, de voyager, d’avoir peut-être la chance de trouver la petite coïncidence sur laquelle on va s’appuyer.

Chapitre

2

Sur l’origine et la portée des concepts mathématiques Jean-Pierre Kahane Les philosophes ont décortiqué la nature et la production des concepts mathématiques, en partant du corpus constitué par les mathématiques classiques. Je ne m’interdirai pas de parler de mathématiques classiques, mais je tenterai de montrer que, classiques ou non, les mathématiques créent des concepts en permanente évolution. Cela jure avec l’usage du terme de concept comme représentation solide, intangible, et aussi avec l’image ordinaire des mathématiques comme repère fixe dans l’ensemble des sciences. Pour éviter un long discours, je vais me borner à trois exemples : le cercle, l’intégrale et les fractales.

Le cercle Nous savons tous ce qu’est un cercle  : l’ensemble des points qui sont à une distance donnée d’un point fixe, appelé centre du cercle. Cette définition est simple et de grande portée, mais elle est visiblement incorrecte : comme figure de l’espace, elle s’applique à la sphère. On a oublié de préciser le cadre de la géométrie plane. Le jeune Joseph Fourier, élève à l’École normale de l’an III, avait interrogé là-dessus le citoyen Gaspard Monge à l’issue de

28

La

rationalité scientifique aujourd’hui

la première leçon de géométrie. Fourier était satisfait de la définition de la sphère comme figure de l’espace, mais la définition du cercle lui semblait nécessiter celle du plan, que Monge n’avait pas donnée, et Fourier fait une proposition dans ce sens. Monge répond au citoyen Fourier, en le tutoyant, qu’on peut en effet compléter et changer complètement la définition qu’il a donnée, par exemple en définissant un cercle par le fait que, de chacun de ses points, on voit un segment donné sous un angle droit, mais que, dans la première leçon de géométrie, il s’agit de s’entendre de façon claire sur le sens des termes, de façon à pouvoir avancer vite et bien, et qu’une définition du plan n’est pas nécessaire à ce stade. Monge touche juste. Les éléments d’Euclide ont donné des définitions parfaites pour leur objet. Ce sont des points de départ pour des enchaînements de propriétés admirables, exprimées par des théorèmes (un théorème est selon l’étymologie un énoncé devant lequel on s’arrête pour le contempler), et ces enchaînements constituent une théorie. Mais, pas plus que leurs compagnons les axiomes, les définitions ne sont choisies pour leur évidence : on voit qu’une assiette est circulaire sans repérer le centre, et c’est encore plus vrai d’un ballon sphérique. Le concept de cercle tel qu’il nous apparaît depuis Euclide est déjà un objet d’étude très élaboré. La définition est loin d’en renfermer la richesse, mais c’est un parfait point de départ. On doit l’adopter sans hésitation parce qu’elle est commode. Poincaré a fait de la commodité la raison d’être de la science, et cela est discutable. Mais c’est à coup sûr pertinent pour les mathématiques. La vocation des mathématiques est de nous faciliter la vie, de découvrir ce qui est simple dans le foisonnement des connaissances et d’y installer un ordre intelligible. Le cercle d’Euclide n’a pas fini de nous émerveiller, et notre regard sur lui change à la mesure de nos découvertes. On enseignait autrefois, non seulement les propriétés angulaires déjà connues d’Euclide, mais les propriétés des faisceaux de cercle, leur lien à la géométrie de l’inversion, le cercle des neuf points d’un triangle, les cercles osculateurs qui épousent au plus près une courbe donnée, et quantité de belles choses plus ou moins liées au modèle de Poincaré de géométrie non euclidienne, où l’horizon peut se représenter comme un cercle euclidien. Par projection, le cercle donne naissance aux coniques et, par transformation continue bijective dans le plan, aux courbes fermées simples que l’on appelle couramment « courbe de Jordan » ou même « cercle » si l’on est dans le cadre de la topologie plane. Une courbe fermée simple, un « cercle », divise le plan en deux régions, c’est un théorème fondamental de la topologie du plan ; pensez à la frontière d’un anneau, un tore, qui localement est pareil

Sur l’origine

et la portée des concepts mathématiques

29

à un plan, vous voyez que l’énoncé ne s’applique plus, les cercles méridiens ne le partagent pas. Ainsi le cercle devient un concept de la topologie. Mais il s’enrichit aussi d’une autre manière. Dans le cours de géométrie de Clairaut, le cercle est ce que parcourt l’extrémité de la branche d’un compas dont on fixe la pointe et l’ouverture. Le cercle est donc associé au mouvement circulaire uniforme, et c’est le plus naturel des objets de la mécanique et de l’astronomie. En réponse à la suggestion de Platon, le système de Ptolémée rend compte du mouvement des planètes par combinaison de mouvements circulaires. Le cercle est devenu un objet de la mécanique. Le mouvement circulaire uniforme est une manière d’enrouler le temps sur un cercle. Une fonction définie sur le cercle devient alors une fonction périodique du temps. Inversement, toute fonction périodique peut se représenter comme fonction définie sur le cercle ; l’article « le » au lieu de « un » signifie le passage au concept. Ainsi, le cercle devient un concept de l’analyse, et l’étude de ce qui se passe sur le cercle est un chapitre fondamental de l’analyse harmonique. On reconnaît l’analyse et les séries de Fourier. Curieusement, en analyse de Fourier, le cercle est aujourd’hui désigné par T, c’est le « tore » à une dimension. C’est le modèle le plus usuel d’un groupe commutatif compact. C’est un concept topologique et algébrique. Apuré comme concept topologique, le cercle est encore le siège de propriétés remarquables. Une transformation continue du cercle en lui-même définit, en l’itérant, un système dynamique ; chacun des points du cercle décrit une orbite, constituée d’images successives engendrées par la transformation. L’étude de ces orbites a été amorcée par Henri Poincaré, poursuivie par Arnaud Denjoy, puis par Michaël Hermann et Jean-Christophe Yoccoz. Comme on le voit, c’est un domaine où les Français ont une contribution notable. Il s’avère que le cercle topologique est le siège de propriétés arithmétiques, comme modèle du plus élémentaire des systèmes dynamiques. Un chapitre de la théorie des nombres s’appelle « distribution modulo 1 ». C’est l’étude de la façon dont se distribue sur le cercle une suite réelle donnée quand on enroule la droite réelle sur le cercle. Ainsi, la théorie des nombres donne un nouveau regard sur le concept de cercle. Le fait est général et mérite attention. Les concepts mathématiques les plus classiques sont déjà à l’origine le résultat d’une histoire  : la définition que donne Euclide du cercle ou de la sphère n’est pas tombée du ciel, c’est un élixir de pensée. Mais, si riche et puissant qu’il soit à l’origine, cet élixir se regarde et se consomme de façon différente suivant les usages et suivant les époques. Les nombres premiers d’Euclide sont toujours nos nombres premiers, mais le regard sur eux n’est plus du tout le même aujourd’hui qu’il y a

30

La

rationalité scientifique aujourd’hui

un siècle. La permanence des concepts mathématiques les plus anciennement établis s’accompagne toujours d’un regard qui en change la portée sinon la nature.

L’intégrale Le concept d’intégrale est tout autre. Son origine est plus récente, elle est issue des travaux de Newton et de Leibniz, et je serai bien en peine d’en donner une définition. Au xviiie  siècle, les mathématiciens ont intégré une foule d’objets  : des fonctions d’une variable réelle en recherchant leurs primitives, des fonctions de plusieurs variables au moyen d’intégrales multiples, des équations différentielles provenant de la mécanique ou de l’astronomie. Pour m’en tenir à la recherche des primitives, l’intégration apparaît comme l’opération inverse de la dérivation. Qu’est-ce qu’une dérivée ? La réponse repose sur la notion de limite et n’a été formalisée qu’à la fin du xviiie siècle. Le cours d’analyse de Cauchy donne des définitions impeccables de la continuité, de la convergence, des limites, de la dérivée. Pour l’intégrale, il se limite aux fonctions continues sur un intervalle et à la limite éventuelle lorsqu’on déplace les extrémités de l’intervalle. C’est loin de permettre l’intégration de toutes les fonctions dérivées, mais c’est bien le concept d’intégration admis jusque vers 1870, avec des variantes pour permettre d’envisager plusieurs intervalles. Alors apparaît l’intégrale de Riemann et, pour tous les mathématiciens, c’est enfin la bonne définition de l’intégrale. Riemann la présente en quelques lignes dans sa thèse sur les séries trigonométriques, parce que le calcul des coefficients de ces séries fait intervenir des intégrales, et qu’il faut savoir de quoi on parle. Cette thèse date de 1859, mais la publication n’en a été faite qu’après la mort de Riemann, en 1869. La traduction en a été immédiate, et l’intégrale de Riemann s’est imposée dans l’enseignement jusqu’à aujourd’hui par sa simplicité et son efficacité. Mais les années 1900 voient apparaître une nouvelle intégrale, celle de Lebesgue, et son efficacité dans les parties les plus délicates de l’analyse l’impose aux mathématiciens. Lebesgue, prudent, avait proposé de qualifier de « sommables » les fonctions auxquelles s’appliquait son intégrale. Mais les Anglais ont été radicaux : il faut dire intégrables au sens de Lebesgue, ou tout simplement « intégrables ». Désormais, il y a deux définitions de l’intégrale. Pour la plupart des fonctions, elles coïncident, mais pas toujours. L’intégrale de Lebesgue conquiert des champs qui dépassent les mathématiques, elle est fondamentale en probabilités, elle est indispensable en mécanique quantique.

Sur l’origine

et la portée des concepts mathématiques

31

Mais ni l’intégrale de Riemann ni celle de Lebesgue ne résolvent le problème bien naturel de la recherche de la primitive d’une fonction dérivée quelconque. Pour cela, c’est une nouvelle intégrale qui s’impose, que son auteur, Arnaud Denjoy, appelle la « totale ». La « totalisation » de Denjoy est une merveille, mais elle n’a pas pénétré dans l’enseignement. C’est une autre forme de cette intégrale, due à Henstock, que l’on enseigne aujourd’hui dans certains cours avancés. A-t-on enfin atteint la vérité du concept d’intégrale ? Pas du tout. Les probabilités et la mécanique quantique exigent l’intégrale de Wiener pour l’étude du mouvement brownien, l’intégrale d’Itô pour la résolution des équations différentielles stochastiques, l’intégrale de Feynman pour rendre compte des phénomènes quantiques. Le concept d’intégrale se moule sur la variété de ses applications. Encore ai-je considérablement simplifié la question, en me bornant à l’intégration des fonctions d’une variable réelle. Dès l’origine, l’intégration a deux faces, et le passage de l’une à l’autre est le théorème fondamental du calcul intégral. D’un côté, l’intégrale donne la quantité de quelque chose dans un domaine, comme, disons, le total des ventes d’un supermarché en fonction du prix des denrées et de leur débit. D’un autre côté, le calcul des primitives n’est pas autre chose que la résolution d’une équation différentielle très simple, à savoir y ′ = f(x) ; de manière générale, on parlera de l’intégration d’une équation différentielle. Dans l’enseignement, on peut privilégier une approche, mais il faut bien rendre compte de l’autre. Il n’y a pas de définition générale de l’intégrale. C’est un vaste champ mathématique où se retrouvent les moyennes en statistique, l’espérance en probabilités, les trajectoires en mécanique, et la multitude des besoins qui se présentent en physique et dans toutes les sciences. Au moment de travailler, on a à sa disposition l’intégrale de Riemann, celle de Lebesgue et toutes les autres, qui, elles, ont des définitions précises. Cette multiplicité du concept d’intégrale est banale aujourd’hui, mais elle ne l’était pas à la fin du xixe siècle, où l’on pensait que toute notion mathématique doit admettre une définition précise. Camille Jordan faisait ainsi grief à Dirichlet d’avoir dit, à l’occasion de son étude sur les séries trigonométriques, que les fonctions intégrables devaient être continues sur au moins un intervalle. Cela n’est pas vrai pour les fonctions intégrables au sens de Riemann, et Jordan s’étonne de cette inadvertance chez un mathématicien aussi avisé que Dirichlet. Mais Dirichlet avait pour définition des fonctions intégrables celle de Cauchy, et Jordan pensait à l’intégrale de Riemann, comme objet final de la recherche d’une définition rigoureuse de l’intégrale ; son reproche à Dirichlet était donc malvenu.

32

La

rationalité scientifique aujourd’hui

Le cas de l’intégrale est typique mais il est loin d’être isolé. Les concepts parfaitement définis sont indispensables en mathématiques, mais il faut admettre que la plupart des concepts usuels n’admettent pas de définition précise. Mon exemple favori est celui des séries, dont les définitions en vigueur dans l’enseignement sont inconsistantes et trompeuses ; je ne vais pas aborder ce sujet, il m’entraînerait trop loin.

Les fractales L’excellent terme de fractale s’est imposé à l’esprit de Benoît Mandelbrot en plusieurs étapes. Il connaissait bien la dimension introduite par Hausdorff en 1919 et que les auteurs intéressés appelaient tantôt dimension de Hausdorff, tantôt dimension fractionnaire. C’est un nombre réel lié aux recouvrements de l’objet donné par de petits objets ; ainsi on peut donner un sens précis au fait que la côte de Bretagne est plus découpée que la côte des Landes ; sa dimension de Hausdorff est environ 1,3, tandis que celle de la côte des Landes est 1. « Fractionnaire » dit bien que la dimension n’est pas nécessairement un entier, mais ce n’est pas toujours une fraction. Benoît Mandelbrot a eu l’idée de l’appeler « dimension fractale ». Mais le terme et la théorie de la dimension de Hausdorff commençaient à être déjà en vigueur, et les mathématiciens consultés lui ont conseillé de ne pas introduire une nouvelle terminologie. La seconde étape a été la rédaction et la publication du premier ouvrage de Mandelbrot sur la fractalité. Il est en français et son titre est Les objets fractals. Puis viennent les livres en anglais, The fractal geometry of Nature et la suite. Les objets fractals sont devenus « fractals », les « fractales » en français. Quelle est la définition d’une fractale ? Mandelbrot a essayé une ou deux réponses, et constaté leur insuffisance. Il n’y a pas de bonne réponse. Le concept de fractale concerne un champ de la connaissance que Benoît Mandelbrot a découvert en rassemblant des objets et des observations éparses. Comme concept mathématique, il est encore plus multiforme que celui d’intégrale, et il se subdivise aujourd’hui en domaines comme la géométrie fractale, l’analyse fractale, l’analyse multifractale. Les premières fractales sont apparues en mathématiques au xixe  siècle comme des étrangetés  : une fonction continue qui n’admet de dérivée en aucun point (Weierstrass), une courbe qui recouvre un carré (Peano), une courbe dont le quart lui est semblable dans le rapport  1/3 (Von Koch), et d’abord un ensemble de points sur la droite dont la moitié lui est semblable dans le rapport 1/3 (Cantor). Benoît Mandelbrot a apprivoisé ces monstres en leur donnant un nom : la fonction construite par Lebesgue sur l’ensemble

Sur l’origine

et la portée des concepts mathématiques

33

de Cantor est devenue l’escalier du diable, la courbe de Von Koch s’est appelée le flocon de neige. Mais c’est au xxe  siècle que les fractales sont apparues de façon impérieuse dans des théories mathématiques constituées. Elles étaient déjà implicites dans les travaux sur les fonctions analytiques d’une variable complexe. L’itération de transformations très simples dans le domaine complexe a donné naissance aux ensembles de Julia et de Fatou, et ensuite à l’ensemble de Mandelbrot, qui sont d’une richesse inépuisable. La théorie des systèmes dynamiques a révélé des objets nouveaux, comme les attracteurs étranges ou le chaos déterministe, qui sont des mines de fractales. Le mouvement brownien et toutes les questions qui s’y rattachent, processus browniens fractionnaires, processus de Lévy, et plus généralement tous les processus stochastiques, ont été et sont toujours l’objet de recherches sur leurs dimensions de Hausdorff et leurs propriétés comme fractales. C’est une évolution qui a lieu sous nos yeux, et le terme de « brownien » est devenu en mathématiques le qualificatif qui s’applique à des objets aléatoires fondamentaux comme les arbres browniens ou la carte brownienne (dont la théorie date de 2013) dont une représentation orne la couverture de La Lettre de l’Académie des sciences n° 33. L’exemple des fractales, que nous avons vécu depuis sa création comme nouveau concept mathématique, est typique de l’origine et de la portée des concepts mathématiques. Il est temps de résumer ce que nous pouvons dire du titre de ce chapitre.

Origine et portée des concepts mathématiques Les concepts mathématiques, les plus classiques comme les plus récents, rassemblent des expériences et des observations très variées. Ils n’apparaissent comme création de la raison pure, ou comme révélation d’objets existants dans un monde extérieur à celui où nous vivons, que sous une forme achevée. Cette forme achevée est nécessaire pour constituer les théories mathématiques à partir de définitions claires et d’enchaînements rigoureux. Mais elle dissimule la richesse des concepts. D’abord, ils sont en permanente évolution, ne serait-ce que par le regard que nous portons sur leur contenu. Ensuite, les concepts les plus généraux sont parfois indéfinissables ; ils concernent des champs d’études ou de connaissances dans lesquels existent des objets susceptibles de définitions mathématiques, et ces définitions, nécessaires comme points de départ pour l’exposé des théories, sont l’aboutissement de longs efforts.

34

La

rationalité scientifique aujourd’hui

L’origine des concepts peut se trouver dans les mathématiques déjà constituées, et aussi bien dans celles qui se constituent sous la stimulation des autres sciences. La portée est souvent imprévisible, et les exemples abondent. Le cercle engendre les coniques comme objets géométriques et Kepler puis Newton et leurs successeurs les utilisent pour rendre compte du mouvement des planètes comme des boulets de canon. L’intégrale semble bien loin des jeux de hasard, mais l’intégrale de Lebesgue, devenue espérance mathématique, est un outil essentiel des probabilités ; et l’intégrale d’Itô, nouvel avatar de l’intégrale, est maintenant familière à tous les probabilistes. Les fractales ont converti des exemples et des étrangetés en objets d’étude intéressant l’ensemble des mathématiques et l’ensemble des sciences. Ce chapitre est évidemment loin d’épuiser le sujet. L’idée générale est celle-ci : l’origine des concepts mathématiques se trouve dans le monde des hommes, et leur portée tient à leur généralité et à leur simplicité. Il y a souvent une grande distance entre l’origine et la portée, et cela atteste l’efficacité très raisonnable des mathématiques en physique et dans toutes les sciences. Inutile de dire que cette conclusion est soumise à critique, comme l’ensemble du chapitre. Contribution de Jean-Pierre Kahane à la suite du colloque du 10 décembre 2014.

Chapitre

3

Le flair Bertrand Saint-Sernin Introduction À la fin de Les Lois (XII, 961  d), Platon déclare que, pour s’approcher d’une « connaissance parfaite », il faut que deux formes d’intelligence fusionnent au point de ne plus faire qu’une  : l’intellect (noûs) et le sentir (aisthèsis). Ce mélange (krasis) est nécessaire pour résoudre les problèmes scientifiques et politiques. C’est par lui que les individus et les entités politiques se sauvent (Les Lois, 961 e). La définition de cette forme d’intuition qu’on peut appeler le flair a traversé les siècles et demeure valable aujourd’hui encore. L’hypothèse de Platon dans Les Lois et Timée, c’est que les décisions salvatrices exigent la conjonction et même la fusion de deux apports distincts : l’intelligence théorique et le doigté, ou, comme on le dit en anglais et en français, le « nez ». Notre confrère Charles de Lamberterie, de l’Académie des inscriptions et belles-lettres, a établi la parenté entre l’adjectif asmenos et le verbe neomai qui signifie « revenir à la vie » après avoir échappé à la mort. Il y a donc dans noûs, comme dans asmenos et nostos, l’idée d’arriver à bon port, ce que Platon indique dans Les Lois, 961 e : « […] l’intellect allié aux sensations

36

La

rationalité scientifique aujourd’hui

assure la maîtrise et, dans les tempêtes comme dans le beau temps, devient le salut des navires. N’est-ce pas, dans le vaisseau, le capitaine et les matelots qui, à l’intellect gouvernant joignant les sensations, sauvent à la fois et leurs personnes et le navire ?  2» Telle est la forme d’intelligence qui découvre le chemin unique (Les Lois, 963 b) qui conduit à la santé et au salut politique. La racine indo-européenne de noûs, « nes », se retrouverait dans l’allemand genesen, guérir, et dans l’anglais nose, le nez, le flair. Bref, le terme de flair, dans ce contexte platonicien qui reste actuel, désigne  : 1) la fusion réussie (krasis) de l’intelligence théorique et du sentir  ; 2) l’orientation de l’action vers le salut commun ; 3) la conviction que, pour éviter l’errance, les individus et les entités politiques doivent se fixer un but unique et trouver le cheminement (la stratégie) qui mène de leur situation actuelle à ce but idéal. 

La fusion de l’intelligence théorique et du sentir L’intelligence et le sentir Ce mélange réussi de l’intelligence théorique (noûs) et du sentir (aisthèsis) ne va pas de soi  : Platon observe que, pour devenir de bons stratèges, le scientifique et le politique doivent distinguer en eux-mêmes ce qui relève de la croyance et ce qui relève de la science (Timée, 51 d) ; malheureusement, croyance et science sont originairement mêlées en nous, si bien que seul un effort de conversion permet au savant comme au politique de sortir de la confusion initiale que Platon nomme «  raisonnement hybride  » (Timée, 52 b-c).

La stratégie Aristote (De Anima, III, 433  a 15-18) dit que, pour mettre au jour une stratégie, il faut partir du but et régresser vers la situation présente. Il signale, comme avant lui son maître Platon, que le stratège doit surmonter un obstacle : ne pouvant penser sans imaginer (De Anima, III, 432 a 8), il doit apprendre à séparer clairement la réalité imaginée ou vue en vérité. Bref, selon les Anciens, nous avons besoin, pour agir de façon pertinente, d’harmoniser le penser et le sentir ; mais, pour ce faire, nous devons sortir d’une confusion qui réduit notre pensée à des rêves qui peuvent être furieux comme certaines idéologies mortifères (Timée, 69 c).

2

 Platon est cité d’après l’édition bilingue des Belles Lettres.

Le

flair

37

Vision en Dieu ou productivité humaine ? D’où la question  : les concepts scientifiques sont-ils logés hors de nous, dans la nature (Spinoza) ou en Dieu (Kepler) ; ou constituent-ils des inventions strictement humaines ? 1. La plupart des fondateurs de la science moderne soutiennent que les idées fondamentales sont les fruits d’une ouverture de l’esprit à des vérités qui lui viennent du dehors et dont la prise de conscience exige une conversion. Ainsi, dans l’avis au lecteur de la 2e édition du Mysterium Cosmographicum, publié en 1621, Kepler déclare : « Les idées des grandeurs sont et ont [toujours] été coéternelles à Dieu ; elles sont Dieu lui-même ; elles se reflètent dans les esprits faits à l’image de Dieu ; sur ce point, philosophes païens et docteurs de l’Église sont d’accord (Imo Idea quantitatum sunt erantque Deo coæterna, Deus ipse  ; suntque adhuc exemplariter in animis ad imaginem Dei (etiam essentia sua) factis ; qua in re consentiunt gentiles Philosophi, et Doctores Ecclesiæ). » 2. Cette conception des idées scientifiques a cessé d’être dominante  : aujourd’hui, scientifiques et politiques professent en général que les concepts et les théories sont des inventions humaines générées par le cerveau. Cette conception de la vérité scientifique et politique pose un problème : de quelle nature est la créativité humaine ? Jusqu’où s’étend-elle ? Notre intelligence de la réalité embrasse-t-elle seulement les lois de la nature, ou nous donne-t-elle aussi la capacité de comprendre et de reproduire fidèlement par la technique certains processus naturels ? On appelle positivisme la thèse selon laquelle notre esprit peut comprendre les lois de la nature mais échoue à saisir les causes des phénomènes  ; et réalisme la thèse selon laquelle, dans certains domaines, l’esprit humain, à l’aide de la technique, peut reproduire fidèlement les processus naturels. Au e xix  siècle, deux noms célèbres illustrent ces conceptions opposées : Auguste Comte (1798-1857) pour le positivisme ; Antoine Augustin Cournot (18011877) pour le réalisme. À l’heure actuelle, le problème n’est toujours pas réglé, comme en témoignent les discussions sur les organismes génétiquement modifiés (OGM) : si l’on doute que la science et la technique puissent reproduire fidèlement les processus naturels (positivisme), on se méfie des biotechnologies (de la transgenèse en particulier) ; si l’on a confiance dans la possibilité de reproduire fidèlement par art des processus naturels (réalisme), on ne pense pas que les organismes génétiquement modifiés « infestent » la nature.

38

La

rationalité scientifique aujourd’hui

Prenons deux exemples : 1) le travail que les représentants des académies ont accompli, naguère, à la demande du Conseil économique et social, sur les OGM ; 2) la publication, le 30 octobre 2014, par Nature, d’un dossier sur le riz, où est évoquée la mise au point d’un riz doré susceptible d’apporter dans la nourriture la vitamine A dont le manque provoque des centaines de milliers de cas de cécité enfantine (dont la moitié sont suivis de mort). Ainsi, l’humanité doit prendre des décisions cruciales alors que dans bien des cas, dit Platon, elle ne dispose pas d’évidences théoriques et expérimentales indubitables, si bien que ses choix sont comme des « votes ». Toutefois, en l’absence de certitudes théoriques, nous avons la possibilité de comparer les avantages et les inconvénients des solutions disponibles  : vaut-il mieux, par exemple, pratiquer une agriculture entièrement basée sur la chimie ou combiner la chimie avec des biotechnologies (incluant la transgenèse) ?

Orienter l’action vers le salut commun Le texte de Les Lois que nous avons cité (961 e) évoque explicitement que la conjonction de l’intelligence (noûs) et du sentir (aisthèsis) est nécessaire pour que, aussi bien dans les tempêtes que par beau temps, le capitaine et les marins mènent à bon port leur navire, « en sauvant à la fois leurs personnes et le vaisseau ». Aussi l’intelligence est-elle qualifiée par Platon de directrice (kubernetikos) (961 e), qui a donné cybernétique, et de médicale (iatrikos) (963 b). Il insiste sur un point qui, au cours du temps, est devenu une évidence : en politique et, de plus en plus, en science, aucun individu ne peut à lui seul avoir la maîtrise des événements dont il faut tenir compte pour arriver au but. D’où, dans Les Lois, la description de ce que Platon nomme le Conseil suprême ou nocturne (car il commence à siéger quand le ciel blanchit et interrompt ses travaux quand le soleil se lève) : l’action politique, pour être efficace, doit être préparée collectivement, même si, dans l’exécution, elle garde quelque chose de tyrannique, car le bon médecin qui persuade son patient de suivre tel traitement est obligé, à un moment donné, de se montrer impérieux pour vaincre les hésitations et les peurs de son patient.

Unité de la science ou diversité des sciences ? En science, le problème se pose aujourd’hui de la façon suivante : la manière de démontrer, d’observer et d’expérimenter est-elle la même dans toutes les disciplines, comme les membres du Cercle de Vienne le pensaient dans

Le

flair

39

les années 1920-1930 ? Ou y a-t-il, d’une discipline à l’autre, des différences de méthode et d’esprit telles que le fait d’être un spécialiste reconnu dans une discipline n’empêche pas de rester un amateur dans les autres ? Si l’on adopte l’attitude du Cercle de Vienne et de sa postérité américaine, l’unité de la science va de soi : si l’on est un expert dans un domaine, on garde de l’autorité pour parler des autres. Si l’on récuse cette manière de penser, la décision scientifique et la décision politique relèvent d’un « art de composition sur plans multiples » (p. 285), comme le dit Simone Weil, sœur du mathématicien André Weil, dans L’Enracinement [1]. Si la dernière hypothèse est juste, il faut, pour agir avec efficacité en science comme en politique, que les spécialistes d’une discipline apprennent des spécialistes d’autres disciplines comment combiner l’action dans différents domaines pour parvenir à un résultat. D’où l’importance de l’art de la transposition ou de la traduction. À ce propos, selon Simone Weil, la tâche qui attend le politique est difficile, car il lui faut rendre acceptables par l’opinion publique les vérités qu’il a vues en face, en les transposant de façon qu’elles restent vraies, même dépouillées de leur apparat scientifique. « L’art de transposer les vérités est un des plus essentiels et des moins connus. […] pour le pratiquer, il faut s’être placé au centre d’une vérité… » (p. 165). Mais cela ne suffit pas : « La politique a une affinité très étroite avec l’art » : comme lui, elle exige la « composition simultanée sur plusieurs plans » (p. 284). Cela veut dire que le politique n’a pas seulement à éclairer ses pairs et le public, mais à vaincre des résistances, en particulier ce que Platon nomme « la force de l’incrédulité » (Les Lois, 839 d). L’incapacité de faire confiance (apistia) interdit, en effet, l’accès à la vérité, puisque, sans un lien de confiance entre les êtres, la vérité ne se communique pas.

La recherche d’un but unique Les Anciens, notamment Platon et Aristote, sont convaincus que le seul moyen pour les entités politiques d’éviter l’errance, c’est de poursuivre un but unique. Dans une conférence donnée à Rome le 3 avril 1963 à l’Institut Gramsci, Oskar Lange, économiste polonais qui a enseigné aux États-Unis et dirigé quelque temps le Plan dans la Pologne socialiste, dit la même chose  : les ordinateurs, note-t-il, permettent de résoudre des problèmes autrefois insolubles, mais, quand une économie devient complexe, aucun organe administratif centralisé (tel le Gosplan) ne peut se substituer aux millions de « votes » que constituent les décisions des acheteurs et des vendeurs sur le marché. Friedrich von Hayek le dira ensuite explicitement.

40

La

rationalité scientifique aujourd’hui

Déjà, quand il évoque l’action du Conseil suprême, l’Athénien, porte-parole de Platon, observe que celui-ci ne doit pas « laisser flotter son regard en visant de multiples buts, mais le fixer sur un seul » (Les Lois, 962 d). Platon met là en évidence une difficulté de la politique et, en particulier, de sa transformation en science : il faut que l’optimum puisse être représenté par un objectif unique, faute de quoi on ne peut pas mathématiser la progression vers cet optimum. Viser plusieurs cibles à la fois, c’est errer : l’art de la politique est de n’en avoir qu’une seule (962 d). L’Athénien observe : « Ainsi, nous le comprenons maintenant, il n’y a nulle merveille que les institutions des cités soient si fluctuantes, vu que, dans chacune, les législations visent des buts différents » (962 d). Bref, il n’y a qu’une bonne politique, celle qui vise « un seul but » (962 e). Et l’Athénien précise : « Nous disions sans cesse que toutes nos lois ne devaient sans cesse n’avoir qu’une visée, et c’était, nous en convenions, ce qu’on appelle très justement la vertu » (963 a). Dans les années 1920-1930, quelques penseurs européens ont décrit la crise où se trouvait l’Europe  : c’est le cas, notamment, de Husserl dans la Krisis [2] et de Freud dans Malaise dans la civilisation (Das Unbehagen in der Kultur).

Conclusion Nous avons essayé de définir le flair en nous inspirant de Platon et d’Aristote. N’est-il pas paradoxal de supposer que des réflexions datant de plus de deux millénaires présentent encore quelque utilité ? Les conditions de l’action, la nature et la taille des États, les régimes politiques ont tellement changé qu’il est improbable que des méditations aussi anciennes présentent aujourd’hui encore une quelconque validité. Pourtant, on continue à lire Platon et Aristote : qu’est-ce qui, dans leur enseignement, ne s’est pas périmé ? Il est relativement facile de répondre au sujet d’Aristote : il est le prototype du savant, curieux de tout, chercheur infatigable, recourant aux pêcheurs pour sortir de l’eau les espèces sous-marines qu’il décrit et examinant avec soin les régimes politiques qu’il peut observer. Certes, montre Duhem dans Le Système du Monde, sa cosmologie est contestée dès le début du xive siècle et ne cesse d’être rapetassée jusqu’au xvie siècle. Mais le sort de la cosmologie de Platon ne vaut guère mieux, puisque Kepler, tout ardent platonicien qu’il fût, pense qu’il ne peut mieux servir la science qu’il contribue à créer qu’en ruinant l’astronomie de son maître, notamment dans le Mysterium Cosmographicum dont la deuxième édition, qui contient la troisième loi de la gravitation, paraît en 1621.

Le

flair

41

Ce qui assure, me semble-t-il, la survie de l’œuvre de Platon, c’est que son auteur ne fige pas le rationalisme, mais envisage qu’il prenne au cours du temps des formes nouvelles. Platon, de surcroît, ne voit pas la raison comme la faculté de ne concevoir que des systèmes abstraits  ; il ne la crédite de vérité et de puissance que si elle se joint étroitement à la perception et à la sensibilité : c’est ce qu’on peut appeler le flair. Platon ne voit pas en celui-ci un attribut exclusif de l’individu solitaire. Il souligne au contraire que, si la décision libre comporte un élément de solitude et de risque, l’action n’atteint sa plénitude qu’en devenant collective. Par ces deux traits qu’il attribue à l’action rationnelle – jonction de l’intelligence et de la sensibilité ; combinaison de la solitude du décideur et de la collectivité agissante –, Platon anticipe les notions d’Incarnation et de « communion des saints » que le christianisme développera. Examinons comment ces principes ont pris corps aujourd’hui en science et en politique. 1. Le Cercle de Vienne et sa postérité américaine considéraient que la recherche scientifique ne présente aucune diversité et que les expériences, les démonstrations et les preuves sont identiques dans toutes les spécialités. Cet espoir trompeur est mort : un spécialiste dans un domaine reste un amateur dans les autres. 2. La recherche scientifique exige donc, de la part de ceux qui la pratiquent, des dialogues ou, pour employer le vocabulaire de Simone Weil, des « traductions » entre spécialistes. 3. À ces efforts de compréhension entre spécialistes s’ajoute la tâche difficile d’expliquer au public la nature et l’intérêt des recherches menées : leur financement, en effet, dépend des citoyens et leurs conséquences les touchent. De plus, ils peuvent contribuer, dans le domaine médical comme dans d’autres, à éclairer et à dynamiser la recherche. 4. En effet, le modèle classique de la recherche scientifique, où l’hypothèse, l’expérience et la démonstration étaient l’apanage de l’individu, devient de plus en plus minoritaire ; le nombre des articles cosignés augmente ; la science devient collective. 5. Cet état de choses met en évidence que la vie scientifique n’est pas indépendante des contextes anthropologique et cosmologique dans lesquels on la pratique : ce n’est pas la même chose de croire que la créativité scientifique est l’œuvre de notre cerveau ou, comme Kepler, de penser que les Idées scientifiques nous viennent du dehors et, pour lui, de Dieu. Or nous devons faire nos choix, dit Platon, sans disposer de preuves évidentes en faveur de l’une ou l’autre thèse.

42

La

rationalité scientifique aujourd’hui

6. Puisque nos académies célèbrent le centenaire du déclenchement de la Première Guerre mondiale, rappelons que la science et la guerre se sont intriquées profondément, comme l’a montré Jean-Pierre Kahane sous la Coupole, le 28 octobre 2014. 7. Enfin, puisque les nations auxquelles nous appartenons sont des démocraties, rappelons aussi que, depuis l’Antiquité grecque, les philosophes et les politiques insistent sur le fait que, dans un régime démocratique, la défense de la patrie ne peut être sous-traitée à des milices privées ou à des pays étrangers : elle incombe aux citoyens.

Références [1]

Weil S. (2013). Œuvres complètes, OC V2, Gallimard, 2013

[2]

Husserl E. (1954). Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie, HusserArchief te Leuwen and Martinus Nijhoff, La Haye, trad. fr. La Crise des sciences européennes et la phénoménologie transcendantale, Paris, Gallimard, 1976. Le manuscrit remonte aux années 1935-36, note Gérard Granel, le traducteur.

Chapitre

4

Vérité scientifique en deçà des Pyrénées… vérité au-delà Édouard Brézin Les scientifiques fondent leur confiance en la science sur la méthode expérimentale explicitée par Galilée, inventeur de la science moderne. Je sais bien que beaucoup qualifieront ce point de vue de naïf… peut-être avec quelque hésitation lorsqu’il est énoncé par Richard Feynman qui affirme à l’usage des étudiants de ses Lectures : « Le principe de la science, sa définition presque, sont les suivants : le test de toute connaissance est l’expérience. L’expérience est le seul juge de la vérité scientifique. » Les physiciens sont particulièrement attachés à ce credo et ils en vénèrent tous de multiples exemples. En voici quelques-uns qui me semblent emblématiques. Face à une violation apparente de la conservation de l’énergie, et du moment cinétique, dans la désintégration bêta des noyaux radioactifs, Wolfgang Pauli postule en 1919 l’existence d’une particule nouvelle pour sauver ces grands principes, baptisée neutrino par Enrico Fermi. Il écrit “I have done a terrible thing. I have postulated a particle that cannot be detected”. Un livre de physique classique exprime en 1955 le scepticisme régnant “many physicists question whether it is in fact anything more than a name to conceal our ignorance” (Richtmyer et al. Introduction to modern physics, 1955) mais un an plus tard Frederick Reynes réussissait à détecter ces neutrinos. De même, les efforts de Dirac pour concilier relativité et mécanique quantique dans la

44

La

rationalité scientifique aujourd’hui

description de l’électron le conduisent en 1928 à postuler l’existence d’une antiparticule en tous points semblable à l’électron, mais de charge opposée ; le positron sera découvert par Carl David Anderson en 1932. Plus près de nous, la théorie renormalisable, c’est-à-dire compatible avec la mécanique quantique, des interactions électro-faibles impliquait des vecteurs de cette force W± et Z découverts au CERN dans les années 1980 et une particule responsable de la masse, le boson de Higgs, finalement découvert en 2012.

Les attaques de la sociologie des sciences Néanmoins, les assauts des médias pour qui, bien souvent, il n’y a de sujet de science que s’il y a controverse, conjugués aux attaques de la sociologie des sciences, nous contraignent à y regarder de plus près. C’est ainsi que l’Institut des sciences politiques organise un enseignement intitulé « Cartographie des connaissances », dont les objectifs sont définis ainsi : « Pour se repérer dans cet univers incertain, les futurs citoyens nécessitent des outils pour explorer et visualiser la complexité des débats publics. Comprendre l’articulation entre science et société, l’observer au travers du cas concret d’une controverse au choix, et en restituer l’analyse au public. » Rien là de choquant mais il est annoncé également : « En analysant quelques controverses historiques, nous essaierons de dépasser l’idée que la vérité scientifique et l’efficacité technique sont indépendantes du travail des savants et des ingénieurs. » De même, un cycle de cours sur les controverses scientifiques dispensé à l’École des mines de Paris et à Sciences po définissait l’objectif de formation suivant pour les étudiants : « Préparer leurs employeurs à repérer l’ensemble des solutions et, surtout, les réactions sociales, morales, économiques, organisationnelles différentes qu’elles peuvent entraîner ; pour ce faire, on demande donc à l’élève de cartographier la gamme des positions actuellement soutenues, aussi aberrantes qu’elles soient, sans prendre directement parti. » Il n’est donc pas question d’enseigner une méthodologie qui permettrait de distinguer le « vrai du faux », mais simplement d’observer, de débusquer, les conditions socio-économiques à travers lesquelles s’élabore la science. Bruno Latour, à l’origine de ces enseignements, a d’ailleurs défendu l’idée que les objets d’études scientifiques sont « socialement construits » dans les laboratoires, et qu’ils n’ont pas d’existence en dehors des appareils et des spécialistes qui les interprètent. L’activité scientifique est alors vue comme un simple système de croyances et de pratiques, plutôt qu’un discours sur le monde.

Vérité

scientifique en deçà des pyrénées… vérité au-delà

45

C’est ainsi que, dans son étude de la vie et de la carrière de Louis Pasteur (La Vie de laboratoire avec Les Microbes : Guerre et paix), Bruno Latour met en lumière les forces sociales qui interviennent dans la carrière de Pasteur. L’étude de l’accueil du travail de Pasteur selon les milieux conduit alors à rejeter l’idée selon laquelle l’acceptation ou le rejet des théories scientifiques serait de l’ordre de la raison. La notion même de vérité scientifique est donc hors sujet, inexistante même, transcendée par la simple observation des conditions dans lesquelles la science s’élabore. C’est une culture du soupçon et, en définitive, un rejet de l’idée qu’à travers les processus complexes que nous connaissons, qui comprennent des erreurs, parfois même des fraudes, des débats, voire des controverses, une science s’élabore et des vérités s’imposent.

Bona fide Il est donc nécessaire d’y regarder d’un peu plus près et de nous interroger sur nos méthodes de validation, tout au moins pour ceux qui ne pensent pas qu’une idée aberrante n’est que l’une des multiples descriptions équivalentes de notre monde. Il est vrai que nous nous reposons sur une méthodologie collective fondée sur la confiance dans les bonnes pratiques. C’est ainsi que nous faisons confiance aux astrophysiciens quand ils affirment qu’ils ont vu des planètes hors du système solaire, au CERN lorsqu’il annonce l’observation d’une particule compatible avec le Higgs attendu. Pas question pour un individu de reproduire la moindre de ces expériences. De même, si nous croyons que le théorème de Fermat a enfin été démontré en 1994 comme conséquence des travaux d’Andrew Wiles, nous faisons confiance à la communauté des mathématiciens car, pour la plupart d’entre nous (c’est mon cas), notre niveau mathématique ne nous permet pas de suivre la démonstration. Mais, dans tous ces cas, nous connaissons les méthodes de contrôle et de validation des communautés scientifiques à l’origine de ces découvertes et finalement l’honnêteté collective s’impose, même si celle-ci n’est parfois que l’effet de la volonté de débusquer les faux pas de collègues réputés.

Fraudes et erreurs Certes, il existe de temps à autre des fraudes, ou des erreurs méthodologiques graves. Mais, celles-ci sont en général vite détectées, et se traduisent par un tel discrédit de leurs auteurs que l’effet dissuasif est presque toujours suffisant pour arrêter ceux qui seraient tentés de franchir la ligne. La science,

46

La

rationalité scientifique aujourd’hui

qualifiée d’officielle par ceux qui ont envie d’énoncer tranquillement des âneries, est parfois accusée de conservatisme, d’incapacité à revenir sur ses hypothèses et présupposés. C’est là méconnaître profondément les ressorts psychologiques qui animent les chercheurs. Il faut savoir en effet que rien n’est plus grisant que de prendre en défaut une gloire établie, ou un dogme admis de tous. La révérence n’a guère de place dans ce modus operandi. Les physiciens ont en mémoire des affirmations importantes, qui ont été énoncées au début des années  2000 par un chercheur des célèbres Bell Labs dans le New Jersey, sur la réalisation de transistors avec des molécules organiques. Cette découverte annonçait la fin à brève échéance de l’électronique à base de silicium qui domine notre paysage technologique depuis plus de 50 ans. De nombreuses équipes s’efforcèrent en vain de reproduire ses résultats, avant que la fraude ne soit révélée, à cause d’un détail qui finit par rendre suspect tout son travail et in fine conduisit au retrait de tous les articles. Le chercheur en question passa du statut de nobélisable, déjà salué par plusieurs prix prestigieux, à celui de proscrit des laboratoires. Il y a évidemment des erreurs de bonne foi, mais elles ne posent problème que lorsque leurs auteurs s’acharnent contre toute évidence, tant ils peuvent se laisser emporter par le sentiment d’avoir fait une découverte révolutionnaire  ; il leur devient alors impossible, trop mortifiant, d’y renoncer. C’est ainsi qu’en 1968 l’excellent physicien Joseph Weber avait cru découvrir les ondes de gravitation prédites par la théorie d’Einstein, que l’on cherche toujours à observer sur Terre, mais sans succès encore tant leur effet attendu est faible. Il observait à cet effet les vibrations de deux masses distantes de plus d’un millier de kilomètres, cherchant à repérer des coïncidences que seule une émission d’ondes gravitationnelles pourrait entretenir. L’annonce du résultat fut accueillie avec scepticisme car il impliquait une densité d’énergie contenue dans ces ondes très supérieure aux attentes. Finalement, notre collègue Richard Garwin décida de répéter l’expérience avec une sensibilité accrue. Il faut mesurer le dévouement à la démarche scientifique, la force d’âme de cette entreprise. S’il avait confirmé l’annonce de Weber, il n’était qu’un suiveur. S’il infirmait, ce qui fut le cas, il ne faisait que s’adresser à une communauté qui « savait bien » que le résultat serait négatif. Weber, lui, ne renonça pas, s’accrochant à l’idée qu’un événement astrophysique singulier avait été détecté par ses « barres », mais nul n’y accorda plus d’importance. Est-il possible que Jacques Benveniste ait cru initialement en toute bonne foi à la mémoire de l’eau ? Était-il permis d’affirmer un fait si contraire à tout ce que nous comprenons, sans l’esquisse du moindre mécanisme susceptible de rendre compte de ses affirmations ? De plus, comment pouvait-il aussi ne pas voir que faire financer son laboratoire par un fabricant de produits homéopathiques lui retirait beaucoup de crédibilité en la matière ?

Vérité

scientifique en deçà des pyrénées… vérité au-delà

47

Bien entendu, toutes les théories physiques ont des limites d’applicabilité, mais il est absurde de les analyser comme des « erreurs ». La relativité ou la mécanique quantique n’ont pas invalidé la dynamique newtonienne. Les concepts nouveaux n’ont fait que montrer que la théorie de Newton était limitée à des vitesses de déplacement petites par rapport à celle de la lumière et ne s’appliquait plus à l’échelle nanométrique des atomes, mais ils ne se sont pas substitués à elle, ils l’ont complétée. En dehors de ces deux limites, rien n’est plus utile que la théorie de Newton. De la même façon, le modèle dit standard de la physique des particules élémentaires, bien qu’il ait subi avec succès tous les tests expérimentaux auxquels il a été confronté, est intrinsèquement limité à plus haute énergie sans que l’on puisse dire à quelle échelle d’énergie cette limitation apparaîtra, ni quel autre modèle se substituera à lui. Le terme de modèle s’est d’ailleurs fréquemment substitué aujourd’hui à celui de théorie tant il est devenu apparent depuis les travaux de 1970 de Kenneth Wilson sur le groupe de renormalisation, que la description des interactions entre particules est une propriété émergente adaptée aux échelles d’énergie observables qui, malgré leur gigantisme, restent très petites en regard de celles qui régissent un monde encore caché.

L’inversion de la nécessité de la preuve On entend souvent dire qu’une théorie pour être juste doit être capable de passer tous les tests expérimentaux possibles, qu’il suffit d’une seule expérience négative pour infirmer la théorie. Cette affirmation fréquente doit pourtant être prise avec un peu de distance. Il est curieux d’examiner les résistances qui accompagnent encore la théorie de la relativité hors du monde de la science. Les expériences où la relativité est mise en jeu, testée en détail avec une précision considérable, sont innombrables. Que l’on songe que, si l’on ignorait la relativité restreinte, les horloges atomiques embarquées en satellite marqueraient un retard de 7 microsecondes par jour du fait du mouvement de ce satellite par rapport à nous, et si l’on ignorait l’influence du champ de gravitation sur le temps, effet de relativité générale, il y aurait une avance de 45 microsecondes par jour, au total 38 microsecondes ; si l’on ne tenait pas compte de la relativité, le GPS ferait des erreurs de plusieurs kilomètres ! La théorie de la relativité est bien testée expérimentalement des millions de fois chaque jour. Au cours des années 1920, un physicien américain, Dayton Miller, avait repris les expériences d’interférométrie de Michelson destinées à mesurer le vent d’éther et il conclut lui à son existence, contredisant ainsi la théorie de la relativité. Plus près de nous, Maurice Allais a conduit des expériences analogues le

48

La

rationalité scientifique aujourd’hui

conduisant aux mêmes conclusions. Les expériences de Miller ont été réanalysées ; certains ont objecté que la dispersion des résultats de Miller ne permettait pas d’affirmer le déplacement de franges annoncé. Mais, de nos jours, les résultats expérimentaux en accord avec la relativité sont si nombreux et si précis que les physiciens pensent qu’il appartient à ceux qui croient en l’expérience négative de Miller (i) d’expliquer la précision des innombrables résultats en faveur de la relativité puisqu’ils mettent en doute cette théorie, (ii) de comprendre quels sont les artefacts (méthode d’analyse des données ou encore effet de la température ou de l’altitude…) susceptibles d’affecter le résultat qu’ils annoncent. Il y a donc bien un moment où la nécessité de la preuve change de camp.

Créationnisme et « intelligent design » Les enquêtes d’opinion aux États-Unis révèlent que la théorie de l’évolution, bâtie par Darwin, et renforcée par les découvertes de la biologie moléculaire, ne recueille l’adhésion que de moins du quart des Américains. Certains tiennent le récit biblique de la création pour un discours à prendre au pied de la lettre. D’autres, en fait la grande majorité, acceptent l’évolution des espèces, mais ils sont convaincus qu’elle ne peut être le résultat que d’un processus guidé par une puissance supérieure. Nous sommes là dans une matière délicate, car la théorie darwinienne ne peut pas faire l’objet d’une expérience répétée et réfutable, comme dans les exemples simples de la physique. Notre adhésion à Darwin vient cette fois d’un immense faisceau de présomptions ; comment expliquer rationnellement la grande similitude de notre génome avec celui d’une levure, un peu comme si l’on découvrait un poème de Victor Hugo au milieu d’un texte en allemand ? Faut-il y voir l’effet du hasard qui aurait conduit un typographe ivre à mélanger ses caractères, d’un deus ex machina qui a guidé sa main, ou bien faut-il chercher une explication rationnelle ? Au total, quels que soient les errements, les débats, les doutes qui ont pu accompagner l’élaboration d’un fait scientifique, la méthode de validation collective conduit bien à un résultat certain. Si l’exercice de la critique est indispensable, s’il est tout à fait instructif d’analyser le processus souvent long et complexe à travers lequel la vérité se fait jour, nier que la science nous fournit un moyen rationnel de comprendre le réel n’est que plonger dans la confusion mentale.

Chapitre

5

Rigueur, approximation et évolution des connaissances Évariste Sanchez-Palencia Je me propose de développer, à l’aide d’un exemple très simple, les idéesforces suivantes : – la science est une connaissance approchée de la nature (Bachelard [1]) ; – la connaissance scientifique est simple à appréhender. Sa simplicité est la condition pour embrasser un grand nombre de cas particuliers dans quelques lois causales. Rapport avec la simplexité (Berthoz [2]) ; – la démarche scientifique relève de l’invention d’un fragment du monde possible et de sa confrontation par l’expérimentation avec le monde extérieur ; aller-retour théorie-expérience à la recherche d’une cohérence causale (Jacob [3]). Je commenterai aussi sur le statut spécial des mathématiques et l’idéalisme dans les sciences.

50

La

rationalité scientifique aujourd’hui

Un exemple : la chute des corps Dans la vie courante, l’adjectif « scientifique » a souvent les connotations « exact, sérieux, objectif », ou « mettant en œuvre des moyens difficilement contestables ». Mais en fait, d’une façon générale, la connaissance scientifique n’est pas exacte, mais approchée. Les théories nous permettent de comprendre approximativement des parcelles de la réalité, et la recherche consiste principalement en un travail d’élaboration et d’amélioration des théories. C’est ce que je me propose de montrer avec un exemple, celui de la chute des corps ; je connais (un peu…) trois types de chute (il y en a probablement bien d’autres) : 1. chute des petits corps denses (pièces de monnaie et autres) ; 2. chute des feuilles (d’arbre ou de papier) ; 3. chute des chats (censés tomber sur leurs pattes). Commentons de façon succincte ces types de chute, leurs domaines de validité et d’exactitude, ou plutôt les marges d’erreur de leurs théories.

1. Chute des petits corps Les lois de la chute des corps ont été établies par Galilée et font partie des découvertes que l’on considère comme fondatrices de la science moderne. Galilée a dégagé ces lois à partir d’expériences. Cela a l’air trivial de nos jours, mais à l’époque c’était une extraordinaire nouveauté. Galilée conduit des expériences variées sur la chute des corps, notamment du haut de la tour de Pise (ce point n’est pas historiquement confirmé), mais surtout en faisant rouler des billes sur des plans inclinés, ce qui lui permet d’observer le mouvement au ralenti. Il découvre des coïncidences remarquables : en abandonnant la bille sans vitesse initiale, celle-ci tombe en s’accélérant, si bien que les distances parcourues sont proportionnelles aux carrés des temps invertis, et bien d’autres choses (trajectoires paraboliques lorsque le corps est lancé avec une vitesse initiale, par exemple) qui constituent les lois du mouvement uniformément accéléré, l’accélération étant due à la pesanteur. Galilée fait cela pour des chutes dans l’air de quelques centimètres ou quelques mètres. Nous savons à présent que, en plus de la pesanteur, l’air exerce une force de résistance au mouvement qui modifie le mouvement uniformément accéléré. Par exemple, les parachutistes sportifs qui font des chutes libres se jettent d’un avion à quelque 5 000 m d’altitude ; dans une première phase, la chute est approximativement uniformément accélérée mais, lorsque

Rigueur,

approximation et évolution des connaissances

51

la vitesse augmente et avec elle la résistance de l’air, l’accélération diminue, et la vitesse se stabilise à quelque 200  km/h. C’est alors qu’ils effectuent des acrobaties, pour ouvrir finalement leur parachute à l’approche du sol. Ce mouvement est extrêmement complexe, car il met en œuvre aussi bien le mouvement du corps qui tombe que celui de l’air environnant (nous reviendrons sur ce point à propos de la chute des feuilles). Il est clair que les expériences de Galilée ne concernaient que des cas où, les vitesses étant relativement petites, seule la force de la pesanteur était significative, car les effets de la résistance de l’air étaient indécelables avec ses instruments de mesure rudimentaires. Les lois de la chute uniformément accélérée trouvées par Galilée sont utiles avec une très bonne approximation pour les cas usuels de la vie de tous les jours : chute de petits corps denses tels que les pièces de monnaie. Mais elles sont inopérantes lorsque la résistance de l’air devient significative, ou lorsque les grandes distances font que la pesanteur ne peut plus être considérée comme approximativement constante. Ainsi les trajectoires des planètes sont elliptiques (Kepler et Newton) au lieu de paraboliques.

2. Chute des feuilles Dans les situations habituelles, les feuilles tombent dans l’air. De par leur forme et leur petite épaisseur, elles mettent en mouvement l’air autour d’elles bien plus que les petits corps denses ; leur mouvement est indissociable de celui de l’air environnant, que nous ne voyons pas. Dans la chute d’une feuille, nous voyons la feuille, mais pour y comprendre quelque chose, nous devons tenir compte du mouvement de l’air environnant, qui s’écarte, certes, pour laisser tomber la feuille, mais qui ne manque pas d’appliquer des forces (dites aérodynamiques) sur la feuille, modifiant le mouvement de celle-ci par rapport à celui qui aurait été dans le vide. Il en résulte un type de mouvement tout à fait curieux et intéressant. Si, par exemple, la feuille est abandonnée en position à peu près horizontale, elle gagne de la vitesse dans sa chute, et l’air agit sur elle avec une force de résistance de plus en plus importante, qui freine sa chute, en même temps que la feuille commence à se déplacer horizontalement, car dans cette direction la résistance opposée par l’air est petite. La feuille se met à planer, l’action de la pesanteur est pratiquement annulée par la force dite « de portance » de l’air (la feuille est « portée » par l’air). Mais la feuille est déséquilibrée par les deux forces de portance et du poids, comme un oiseau qui aurait les ailes trop en avant par rapport à son corps. La feuille tourne en se cabrant et se met un peu en travers de son mouvement d’avancement presque horizontal et perd de sa vitesse, qui produisait la portance. Le phénomène qui se produit alors s’appelle le décrochage. La feuille arrive à être presque immobile, et,

52

La

rationalité scientifique aujourd’hui

faute de portance, elle retombe comme au début de son mouvement. Le processus se répète (chute, vol plané, décrochage, chute…) jusqu’à l’arrivée au sol ou à un autre obstacle. Quelle impression vous a fait cette description ? Peut-être la trouvez-vous un peu complexe, artificieuse et tout compte fait un peu inutile, car il y a trop d’éléments pour avoir une description globale et pas assez d’explications pour saisir le pourquoi des choses… S’il en est ainsi, vous avez tout à fait raison. Il s’agit d’un problème extrêmement complexe, faisant intervenir des phénomènes et des théories difficiles et variés, qui sont matière de recherche actuelle. Parmi ces théories, se trouve le chaos déterministe, avec son fameux effet papillon, qui intervient dans le mouvement, dit turbulent, de l’air mis en mouvement par la chute de la feuille, et qui réagit sur elle… Tout cela est très différent des lois très précises de la chute des corps denses, étudiées par Galilée…

3. Chute des chats Un chat tombe dans l’air, certes, mais il est assez dense, les phénomènes évoqués lors de la chute des feuilles ne devraient pas avoir une grande incidence ; un chat est vivant, c’est certainement bien plus important… Oui, mais la loi de la gravitation universelle opère sur tous les corps (elle est universelle !) il n’y a pas d’exception pour les corps vivants… C’est certain, c’est pour cela que les corps vivants tombent… Et pourtant les corps vivants tombent, mais pas comme les autres… pourquoi et comment ? En fait, il n’y a pas une grande différence entre la chute des corps inertes et celle des êtres vivants peu développés ; les différences apparaissent pour des êtres dotés d’un système nerveux bien développé, capables d’avoir des modèles mentaux de certaines parcelles du monde extérieur. De quoi s’agit-il ? Les systèmes nerveux des animaux supérieurs sont capables de produire des représentations simplifiées et schématiques de certains éléments du monde ; elles sont partielles et ne concernent pas seulement ce que les choses sont, mais aussi comment elles évoluent, agissent, entre elles et surtout avec le sujet lui-même. Ces représentations ont des natures variées ; certaines, les réflexes, sont parfaitement involontaires, inconscients et automatiques, intégrées dans le patrimoine génétique des individus. Ces modèles permettent au sujet de prendre en compte l’avenir ou les avenirs possibles (parfois de façon erronée) pour réagir dans un certain but, et ceci, de façon consciente ou inconsciente, suivant les cas.

Rigueur,

approximation et évolution des connaissances

53

Pour finir sa chute sur ses pattes, le chat dispose d’un mécanisme inné, le réflexe de redressement. Il s’agit d’une suite de mouvements nullement triviaux, répétée plusieurs fois si nécessaire. La géométrie de ces mouvements, possibles grâce à leur colonne vertébrale très flexible, rappelle un peu (c’est une analogie lointaine…) les rotations complexes du cube de Rubik, alors que la dynamique évoque plutôt (c’est également une analogie…) la prestation d’une danseuse de ballet tournant sur ses pointes, qui, en serrant ou écartant ses bras, augmente ou diminue spectaculairement la vitesse de rotation de son corps.

Récapitulons 1. Quelle est la véracité des lois simples de la chute des corps (Galilée) ? Comment les vérifier ? Aucun corps n’est suffisamment petit et dense, dans aucune région de l’espace la pesanteur n’est constante, pour vérifier exactement les lois élémentaires de la chute des corps. Estce que cela veut dire qu’elles sont fausses ? Certainement pas, elles sont approximativement vraies, et cela d’autant plus que le corps est dense et que la chute concerne une région où la pesanteur est peu variable, mais le cas limite avec une hypothétique exactitude est irréel et invérifiable. 2. La science est notre connaissance de certaines parcelles de la nature et de leur évolution. Contrairement aux apparences, les lois scientifiques sont simples, en tout cas bien plus simples que l’infinie variété des questions ouvertes auxquelles elles s’appliquent et apportent des éléments de réponse, toujours partiels et approchés. C’est ce caractère partiel et approché qui suscite de nouveaux sujets de recherche ; la recherche a une vitalité propre, et les chercheurs vivent une insatisfaction constante qui les pousse à perfectionner, à comprendre. On peut construire un schéma allégorique de ces situations (fig.  1). Si l’on schématise le monde réel (compliqué et inconnu) par la courbe c, en se limitant à un type de phénomènes, par exemple le point A et ceux qui lui sont proches, comme B, on peut construire une théorie scientifique adaptée à ce type de phénomènes. Ce sera la droite d. Elle est bien plus simple que la courbe c (qui de toute façon nous est inconnue) et remplacera la situation B par une B´ en accord avec la théorie ; si, comme c’est le cas sur la figure, B´ est proche de B, la théorie est correcte. Bien entendu, pour des situations telles que F, assez éloignées de A, l’utilisation de la théorie donne F´, assez éloigné de F et est donc inutilisable.

54

La

rationalité scientifique aujourd’hui

A B

c

B’ F G F’ d

e

Figure 1 Les théories d et e sont simples et compréhensibles (des droites) ; elles donnent des approximations valables de la réalité (la courbe c) près de A et G, mais sont inadaptées loin de A ou G.

Naturellement, il y a des théories différentes pour divers types de phénomènes (pour la plupart d’entre eux, il n’y a pas de théorie). Sur la figure, on a également représenté la théorie e, qui concerne les phénomènes proches de G. Par exemple (toujours au sens allégorique), on peut imaginer que A représente les phénomènes de mouvement des corps et, d la mécanique, G la reproduction des animaux et e l’embryologie. Si l’on considère des phénomènes complexes faisant intervenir à la fois des corps en mouvement et de la reproduction, il se peut très bien qu’il y ait des conséquences inattendues imprévisibles avec les théories d et e. Les théories sont essentiellement simples et ont des domaines de validité restreints. Il est donc utile de perfectionner le schéma qui précède sous la forme suivante. La courbe c représentative du monde (au sens de l’ensemble de tous les phénomènes) peut avantageusement être remplacée par une surface  S, dessinée en pointillé (pour signaler qu’il nous est inconnu) (fig.  2). Les phénomènes d’un certain type (mettons par exemple les mouvements des corps solides) constituent une partie de S, la courbe M. Si le point P désigne les corps au repos (mouvement de vitesse nulle), on peut, par exemple, utiliser la mécanique newtonienne  T1 pour étudier  M. Elle est « très simple » (une droite) mais donne des erreurs importantes dès qu’on s’éloigne de P le long de M (la mécanique newtonienne donne des erreurs d’autant plus grandes que les vitesses sont grandes). Une meilleure théorie pour étudier la même courbe  M est la mécanique relativiste  T2  ; elle est plus compliquée (je l’ai représentée par une courbe), mais donne des résultats bien meilleurs que T1 lorsqu’on s’éloigne de P le long de M. Rien ne prouve qu’elle soit exacte ;

Rigueur,

approximation et évolution des connaissances

55

probablement, elle ne l’est pas, c’est-à-dire que T2 ne coïncide pas avec M. Il y a également des théories contenant la mécanique newtonienne du mouvement des corps comme un cas particulier. C’est le cas de la mécanique (newtonienne) des fluides, que j’ai représentée par le plan T3. Elle couvre un ensemble de situations bien plus grand, et contient T1 comme cas particulier, alors qu’elle ne contient pas T2 (elle n’est pas relativiste).

T1 T2 P

T3

M

S Figure 2 S = tous les phénomènes (inconnus) ; M = corps solides en mouvement ; P = corps solides au repos ; T1 = mécanique newtonienne des corps solides ; T2 = mécanique relativiste des corps solides ; T3 = mécanique newtonienne des fluides.

Il est clair que les éléments fondamentaux des schémas qui précèdent sont : – le caractère partiel des domaines couverts par les théories scientifiques ; – le caractère relativement simple des théories, de façon à pouvoir les maîtriser ; – le caractère approché de la connaissance scientifique ; – la possibilité d’une multiplicité d’approches à un même problème. Une chose est claire : il n’y a pas et il n’y aura pas de science « exacte » ni de science « du Tout ». Ce serait un contresens ; une copie conforme du monde serait inutile puisqu’aussi compliquée que le monde.

56

La

rationalité scientifique aujourd’hui

J’étayerai la description qui précède par des commentaires sur le concept de simplexité et par une description de la recherche par François Jacob.

La simplexité La simplexité, concept élaboré fondamentalement par Alain Berthoz, peut être définie comme l’ensemble des propriétés qui font apparaître comme simple (éventuellement intelligible) ce qui est complexe. C’est ce qui fait émerger des propriétés simples et manipulables d’un magma indiscriminé et inintelligible. Ce n’est nullement la simplicité, c’est ce qui dégage de la simplicité à partir de la complexité. La simplexité en tant que telle est subjective et l’on ne peut en donner une description objective qu’au cas par cas. Alain Berthoz donne dans son livre bien des exemples et facettes. La simplexité est éminemment polymorphe, et, assez paradoxalement, opère souvent par l’oubli de propriétés sans intérêt ou inutiles dans le but de faire émerger des structures intelligibles de ce qui reste. C’est ainsi que les théories scientifiques opèrent : elles dégagent ce qui est intelligible  ; voilà pourquoi elles sont simples et générales, en tout cas bien plus que la pluralité des cas et situations où elles sont pertinentes.

Texte de François Jacob (dans La Statue intérieure) : «  Contrairement à ce que j’avais pu croire, la démarche scientifique ne consistait pas simplement à observer, à accumuler des données expérimentales et à en tirer une théorie. Elle commençait par l’invention d’un monde possible, ou d’un fragment de monde possible, pour la confronter, par l’expérimentation, au monde extérieur. C’était ce dialogue sans fin entre l’imagination et l’expérience qui permettait de se former une représentation toujours plus fine de ce qu’on appelle la réalité. » En fait, la science est la recherche d’une cohérence causale et non pas la recherche d’une réponse aux questions qu’on lui pose. La question «  comment tombe une feuille ? » n’a pas de réponse scientifique. Pour essayer d’y répondre, la science étudie la causalité des mouvements des feuilles et montre que la cohérence causale met en œuvre l’air environnant. Les feuilles ne tombent pas de la même façon à Paris ou au sommet de l’Everest, propriété qui est parfaitement compatible avec la validité universelle des lois et des théories, à Paris comme au sommet de l’Everest. Voilà pourquoi la science est autonome et la recherche a une dynamique propre, tout en prenant ses racines dans des questions pratiques, auxquelles elle ne donne que des réponses partielles, souvent insuffisantes, parfois inadéquates.

Rigueur,

approximation et évolution des connaissances

57

Logique et mathématiques Il va de soi qu’un élément constitutif essentiel de toute théorie est son intelligibilité pour les scientifiques, ce qui fait appel automatiquement à la logique. Les mathématiques (pures) constituent la forme la plus épurée et développée des éléments logiques permettant la construction des théories. Dans le schéma de la figure 2, les mathématiques s’inscrivent donc non pas en tant que théories associées à un type de phénomènes naturels, mais en tant qu’ossature de certaines théories. Elles peuvent être issues de certains phénomènes naturels, mais rien ne les empêche d’en être indépendantes. Mais, bien entendu, il y a une articulation avec le monde réel, qui se fait par l’intermédiaire des critères d’acceptation des démonstrations, qui sont largement évolutifs. Ce qui précède concerne naturellement l’état actuel des mathématiques. À l’origine, elles sont issues d’une problématique pratique (géométrie, calcul)  ; c’est le caractère très simple et précis des entités et relations en jeu qui a permis le développement des théories mathématiques d’un très haut degré d’abstraction. La logique classique et les mathématiques manipulent des entités qui s’articulent comme des engrenages, elles sont le domaine du « oui ou non », le domaine du principe du tiers exclu. Le reste est le domaine de la pertinence et de l’adéquation, le domaine du « oui mais », le domaine de la dialectique, qui dépasse le principe du tiers exclu.

La rigueur Comme nous l’avons indiqué, la connaissance scientifique est essentiellement la mise en évidence ou la compréhension d’une cohérence causale entre des éléments du monde réel perçus approximativement. C’est d’ailleurs la raison pour laquelle, si une théorie explique approximativement un certain type de phénomènes, une expérience contradictoire avec elle ne l’invalide pas automatiquement, elle ouvre la voie à une étude plus fine et plus pertinente. La rigueur dans l’exercice des sciences prend deux formes différentes à l’intérieur des théories et dans leur articulation avec le monde réel. Dans le premier cas, la rigueur consiste en le développement cohérent des théories telles qu’elles ont été définies  : c’est la rigueur logique ou mathématique. Dans le deuxième cas, c’est la prise de conscience de la différence entre le monde réel et les théories approchées que nous élaborons, de la primauté de premier par rapport aux théories, dont le devenir naturel est d’être perfectionnées ou remplacées, à la recherche d’une meilleure adéquation à la réalité. C’est le dialogue entre l’imagination et l’expérience décrit par François Jacob.

58

La

rationalité scientifique aujourd’hui

Notons que cette forme de rigueur est difficile et subtile, car les théories sont intelligibles, alors que le monde réel est largement incompris. L’oubli de cette forme de rigueur est une erreur épistémologique, qui conduit à l’idéalisme dans les sciences. Les cerveaux des théoriciens idéalistes contiennent des mondes fictifs qui se comportent exactement comme le dictent les théories, perdant le contact avec la réalité.

Réduction et émergence La conception approchée de la connaissance scientifique et le caractère subjectif et évolutif des théories permettent une approche assez simple de la question du réductionnisme et de l’émergence. Les propriétés dites « émergentes » sont en fait des propriétés comme les autres du monde réel (dont la nature exacte nous est essentiellement inconnue) présentant des facettes qui ne sont pas prises en considération avec certaines de nos théories ; la prétendue émergence est la prise en considération du besoin d’élaborer des nouvelles théories (ou de modifier en profondeur les existantes) pour rendre compte de ces propriétés ou phénomènes. Des questions telles que la possibilité de réduire la biologie à la physique sont subjectives, et dépendent essentiellement de l’idée, figée ou non, que nous nous faisons de la biologie et de la physique et de leurs méthodes et de leurs définitions. Notons qu’une forme bien plus développée des idées de base du présent chapitre se trouve dans Sanchez-Palencia [4].

Références [1]

Bachelard G. (1927). Essai sur la connaissance approchée, Vrin, Paris (réédité).

[2]

Berthoz A. (2009). La simplexité, Odile Jacob, Paris.

[3]

Jacob F. (1987). La statue intérieure, Odile Jacob, Paris.

[4] Sanchez-Palencia E. (2012). Promenade dialectique dans les sciences », Hermann, Paris.

Chapitre 6

Comprendre ce qu’est la vie : la biologie synthétique Antoine Danchin Après avoir établi le catalogue des espèces, la biologie a identifié l’atome de vie, la cellule, puis l’a disséquée. La biologie moléculaire a mis en évidence que le niveau minimum pertinent de l’analyse de la cellule est celui des molécules, et elle a développé un catalogue de molécules et des relations compliquées qu’elles entretiennent. Ce procédé analytique est en passe d’être très complet, mais la vie reste toujours énigmatique. Il faut, pour aller plus loin – et découvrir comment l’organisation des molécules dans l’espace et dans le temps permet la vie – s’essayer à reconstruire une cellule qui soit fonctionnelle. C’est là l’un des objectifs de la biologie synthétique, première approche constructive de la biologie. Cette approche de l’ingénieur, qui bénéficie des apports de l’analyse fonctionnelle pour le design des machines, permet de découvrir des fonctions biologiques jusque-là ignorées. L’analyse fonctionnelle suppose la définition d’un objectif associé à la construction envisagée (une imprimante imprime). Cela demande donc d’imaginer quelle est la fonction principale de la vie. Il en existe deux, simultanément présentes et inséparables : explorer, et de façon pérenne, construire un descendant semblable. Avec cette contrainte, l’originalité de la cellule vivante est qu’elle agit comme un piège à information, qui transmet au cours des générations tout ce qui est localement fonctionnel, quelle que soit son origine et sans vision d’ensemble, grâce à un ensemble identifiable de dispositifs spécifiques. C’est

60

La

rationalité scientifique aujourd’hui

grâce à cette aptitude, conférée par ces dispositifs semblables au démon de Maxwell, que la descendance de la cellule reste jeune, de génération en génération. Cela a pour conséquence qu’une construction, même bien planifiée, manifestera toujours le comportement imprévu caractéristique de la vie lorsqu’elle abritera ces dispositifs, et que le prix à payer si l’on veut rester prévisible – c’est un prérequis des procédés industriels – sera que la cellule mourra sans descendance après un nombre limité de générations et devra systématiquement être reconstruite pour être à nouveau utilisée. Le cœur de la science suppose la création d’hypothèses. Elles seront la source des modèles qui visent à représenter le Réel. Il faut pour cela construire, soit de façon abstraite, soit plus rigoureusement de façon concrète, ce qui fera un bon modèle et sera confronté à ce que nous savons de la Réalité. Cette façon de voir rend bien compte de la dualité efficace qui unit la théorie et la pratique. Elle réunit aussi de façon intime les progrès de la technique et les progrès de la connaissance. Longtemps, la biologie est restée trop mystérieuse pour qu’on puisse penser réaliser des modèles physiques de ce qu’est la vie. Pourtant il n’est pas difficile de retrouver, au cours de l’histoire, des tentatives cherchant à recréer la vie. On connaît le Golem, et le monstre de Victor, le docteur Frankenstein, avec tout l’imaginaire associé. Au début du siècle dernier, Stéphane Leduc imaginait La biologie synthétique et écrivait : «  Le programme de la biologie synthétique présente déjà de nombreux chapitres : la reproduction de la cellule ou cytogénie ; la reproduction des tissus ou histogénie  ; la reproduction des formes générales ou morphogénie  ; puis la reproduction des différentes fonctions ou physiogénie, de la nutrition, de la circulation, de la multiplication, de la sensibilité ; enfin la reproduction des molécules organiques ou chimie synthétique […]. De tous ces chapitres de biologie synthétique, seule la chimie organique synthétique est constituée, reconnue, admise, les résultats, rapidement obtenus, établissent son importance. Les autres parties de la biologie synthétique, la reproduction des structures, des formes, des fonctions non seulement n’existent pas, mais leur étude n’est pas admise  ; il est difficile de voir pourquoi. En quoi est-il moins admissible de chercher à faire une cellule que de chercher à faire une molécule ? » [1]. Plus récemment –  c’est déjà bien oublié dans un monde qui se construit désormais sur l’amnésie – James Danielli, bien connu pour son rôle pionnier dans la représentation des membranes cellulaires, proposait un programme très précis pour développer la synthèse rationnelle d’organismes vivants : « L’âge de la synthèse en est à ses premiers pas, mais on peut clairement en observer le début. Au cours de la dernière décennie (1960-1970), nous avons assisté aux premières synthèses d’une protéine, d’un gène, d’un virus, d’une cellule et de souris mosaïques. Rien de tel, avec des implications aussi

Comprendre

ce qu’est la vie : la biologie synthétique

61

fascinantes, n’avait jamais été observé en biologie jusque-là. Les sélectionneurs de plantes et d’animaux avaient bien été en mesure de créer ce qu’on peut pratiquement qualifier de nouvelles espèces, et l’avaient réalisé à une vitesse de l’ordre de 104 fois celle qu’on constate pour la moyenne des processus évolutifs. Mais une nouvelle accélération de cette vitesse est maintenant à l’horizon. Il nous faut simplement quelques « premières » supplémentaires avant que cela ne se réalise : (1) d’abord synthétiser un chromosome à partir de gènes et d’autres macromolécules appropriées  ; (2) ensuite insérer un chromosome dans une cellule ; ou encore substituer à (1) et (2) l’insertion, (3), de gènes dans une cellule d’une autre manière ; nous devons aussi, (4), apprendre comment amener l’ensemble des gènes qui a été introduit dans une cellule à répondre aux mécanismes de contrôle cellulaires, afin que leur expression dans la cellule ne s’emballe pas. Aucun de ces problèmes ne semble présenter une difficulté exceptionnelle. » [2]. Et puis, vers le milieu des années 2000, alors qu’on commençait à déchiffrer le génome d’un grand nombre d’organismes vivants (y compris celui de l’homme), l’idée est venue à certains qu’on en savait peut-être assez sur la vie pour commencer à la reconstruire entièrement [3]. Quatre grands objectifs étaient alors mis en avant, de façon plus ou moins claire selon les priorités variées des auteurs : – reconstruire pour comprendre ; – abstraire ; – concevoir ; – faire évoluer.

L’analyse fonctionnelle Inventer une nouvelle machine suppose de savoir décomposer ses propriétés de façon hiérarchisée. L’objectif de l’analyse fonctionnelle est de produire cette décomposition d’une manière utilisable concrètement [4]. En bref, elle distingue d’abord l’idée de fonction [5], puis recherche en premier lieu la fonction de base, ou fonction principale de la machine (par exemple, imprimer, pour une imprimante). Elle retient ensuite les fonctions auxiliaires (ou fonctions de servitude, pour reprendre l’expression d’Yves Brette). Chacune de ces fonctions est alors décomposée en sous-fonctions, jusqu’au niveau des composants de base, objets élémentaires, boulons et écrous, qu’il faudra combiner de façon organisée pour réaliser la machine. On trouvera ainsi pour une imprimante des fonctions d’alimentation (en papier, encre, énergie…), des fonctions d’impression (tambour, jet d’encre, laser, etc.), un châssis jouant

62

La

rationalité scientifique aujourd’hui

le rôle de fonction de connexion entre les parties, mais aussi de protection contre les chocs, d’adaptation au transport, ou même d’harmonisation avec une ligne de produits (esthétique), et bien sûr réalisant l’interface de la machine avec l’homme. On trouve aussi des fonctions de communication (interaction avec des ordinateurs, avec l’Internet), des fonctions logicielles (gestion des tâches) et enfin toutes sortes de fonctions de maintenance (c’est là que se place la possibilité pour le constructeur de programmer l’obsolescence de la machine). Quelle est donc la fonction principale d’un organisme vivant ? Comme on peut le voir dans la réflexion millénaire qui a cherché à définir ce qu’est la vie, il est difficile d’en retenir une seule : de fait, on trouve deux fonctions, toujours associées, chez les organismes vivants. La première est centrale à tout système physique, c’est la fonction d’exploration (de l’espace et des états énergétiques offerts au système étudié). La deuxième est originale, et consiste à produire une descendance. Mais cette descendance a une particularité, souvent oubliée  : alors que tout organisme vieillit, et même rapidement, il s’agit d’une descendance jeune. Les organismes vivants vieillis sont capables de produire l’éternelle jeunesse. Et la biologie de synthèse doit trouver le moyen d’insérer ses objectifs spécifiques dans ces deux fonctions, en en choisissant une, ou en les combinant. L’analyse fonctionnelle ainsi posée, il devient nécessaire de comprendre le détail de la mise en œuvre de ces deux fonctions. L’exploration n’est pas trop difficile à concevoir, puisqu’il s’agit d’une propriété intrinsèque, universelle, des systèmes physiques. Cette propriété est repérée par la contrainte de l’augmentation nécessaire de leur entropie au fur et à mesure que le temps passe. La force exploratoire centrale associée à la vie est donc conforme au deuxième principe de la thermodynamique. De fait, loin de lutter contre l’augmentation d’entropie comme un lieu commun peu réfléchi tend à l’affirmer, la vie la canalise et l’utilise à son profit (cela se voit dans la mise en forme des macromolécules, par exemple, où le processus est dirigé par l’entropie, de façon majeure) [6]. La deuxième fonction, celle de la création d’une descendance (jeune) suppose une organisation très contrainte. Il faut en effet à la fois la transmission d’une mémoire et l’expression de cette mémoire sous la forme d’actions concertées. C’est ce que nous allons évoquer. Pour aller plus avant, il nous faut d’abord proposer une définition plus détaillée de ce qui fait la vie.

Comprendre

ce qu’est la vie : la biologie synthétique

63

Un ordinateur faisant des ordinateurs Deux entités sont toujours associées chez les organismes vivants. D’une part, une machine qui explicite les comportements de la vie dans un environnement donné (son comportement exploratoire, et la production d’une descendance, le cas échéant) et, d’autre part, un programme, analogue à un livre de recettes, qui spécifie les actions nécessaires à la mise en place de la descendance aussi bien que le détail du comportement de l’organisme. Le programme est répliqué à l’identique au cours des générations, fixant ainsi la mémoire qui définit ce qu’est l’organisme (l’espèce). La machine est un système de lecture et d’expression du programme. Il faut ajouter à ces deux éléments un ensemble qui fixe la dynamique de la lecture et de l’expression du programme aussi bien que le développement et le comportement de l’organisme. Cet ensemble de processus est le métabolisme, fondé essentiellement sur la dynamique des transformations chimiques qui habitent l’organisme en interaction avec son milieu. Programme et machine sont physiquement distincts –  comme dans l’abstraction de l’ordinateur qu’est la machine de Turing – et l’un des objets de la biologie synthétique est de réaliser la construction et la transplantation de programmes construits ad hoc dans des cellules (« chassis » dans le jargon de la discipline) pour réaliser une vie synthétique. Une fois remarquées la structure séquentielle du programme, fait de motifs symboliques extraits d’un alphabet limité, et sa séparation de la machine qui le met en œuvre, la coïncidence entre ce qui fait la vie et ce qui constitue la machine de Turing devient si frappante qu’on peut proposer comme hypothèse de travail que les cellules se comporteraient comme des ordinateurs faisant des ordinateurs [7]. La justification de cette façon de voir, toutefois, suppose qu’on revienne sur la nature même des catégories prises comme postulats centraux de la construction du Réel, Matière, Énergie, Espace et Temps. Il faut en effet y ajouter une cinquième catégorie, qui serait aussi physique que les quatre catégories standards : Information [8]. Pour le comprendre, revenons à Plutarque et à son ouvrage Vies des Hommes illustres, à propos de Thésée : «  Le navire à trente rames sur lequel Thésée s’était embarqué avec les jeunes gens offerts au Minotaure, et qui le ramena victorieux à Athènes, fut conservé par les Athéniens jusqu’au temps de Démétrius de Phalère. Ils en changèrent les planches au fur et à mesure qu’elles vieillissaient, les remplaçant par des pièces neuves, plus solides. Aussi les philosophes, dans leurs discussions sur la nature du changement des choses choisirent-ils ce navire comme exemple, les uns soutenant qu’il reste le même, les autres qu’il est différent du navire de Thésée. »

64

La

rationalité scientifique aujourd’hui

Il y a clairement dans le vaisseau de Thésée quelque chose qui n’est pas la matière, et qui a pourtant une réalité objective. On peut changer les planches du navire, et passer du pin au chêne par exemple, et cela lui laissera la possibilité de voguer sur la mer… De fait, au cours des siècles, les savants/philosophes firent référence à diverses catégories pour rendre compte du Réel. Et depuis Aristote jusqu’au Moyen Âge, ce sont dix catégories qui furent retenues  : οὐσία, προσότης, ποιότης, πρός τι, κεῖσθαι, ἔξις, τόπος, χρόνος, πράττειν, παθεῖν, ou en latin, essentia, quantitas, qualitas, ad aliquid, situs, habitus, locus, tempus, agere, pati. Elles deviendront, avec Descartes, Leibniz et bien d’autres, matière, espace, temps, énergie, cette dernière étant particulièrement floue et ouverte (comme on peut le voir via ses composantes, entropie et température par exemple) ; mais nous savons que même le temps n’est pas simple, puisqu’il peut être tantôt paramètre et tantôt dimension… On notera ici que la discussion sur la nature de l’information reste entièrement ouverte aujourd’hui (http://plato.stanford.edu/entries/information-entropy/). Cela implique que les catégories du Réel sur lesquelles toute la science est fondée sont loin d’être spécifiées de façon unique et précise. Comme on devrait d’ailleurs s’y attendre, malgré ses évidents succès, la science en est encore à son commencement. L’étude de la vie aura sans doute un rôle majeur dans l’affinement des concepts associés. Ainsi, alors que certains physiciens cherchent à représenter l’ensemble des catégories du Réel par une seule (information) dont toutes les autres dériveraient [9], d’autres mettent en doute l’existence même de cette catégorie [10]. Il n’en reste pas moins qu’il semble raisonnable de modifier la classification d’Auguste Comte, en ordonnant les sciences en fonction de la contribution à leur développement de la catégorie Information : • physique classique ; • physique quantique ; • chimie ; • biologie ; – développement, – neurobiologie, – linguistique ; • mathématique (informatique) ;

Comprendre

ce qu’est la vie : la biologie synthétique

65

créant ainsi, au début du développement de la biologie synthétique, une parenté forte entre la mathématique et la biologie, bien loin des cursus universitaires actuels. Mais pour éviter les connotations variées, souvent trompeuses, associées au mot «  complexité  » qu’on utilise à tort et à travers lorsqu’il s’agit d’information et de biologie, nous pourrions proposer d’utiliser sa transposition grecque, et parler alors de biologie symplectique plutôt que de biologie synthétique [11]. Le terme existe en mathématiques, mais dans un domaine bien restreint (la géométrie symplectique) et il pourrait éviter les dérives fondées sur l’ignorance et la manipulation des foules que nous avons connues à propos des organismes génétiquement modifiés par exemple [12].

Universaux et anecdotes Cette importance donnée à l’information nous conduit tout naturellement à explorer les universaux du vivant, sachant qu’ils signent la part informationnelle de la vie. Ces universaux, visibles dans la description formelle des grandes fonctions et des grandes lois de la vie (comme la loi de complémentarité qui définit la réplication de l’ADN, ou celle du codage, qui définit la traduction de l’ARN en protéines), font ensuite place à leur implémentation concrète, nécessairement anecdotique en raison des propriétés spécifiques des objets matériels. Cette contrainte particulière rend compte de ce qui est souvent perçu comme une bizarrerie de la biologie par rapport au monde physique, le fait que très souvent les organismes vivants apparaissent comme « bricolés » pour reprendre le terme cher à François Jacob. Les anecdotes ainsi multipliées sont associées aux contraintes de la matière, de l’espace, du temps et de la gestion de l’énergie. Mais, une fois adoptées par leur exploitation réussie chez certains organismes, ces anecdotes peuvent devenir des universaux, recrutés alors pour l’évolution future de la vie.

Anecdotes spatiales : contraintes de compartimentation L’ADN du chromosome est une molécule linéaire, un fil. Sa longueur est considérable, et elle est souvent mille fois supérieure à la longueur de la cellule. Il faut donc qu’elle soit repliée, cela, sans faire de nœuds et en permettant l’ouverture de la double hélice pour permettre sa réplication mais aussi, au gré des contraintes de l’environnement, la transcription des régions essentielles pour l’expression des gènes. Pour cette raison, le chromosome bactérien est compacté à la suite d’un surenroulement de la double hélice, qui l’enroule sur elle-même. Or la moindre cassure d’un des deux brins de l’hélice suffit à détruire ce surenroulement et à dérouler le chromosome, dont la taille

66

La

rationalité scientifique aujourd’hui

dépasse alors largement celle de la cellule qui doit la recevoir. C’est ce qui explique que les auteurs des premières transplantations de génomes synthétiques aient dû recourir à la formation d’un syncytium au moyen d’ajouts de composés comme le polyéthylèneglycol pour y faire pénétrer l’ADN synthétique [13]. Un autre exemple. Parmi ses propriétés universelles, la cellule définit un intérieur et un extérieur. Pour la physique, cela implique la création d’un gradient osmotique dès qu’il y a le moindre changement dans la concentration interne d’un composant diffusible. De même, un gradient électrique s’établit pour les molécules chargées électriquement ainsi que pour les ions métalliques. L’ensemble crée, entre l’intérieur et l’extérieur, un gradient électrochimique dont le rôle est vite devenu particulièrement important, à la fois pour contrôler le transport (influx et efflux de molécules et d’ions variés) et la signalisation (variations temporaires du potentiel électrique). Il faut donc assurer de façon fine la gestion du nombre des molécules dans la cellule. Cela peut se réaliser de deux manières : ou bien par la polymérisation/dépolymérisation des molécules dont la concentration varie (la formation de glycogène à partir de glucose en est l’illustration la plus célèbre depuis les études de Claude Bernard) ou le contrôle du transport (entrées/sorties) de ces molécules au travers de la membrane cellulaire. Curieusement, les fonctions associées à cette nécessité n’ont guère été explorées. C’est d’ailleurs l’intérêt pour la biologie synthétique qui a permis de comprendre, dans le cas de l’utilisation du sucre lactose par le colibacille, que cela expliquait la fonction d’un troisième gène du célèbre opéron caractérisé par Jacob et Monod, le gène lacA, dont on omettait toujours de préciser le rôle. Or il suffit de se mettre à la place d’un colibacille dans l’intestin d’un nouveau-né pour voir qu’il se pose un problème d’ingénierie très précis. Le nouveau-né bénéficie de tétées régulières, apportant donc à chaque fois une certaine quantité de lactose. Ce lactose aura donc induit la synthèse du produit des gènes de l’opéron lactose – c’est la base de la démonstration de son existence [14] – et en particulier aura permis la mise en place dans la membrane cellulaire de la lactose perméase, LacY. Or cette perméase a la propriété de concentrer à l’intérieur de la cellule, d’un facteur très élevé, le lactose dilué à l’extérieur. Aussi, lorsqu’une nouvelle tétée apportera une nouvelle quantité de lactose dans l’environnement du colibacille, son cytoplasme va se trouver inondé par le sucre. Cela conduira à une pression osmotique considérable et à son éclatement, à moins, comme le proposerait un ingénieur, que la cellule ne soit munie de soupapes de sécurité. Or c’est exactement ce qui existe dans la cellule, avec une petite variante due au fait que le lactose doit être modifié avant d’être expulsé, afin d’éviter les cycles futiles d’entrées/sorties, le lactose expulsé réentrant aussitôt qu’il est mis dehors. Il faut donc pour cela une enzyme de modification, et il faut

Comprendre

ce qu’est la vie : la biologie synthétique

67

aussi que cette enzyme soit peu efficace, pour qu’elle ne fonctionne que lorsqu’il y a beaucoup (trop) de lactose par rapport à son usage normal par la cellule comme source de carbone. Le gène lacA, précisément, code la synthèse d’une lactose acétyltransférase, LacA, qui a très exactement ces propriétés. Et, fonctionnellement en aval, se trouve un ensemble de trois systèmes de transport, SetA, SetB et SetC, dont la fonction est celle qu’on attend : ces systèmes expulsent hors de la cellule les sucres acétylés. Ainsi, pour toutes les cellules –  y compris celles des organismes supérieurs  – on doit trouver, à chaque fois qu’il existe une perméase efficace, un système jouant le rôle de soupape de sécurité [15]. C’est aussi ce qui explique pourquoi toutes les cellules trouvent un jour le moyen de résister aux médicaments ou aux antibiotiques, par un mécanisme qu’il aurait fallu considérer dès l’origine, mais qui, faute du raisonnement de l’ingénieur, est resté dans l’ombre malgré son importance majeure pour la médecine.

Reproduction et réplication : deux échelles de temps Il y a ainsi toutes sortes de fonctions essentielles qui n’ont jamais été explorées. De même l’imprécision du langage – rédhibitoire pour l’ingénierie – a conduit à passer à côté de nombreux processus centraux pour l’expression de la vie. C’est ainsi qu’on use indifféremment, bien souvent, des termes réplication ou reproduction. Pourtant il s’agit de deux processus distincts. La reproduction correspond à la synthèse d’une copie approximative d’un objet. La réplication, au contraire, correspond à la copie fidèle de cet objet. Or cette distinction conduit à des observations importantes. Ce qui se réplique, au cours de la différenciation des cellules dans un organisme en croissance, c’est le génome initial, variant très peu par rapport à celui de l’œuf primitif. Au contraire, comme on l’observe précisément dans le phénomène de différenciation, la reproduction va conduire à différents types cellulaires (de l’ordre de 250 pour un mammifère comme l’homme par exemple), correspondant cependant à un même génome. Cette distinction conduit à comprendre immédiatement qu’il existe deux mécanismes au moins pour rendre compte de l’hérédité : une hérédité génétique, correspondant à la réplication qui copie fidèlement le génome de génération en génération, préservant le programme génétique de l’organisme, et une hérédité épigénétique, qui reproduit temporairement (parfois pour de nombreuses générations) l’expression spécifique du programme génétique. Le temps des variations rares de la réplication correspond au temps de la spéciation, alors que le temps des variations de la reproduction est celui de la maturation de l’organisme et de son adaptation aux variations rapides de son environnement.

68

La

rationalité scientifique aujourd’hui

À ces deux processus héréditaires correspondent deux types d’information où le rôle du contexte est central, ce qu’à nouveau la biologie synthétique met bien en évidence.

L’information revisitée L’expérience princeps de la biologie synthétique sous sa forme moderne a été la reconstruction complète du génome d’un virus bactérien, le bactériophage T7 [16]. Cette reconstruction était destinée à proposer un programme génétique viral dont les caractéristiques seraient entièrement compréhensibles pour l’homme. Le génome ainsi synthétisé était un tout petit peu plus long que le génome du phage naturel, mais il donna lieu – et cela a été considéré comme la première pierre des constructions de la biologie de synthèse – à la multiplication et à la destruction (lyse) des bactéries contaminées par ce virus artificiel. Cela démontrait donc qu’on avait bien compris l’organisation et les fonctions du génome viral. Et pour la plupart des auteurs, il suffisait d’en rester là. Pourtant, le fait même que les « plages de lyse » (les régions où les bactéries étalées sur une boîte de Petri sont tuées par le virus) soient un peu plus petites que celles causées par le phage « sauvage » posait question. Il était donc naturel d’explorer l’évolution de ce virus synthétique. L’expérience était simple à réaliser : on prenait les phages issus d’une plage, pour les propager sur un tapis de cellules non infectées, et ainsi de suite. Le résultat fut remarquable : au bout d’un certain temps, les plages qui apparaissaient étaient devenues un peu plus grandes que celles créées par les premières expériences. Et rapidement, on arrivait à des plages de lyse de tailles semblables à celles du phage sauvage. Il était facile alors de séquencer le génome correspondant. La surprise a été que la nouvelle séquence avait effacé pratiquement toute la construction humaine, pour se rapprocher de l’état du programme du phage sauvage [17]. Cela montre à la fois que les constructions humaines sont bien plus fragiles que ce que produit la nature, et qu’elles sont instables, sensibles à l’information apportée par le contexte. Pourquoi le génome synthétique du phage  T7 évolue-t-il ? Pour le comprendre, il nous faut reconsidérer ce qu’est la nature de l’information. Nous ne pourrons ici que brosser un tableau très superficiel de la question, aujourd’hui au centre d’une profonde réflexion sur la nature même des catégories de la physique. En particulier, il nous faut considérer les relations qui existent entre l’information et l’énergie. L’intuition, longtemps partagée par les plus grands esprits, nous fait spontanément penser qu’il faut de l’énergie pour créer de l’information [18, 19], mais c’est inexact. En effet, comme l’a montré Rolf Landauer, la création d’information est réversible [20-22].

Comprendre

ce qu’est la vie : la biologie synthétique

69

Cependant, accumuler de l’information requiert un processus énergivore, qui permet de réinitialiser le processus créatif et de recommencer. Ainsi, « faire de la place » est nécessaire pour accumuler de l’information ; comment est-ce réalisé ? Pouvons-nous trouver dans les génomes les gènes codant les fonctions qui permettent ce processus ?

Le démon de Maxwell Pour répondre à cette question, il nous faut revenir à une expérience de pensée proposée par James Clerk Maxwell au cours de la deuxième moitié du xixe siècle. Dans sa Théorie de la chaleur [23], Maxwell réintroduit l’idée d’une « théorie moléculaire de la matière », où le mouvement est central : « L’opinion que les propriétés observées de corps visibles apparemment au repos sont dues à l’action de molécules invisibles en mouvement rapide se trouve déjà chez Lucrèce. […]. C’est au professeur Clausius, cependant, que nous devons le développement récent de la théorie dynamique des gaz. » Dans un système formé d’un gaz, en effet, si l’on part d’une répartition dissymétrique entre deux compartiments, les molécules du gaz chaud dans un compartiment et les molécules du gaz froid dans le compartiment contigu, le système va évoluer de telle sorte que la température devienne la température moyenne. La température mesure ici le degré d’agitation des molécules du gaz  : rapide pour la partie chaude, lente pour la partie froide. L’exploration de l’ensemble des compartiments par les molécules de gaz – correspondant à l’augmentation de l’entropie du système – conduit à une température homogène. Pour créer un lien entre l’information et l’entropie, Maxwell invente alors un être hypothétique, plus tard nommé «  démon  », capable d’inverser ce processus. Le démon traite l’information sur l’état du gaz en la mémorisant afin de réduire l’entropie d’un gaz initialement homogène (à une température donnée) réparti entre deux compartiments séparés par un clapet. Le démon mesure la vitesse des molécules de gaz et ouvre ou ferme le clapet entre les deux compartiments en fonction de la vitesse des molécules, les maintenant d’un côté si elles vont vite, et de l’autre côté, si elles sont lentes. Cette action va établir une dissymétrie, faite d’un compartiment chaud et d’un autre froid, agissant apparemment contre le second principe de la thermophysique. Comprendre pourquoi l’existence de ce démon n’est pas possible est à l’origine d’une réflexion qui se poursuit aujourd’hui. Pour la plupart des auteurs, qui suivent en cela Landauer, le démon doit consommer un quantum d’énergie à chaque fois qu’il remet à zéro sa mémoire pour recommencer sa mesure. Ainsi, énergie et information se trouvent intimement associées via l’existence de dispositifs permettant de trier au sein d’un mélange. Or il est facile de comprendre qu’on a là précisément une situation semblable à celle qui prévaut

70

La

rationalité scientifique aujourd’hui

dans les processus sélectifs qui opèrent au cours de la sélection naturelle. Physique et biologie se trouvent à nouveau intimement liées.

Par construction, les ovules sont très jeunes De fait, si l’on revient aux fonctions de base des organismes vivants, la fonction de création d’un descendant jeune est remarquablement semblable à la fonction requise pour un démon de Maxwell [24]. Il faut en effet, dans la cellule, faire le tri entre des objets neufs et des objets vieillis. Pour assurer une descendance jeune, il est essentiel, en particulier, que l’œuf soit principalement composé d’entités qui n’aient pas subi les ravages de l’âge. Longtemps cette nécessité n’a pas été explorée. Mais on sait aujourd’hui, aussi bien dans le bourgeonnement de la levure – où les protéines vieillies sont toutes rassemblées dans la cellule mère, et absente des bourgeons [25] – que dans la formation des ovules [26], que les organismes vivants ont inventé un processus de tri efficace. Les septines, par exemple, assurent très exactement la fonction proposée pour le démon de Maxwell (elles utilisent l’énergie du GTP pour se remettre à zéro). Plus généralement, on observe systématiquement la présence de processus dégradatifs qui utilisent de l’énergie alors qu’ils devraient en produire, et qui font de la place pour des entités nouvellement synthétisées. Cette énergie est, de fait, consommée pour prévenir la dégradation des entités fonctionnelles via un processus de reconnaissance de la différence entre ce qui fonctionne et ce qui ne fonctionne pas. Or, ce processus accumule de l’information, quelle que soit son origine, par effet de cliquet. Et comme ce processus est ubiquiste, on attend que les fonctions correspondantes soient codées dans la partie du génome qu’on retrouve systématiquement chez tous les organismes (ensemble des gènes persistants). Le résultat est que les organismes vivants se comportent comme des pièges à information, mais cela sans grand dessein, simplement par accrétion d’ensembles fonctionnels, au cours du processus de préservation de la jeunesse qui préside à la génération de la descendance.

Évolution Ce processus, dont le rôle est de préserver la jeunesse, a une conséquence inévitable  : il va faire évoluer la descendance de l’organisme. C’est une contrainte forte à laquelle doit se plier la biologie synthétique. On peut en voir deux conséquences, une positive et une négative.

Comprendre

ce qu’est la vie : la biologie synthétique

71

Le principe de Gaudi Les constructions de la biologie synthétique consistent à insérer dans un chassis, choisi pour son efficacité et sa stabilité, des morceaux de programme génétique destinés à assurer des fonctions intéressantes pour l’industrie, ou simplement pour le développement du savoir. Il va de soi que ces constructions ne peuvent pas être immédiatement adaptées au chassis. Non seulement il faut une sorte de « rodage » comme pour tous les objets mécaniques neufs, mais il faut que la matière même du chassis puisse être adaptée à la construction. C’est ce qui se passe, par exemple, dans l’évolution de la construction du phage  T7 synthétique. Victor de Lorenzo a proposé l’idée qu’on utilise l’évolution spontanée sous contrainte pour parvenir à optimiser les constructions. Et il a appelé cette évolution le principe de Gaudi, du nom du célèbre architecte de la cathédrale de Barcelone. Gaudi a, pour établir les formes de la cathédrale, dans un temps où on ne disposait pas des puissants ordinateurs contemporains, construit une maquette où les différents éléments étaient liés par des fils, puis il a suspendu la maquette et mesuré les angles des différents contacts entre les éléments, laissant agir la gravitation (qui est la force qui devra en effet opérer sur les matériaux de construction). Pour ajuster les liens informationnels entre les parties, Gaudi laisse opérer les contraintes de la physique (ici, la gravitation).

Une cellule synthétique ? Le rêve d’ingénieur de la biologie synthétique exclut que les cellules artificielles soient innovantes. – Il est possible d’exclure les gènes permettant l’accumulation d’information. – La conséquence est que, comme les usines, l’usine cellulaire vieillira et devra être systématiquement reconstruite. – Cela pose problème pour l’utilisation à grande échelle de cellules synthétiques.

Une brève conclusion éthique L’exposé qui précède visait à mettre en avant l’importance de la fonction principale des organismes vivants, impossible à écarter des constructions de la biologie synthétique, la production d’une descendance toujours jeune. Cette réflexion nous a conduits à repenser le rôle de l’information, et à rappeler que la vie est un piège à information. Cela a des conséquences importantes pour les constructions de la biologie synthétique, et en particulier, cela les rend très fragiles (loin par conséquent de l’imaginaire catastrophiste

72

La

rationalité scientifique aujourd’hui

qui les voit envahir le monde). Mais cela permet aussi de regarder avec attention d’autres pratiques récentes, qui n’ont pas été soumises à la réflexion critique nécessaire, essentiellement à la suite de la démesure classique du comportement humain qui tend à développer la technique, surtout si elle est lucrative, avant d’avoir acquis la connaissance la plus élémentaire. Oublier que la fonction primordiale d’un organisme vivant est la genèse d’un organisme jeune pourrait bien conduire à des conséquences catastrophiques à long terme [27]. Cela est particulièrement vrai au travers de la manipulation des gamètes, et plus spécialement des ovules, dont la construction, au cours d’une évolution de plusieurs dizaines de millions d’années, a été optimisée de façon à préserver la jeunesse, associée à une sévère sélection naturelle. Les décennies qui viennent nous montreront ce qu’il en est.

Remerciements Ce travail est le fruit de l’activité du séminaire Stanislas Noria (soutenu par la Fondation Fourmentin-Guilbert) : Institut Pasteur 1986-2000 Département de mathématiques Hong Kong University 2000-2003 Institut Pasteur 2004-2009 E-séminaire, et département de mathématiques et département de biochimie Hong Kong University AMAbiotics et Beijing Genome Institute (Shenzhen) 2010-présent. http:// www.normalesup.org/~adanchin/causeries/causeries_fr.html

Références [1]

Leduc S. (1912). La Biologie Synthétique. Paris : A. Poinat.

[2]

Danielli J.F. (1972). Artificial synthesis of new life forms. Bulletin of the Atomic Scientists 28(10): 20-24.

[3]

Endy D. (2005). Foundations for engineering biology. Nature 438 (7067): 449-453.

[4]

Cole E.L., Jr. (1998). Functional analysis: a system conceptual design tool [and application to ATC system]. Aerospace and Electronic Systems, IEEE Transactions 34(2): 354-365.

[5]

Allen C., Bekoff M., Lauder G., eds (1998). Nature’s Purposes. MIT Press: Cambridge, Massachusetts.

Comprendre

ce qu’est la vie : la biologie synthétique

73

[6]

Pum D., Sleytr U.B. (2014). Reassembly of S-layer proteins. Nanotechnology 25(31): 312001.

[7]

Danchin A. (2009). Bacteria as computers making computers. FEMS Microbiol Rev 33(1): 3-26.

[8]

Landauer R. (1996). The physical nature of information. Physcis Letters A 217: 188-193.

[9]

Vedral V. (2010). Decoding Reality: The Universe as Quantum Information. Oxford: Oxford University Press.

[10] Alicki R. (2014). Information is not physical. ArXiv. p. 13. [11] de Lorenzo V., Danchin A. (2008). Synthetic biology: discovering new worlds and new words. EMBO Rep 9(9): 822-827. [12] Danchin A. (2010). Perfect time or perfect crime? EMBO Rep 11(2), 74. [13] Lartigue C. et al. (2007). Genome transplantation in bacteria: changing one species to another. Science 317(5838): 632-638. [14] Jacob, F. et al. (1960). Lʼopéron  : groupe de gènes à expression coordonnée par un opérateur. C R Hebd Seances Acad Sci 250, 1727-1729. [15] Danchin A. (2009). Cells need safety valves. Bioessays 31(7): 769-773. [16] Chan L.Y., Kosuri S., Endy D. (2005). Refactoring bacteriophage T7. Mol Syst Biol 1: 2005.0018. [17] Springman, R. et al. (2012). Evolutionary stability of a refactored phage genome. ACS Synth Biol 1(9), 425-430. [18] Szilard L. (1929) Uber die Entropieverminderung in einem thermodynamischen System be eingriffen intelligenter Wesen. Zeitschrift für Physik 53: 840-856. [19] von Neumann J. (1966). Theory of self-reproducing automata. Urbana: University of Illinois Press. [20] Bennett C. (1988). Notes on the history of reversible computation. IBM Journal of research and development 44: 270-277. [21] Landauer R. (1961). Irreversibility and heat generation in the computing process. IBM Journal of research and development 3: 184-191.

74

La

rationalité scientifique aujourd’hui

[22] Zurek W. (1989). Thermodynamic cost of computation, algorithmic complexity and the information metric. Nature 341: 119-124. [23] Maxwell J.C. (1871). Theory of Heat. London: Longmans, Reed and Co. [24] Binder P.M., Danchin A. (2011). Life’s demons: information and order in biology. What subcellular machines gather and process the information necessary to sustain life? EMBO Rep 12(6): 495-499. [25] Nystrom T., Liu B. (2014). The mystery of aging and rejuvenation - a budding topic. Curr Opin Microbiol 18: 61-67. [26] Aguilaniu H. et al. (2003). Asymmetric inheritance of oxidatively damaged proteins during cytokinesis. Science 299(5613): 1751-1753. [27] Dupont C., Sifer C. (2012). A Review of Outcome Data concerning Children Born following Assisted Reproductive Technologies. ISRN Obstet Gynecol 2012: 405382.

Chapitre

7

La rationalité, une et complexe Gerhard Heinzmann Nous recherchons un modèle d’interaction entre les sciences et les sciences humaines et sociales. Or, souvent, les premières sont considérées comme représentantes d’une rationalité objective, tandis que l’on attribue aux secondes, qui sont censées être la «  science de l’homme  », une rationalité subjective, sinon une irrationalité. Cependant, philosophiquement, cette analyse est basée sur un malentendu hérité de Max Weber, mais qui, à vrai dire, traîne dans toute la tradition philosophique depuis la modernité : la rationalité objective est assimilée à l’explication quantitative, la rationalité subjective au modèle de compréhension interprétative, aux causes et aux sentiments. Dans le néo-kantisme, cette différence concernera moins le domaine d’objets que la « logique » employée : celle-ci s’occupe traditionnellement du général, le « singulier » des sentiments et du goût nécessitent alors une « nouvelle logique ». La « philosophie scientifique » des années 1930 essaye d’effectuer par une tournure linguistique une unification de toutes les sciences en réduisant chaque phrase au langage de la physique, mais au prix que les mathématiques et la logique sont dorénavant privées d’objets, que la biologie résiste à cette entreprise et que le rôle de la philosophie semble peu assuré. Selon Moritz Schlick et Rudolf Carnap, la métaphysique ne peut être formulée dans un langage scientifique et équivaut à la poésie, tandis que Hans Reichenbach envisage, inversement, une extension métaphysique de la science. En adoptant l’esprit du premier cas, les alliances « encyclopédiques » d’intérêt ou d’opportunité entre les sciences

76

La

rationalité scientifique aujourd’hui

remplacent un «  système  » philosophique englobant les sciences  ; dans le second cas, la métaphysique devient une discipline technique – on parle par exemple de lois économiques – qui n’est plus immergée dans les sciences, mais qui en est elle-même une. Or, à mon avis, la réduction d’une rationalité à l’autre aussi bien que leur distinction de principe est une erreur, institutionnalisée par l’organisation actuelle de nos universités et de nos institutions académiques, où les sciences se trouvent bien séparées des humanités. Pourquoi le postulat de deux rationalités est-il une erreur ? Parce qu’ainsi : 1. la rationalité quantitative surestime les possibilités de découvrir un algorithme de la rationalité non seulement des choix mais également des raisonnements scientifiques ; rigoureusement reconstruire n’est pas suffisant pour comprendre ; 2. la rationalité qualitative, par exemple dans l’histoire, surestime le subjectif et l’émotif des valeurs. Les justifications deviennent ainsi causales et ne sont plus rationnelles : elles sont dites « naturelles ». Or, l’histoire n’est pas une donnée naturelle avec laquelle on est en symbiose ; l’analyse de ce que l’on trouve ne suffit pas non plus pour comprendre. Il faut débattre comment la science se fait et non se limiter à l’analyse de sa réception. En vérité, la rationalité n’est ni purement quantitative ni purement qualitative ; elle est fort complexe, incluant des procédures analogiques, esthétiques et logiques. Les sciences –  humaines et inhumaines  – n’ont ni pour but de découvrir n’importe quelle vérité ni de s’accorder simplement par rapport à nos croyances justifiées sur l’articulation du monde : nous ne nous accordons pas par rapport à des croyances quelconques justifiées – le célèbre problème de Gettier le montre techniquement – mais par rapport à des croyances pertinentes et non triviales. La pertinence doit être contrôlée par au moins quatre critères de la rationalité : – les croyances doivent être empiriquement compatibles ; – les acteurs doivent avoir la volonté d’interagir ; – les acteurs doivent être prêts à réviser leurs croyances ; – les acteurs doivent être honnêtes.

La

rationalité, une et complexe

77

Dans cette approche, la différence entre les sciences et les humanités n’est à chercher ni dans le domaine des objets ni dans le domaine de la logique, mais dans la manière dont nous utilisons les systèmes symboliques (Nelson Goodman), car la construction symbolique de l’homme concerne à la fois l’homme et ce qu’il construit (Hermann Weyl). Le symbolisme choisi est normatif (Henri Poincaré) et il est utilisé tantôt plutôt d’une manière univoque (sciences), tantôt plutôt d’une manière plurivoque (humanités). Ainsi, le mathématicien qui utilise un langage esthétique en admettant des analogies, des exemplifications et des associations, est à la fois un scientifique et un artiste travaillant dans un contexte sociétal et culturel. Nous rejoignons ainsi deux importantes remarques soulignées par Jacques Commaille : – il nous faut passer d’une recherche appliquée à une recherche « impliquée  », c’est-à-dire qu’il faut prendre en considération les problèmes de société et réviser les fondements des problématiques. Car l’innovation vient autant des scientifiques que de la société : il ne suffit pas de maîtriser scientifiquement la réversibilité du stockage nucléaire, il faut également la faire accepter par la société ; – il faut distinguer des modèles économiques des phénomènes économiques ; en effet, il n’y a pas de stricte correspondance entre le phénomène et le modèle. Le phénomène ne peut être circonscrit par plusieurs modélisations. Ceci est aujourd’hui souvent méconnu lorsque l’on confond «  le modèle économique  » avec la nécessité de prendre en considération le phénomène économique. En résumé, l’unité de la rationalité est « une » dans le multiple et cette complexité est à promouvoir et non à subir.

Chapitre

8

La rationalité scientifique face à deux défis distincts : le relativisme cognitif, l’anti-science Claude Debru Il existe un conflit rémanent, véritablement structurel et vraisemblablement irréductible, souvent décrit par les philosophes, entre les croyances, plus ou moins dogmatiques, et le savoir scientifique, issu de la tradition de libre examen qui caractérise à la fois la science et la démocratie. Ce conflit est ce qui motive cet exposé et lui donne son orientation. Il est donc nécessaire de démontrer sans relâche la spécificité de la rationalité scientifique face à des attitudes qui, soit en nient les acquis, soit en dénaturent la visée, à savoir l’anti-science d’un côté, le relativisme cognitif de l’autre. L’anti-science, à savoir une hostilité multiforme à la science, n’est nullement une fiction. Elle existe, sans nécessairement être généralisée à tous les domaines des sciences. La vogue persistante du créationnisme le montre suffisamment. Certes, il y a bien des nuances et des motivations dans l’hostilité à la science ou aux théories scientifiques, et il y a bien des ambivalences dans les attitudes à l’égard des sciences. Mais la concurrence entre explications du monde est une réalité de dimension historique. Quant au relativisme, cette philosophie, d’ailleurs

80

La

rationalité scientifique aujourd’hui

difficilement saisissable, peut avoir pour conséquence d’effacer les distinctions entre la science et les autres activités sociales. Cela dit, il doit être bien entendu qu’il n’y a aucun lien entre relativisme cognitif et anti-science. L’anti-science ne se nourrit généralement pas du relativisme (mais bien au contraire se fonde sur un absolutisme dans la pensée). Le relativisme, même s’il donne une image contestable et partielle de la science, n’est nullement de l’anti-science, et s’en défend. Nous envisagerons donc deux problèmes distincts, celui posé par le relativisme cognitif mettant en question l’idée de vérité scientifique comme adéquation de la réalité et de l’intellect au profit de l’idée de construction sociale de la science, et celui posé par l’audience croissante, dans des pays très différents, d’attitudes que l’on peut qualifier de « négationnistes » par rapport à des théories scientifiques fort bien établies. La question du relativisme cognitif, à savoir de la théorie de sociologie des sciences qui tend à mettre sur le même plan les idées scientifiques du fait qu’aucune garantie finale de vérité ou d’objectivité ne leur serait donnée, cette question rentre dans le sujet, la rationalité scientifique, car la critique du relativisme cognitif nous introduit à un phénomène plus important que les jugements que l’on peut émettre en matière d’épistémologie et de sociologie des sciences. Ce phénomène est celui de la diffusion sur la longue durée, en dépit de fluctuations et de circonstances locales, de la rationalité dans les sociétés humaines. Le modèle de la rationalité scientifique, le dialogue de l’hypothèse et de l’expérience, joue certainement un grand rôle dans cette diffusion lente de l’attitude de pensée rationnelle particulièrement illustrée par les sciences, mais il n’est peut-être pas le seul moteur de la « rationalisation diffuse » qui pénètre, non sans de fortes résistances, les sociétés humaines. Après tout, les sociétés ne cessent d’expérimenter sur tous les plans, sur ellesmêmes tout autant que sur la nature. Bref, le thème le plus fondamental de cet exposé, derrière la rationalité scientifique face à l’anti-science, c’est la rationalité tout court et son rôle malgré tout croissant dans l’organisation des sociétés humaines – même si le contraire fait rage dans un certain nombre de régions du monde. Le sociologue Raymond Boudon, critique du relativisme, me servira de guide dans cette affaire, dans ce qu’il appelle précisément la rationalisation diffuse. La réflexion qui suit aura donc lieu en trois temps  : un examen des ressorts de l’anti-science, un examen plus bref du relativisme cognitif, reprenant des critiques déjà émises, et une mise en perspective plus large concernant l’idée de rationalisation diffuse.

Les ressorts de l’anti-science Les philosophes admettent comme un postulat que la raison l’emporte sur l’irrationnel par la seule force de ses arguments. Ce raisonnement est contradictoire, car les philosophes ne cessent de se contredire entre eux. Sans

La

rationalité scientifique face à deux défis distincts : le relativisme cognitif, l’anti-science

81

parler de l’histoire, qui n’en finit pas de démontrer le contraire. C’est la raison pour laquelle il est important de réfléchir sérieusement sur les racines de l’anti-science ou de la méfiance vis-à-vis de la science. Qu’est-ce qui, dans la psychologie humaine, nourrit cette méfiance ? Ce sujet avait inspiré Jacques Monod dans sa Leçon inaugurale au Collège de France le 3 novembre 1967, « De la biologie moléculaire à l’éthique de la connaissance ». Au tout début de cette leçon, il porte un diagnostic sur la source de l’anxiété, de la « profonde méfiance » que, dit-il, « tous nos contemporains éprouvent à l’égard du monde nouveau et de la science elle-même » [1]. Quel est ce diagnostic ? À ses yeux, la raison en est que « la source même » de la science dans la connaissance objective et dans l’éthique qui la fonde « demeure obscure pour la majorité des hommes » [1]. Elle ne se laisse pas facilement découvrir. Il y a une difficulté, voire une cécité (peut-être cela tient-il au fait que la connaissance objective n’est pas un phénomène premier et qu’elle résulte de tout un processus). La réflexion qui mène vers la source de la connaissance objective est un effort, tout comme la connaissance objective elle-même. L’épistémologie n’est ni facile ni répandue. Peut-être la difficulté tient-elle aussi au fait que le terme de connaissance a souvent impliqué un certain innéisme, qui s’applique difficilement au dialogue de l’hypothèse et de l’expérience et au jeu de l’imagination dans la connaissance objective. Quoi qu’il en soit, Jacques Monod constatait une méfiance croissante à l’égard de la science, même dans des milieux très évolués, et plaidait pour ce qu’il a appelé une « éthique de la connaissance », qui ne consistait pas seulement dans le catalogue des valeurs et vertus idéalement incarnées par le scientifique dans sa pratique, mais qui consistait surtout dans l’idée que la connaissance est le souverain bien, le plus grand bien que l’homme puisse poursuivre et posséder, plus grand que les satisfactions procurées par la poursuite du bonheur ou du pouvoir. Ces idées, fort idéalistes aux dires mêmes de leur auteur, ont suscité une critique féroce de la part du philosophe marxiste Louis Althusser, qui a utilisé à leur propos l’étiquette de « philosophie spontanée des savants », à l’occasion d’une série de cours dits de « philosophie pour scientifiques » donnés à l’École normale supérieure à l’automne 1967. Le problème d’Althusser était d’établir la scientificité du marxisme, du matérialisme dialectique. Il voyait dans l’éthique de la connaissance de Monod une sorte de travestissement idéologique de la pratique scientifique qui est par nature matérialiste, et même dialectique, selon lui, dans ses concepts fondamentaux [2]. Ces controverses ont enflammé les esprits à l’époque. Il n’en reste plus grand-chose aujourd’hui. Mais le problème des ressorts de l’anti-science reste entier. À ce sujet en effet, le diagnostic de Monod sur l’obscurité de la « source » de la connaissance n’est vraisemblablement pas le seul possible. L’appétit d’apprendre que manifeste le cerveau de l’enfant qui se construit est incroyable !

82

La

rationalité scientifique aujourd’hui

Et l’activité de connaissance objective a entraîné la culture occidentale d’une manière considérable –  à côté des religions dont Monod parle un peu et qui sont parfois des systèmes dogmatiques de règles de vie individuelle et collective. Monod se trouvait au fond face à une polarité, entre la nécessaire liberté de l’esprit qui cherche à pénétrer la nature, et la nécessité des règles sociales. Il pensait que les religions dont il parlait diminueraient dans leur influence. On observe le contraire, pour certaines. En tout cas il est clair que ces croyances religieuses, qui norment parfois d’une manière extrêmement rigoureuse la vie individuelle et sociale, ne peuvent pas ne pas s’opposer à la liberté d’innovation, à la créativité nécessaire à l’épanouissement de la science. En effet, la science est très proche de la démocratie dans son principe, sans doute depuis la Grèce, alors que bien des églises, aux dires-mêmes de leurs responsables, ne sont pas des démocraties. En outre, les religions, par leurs récits de genèse et par la figure du créateur, comblent l’angoisse de contingence qui s’attache à la vie humaine, et que Monod a bien analysée. La science, tout spécialement celle de l’évolution qui fait toucher du doigt la contingence, est intolérable aux esprits religieux qui comblent cette angoisse métaphysique du vide par des théories nécessitaristes. Toutefois, notre sujet n’est pas « science et religion », même s’il le touche. La coexistence, sinon le compromis historique, entre science et religion est aménageable et a été fréquemment aménagé. Je pense pour ma part qu’il ne faut pas trop céder ni passer trop de compromis. En tout cas, la question des racines et des ressorts de l’anti-science – qui n’est pas tout à fait la même que celle des motifs dont l’anti-science se nourrit dans l’actualité  – n’est pas facile à résoudre. Il ne s’agit pas seulement d’évoquer l’impérialisme constitutif de tout système de pensée pré-élaboré, prêt à être utilisé et à susciter une conviction forte. Il ne s’agit pas seulement des mécanismes de compétition ou de sélection des idées à la Monod, ou des mécanismes de diffusion et de renforcement autocatalytique des systèmes de croyance et d’idéologie, la « contagion des idées », selon le titre d’un ouvrage du sociologue Dan Sperber. Tout cela est plausible. Mais je ne suis pas convaincu et je ne suis pas sûr que la question de la « méfiance » soit bien posée. Monod ne parlait pas d’anti-science, mais on en a parlé beaucoup, en particulier aux États-Unis. On peut à ce point poser la question : l’anti-science existe-t-elle, et jusqu’à quel point ? Et comment la définir ? Après tout, dans des couches entières de la population en Europe, la science est mise en avant et admirée. L’antiscience n’existe pas de la même façon partout. Les États-Unis et l’Europe sont différents. Si l’on définit l’anti-science comme l’adhésion et la propagande active en faveur d’idées dont l’invraisemblance est avérée et la fausseté démontrée, oui l’anti-science existe. On a tellement parlé du créationnisme qu’il n’est peut-être pas utile de revenir là-dessus trop longtemps, mais certaines

La

rationalité scientifique face à deux défis distincts : le relativisme cognitif, l’anti-science

83

données et témoignages intéressants se trouvent dans un article de 2009 sur l’anti-science aux États-Unis par une collègue professeur de biologie dans un collège du Vermont, Elizabeth Sherman [3]. Son propos consiste à dire qu’il y a dans notre équipement cognitif des éléments qui font obstacle à la compréhension de ce qu’est réellement la science. Le premier élément est notre tendance à l’inférence causale immédiate à partir de l’observation de corrélations. Cela est bien connu. Le deuxième élément est notre besoin de certitudes et notre difficulté à comprendre et à accepter l’incertitude à un niveau existentiel fondamental, car la plupart d’entre nous ont besoin de certitudes, même si l’incertitude est le lot presque quotidien de la vie humaine. Ce deuxième élément est particulièrement important. Car il concerne la science comme étant ce qui nous permet d’approcher l’inconnu. Elizabeth Sherman notait que l’incompréhension de la science est très présente dans de très nombreuses institutions. Une de ses cibles est l’administration Bush, critiquée par de nombreux scientifiques pour sa politique scientifique et pour la manière dévoyée par laquelle la science entre –  ou n’entre pas  – dans les décisions publiques. Le système éducatif américain est également ciblé. Dans certaines écoles, il est (ou était) demandé aux professeurs de sciences de lire une déclaration niant l’évolution. En  2009, selon Elizabeth Sherman, environ la moitié des Américains n’acceptait pas l’évolution. Apparemment, aux États-Unis, le fondamentalisme le plus extrême est souvent professé par des ingénieurs de très haut niveau, des docteurs ès sciences spécialisés dans des domaines de très haute technologie, plus que par des scientifiques dotés d’une forte culture générale. Aux États-Unis, l’antiscience va avec l’anti-intellectualisme, l’anti-liberté critique de l’intellectuel. En France, on n’en est pas là, même si le terme d’intellectuel est parfois utilisé ici ou là avec une nuance péjorative, avec ou sans préfixe. Quant à l’antiévolutionnisme, même si nous n’en sommes pas à ce degré en Europe, de telles attitudes augmentent. L’anti-évolutionnisme va avec l’idée d’une société entièrement réglée, stable, culturellement fermée. Il faut bien le constater, la science et l’anti-science coexistent. Elles coexistent parfois dans la même personne, comme si plusieurs méthodes, systèmes de pensée ou de croyance d’orientations opposées, le libre examen dans le domaine de la recherche d’une part, l’adhésion invétérée à des systèmes de pensée prédéterminés de l’autre, pouvaient déterminer tour à tour les idées, les actes du même individu, même le plus éclairé, selon les circonstances. Nous pouvons fort bien être pleins de contradictions, plus ou moins conscientes. C’est même un état assez fréquent semble-t-il. On peut être à la fois un brillant chercheur dans son domaine de spécialité et un partisan de l’astrologie dite scientifique. Il s’agit d’un mélange bizarre d’hyper-scientisme et de métaphysique comme telle irréfutable, non scientifique.

84

La

rationalité scientifique aujourd’hui

La coexistence chez le même individu de la science et de croyances non scientifiques présentées comme scientifiques, qui semble avérée, est un phénomène intéressant et paradoxal, mélange d’hyper-scientisme et de superstition. Pour beaucoup, la science n’est qu’une manifestation parmi d’autres de la soif de connaître, qui trouve à s’étancher par bien d’autres moyens. En effet, le fait que la science n’apporte pas toujours les réponses aux questions qu’elle pose (ou qu’elle entraîne), le fait que les réponses varient avec le temps, le fait que l’inconnu est toujours là et même de plus en plus présent au fur et à mesure du progrès des connaissances, tout cela est déconcertant et difficile à admettre. Le fait que la science, tout en découvrant des vérités inconnues auparavant, est sujette à des évolutions ou révolutions majeures est difficilement assimilable pour des esprits non préparés. Arrêtons-nous un instant sur la notion du progrès scientifique. C’est une notion assez complexe qui n’est certainement pas traduite d’une manière adéquate par une représentation linéaire. Il y a déjà assez longtemps, le philosophe américain Nicolas Rescher, dans un ouvrage intitulé Le progrès scientifique, avait proposé une représentation des choses différente et intéressante [4]. Il s’était intéressé à la relation entre la perception-estimation du connu et celle de l’inconnu au cours de l’histoire des sciences, et avait montré que ce rapport subit des oscillations. Tantôt on a l’impression que tout est connu ou presque, qu’on a épuisé le connaissable, tantôt on a l’impression que tout est à découvrir. À cet égard, la physique à la fin du xixe siècle montre un phénomène paradoxal. À ce moment, certains physiciens pensent que la physique a atteint une sorte de perfection formelle et n’évoluera plus que dans les détails, et c’est aussi à ce moment que les révolutions quantique et relativiste du début du xxe siècle se préparent. L’idée d’un cours linéaire du progrès scientifique est absurde. Ce n’est certainement pas une raison pour rejeter l’idée d’un progrès, c’està-dire l’idée d’une non-équivalence de l’antérieur et du postérieur. Si l’on nie cette non-équivalence, si l’on affirme que toutes les idées se valent en vertu de la théorie épistémologique de l’équivalence des hypothèses, alors on tombe dans le relativisme cognitif, qui est une facilité artificieuse qui séduit semblet-il de plus en plus de personnes même dans des cercles assez élevés si j’ai bien compris, du moins en France et cela jusqu’au niveau politique. Non, tout n’est pas équivalent, et, malgré Duhem et son plaidoyer pour l’équivalence des hypothèses, Ptolémée n’a pas la même valeur que Copernic. Le fait que la science soit un lieu d’évolution rapide des idées ne la rend pas facilement assimilable. Le public a tendance à préférer la doxa, l’opinion commune, facilement partageable, car il n’y a rien de plus contagieux que les idées fausses, à l’épistémè, la connaissance fondée sur l’expérience et le raisonnement. La science fait peur parce que l’inconnu fait généralement peur. Disons

La

rationalité scientifique face à deux défis distincts : le relativisme cognitif, l’anti-science

85

que l’inconnu dérange, et que l’incertitude à un niveau fondamental ne nous convient pas. Restons un instant sur cette idée d’inconnu. Les philosophes ont écrit des dizaines d’ouvrage sur ce qu’ils ont appelé « philosophie de la connaissance ». Pour ma part, ce que l’on peut tenter de dire, d’une manière générale, philosophique, sur l’inconnu m’intéresse plus. Mais on est obligé de constater que la peur de l’inconnu est un phénomène universel ou presque, assez fondamental finalement, et il est bien possible que la science fasse peur parce que l’inconnu fait peur. L’un des ressorts de l’anti-science est indubitablement la peur que la science ne nous engage dans un processus dont l’humanité perdrait la maîtrise. On est bien obligé de constater que cela est le cas parfois – ce qui a d’ailleurs pour effet de mobiliser considérablement la communauté scientifique. S’agissant de maîtrise, je voudrais à ce point rapporter une anecdote bien connue sur les débuts de l’ADN recombinant et sur le processus dit d’Asilomar. Le besoin d’encadrer des expérimentations mettant en œuvre l’ADN recombinant s’est fait sentir au moment où la biologie moléculaire a donné naissance aux biotechnologies de l’ADN recombinant, à la fin des années soixante et au début des années soixante-dix. En même temps, la peur a commencé à gagner certains milieux scientifiques, plus ou moins proches de ces techniques, et parfois très impliqués. En 1976, le physiologiste George Wald, opposant à l’ADN recombinant, eut un vif échange avec le doyen de la faculté des Arts et Sciences de Harvard, Henry Rosovsky, échange au cours duquel Rosovsky s’écria à l’adresse de George Wald  : «  Vous êtes en train de me dire que vous avez peur de l’inconnu ? Je croyais que le but de la science c’était d’explorer l’inconnu » [5]. Moyennant quoi, Rosovsky décida l’installation d’un laboratoire sécurisé de niveau P3 sur le campus de Harvard. Une partie de la communauté scientifique s’est engagée fortement dans la recherche sur l’ADN recombinant, sans que les catastrophes attendues ne se produisent (mais seulement quelques accidents isolés dus à un défaut de responsabilité de certains). La recherche a été très encadrée par des lignes directrices édictées par les organismes de recherche, puis par des lois. Les scientifiques étaient particulièrement bien placés pour l’évaluation des risques. Aujourd’hui, certaines applications médicales de l’ADN recombinant (comme l’insuline recombinante) sont d’une extrême banalité. J’ajouterai la remarque suivante, qui cette fois s’applique à tous sans exception. La peur est une émotion fondamentale, l’une des émotions fondamentales de l’homme, et pas seulement de l’homme, mais aussi des animaux. La peur est particulièrement aisée à déclencher, et donc aussi à entraîner par manipulation. Une fois déclenchée, elle est particulièrement difficile à contrôler, et ceci a été vérifié par la neurobiologie des émotions, qui montre que les circuits émotionnels sont plus puissants que les circuits en provenance du

86

La

rationalité scientifique aujourd’hui

cortex qui peuvent venir les contrôler. Il n’y aurait donc pas, en la matière, d’égalité ni même de synchronisation possible entre la peur et son contrôle. La peur est instinctive. Elle est très ancrée. La peur de l’inconnu, la peur du risque, est un ressort particulièrement puissant de l’anti-science.

Le relativisme cognitif « Le relativisme cognitif est de tous les temps », déclare le philosophe et sociologue Raymond Boudon [6]. Il n’est pas inutile de revenir sur lui, même si ce débat paraît aujourd’hui un peu vieilli, du moins pour certains spécialistes. Remarquons tout de même que l’audience du relativisme cognitif dans les milieux politiques, au moins en France, n’a jamais été aussi grande, puisqu’un représentant fort connu de ce courant a été auditionné il y a quelque temps par une commission de l’Assemblée nationale française sur des questions d’éthique de l’environnement. Mais on doit revenir sur certaines idées. L’idée de la construction sociale de la science est une idée séduisante, qui décrit bien toutes sortes d’aspects très manifestes de l’activité scientifique et qui donc n’est pas fausse, mais qui n’épuise pas le sujet. On peut trouver sympathique le programme qui consiste à, je cite, « replonger les savoirs dans les savoir-faire » [7]. Vouloir faire descendre la science de son piédestal va bien dans un certain esprit du temps. Malheureusement, affirmer que le métier de scientifique « ne mobilise que des capacités cognitives tout à fait usuelles », que « les sciences se développent en appliquant des compétences ordinaires à des matières neuves  », est peut-être une façon de rendre la science plus proche et atteignable, mais ne correspond manifestement pas à la réalité. Beaucoup de concepts scientifiques, en particulier en mathématiques et en physique, sont complètement au-delà des capacités cognitives du commun des mortels, voire de philosophes célèbres, comme Bergson, qui n’a rien compris à la construction einsteinienne de la simultanéité et donc à la relativité, dans son ouvrage Durée et simultanéité. Contrairement à certains, je ne pense pas que l’épistémologie, qui a été une grande affaire au cours du siècle dernier, ait failli, ni qu’elle ait abouti à des impasses dans la délimitation de ce qui peut être dit scientifique et de ce qui ne peut pas l’être. La meilleure preuve en est l’intérêt que lui ont porté les scientifiques (qui d’ailleurs en étaient le plus souvent les auteurs), et l’utilité qu’elle a pu avoir dans la recherche (je pense en particulier à l’épistémologie poppérienne – Monod a fait traduire Popper en français). Je ne pense pas que (je cite) « les épistémologues ne s’intéressent pratiquement jamais à la science en train de se faire » [8], puisque les plus notables d’entre eux ont été des scientifiques créatifs. Je ne pense pas non plus que la discipline qui consiste à « se situer à l’extérieur de la science », à observer « la science en train de se faire » avec le regard d’un ethnologue épuise le sujet. Certes,

La

rationalité scientifique face à deux défis distincts : le relativisme cognitif, l’anti-science

87

cela peut être fort intéressant. Mais cela n’épuise pas le sujet. Pour plusieurs raisons d’ailleurs liées, et je vais suivre sur ce point Raymond Boudon. Observer la science en train de se faire conduit à insister sur les aspects techniques de la science, qui sont les plus « observables », plus que sur ses aspects proprement cognitifs, épistémologiques ou conceptuels, qui sont plus cachés. En quoi tout cela mène-t-il Bruno Latour au «  relativisme  ?  » ([8], p. 59-60). Si l’on suit explicitement cet auteur, le relativisme est une conséquence de l’étude des aspects techniques de la science. D’une part, l’insistance sur les aspects techniques nous éloigne d’un absolutisme des idées pures. D’autre part, il est dit que l’attitude « relativiste et critique » est celle du chercheur lui-même dans son activité. Suivons donc le supposé « relativisme » du chercheur que nous observons. Le « relativisme » est défini comme l’attitude du chercheur dans une situation instable, par opposition au « réalisme », qui correspond à l’attitude du chercheur ayant stabilisé ses idées. Dans la situation d’instabilité, est-il dit ([8], p 241), le chercheur n’est pas réaliste, il ne croit pas avoir finalement touché une réalité. Il est donc relativiste, parce qu’il « n’utilise pas la nature comme un juge extérieur ». C’est du moins ce que prouverait l’analyse des controverses scientifiques, sujet de prédilection pour ces théoriciens. Le terme de « relativisme », aussi vague que philosophiquement chargé, a donc été assez malheureusement lancé. Il a suscité de nombreuses réactions. Terme vague, auquel les promoteurs vont finalement préférer le terme de « relationnisme », philosophiquement plus respectable ([8], p. 474). Latour ajoute « Au lieu d’être des relativistes absolus plaidant seulement pour la symétrie 3, nous sommes des relationnistes qui découvrons comment des relations plus fortes en évincent localement de plus faibles  » ([8], p. 479). Quoi qu’il en soit des évolutions ou repentirs dans la pensée de ces auteurs, restons-en au « relativisme ». Comment analyser ce « relativisme » ? Raymond Boudon propose ici plusieurs angles d’attaque. En premier lieu, le relativisme n’explique pas le progrès scientifique sur le long terme, le progrès incessant de la rationalisation de la nature. Certes, il y a des facteurs irrationnels qui entraînent le progrès scientifique ou qui sont actifs à l’intérieur de la pensée de scientifiques (Newton alchimiste,  etc.), pour le meilleur ou pour le pire. Mais cette action, remarque Boudon, est sur le court terme [9]. Sur le long terme, il n’en va pas de même. La sélection des idées scientifiques au long cours est rationnelle. Lavoisier a objectivement raison contre la théorie du phlogistique de Priestley. La rationalité l’emporte à long terme. « C’est donc seulement si l’on néglige la distinction entre le court et le long terme que l’on peut appliquer le principe du tiers exclu et déclarer que, la discussion entre savants n’étant pas exclusivement rationnelle  4, la 3  C’est-à-dire pour une égale considération à l’égard de la pensée non stabilisée et de la pensée stabilisée. 4

 C’est ce que pensait Thomas Kuhn qui est ici visé.

88

La

rationalité scientifique aujourd’hui

sélection des idées scientifiques doit être tenue pour irrationnelle. Mais, dès lors que l’on prend cette distinction en compte, la question de savoir si les discussions entre savants sont rationnelles ou non est disqualifiée de par sa formulation même. » [9]. En second lieu, le raisonnement relativiste, selon Boudon, met en œuvre un procédé particulier : on installe un dilemme, on applique mécaniquement le tiers exclu. Cela donne à peu près ceci : « ou bien on peut établir le (ou les) critères de démarcation entre science et non-science, ou bien on ne le peut pas. Si cela n’est pas possible, c’est que la distinction entre science et non-science est une illusion. D’où l’on conclut qu’une théorie scientifique ne saurait prétendre à être plus objective qu’une théorie métaphysique  » ([9], p.  28). Il y a là un processus de binarisation d’une part et ensuite d’hyperbolisation de la discussion qui est dénoncé par Boudon. Hyperbolisation en ce sens que l’un des termes de l’alternative étant établi, on en tire les conséquences les plus extrêmes. Or ce n’est pas parce que – selon certains y compris Boudon – l’épistémologie du xxe siècle n’a pas réussi à établir les critères de démarcation entre science et non-science (ce que pour ma part je ne crois pas), qu’il faut en tirer la conclusion qu’il n’y a aucune distinction à faire entre la science et d’autres modes de pensée. « La scientificité existe », déclare Boudon à la suite d’une analyse que l’on peut partager au moins dans ses conclusions. En effet, même s’il n’y avait pas de critère singulier et final de la vérité scientifique, ou si les épistémologues étaient impuissants à s’accorder sur un tel critère, il n’en reste pas moins qu’il existe des vérités scientifiques reconnues comme telles en vertu d’un ensemble de critères. Raymond Boudon ([9], p. 32) mentionne une remarque bien connue de Kant, dans la Critique de la raison pure, sur la question Qu’est-ce que la vérité ?  : « La définition nominale de la vérité qui en fait l’accord de la connaissance avec son objet est ici admise et présupposée ; mais on veut savoir quel est l’universel et sûr critère de la vérité de toute connaissance. C’est déjà une grande et nécessaire preuve de sagesse et de lumière que de savoir ce que l’on doit raisonnablement demander. Car, si la question est en soi extravagante et appelle des réponses oiseuses, […], elle a quelquefois cet inconvénient : de porter l’auditeur imprudent à des réponses absurdes et de donner ainsi le spectacle ridicule de deux hommes dont l’un (comme diraient les anciens) trait le bouc pendant que l’autre présente un tamis » [10]. Double ridicule. Il n’existe pas de critère universel de la vérité concernant l’objet en raison de la différenciation des objets. Il existe des critères formels de la vérité, explicités dans la logique, mais d’une part il est bien connu aujourd’hui qu’ils ne vont pas très loin, d’autre part ils sont insuffisants quant à la matière des connaissances. Il est tout à fait instructif de voir Kant, cette figure de proue du rationalisme et des Lumières, écrire : « Il est clair […] qu’il est tout à fait impossible et absurde

La

rationalité scientifique face à deux défis distincts : le relativisme cognitif, l’anti-science

89

de demander un caractère de la vérité de ce contenu des connaissances, et que, par conséquent, une marque suffisante et en même temps universelle de la vérité ne peut être donnée […] Mais pour ce qui regarde la connaissance quant à sa forme simplement (abstraction faite de tout contenu), il est également clair qu’une logique, en tant qu’elle traite des règles générales et nécessaires de l’entendement, doit exposer, dans ses règles mêmes, les critères de la vérité. […] Mais ces critères ne concernent que la forme de la vérité, c’est-à-dire de la pensée en général, et s’ils sont à ce titre très justes, ils sont pourtant insuffisants » ([10], p. 81). Résumons la position kantienne : il y a des critères universels formels de la vérité, il n’y a pas de critère universel de la vérité au sens de l’adéquation à l’objet, parce qu’il y a une grande diversité d’objets. La question de savoir s’il existe des critères particuliers de la vérité selon les différents types d’objets reste donc ouverte. J’ajouterai, dans une perspective très kantienne, que la vérité est une notion normative, régulatrice (comme en témoigne d’ailleurs l’idée même de critère). C’est une notion d’orientation et de progrès. Abandonner la notion de vérité scientifique, et par voie de conséquence de vérité en général, serait mettre l’humanité sur la voie d’un indescriptible chaos. C’est une philosophie nihiliste et suicidaire. Enfin, le relativisme cognitif ne prend pas en compte l’évolution sur le long terme de la philosophie des sciences et de la connaissance, ou plus exactement de la « philosophie scientifique ». Dans leur livre récent, De l’atome imaginé à l’atome découvert. Contre le relativisme, Hubert Krivine et Annie Grosman ont tiré les conséquences épistémologiques de la longue histoire des conceptions et théories de l’atome, en insistant sur le fait que le réalisme scientifique (l’admission d’une réalité préexistante à sa découverte, contraire à certaines thèses extrêmes du relativisme) se fonde sur la coïncidence aussi exacte que possible de nombreuses données d’origines très diverses. Cette concordance est le signe et le gage du réalisme scientifique. Citant Jean Perrin, Hubert Krivine et Annie Grosman écrivent : « Comment ne pas croire à l’existence des atomes quand douze méthodes indépendantes permettent de les compter et fournissent – aux incertitudes expérimentales près – le même nombre ? » [11]. L’entrelacement des phénomènes correspond à l’imbrication des connaissances et répond à l’entrelacement et à la multiplicité des questions posées dans les diverses expériences. Mais ce n’est pas le seul réalisme scientifique qui est visé par le relativisme cognitif. L’idée que la science est de part en part une construction sociale revient à ignorer que « les critères de validité d’une théorie scientifique ne sont pas identifiables à ses conditions de production » ([11], p. 105). Ces « critères de véracité » sont indubitablement caractéristiques tant de la « science faite » que de la « science en train de se faire ». Il n’y a pas de différence entre les deux à cet égard, et donc la « science en train de se faire » n’obéit nullement à une règle relativiste où toutes les positions s’équivalent (d’où l’intérêt, dans cette philosophie, d’étudier les controverses, puisque selon elle la nature ne jouerait aucun rôle dans

90

La

rationalité scientifique aujourd’hui

leur règlement). La reconstitution historique de la confrontation des théories et des expériences concernant l’atome en fait bien autre chose qu’une succession d’arguments rhétoriques, de luttes pour le pouvoir, ou de recettes pour le prendre. Mais il y plus grave : « Si l’on considère que l’âge de la Terre estimé à 4,55 milliards d’années est « socialement déterminé », quel argument peuton opposer aux créationnistes de tout poil ? » ([11], p. 117).

La « rationalisation diffuse » La philosophie scientifique va dans le sens, tout comme la société planétaire, et non sans obstacles permanents, d’une «  rationalisation diffuse  », observée par Raymond Boudon. Cette remarque nous introduit à quelques considérations terminales. L’idée d’une rationalisation diffuse est beaucoup plus large que celle d’une rationalisation par la science et la connaissance. Par là-même, elle peut nous permettre d’élargir les perspectives. Prenons d’abord quelques exemples de cette rationalisation dans certaines implications et applications du progrès des connaissances. Les neurosciences des cinquante dernières années, avec leurs prolongements dits « cognitifs », ont apporté énormément de connaissances nouvelles, totalement inconnues auparavant. Des connaissances utiles non seulement à la médecine, mais aussi à la pédagogie (par exemple les travaux de Stanislas Dehaene sur l’apprentissage de la lecture), et à de très nombreux autres domaines. Notre connaissance des mécanismes et du pouvoir des émotions par exemple (étudiées dans un récent colloque de l’Académie royale de Belgique sous le titre Pensée rationnelle, pensée émotionnelle), ou des travaux sur les mécanismes de la décision qui ont été repris dans un remarquable ouvrage synthétique d’Alain Berthoz, sont extrêmement utiles. Ces connaissances ont apporté généralement une meilleure perception de nos manières de fonctionner ou d’agir, des ressorts intimes de nos pensées et de nos actions, connaissances utiles dans de très nombreuses circonstances. Une meilleure prise en compte, par la réflexion, de ce que nous sommes réellement, individuellement et collectivement, peut aider à maîtriser bien des situations. En effet, par nature, nous ne sommes pas réellement conscients de ce que nous sommes, de nos limites psychologiques et de nos contraintes biologiques. Une telle connaissance n’est pas spontanée et ne peut résulter que d’un apprentissage de longue durée. Or ce que nous sommes réellement est un irréductible mélange de rationalité et d’irrationalité qu’il faut reconnaître. Par exemple, vouloir imposer un modèle purement calculatoire de la rationalité dans tous les domaines, y compris le domaine neurocognitif, est absurde. Ce n’est pas en soutenant un hyper-rationalisme que l’on peut combattre avec succès les méfaits de l’irrationalisme dans la conduite des affaires humaines. Il faut aussi comprendre que l’irrationalité pénètre nos décisions, qui ne sont pas

La

rationalité scientifique face à deux défis distincts : le relativisme cognitif, l’anti-science

91

seulement motivées par des calculs d’utilité, mais aussi par des émotions, comme Alain Berthoz et d’autres l’ont bien montré. Cette connaissance, là encore, peut être utile dans de nombreux domaines d’activité. Le genre de connaissances utiles en la matière se trouve fréquemment aux interfaces entre les sciences de la nature et les sciences humaines et sociales, par exemple à l’interface entre neurosciences et psychologie, que je viens de mentionner. Certes, les sciences humaines et sociales sont parfois décriées. Elles ont une énorme difficulté à adopter le régime de scientificité propre aux sciences de la nature, et il y a de bonnes raisons pour cela. La difficulté de la preuve en sciences humaines et sociales entraîne ou peut entraîner une certaine rigidité, un certain dogmatisme, voire une idéologisation. Il existe sans doute des secteurs scientifiques où les choses sont particulièrement sensibles et peut-être pas complètement mûres, où les controverses se poursuivent, où les erreurs ont des conséquences néfastes pour la société (par exemple certains modèles économiques) –  ce qui ne va pas dans le sens d’une réhabilitation de la « rationalité ». Élargissons cependant les perspectives. La «  rationalisation diffuse  » concerne bien d’autres domaines de pensée et d’action que les sciences et leur diffusion dans la société. Elle concerne, par exemple, la conscience que les citoyens peuvent prendre des insuffisances de leur système politique dans la délimitation des compétences entre pouvoir social et pouvoir politique, dans le souhait de mettre le politique au service du citoyen, de faire reconnaître les droits des minorités, etc. [12]. Des évolutions sont notables à ces égards. La rationalisation concerne aussi, par exemple, les attitudes par rapport aux différentes religions, la reconnaissance de la légitimité des questions de sens et donc d’un égal respect des différentes croyances qui conduisent au respect fondamental de l’autre, à condition qu’elles y conduisent effectivement ([12], p. 117). Dans le domaine de la morale, la rationalisation diffuse s’observe également, au sens non seulement d’une extension des droits, mais d’une exigence de discussion et de légitimation ([12], p. 118). Pour ma part, n’étant pas sociologue, je ne suis pas un observateur compétent des évolutions actuelles. Je serai peut-être un peu plus normatif en insistant sur l’équilibre nécessaire entre les droits et les devoirs. Nous n’avons pas donné de définition de la rationalité ou de la rationalisation. Qu’est-ce que la rationalisation aujourd’hui ? Ce n’est certes plus le taylorisme. C’est l’agir pour le meilleur de l’ensemble de la société. C’est un principe d’optimum, bien connu des philosophes, et qui semble différent, en matière de sciences sociales et d’humanités, d’un principe de maximum. Le sociologue Alain de Vulpian affirmait récemment que l’optimisation permet de gagner du sens alors que la maximisation perd du sens, que la coopération gagne du sens alors que la compétition perd du sens aujourd’hui.

92

La

rationalité scientifique aujourd’hui

Ce que je viens de soutenir est très classique et certainement déjà dépassé, tant sont puissantes aujourd’hui les forces contraires. Pourtant, reste-t-il possible, dans la conjoncture actuelle de désorientation des esprits confrontés à des questions fondamentales, de faire revivre l’esprit des Lumières, qui était un esprit d’action ? Notons que l’esprit des Lumières concernait aussi bien les sciences que les arts, donc les techniques, et qu’il était représenté non seulement par les grands auteurs et brillants intellectuels européens de l’époque, que tout le monde connaît, mais aussi par des administrateurs moins connus qui étaient des hommes de terrain et avaient le souci d’améliorer le bien-être des populations et d’augmenter leurs ressources en suscitant des connaissances. Ils voulaient résoudre des problèmes, et ils ont été des créateurs d’institutions. Le domaine de l’agriculture était particulièrement sensible. L’esprit des Lumières n’était pas pure philosophie, pure pensée, c’était aussi un pragmatisme, en tout cas une orientation d’action, une pensée orientée vers l’action. Il y a là, encore, des leçons à tirer et des ressources à exploiter. Le rationalisme ne peut se diffuser qu’à la condition de montrer les bienfaits dont il peut encore être le porteur, car la démonstration des bienfaits passés n’est nullement démonstrative, soit qu’ils aient été intégrés dans la culture et donc quasiment oubliés, soit qu’ils soient considérés comme choses néfastes par rapport à d’autres traditions bien ancrées. Pour terminer, un plaidoyer pro domo. L’une des façons de combattre la montée de l’anti-science est de renforcer la culture générale dans l’éducation. La culture générale comprend évidemment la culture scientifique, donc l’histoire des sciences et des techniques. Il y a un certain nombre d’années déjà, la Direction générale Recherche de la Commission européenne, travaillant avec le réseau ALLEA des académies nationales européennes, avait émis des recommandations pour développer l’histoire des sciences et des techniques dans l’enseignement supérieur en Europe. Cela a fait énormément de bien.

Références [1]

Monod J. (1968). De la biologie moléculaire à l’éthique de la connaissance, L’âge de la science 1: 3.

[2]

Althusser L. (1974). Philosophie et philosophie spontanée des savants, François Maspero : Paris, p. 117 sq.

[3]

Sherman E. (2009). Science and Anti-science in America: Why It Matters. Skeptical Inquirer 33.2 (consultable sur l’internet).

[4]

Rescher N. (1993). Le progrès scientifique, Presses universitaires de France : Paris.

[5]

Debru Cl. (2003). Le possible et les biotechnologies, Presses universitaires de France : Paris, p. 217.

La

rationalité scientifique face à deux défis distincts : le relativisme cognitif, l’anti-science

93

[6]

Boudon R. (2008). Le relativisme, Presses universitaires de France  : Paris, p. 23.

[7]

Latour B. (2006). Petites leçons de sociologie des sciences, La Découverte, Paris, p. 155.

[8]

Latour B. (1995). La science en action. Introduction à la sociologie des sciences, Gallimard : Paris, p. 51.

[9]

Boudon R. (2008). Le relativisme, Presses universitaires de France  : Paris, p. 32. C’est ce que pensait Thomas Kuhn qui est ici visé.

[10] Kant E. (1963). Critique de la raison pure, traduction Tremesaygues et Pacaud, Presses universitaires de France : Paris, 80. [11] Krivine H., Grosman A. (2015). De l’atome imaginé à l’atome découvert. Contre le relativisme, De Boeck Supérieur  : Louvain-la-Neuve, p. 101.  [12] Boudon R. (2008). Le relativisme, Presses universitaires de France  : Paris, p. 115-116.