La théorie quantique 9782759825721

Voici est un ouvrage passionnant, précis et accessible à un large public, sur l’une des réalisations intellectuelles les

182 16 1MB

French Pages 180 [129] Year 2021

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

La théorie quantique
 9782759825721

Citation preview

La théorie quantique

« John Polkinghorne nous offre ici le fruit d’un excellent travail… On peut regretter que de nombreux auteurs de livres « populaires » sur la physique moderne aient pris la fâcheuse habitude de mélanger la science factuelle avec la « science-fiction ». Polkinghorne ne commet jamais cette erreur : il laisse toujours la vérité se défendre toute seule et démontrer sa propre fascination. Je pense que c’est une excellente contribution à la documentation sur la théorie quantique destinée au grand public. » Chris Isham, Imperial College, Londres « Ce livre splendide explique à la fois le triomphe et le mystère que constitue la théorie quantique. C’est un triomphe en raison de sa structure mathématique imposante et de son étonnante précision empirique. C’est un mystère en raison de les énigmes sur la façon de l’interpréter. John Polkinghorne, lui-même un éminent physicien quantique, est un guide fiable pour tout cela : il célèbre ici les succès de la théorie, et fait preuve d’un jugement sûr s’agissant des énigmes. » Jeremy Butterfield, Oxford University

La théorie quantique John Polkinghorne

Traduit de l’anglais par Alan Rodney

ChronoSciences Collection destinée à un large public qui invite le lecteur à découvrir de façon très complète mais de manière abordable un sujet ou une thématique précise. « Dans la même collection » L’Intelligence artificielle, Margaret A. Boden (à paraître) Les Marées, David George Bowers et Emyr Martyn Roberts (à paraître) L’Anthropocène, Erle C. Ellis (à paraître) L’Odorat, Matthew Cobb (à paraître) Quantum Theory: A very short introduction, first edition was originally published in English in 2002. This translation is published by arrangement with Oxford University Press. Quantum Theory: A very short introduction, first edition, a été initialement publiée en anglais en 2002. Cette traduction est publiée avec l’autorisation d’Oxford University Press. © John Polkinghorne, 2002 © Pour la traduction française, EDP sciences, 2021. Composition et mise en page : Desk (www.desk53.com.fr) Imprimé en France ISBN : 978-2-7598-2571-4 Ebook : 978-2-7598-2572-1 Tous droits de traduction, d’adaptation et de reproduction par tous procédés, réservés pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute représentation intégrale, ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (alinéa 1er de l’article 40). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants du code pénal.

À la mémoire de Paul Adrien Maurice Dirac 1902-1984

« Je pense pouvoir dire avec force que personne ne comprend la mécanique quantique. » Richard Feynman

  Remerciements Je suis reconnaissant au personnel d’Oxford University Press pour leur aide dans la préparation du manuscrit pour aboutir à la version imprimée, en particulier à Shelley Cox pour un certain nombre de commentaires utiles sur le premier jet du texte. John Polkinghorne Queens’ College Université de Cambridge

  Sommaire Préface...........................................................................................................................

11

1. Les « fissures » de la physique classique...................................................

13

2. La lumière de l’aube apparaît..........................................................................

27

3. Un horizon paradoxal qui s’assombrit........................................................

51

4. Des développements supplémentaires.....................................................

71

5. Vers l’unité...................................................................................................................

91

6. Les leçons et leurs significations....................................................................

97

Lectures complémentaires................................................................................ 109 Glossaire....................................................................................................................... 111 Annexe mathématique........................................................................................ 115 Index............................................................................................................................... 125

  Préface La découverte de la théorie quantique moderne au milieu des années 1920 entraîna la plus grande révision de notre réflexion sur la nature du monde physique depuis l’époque d’Isaac Newton. Ce qui avait été considéré comme l’arène d’un processus clair et déterministe s’avéra, au niveau de ses racines subatomiques, nébuleux mais bien adapté dans son comportement. Par rapport à ce changement révolutionnaire, les grandes découvertes de la relativité restreinte et générale ne semblent guère être plus que des variations intéressantes sur des thèmes classiques. En effet, Albert Einstein, le progéniteur de la théorie de la relativité, trouva la mécanique quantique moderne si peu à son goût métaphysique qu’il y resta implacablement opposé jusqu’à la fin de sa vie. Il n’est pas exagéré de considérer la théorie quantique comme l’une des réalisations intellectuelles les plus remarquables du xxe siècle et sa découverte comme une véritable révolution dans notre compréhension des processus physiques. Cela étant dit, la jouissance des idées quantiques ne devrait pas être l’apanage des seuls physiciens théoriciens. Bien que l’articulation complète de la théorie nécessite l’utilisation de son langage naturel, c’est-àdire les mathématiques, nombre de ses concepts de base peuvent être accessibles au lecteur lambda si ce dernier est prêt à souffrir un peu et se donne la peine de suivre le récit d’une découverte remarquable. Ce petit livre est écrit en pensant à de tels lecteurs. Son texte principal ne contient aucune équation mathématique. Une courte annexe présente, cependant, quelques aperçus mathématiques simples qui éclaireront davantage ceux qui sont capables de digérer une substance un peu plus  11 

  La théorie quantique  

forte (les sections de cette annexe sont référencées en caractères gras dans le texte principal). La théorie quantique s’est avérée incroyablement fructueuse durant les 75 ans qui ont suivi les découvertes initiales. Elle est actuellement appliquée avec confiance et succès dans la discussion sur les quarks et les gluons (les candidats contemporains pour être considérés comme les constituants ultimes de la matière nucléaire), malgré le fait que ces entités soient au moins 100 millions de fois plus petites que les atomes dont le comportement était l’affaire des pionniers quantiques. Pourtant, il existe toujours un profond paradoxe. L’épigraphe de ce livre traduit l’exagération qui caractérisait le discours de ce grand physicien quantique de la deuxième génération, Richard Feynman, mais il est certain que – bien que nous sachions faire les sommes – nous ne comprenons pas la théorie aussi bien que nous le devrions. Nous verrons dans ce qui suit que d’importantes questions d’interprétation restent en suspens. Pour y répondre, elles exigeront une compréhension physique ainsi que quelques décisions d’ordre métaphysique. Jeune homme, j’ai eu le privilège d’apprendre ma théorie quantique face à Paul Dirac, assistant à ses célèbres cours à l’Université de Cambridge. Le contenu des cours de Dirac correspondait étroitement au traitement donné dans son livre de référence, The Principles of Quantum Mechanics, l’un des véritables classiques fondateurs de l’édition scientifique du xxe siècle. Dirac fut le plus grand physicien théorique que j’ai connu personnellement, et sa pureté d’esprit comme sa modestie (il n’a jamais mis en avant ses propres contributions pourtant immenses aux fondements de cette discipline) firent de lui une figure inspirante et une sorte de saint scientifique. Je dédie humblement ce livre à sa mémoire.

 12 

1 Les « fissures » de la physique classique La première floraison de la science physique moderne atteignit son sommet en 1687 avec la publication de l’ouvrage d’Isaac Newton intitulé Principia. Par la suite, la mécanique fut établie et reconnue comme une discipline mature, capable de décrire les mouvements des particules de manière claire et déterministe. Cette nouvelle science semblait si complète qu’à la fin du xviiie siècle, le plus grand des successeurs de Newton, Pierre-Simon Laplace, pouvait dire – et il fut applaudi pour cette affirmation – qu’un être doté de pouvoirs de calcul illimités, connaissant parfaitement les dispositions de toutes les particules à un moment donné, pouvait utiliser les équations de Newton pour prédire l’avenir et rétrodater avec une égale certitude le passé de tout l’Univers. En fait, cette affirmation mécaniste plutôt effrayante a toujours été fortement soupçonnée d’être teintée d’orgueil. D’une part, les êtres humains ne se considèrent pas comme des automates mus par des mécanismes d’horlogerie. D’autre part, bien que considérables, les réalisations de Newton n’embrassaient pas tous les aspects du monde physique alors connus à son époque. Il restait des questions non résolues qui menaçaient la croyance en l’autosuffisance absolue de la synthèse newtonienne. Par exemple, quelles étaient la vraie nature et l’origine de la loi universelle de la gravité en carré inverse que Sir Isaac avait découverte ? À cette question, Newton lui-même avait refusé de formuler une hypothèse. Restait aussi la question non résolue de la nature de la lumière. Newton s’autorisa ici une certaine spéculation. Dans son ouvrage Opticks, il était enclin à penser qu’un faisceau de lumière était constitué d’un flux de minuscules particules. Ce type de théorie corpusculaire s’accordait avec sa tendance à considérer le monde physique en termes atomistes.  13 

  La théorie quantique  

LA NATURE DE LA LUMIÈRE

Il s’avéra que ce n’est qu’au xixe siècle qu’il y eut de réels progrès dans la compréhension de la nature de la lumière. Dès le début du siècle, en 1801, Thomas Young présenta des preuves très convaincantes que la lumière avait pour caractéristique un mouvement ondulatoire. On notera qu’une hypothèse dans ce sens avait été faite plus d’un siècle plus tôt par le contemporain néerlandais de Newton, Christiaan Huygens. Les principales observations faites par Young portaient sur des effets que nous appelons aujourd’hui des phénomènes d’interférence. Un exemple typique est l’existence de bandes alternées de lumière et d’obscurité, qui, assez ironiquement, avait été mise en évidence par Sir Isaac lui-même dans un phénomène appelé « les anneaux de Newton ». Les effets de ce genre sont caractéristiques des ondes et se manifestent comme suit. La manière dont deux trains d’ondes se combinent dépend de la relation entre leurs oscillations l’un par rapport à l’autre. S’ils sont en phase (comme disent les physiciens), alors la crête de l’un coïncide de manière constructive avec la crête de l’autre, ce qui donne un renforcement mutuel maximal. Lorsque cela se produit dans le cas de la lumière, on obtient des bandes de luminosité. Si, en revanche, les deux ensembles d’ondes sont exactement décalés l’un par rapport à l’autre (déphasés), alors la crête de l’un coïncide avec le creux de l’autre ce qui conduit à une annulation mutuelle et on obtient une bande d’obscurité. Ainsi, l’apparition de motifs d’interférence alternant la lumière et l’obscurité est une signature indubitable de la présence d’ondes. Les observations de Young semblent avoir réglé la question. La lumière est de nature ondulatoire. Au cours du xixe siècle, la nature du mouvement ondulatoire associé à la lumière devins apparemment claire. D’importantes découvertes de Hans Christian Oersted et de Michael Faraday montrèrent que l’électricité et le magnétisme, phénomènes qui, à première vue, semblaient très différents, étaient, en fait, intimement liés les uns aux autres. La manière dont ils pouvaient être combinés pour donner une théorie cohérente de l’électromagnétisme fut finalement arrêtée par James Clerk Maxwell – un  14 

  Les « fissures » de la physique classique  

Fig. 1    L’addition des ondes : (a) en phase ; (b) déphasées.

homme doté d’un tel génie qu’on pouvait le comparer à Isaac Newton lui-même. Les célèbres équations de Maxwell, qui constituent encore aujourd’hui la base fondamentale de la théorie de l’électromagnétisme, furent exposées en 1873 dans son Traité sur l’électricité et le magnétisme, l’un des livres de référence classiques de l’édition scientifique. Maxwell se rendit compte que ces équations avaient des solutions ondulatoires et que la vitesse de ces ondes était déterminée en fonction de constantes physiques connues. Il s’agissait en fait de la vitesse de la lumière ! Cette découverte a été considérée comme le plus grand triomphe de la physique du xixe siècle. Le fait que la lumière soit des ondes électromagnétiques était on ne peut plus solidement établi. Maxwell et ses contemporains considéraient ces ondes comme des oscillations dans un milieu élastique omniprésent, que l’on a fini par appeler éther. Dans un article d’encyclopédie, il allait même avancer que l’éther était l’entité la mieux confirmée de toute la théorie physique.  15 

  La théorie quantique  

Nous avons donné à la physique de Newton et Maxwell le nom de « physique classique ». À la fin du xixe siècle, elle était devenue un imposant édifice théorique. Il n’est guère surprenant que de grands « anciens », comme Lord Kelvin, en soient venus à penser que toutes les grandes idées de la physique étaient désormais connues et qu’il ne restait plus qu’à en régler les détails avec une précision accrue. Au cours du dernier quart de siècle, un jeune homme en Allemagne qui envisageait une carrière universitaire a été mis en garde contre une carrière dans la physique. Il valait mieux chercher ailleurs, car la physique était au bout du chemin, il restait trop de peu de choses à entreprendre. Le jeune homme s’appelait Max Planck et, heureusement, il a ignoré les conseils qui lui avaient été donnés. En fait, certaines « fissures » avaient déjà commencé à se manifester dans la splendide façade de la physique classique. Dans les années 1880, les Américains Michelson et Morley réalisèrent des expériences intelligentes destinées à démontrer le mouvement de la Terre à travers l’éther. L’idée était que, si la lumière était effectivement constituée d’ondes dans ce milieu, alors sa vitesse mesurée devait dépendre de la façon dont l’observateur se déplaçait par rapport à l’éther. Pensez aux vagues sur la mer. Leur vitesse apparente, telle qu’observée depuis un navire, dépend du fait que celui-ci se déplace dans le sens des vagues ou dans le sens opposé, apparaissant moins élevée dans le premier cas que dans le second. L’expérience permet de comparer la vitesse de la lumière dans deux directions mutuellement perpendiculaires. Ce n’est que si et seulement si la Terre se trouve « au repos » par rapport à l’éther au moment où les mesures sont effectuées que l’on peut s’attendre à ce que les deux vitesses mesurées soient les mêmes, et cette possibilité peut être exclue en répétant l’expérience quelques mois plus tard, lorsque la Terre se déplace dans une direction différente sur son orbite. En fait, Michelson et Morley n’ont pu détecter aucune différence de vitesse. La résolution de ce problème a nécessité une application de la théorie restreinte de la relativité d’Einstein, qui ignore totalement l’existence de l’éther. Cette grande découverte n’est pas l’objet de notre histoire actuelle, aussi significative et surprenante que fut la relativité, elle n’a pas  16 

  Les « fissures » de la physique classique  

aboli les qualités de clarté et de déterminisme que possède la physique classique. C’est pourquoi, dans la préface, j’ai affirmé que la relativité restreinte exigeait beaucoup moins d’être repensée radicalement que la théorie quantique. SPECTRES

Le premier signe de la révolution quantique, non reconnu comme tel à l’époque, apparut en 1885. Elle naquit des gribouillages mathématiques d’un maître d’école suisse appelé Balmer. Il pensait au spectre de l’hydrogène, c’est-à-dire à l’ensemble des raies colorées distinctes que l’on voit lorsque la lumière d’un gaz incandescent est divisée en passant à travers un prisme. Les différentes couleurs correspondent à différentes fréquences (différents taux d’oscillation) des ondes lumineuses impliquées. En jouant avec les chiffres, Balmer découvrit que ces fréquences pouvaient être décrites par une formule mathématique assez simple [voir l’Annexe mathématique, 1]. À son époque, cela pouvait être appréhendé comme une simple curiosité. Plus tard, les scientifiques essayèrent de comprendre le résultat de Balmer en fonction de l’image contemporaine de l’atome. En 1897, J. J. Thomson découvrit que la charge négative d’un atome était portée par de minuscules particules, que l’on nomma « électrons ». On supposait alors que la charge positive d’équilibre était simplement répartie dans l’atome. Cette idée fut appelée « le modèle du plum-pudding », les électrons jouant le rôle des prunes et la charge positive celui du pudding. Les fréquences spectrales devaient alors correspondre aux différentes façons dont les électrons pouvaient osciller dans le « pudding » chargé positivement. Il s’avéra toutefois extrêmement difficile de faire appliquer cette idée de manière empiriquement satisfaisante. Nous verrons que la véritable explication de l’étrange découverte de Balmer a finalement été trouvée en utilisant un ensemble d’idées très ­différentes. Entre-temps, la nature des atomes semblait probablement trop obscure pour que ces problèmes suscitent une anxiété généralisée.  17 

  La théorie quantique  

LA CATASTROPHE ULTRAVIOLETTE

Une autre difficulté, beaucoup plus évidente mais déroutante, fut mise en lumière pour la première fois par Lord Rayleigh en 1900, et appelée « la catastrophe ultraviolette ». Elle était née de l’application des idées d’une autre grande découverte du xixe siècle, la physique statistique. Les scientifiques tentaient alors de comprendre le comportement de systèmes très complexes, dont les mouvements détaillés pouvaient prendre des formes très différentes. Un exemple d’un tel système pourrait être un gaz composé de très nombreuses molécules différentes, chacune ayant son propre état de mouvement. Un autre exemple serait l’énergie rayonnante (ou radiative), qui pourrait être constituée de contributions réparties entre de nombreuses fréquences différentes. Il serait tout à fait impossible de suivre tous les détails de ce qui se passe dans des systèmes de cette complexité, néanmoins, certains aspects importants de leur comportement global pourraient être analysés et mis en équation. Cela s’explique par le fait que le comportement global résulte d’une moyenne grossière des contributions de nombreux états de mouvement individuels. Parmi ces possibilités, l’ensemble le plus probable domine parce qu’il s’avère être justement le plus probable. Sur la base de cette maximisation de la probabilité, Maxwell et Ludwig Boltzmann ont pu montrer que l’on peut calculer de manière fiable certaines propriétés générales du comportement global d’un système complexe, comme, par exemple, la pression dans un gaz de volume et de température donnés. Rayleigh appliqua ces techniques de physique statistique au problème de la répartition de l’énergie entre les différentes fréquences dans le cas du rayonnement des corps noirs. Un corps noir est un corps qui absorbe parfaitement toutes les radiations et qui les réémet ensuite toutes. La question du spectre des radiations en équilibre avec un corps noir peut sembler assez originale, mais il existe en fait d’excellentes approximations des corps noirs. C’est donc une question qui peut être étudiée aussi bien de manière expérimentale que théorique, par exemple en étudiant les radiations à l’intérieur d’un four spécialement préparé. La question a été simplifiée par le fait que l’on savait que la réponse ne devait dépendre  18 

  Les « fissures » de la physique classique  

que de la température du corps et non d’autres facteurs de sa structure. Rayleigh fit remarquer que l’application directe des idées éprouvées de la physique statistique conduisait à un résultat désastreux. Non seulement le résultat par calcul ne correspondait pas au spectre mesuré, mais il n’avait aucun sens. Il prédit qu’une quantité infinie d’énergie serait concentrée dans les très hautes fréquences, une conclusion embarrassante qui est devenue « la catastrophe ultraviolette ». La nature catastrophique de cette conclusion est assez claire : « ultraviolet » était alors une façon de dire « hautes fréquences ». La catastrophe est survenue parce que la physique statistique classique prédisait que chaque degré de liberté du système (dans ce cas, chaque manière distincte dont le rayonnement peut onduler) recevra la même quantité fixe d’énergie, une quantité qui ne dépend que de la température. Plus la fréquence est élevée, plus le nombre de modes d’oscillation correspondants est important, ce qui fait que les fréquences les plus élevées emportent tout, accumulant ainsi des quantités illimitées d’énergie. Ce problème qui représentait bien plus qu’un défaut inesthétique sur la splendide façade de la physique classiqueétait plutôt un trou béant dans le bâtiment. En un an, Max Planck, devenu professeur de physique à Berlin, avait trouvé une remarquable issue à ce dilemme. Il dit d’ailleurs à son fils qu’il pensait avoir fait une découverte d’une importance égale à celles de Newton. Cela ressemble à une affirmation pleine d’emphase mais, dans les faits, Planck disait simplement la vérité. La physique classique considérait que le rayonnement suintait continuellement dans et hors du corps noir, tout comme l’eau pouvait suinter dans et hors d’une éponge. Dans le monde en constante évolution de la physique classique, aucune autre hypothèse ne semblait plausible. Pourtant, Planck fit une proposition contraire, suggérant que les radiations étaient émises ou absorbées de temps en temps dans des paquets d’énergie d’une taille définie. Il précisa que le contenu énergétique de l’un de ces quanta (comme on appelait les paquets) serait proportionnel à la fréquence du rayonnement. La constante de proportionnalité a été vue comme une constante universelle de la nature, et porte aujourd’hui  19 

  La théorie quantique  

le nom de constante de Planck. Elle est désignée par le symbole h. La magnitude de h est très petite en termes de tailles que nous rencontrons dans notre expérience quotidienne. C’est pourquoi ce comportement ponctuel des rayonnements n’avait pas été remarqué auparavant, une rangée de petits points très proches les uns des autres ressemblant à une ligne continue. Une conséquence immédiate de cette hypothèse audacieuse fut que le rayonnement à haute fréquence ne pouvait être émis ou absorbé que lors d’événements impliquant un seul quantum porteur d’une énergie significativement élevée. Ce « tarif » énergétique élevé signifiait que ces événements à haute fréquence seraient sévèrement entravés et amoindris par rapport aux attentes de la physique classique. L’apprivoisement des hautes fréquences de cette manière a non seulement supprimé la « catastrophe ultraviolette », il a également permis d’obtenir une formule en accord parfait avec le résultat empirique des mesures. Manifestement, Planck tenait là une piste de grande importance. Mais ni lui ni d’autres n’étaient sûrs de cette importance au début. Jusqu’à quel point faut-il prendre les quanta au sérieux ? Étaient-ils une caractéristique persistante des radiations ou simplement un aspect de la manière dont les radiations interagissaient avec un corps noir ? Après tout, les gouttes d’un robinet forment une séquence de quanta aqueux, mais elles se fondent dans le reste de l’eau et perdent leur identité individuelle dès qu’elles tombent dans le bassin. L’EFFET PHOTOÉLECTRIQUE

L’avancée suivante fut accomplie par un jeune homme qui avait du temps devant lui puisqu’il travaillait comme examinateur de troisième classe à l’Office des Brevets de Berne. Il s’appelait Albert Einstein. En 1905, annus mirabilis pour Einstein, il fit trois découvertes fondamentales. L’une d’entre elles s’est avérée être l’étape suivante dans l’histoire de la théorie quantique. Einstein réfléchissait aux propriétés étonnantes mises en évidence par les recherches sur l’effet photoélectrique [2]. Il s’agit d’un  20 

  Les « fissures » de la physique classique  

phénomène par lequel un faisceau de lumière fait éjecter des électrons de l’intérieur d’un métal. Les métaux contiennent des électrons qui peuvent se déplacer à l’intérieur (leur flux constitue le courant électrique), mais qui n’ont pas assez d’énergie pour s’échapper entièrement du métal. Le fait que l’effet photoélectrique se produise n’est pas du tout surprenant. Le rayonnement transfère de l’énergie aux électrons piégés à l’intérieur du métal et, si le gain est suffisant, des électrons peuvent alors s’échapper des forces qui les retiennent. Dans un mode de pensée classique, les électrons seraient agités par la « houle » des ondes lumineuses et certains pourraient être suffisamment perturbés pour se détacher du métal. Selon ce schéma, le degré de cette perturbation dépendrait de l’intensité du faisceau, puisque celle-ci détermine son contenu énergétique, mais on ne s’attendrait pas à une dépendance particulière de la fréquence de la lumière incidente. En fait, les expériences montrèrent exactement l’inverse. En dessous d’une certaine fréquence critique, aucun électron n’était émis, quelle que soit l’intensité du faisceau ; au-dessus de cette fréquence, même un faible faisceau pouvait faire éjecter quelques électrons. Einstein vit que ce comportement déroutant devenait instantanément intelligible si l’on considérait le faisceau de lumière comme un flux de quanta persistant. Un électron serait éjecté parce qu’un de ces quanta l’aurait heurté et lui aurait transféré toute son énergie. La quantité d’énergie de ce quantum, selon Planck, était directement proportionnelle à la fréquence. Si la fréquence était trop basse, il n’y aurait pas assez d’énergie transférée lors d’une collision pour permettre à l’électron de s’échapper. En revanche, si la fréquence dépasse une certaine valeur critique, il y aurait suffisamment d’énergie pour que l’électron puisse s’échapper. L’intensité du faisceau détermine simplement combien de quanta il contient, et donc combien d’électrons sont impliqués dans les collisions et éjectés. L’augmentation de l’intensité ne pouvait pas modifier l’énergie transférée lors d’une seule collision. Le fait de prendre au sérieux l’existence des quanta de lumière (qui devaient par la suite être dénommés les « photons ») explique le mystère de l’effet photoélectrique. Le jeune Einstein avait fait une découverte capitale et il reçut finalement un prix Nobel pour cette découverte, l’Académie suédoise considérant  21 

  La théorie quantique  

probablement ses deux autres grandes découvertes de 1905 – la relativité restreinte et une démonstration convaincante de la réalité des molécules – comme étant encore trop spéculatives pour qu’il soit récompensé de cette manière ! L’analyse quantique de l’effet photoélectrique fut une grande victoire de la physique, mais une victoire à la Pyrrhus. La question de fond se trouve alors confrontée à une grave crise. Comment concilier toutes ces grandes connaissances du xixe siècle sur la nature ondulatoire de la lumière avec ces nouvelles idées ? Après tout, une onde est une chose étendue, qui virevolte, tandis qu’un quantum est assimilé à une particule, une sorte de petite balle de fusil. Comment ces deux notions peuventelles être également vraies ? Pendant longtemps, les physiciens ont dû vivre avec le paradoxe inconfortable de la nature ondulatoire/particulaire de la lumière. Aucun progrès n’aurait été réalisé en faisant fi des intuitions de Young et Maxwell ou de Planck et Einstein. Les gens devaient simplement s’y accrocher intellectuellement, même si cela ne permettait pas d’y trouver du sens. Beaucoup adoptèrent une tactique plutôt lâche, le détournant du regard. Cependant, cette histoire, comme nous le verrons, eut une fin heureuse. L’ATOME

Pendant ce temps, l’attention se détourna de la lumière vers les atomes. En 1911, à Manchester, Ernest Rutherford et quelques collègues plus jeunes commencèrent à étudier le comportement de certains petits projectiles à charge positive, appelés particules-α, lorsqu’ils atteignaient une fine pellicule d’or. De nombreuses particules-a passaient à travers sans subir d’effet mais, à la grande surprise des chercheurs, certaines étaient sensiblement déviées. Rutherford a déclaré plus tard que c’était aussi étonnant que si un obus naval de 15 pouces avait reculé en heurtant une feuille de papier de soie. Le modèle de l’atome en plum-pudding ne pouvait avoir aucun sens à partir de ce résultat. Les particules-a auraient dû passer à travers comme une balle au travers d’un gâteau. Rutherford comprit vite qu’il n’y avait qu’une seule issue au dilemme. La charge  22 

  Les « fissures » de la physique classique  

positive des atomes d’or, qui repousserait les particules-a positives, ne pouvait pas être répartie comme dans un « pudding », mais devait être concentrée au centre de l’atome. Une rencontre avec de telles charges concentrées serait capable de dévier sensiblement une particule-a. En sortant un vieux manuel de mécanique de ses études de premier cycle en Nouvelle-Zélande, Rutherford – qui était un merveilleux physicien expérimental mais pas un grand mathématicien – a pu montrer que cette idée, à savoir, une charge positive centrale située dans l’atome avec des électrons négatifs en orbite, correspondait parfaitement au comportement observé. Le modèle du plum-pudding céda instantanément la place au modèle de l’atome dit du « système solaire ». Rutherford et ses collègues venaient de découvrir le noyau atomique. Ce fut un grand succès, mais il semble à première vue qu’il s’agit une fois de plus d’une victoire à la Pyrrhus. La découverte du noyau plongea la physique classique dans la crise la plus profonde qu’elle ait connue jusqu’à ce jour. Si les électrons d’un atome encerclent le noyau, ils changent continuellement de direction de mouvement. La théorie électromagnétique classique exigeait alors que dans ce processus, ils rayonneraient une partie de leur énergie. Par conséquent, ils devraient se rapprocher progressivement du noyau. Cette conclusion est absolument désastreuse, car elle implique que les atomes seraient instables, les électrons en orbite s’effondreraient en spirale vers le centre. En outre, au cours de cette désintégration, un modèle continu de rayonnement serait émis qui ne ressemblerait en rien aux fréquences spectrales aiguës de la formule de Balmer. Après 1911, le grand édifice de la physique classique ne commençait pas seulement à se fissurer. Il avait été touché par un tremblement de terre. LE MODÈLE ATOMIQUE DE BOHR

Cependant, comme dans le cas de Planck et de la « catastrophe ultraviolette », un autre physicien et théoricien vint à la rescousse pour arracher le succès aux mâchoires de l’échec en proposant une nouvelle hypothèse aussi audacieuse que radicale. Cette fois, c’est un jeune danois  23 

  La théorie quantique  

du nom de Niels Bohr, qui travaillait à Manchester tout comme Rutherford. C’est en 1913 que Bohr avança une proposition révolutionnaire [3]. Planck avait remplacé l’idée classique d’un processus continu dans lequel l’énergie suinte à l’intérieur et à l’extérieur d’un corps noir par la notion d’un processus ponctuel dans lequel l’énergie est émise ou absorbée sous forme de quanta. En termes mathématiques, cela signifie qu’une quantité telle que l’énergie échangée, qui était auparavant considérée comme prenant n’importe quelle valeur possible, est maintenant considérée comme ne pouvant prendre qu’une série de valeurs nettes (1, 2, 3… paquets). Les mathématiciens diraient que le continu a été remplacé par le discret. Bohr compris que cela pouvait être une tendance très générale dans le nouveau type de physique qui naissait lentement. Il appliqua aux atomes des principes similaires à ceux que Planck avait appliqués aux radiations. Un physicien classique aurait supposé que les électrons tournoyant autour d’un noyau pouvaient le faire sur des orbites dont les rayons avaient la capacité de prendre n’importe quelle valeur. Bohr proposa de remplacer cette possibilité continue par l’exigence discrète que les rayons ne puissent prendre qu’une série de valeurs distinctes que l’on pourrait énumérer (première, deuxième, troisième… niveaux). Il fit également une suggestion précise sur la façon dont ces rayons possibles étaient déterminés, en utilisant une formule qui impliquait la constante de Planck, h. (La proposition concernait le moment angulaire, une mesure du mouvement rotatif de l’électron mesuré dans les mêmes unités physiques que h.) Deux conséquences découlent de ces propositions. La première est la propriété hautement souhaitable de rétablir la stabilité des atomes. Une fois qu’un électron était dans l’état correspondant au rayon le plus faible autorisé (qui était aussi l’état de la plus faible énergie), il n’avait nulle part où aller et ne pouvait donc plus perdre d’énergie. L’électron pouvait arriver à cet état le plus bas en perdant de l’énergie lorsqu’il passait d’un état de rayon plus élevé. Bohr a supposé que lorsque cela se produirait, l’énergie excédentaire serait émise comme un seul photon. Les calculs ont montré que cette idée a conduit directement à la deuxième conséquence de l’hypothèse audacieuse de Bohr, la prédiction de  24 

  Les « fissures » de la physique classique  

la formule de Balmer pour les raies spectrales. Après presque trente ans, cette mystérieuse formule numérique est passée d’une bizarrerie inexplicable à une propriété intelligible de la nouvelle théorie des atomes. La netteté des raies spectrales était considérée comme le reflet de la nature discrète qui commençait à être reconnue comme une caractéristique de la pensée quantique. Le mouvement en spirale continue auquel on aurait pu s’attendre sur la base de la physique classique avait été remplacée par un « saut quantique » fortement discontinu d’une orbite d’un rayon autorisé à une orbite d’un rayon autorisé mais inférieur. L’atome de Bohr fut un grand triomphe. Mais il était né d’une sorte de « bricolage » inspiré de ce qui était encore, à bien des égards, de la physique classique. Le travail de pionnier de Bohr correspondait, en réalité, à une réparation substantielle de l’édifice sérieusement endommagé de la physique classique. Les tentatives d’extension de ces concepts se sont rapidement heurtées à des difficultés et à des incohérences. La « vieille théorie quantique », comme on a fini par appeler ces essais, était une combinaison difficile et inconciliable des idées classiques de Newton et Maxwell avec les formulations quantiques de Planck et Einstein. Les travaux de Bohr constituaient une étape essentielle dans l’histoire de la physique quantique, mais ils ne pouvaient être qu’une étape sur la voie de la « nouvelle théorie quantique », un compte rendu totalement intégré et cohérent de ces étranges idées. Pour en arriver là, il fallait découvrir un autre phénomène important qui soulignait encore plus l’inévitable nécessité de trouver un moyen de faire face à la pensée quantique. EFFET COMPTON

En 1923, le physicien américain Arthur Compton étudia la diffusion des rayons X (rayonnement électromagnétique à haute fréquence) par la matière. Il découvrit que la fréquence des radiations diffusées était modifiée. Sur un diagramme d’onde, cela ne pouvait pas être expliqué. L’idée était que le processus de diffusion serait dû au fait que les électrons des atomes absorbent et réémettent l’énergie des ondes incidentes, et que cela se produirait sans changement de fréquence. En revanche,  25 

  La théorie quantique  

sur un diagramme de photons, le résultat peut s’expliquer facilement. Il s’agirait d’une collision entre une « boule de billard » et un photon, au cours de laquelle le photon perdrait une partie de son énergie au profit de l’électron. Selon la formule de Planck, le changement d’énergie est le même que le changement de fréquence. Compton a ainsi pu donner une explication quantitative de ses observations expérimentales et fournir ainsi les preuves les plus convaincantes à ce jour du caractère particulaire des rayonnements électromagnétiques. Si la série de découvertes évoquée dans ce chapitre a pu en laisser certains perplexes, elle ne devait pas rester longtemps sans réponse. Deux ans après les travaux de Compton, des progrès théoriques substantiels et durables ont été réalisés. La lumière de la nouvelle théorie quantique commençait à poindre.

 26 

2 La lumière de l’aube apparaît Les années qui suivirent la proposition pionnière de Max Planck représentent une période de confusion et d’obscurité pour la communauté des physiciens. La lumière, c’était des ondes ; la lumière, c’était aussi des particules. Des modèles à succès fascinant, tels que l’atome de Bohr, prédisaient qu’une nouvelle théorie physique était sur le point d’être révélée, mais la mise en place imparfaite de ces « patchs » quantiques sur les ruines de la physique classique indiquait surtout qu’il allait falloir plus de perspicacité avant qu’une image cohérente puisse émerger. Lorsque la lumière de l’aube pointa, elle le fit avec toute la soudaineté d’un lever de soleil tropical. Les années 1925 et 1926 ont vu la théorie quantique moderne prendre toute son ampleur. Ces anni mirabiles restent un épisode de grande importance dans la mémoire populaire de la communauté de la physique théorique, et on s’en souvient encore avec émerveillement bien que notre mémoire actuelle n’ait plus accès à ces temps héroïques. Lorsque des aspects fondamentaux de la théorie physique sont remis en question, on peut entendre : « J’ai l’impression que nous sommes de nouveau en 1925. » Une telle remarque est empreinte de nostalgie. Comme l’a dit le poète Wordsworth à propos de la Révolution française : « Quel ravissement d’être en vie à cette aube-là, mais y être et jeune fut le paradis même. » Bien que de nombreux progrès importants aient été réalisés au cours des soixante-quinze dernières années, aucune nouvelle révision radicale des principes physiques, de l’ampleur de celle qui a accompagné la naissance de la théorie quantique, n’a été nécessaire.  27 

Fig. 2    Le grand et le bon de la théorie quantique : le congrès Solvay de 1927. © International Institutes of Physics & Chemistry, Bruxelles.

  La théorie quantique  

 28 

  La lumière de l’aube apparaît  

Deux hommes en particulier ont amorcé le mouvement de la révolution quantique, avançant presque simultanément de nouvelles idées surprenantes. LA MÉCANIQUE MATRICIELLE

L’un d’eux était un jeune théoricien allemand, Werner Heisenberg qui travailla avec acharnement pour comprendre les détails spécifiques des spectres atomiques. La spectroscopie joua un rôle très important dans le développement de la physique moderne. L’une des raisons en est que les techniques expérimentales de mesure des fréquences des raies spectrales sont capables d’une grande précision, de sorte qu’elles donnent des résultats très fins mais qui, en même temps, posent des problèmes très précis aux théoriciens. Nous en avons déjà vu un exemple simple dans le cas du spectre de l’hydrogène, avec la formule de Balmer et l’explication donnée par Bohr, en fonction de son propre modèle atomique. À partir de ce moment, les choses se compliquèrent et Heisenberg mena une attaque beaucoup plus large et ambitieuse des propriétés spectrales en général. Alors qu’il récupérait d’une grave crise de rhume des foins sur l’île de Helgoland dans la mer du Nord, il fit sa grande percée. Les calculs semblaient assez compliqués mais, lorsque la complexité mathématique se dissipa, il apparut que ce qui avait été impliqué était la manipulation d’entités mathématiques appelées matrices (des tableaux de nombres qui se multiplient ensemble d’une manière spéciale). C’est pourquoi la découverte d’Heisenberg a été connue sous le nom de « mécanique des matrices ». Les idées sous-jacentes réapparaîtront un peu plus tard sous une forme encore plus générale. Pour l’instant, notons simplement que les matrices diffèrent des nombres simples en ce sens qu’elles ne commutent généralement pas. C’est-à-dire que si A et B sont deux matrices, le produit AB et le produit BA ne sont généralement pas les mêmes. L’ordre de multiplication importe, contrairement aux nombres, où 2 × 3 et 3 × 2 font 6. Il s’est avéré que cette propriété mathématique des matrices a une signification physique importante liée aux q­ uantités pouvant être  29 

  La théorie quantique  

mesurées simultanément en mécanique quantique. [Voir 4 pour une autre généralisation mathématique nécessaire pour le développement complet de la théorie quantique]. En 1925, les matrices étaient aussi exotiques pour le physicien théorique moyen qu’elles peuvent l’être aujourd’hui pour le lecteur moyen de ce livre peu familier des mathématiques. Les physiciens de l’époque connaissaient beaucoup mieux les mathématiques associées au mouvement des ondes (impliquant des équations aux dérivées partielles). Elles faisaient appel à des techniques standardisées de la physique classique du type de celles que Maxwell avait développées. Dans la foulée de la découverte de Heisenberg, une version très différente de la théorie quantique, basée sur les équations d’ondes, beaucoup plus conviviales, a vu le jour. LA MÉCANIQUE ONDULATOIRE

Cette deuxième approche et explication de la théorie quantique fut appelée, à juste titre, la « mécanique des ondes ». Bien que sa version complète fût découverte par le physicien autrichien Erwin Schrödinger, un pas dans la bonne direction avait été fait un peu plus tôt dans les travaux d’un jeune aristocrate français, le prince Louis de Broglie [5]. Ce dernier avait audacieusement suggéré que si la lumière ondulatoire présentait également des propriétés semblables à celles des particules, peut-être fallait-il s’attendre à ce que des particules telles que les électrons présentent aussi, par analogie, des propriétés ondulatoires. Ainsi, de Broglie donna à cette idée sa forme quantitative, en généralisant la formule de Planck. Ce dernier avait rendu la propriété particulaire de l’énergie proportionnelle à la propriété ondulatoire de la fréquence. De Broglie suggéra qu’une autre propriété des particules, leur « moment », c’est-à-dire la quantité de mouvement (une quantité physique significative, bien définie et correspondant approximativement au « moment », c’est-à-dire la quantité de mouvement persistant que possède une particule), devrait être liée de façon analogue à une autre propriété ondulatoire, la longueur d’onde, la constante universelle de Planck étant  30 

  La lumière de l’aube apparaît  

à nouveau la constante de proportionnalité pertinente. Ces équivalences fournirent une sorte de mini-dictionnaire permettant de passer des particules aux ondes, et vice-versa. En 1924, de Broglie exposa ces idées dans sa thèse de doctorat. Les autorités de l’Université de Paris, d’habitude méfiantes envers des notions aussi hétérodoxes, jugèrent heureusement bon de consulter en parallèle Einstein. Celui-ci reconnut le génie du jeune homme et le diplôme de docteur ès sciences lui fut décerné. En quelques années seulement, des expériences menées par Davisson et Germer aux États-Unis, et celles de George Thomson, en Angleterre, ont pu mettre en évidence l’existence de schémas d’interférence lorsqu’un faisceau d’électrons interagit avec un réseau cristallin, confirmant ainsi que les électrons manifestent effectivement un comportement ondulatoire. Louis de Broglie reçut le prix Nobel de physique en 1929. George Thomson était le fils de J. J. Thomson. On a souvent fait remarquer que le père remporta le prix Nobel pour avoir montré que l’électron est une particule, tandis que le fils se vit décerner le prix Nobel pour avoir montré que l’électron est une onde. Les idées que de Broglie développa étaient basées sur une analyse contradictoire des propriétés des particules en mouvement libre. Pour parvenir à une théorie dynamique complète, il fallait une généralisation supplémentaire afin de tenir compte et d’incorporer ces interactions. C’est le problème que Schrödinger réussit à résoudre. Début 1926, il publia la célèbre équation qui porte aujourd’hui son nom [6]. Il la découvrit en s’appuyant sur une analogie tirée de l’optique. Bien que les physiciens du xixe siècle aient pensé que la lumière était constituée d’ondes, ils n’ont pas toujours utilisé les techniques de calcul du mouvement des ondes pour comprendre ce qui se passait. Si la longueur d’onde de la lumière était petite par rapport aux dimensions définissant le problème, il était possible d’employer une méthode bien plus simple. Il s’agit de l’approche de l’optique géométrique, selon laquelle la lumière se déplace en rayons linéaires réfléchis ou réfractés suivant des règles simples. Les calculs de physique scolaire des systèmes élémentaires de lentilles et de miroirs sont aujourd’hui effectués de la même  31 

  La théorie quantique  

manière, sans que les calculateurs n’aient à se soucier des complexités d’une équation d’onde. La simplicité de l’optique des rayons appliquée à la lumière est similaire à celle du tracé des trajectoires en mécanique des particules. Si cette dernière devait s’avérer n’être qu’une approximation d’une mécanique ondulatoire sous-jacente, Schrödinger soutint que cette mécanique ondulatoire pourrait être découverte en inversant le type de considérations qui avaient conduit de l’optique ondulatoire à l’optique géométrique. C’est ainsi que Schrödinger découvrit l’équation. Schrödinger a publié ses idées quelques mois seulement après la présentation, faite à la communauté des physiciens par Heisenberg, de sa théorie de la mécanique matricielle. À l’époque, Schrödinger avait 38 ans, fournissant un contre-exemple remarquable à l’affirmation, émanant souvent de non-scientifiques, selon laquelle les physiciens théoriciens accomplissent leur travail le plus original avant 25 ans. L’équation de Schrödinger est l’équation dynamique fondamentale de la théorie quantique. C’est un type d’équation différentielle partielle assez simple, familier à l’époque pour les physiciens et pour lequel ils possédaient une formidable batterie de techniques de résolutions mathématiques. Elle était beaucoup plus facile à utiliser que les nouvelles méthodes matricielles de Heisenberg. Les chercheurs purent appliquer sans tarder ces idées à une variété de problèmes physiques spécifiques. Schrödinger lui-même déduisit de son équation la formule de Balmer pour le spectre de l’hydrogène. Ce calcul a montré à quel point Bohr était à la fois proche et éloigné de la vérité en bricolant la vieille théorie quantique. (Le moment angulaire était important, mais pas exactement de la même manière que Bohr avait proposée.) LA MÉCANIQUE QUANTIQUE

Il était clair que Heisenberg et Schrödinger avaient réalisé des avancées impressionnantes. Pourtant, ils présentèrent leurs nouveaux travaux d’une manière différente qu’il ne fut pas aisé de savoir s’ils  32 

  La lumière de l’aube apparaît  

avaient fait la même découverte, mais exprimée différemment, ou s’il y avait deux propositions rivales sur la table [voir la discussion de 10]. Un important travail de clarification suivit immédiatement, auquel Max Born à Göttingen et Paul Dirac à Cambridge contribuèrent de manière particulièrement significative. Il s’est vite avéré qu’il existait une théorie unique, fondée sur des principes généraux communs, dont l’articulation mathématique pouvait revêtir diverses formes équivalentes. Ces principes généraux furent finalement exposés de la manière la plus transparente dans Les Principes de la mécanique quantique de Dirac, publié pour la première fois en 1930 et qui constitue l’un des classiques de très haut niveau du xxe siècle. La préface de la première édition commence par une affirmation d’une simplicité trompeuse : « Les méthodes de progrès obtenus dans la physique théorique ont subi d’importants changements au cours du siècle en cours. » Nous devons maintenant considérer l’image transformée de la nature du monde physique que ces vastes changements ont amenée. J’ai personnellement appris la mécanique quantique directement de « la bouche du cheval » comme disent les Anglo-Saxons, c’est-à-dire, à la source. J’ai pu assister au fameux cours sur la théorie quantique que Dirac assura à Cambridge pendant plus de 30 ans. Le public comprenait non seulement des étudiants de dernière année comme moi, mais aussi souvent des visiteurs de haut niveau qui ont pensé, à juste titre, que ce serait un privilège d’entendre à nouveau l’histoire, qu’ils connaissaient probablement dans les grandes lignes, de la bouche de l’homme qui en avait été l’un des exceptionnels protagonistes. Les conférences ont suivi de près le modèle du livre de Dirac. Il est impressionnant de constater que le conférencier n’a absolument pas mis l’accent sur sa considérable contribution personnelle à ces grandes découvertes. À l’occasion, j’ai parlé de Dirac comme d’une sorte de saint scientifique, pour la pureté de son esprit et la singularité de son but. Les conférences captivaient par leur clarté et le déroulement majestueux de leur raisonnement, aussi satisfaisant et apparemment inévitable que le développement d’une fugue de Bach. Elles étaient totalement dépourvues de tout artifice rhétorique, bien qu’au début, Dirac s’autorisa un geste légèrement théâtral.  33 

  La théorie quantique  

Il prit un morceau de craie et le brisa en deux. En plaçant un fragment d’un côté de son pupitre et l’autre de l’autre côté. Dirac dit alors que pour la physique classique, il y a un état où le morceau de craie est « ici » et un autre état où le morceau de craie est « là », ce sont les deux seules possibilités. Si on remplace la craie par un électron, dans le monde quantique, il n’y a pas seulement des états « ici » et « là », mais aussi toute une série d’autres états qui sont des mélanges de ces deux possibilités – un peu d’« ici » et un peu de « là » qui s’ajoutent. La théorie quantique permet de mélanger des états qui, « classiquement », s’excluraient mutuellement. C’est cette possibilité contre-intuitive d’addition qui distingue le quantum du monde quotidien de la physique classique [7]. Dans le jargon professionnel, cette nouvelle possibilité est appelée le principe de superposition. LES DOUBLES FENTES ET LA SUPERPOSITION

Les conséquences radicales qui découlent de l’hypothèse de la superposition sont bien illustrées par ce que l’on appelle « l’expérience des doubles fentes ». Richard Feynman, le fougueux prix Nobel de physique qui a captivé l’imagination populaire par ses livres d’anecdotes, a décrit ce phénomène comme se situant « au cœur de la mécanique quantique ». Il estimait qu’il fallait avaler la théorie quantique tout entière, sans se soucier du goût ou de la digestibilité. Cela pouvait se faire en avalant toute crue l’expérience des doubles fentes En réalité, il contient le seul mystère. Nous ne pouvons pas faire disparaître ce mystère en « expliquant » son fonctionnement. Nous vous expliquerons simplement comment il fonctionne. Et en vous expliquant comment elle fonctionne, nous vous aurons parlé des particularités fondamentales de toute la mécanique quantique.

Après une telle promesse, le lecteur ne peut que souhaiter se familiariser avec ce phénomène intrigant. L’expérience de Feynman implique une source d’entités quantiques, soit un canon à électrons qui tire un flux constant de particules. Ces particules frappent un écran dans lequel  34 

  La lumière de l’aube apparaît  

A

figure de diffraction B

Fig. 3    L’expérience de la double fente.

il y a deux fentes, A et B. Au-delà de cet écran, il y a un écran détecteur qui peut enregistrer l’arrivée des électrons. Il peut s’agir d’une grande plaque photographique sur laquelle chaque électron incident fera une marque. Le débit du canon à électrons est réglé de manière à ce qu’un seul électron traverse le dispositif à chaque moment dans le temps. Observons alors ce qui se passe. Les électrons arrivent l’un après l’autre sur l’écran du détecteur, et pour chacun, on voit apparaître une marque correspondante et qui enregistre son point d’impact. Ceci manifeste le comportement individuel des électrons en mode particulaire. Cependant, lorsqu’un grand nombre de marques se sont accumulés sur l’écran du détecteur, nous constatons que le modèle « collectif » qu’ils ont créé prend la forme familière d’un effet d’interférence. Il y a une tache sombre intense sur l’écran à l’opposé du point à mi-chemin entre ses deux fentes, correspondant à l’endroit où le plus grand nombre de marques électroniques ont été déposées. De part et d’autre de cette bande centrale, il y a des bandes alternativement claires et de moins en moins sombres, correspondant respectivement à la non-arrivée et à l’arrivée des électrons à ces endroits-là. Un tel schéma  35 

  La théorie quantique  

de diffraction (comme les physiciens appellent ces effets d’interférence) est la signature indiscutable d’électrons qui se comportent en mode ondulatoire. Ce phénomène est un exemple parfait de la dualité onde électronique/particule. Les électrons arrivant un par un se comportent comme des particules ; le modèle d’interférence qui en résulte est un comportement ondulatoire. Mais il y a quelque chose de beaucoup plus intéressant encore. Approfondissons un peu plus ce qui se passe en posant la question suivante : lorsqu’un seul électron indivisible traverse l’appareil, par quelle fente passe-t-il pour atteindre l’écran du détecteur ? Supposons qu’il passe par la fente supérieure A. Dans ce cas, cela signifierait que la fente inférieure B n’était vraiment pas pertinente et qu’elle aurait tout aussi bien pu être fermée temporairement. Avec seulement la fente A ouverte, l’électron ne serait pas le plus susceptible d’arriver au milieu de l’écran lointain, mais de se retrouver au point opposé à A. Comme ce n’est pas le cas, nous concluons que l’électron n’a pas pu passer par A. En inversant ce raisonnement, nous concluons que l’électron n’a pas pu passer par B non plus. Que se passe-t-il alors ? Ce « bon et grand » homme, Sherlock Holmes, aimait à dire que lorsque vous avez éliminé l’impossible, tout ce qui reste doit être vrai, aussi improbable que cela puisse paraître. L’application de ce principe holmésien nous amène à la conclusion que l’électron indivisible est passé par les deux fentes. En termes d’intuition classique, c’est une conclusion absurde. En revanche, en invoquant le principe de superposition de la théorie quantique, elle devient parfaitement logique. L’état de mouvement de l’électron était l’addition des états (passant par A) et (passant par B). Le principe de superposition nous livre deux caractéristiques très générales de la théorie quantique. La première est qu’il n’est plus possible de se faire une idée précise de ce qui se passe au cours d’un processus physique. Vivant comme nous le faisons dans le monde quotidien (classique), il nous est impossible de visualiser une particule indivisible passant par les deux fentes. L’autre conséquence est qu’il n’est plus possible de prévoir exactement ce qui se passera lorsque nous ferons une  36 

  La lumière de l’aube apparaît  

o­ bservation. Supposons que nous modifions l’expérience des doubles fentes en plaçant un détecteur près de chacune des deux fentes, afin de pouvoir déterminer par quelle fente un électron est passé. Il s’avère que cette modification de l’expérience aurait deux conséquences. La première est que l’électron serait parfois détecté près de la fente A et parfois près de la fente B. Il serait impossible de prédire où il se trouverait à un instant donné mais, sur une longue série d’essais, les probabilités relatives associées aux deux fentes seraient de 50-50. Cela illustre la caractéristique générale selon laquelle, dans les prédictions de la théorie quantique, les résultats des mesures sont de nature statistique et non déterministe. La théorie quantique traite des probabilités plutôt que des certitudes. L’autre conséquence de cette modification de l’expérience serait la destruction du dessin d’interférence tel qu’il apparaît sur l’écran final. Les électrons ne tendraient plus vers le point central de l’écran du détecteur mais ils se répartiraient de manière égale entre ceux qui arrivent en face de A et ceux qui arrivent en face de B. En d’autres termes, le comportement que l’on identifie dépend de ce que l’on choisit de chercher. Poser une question en forme de particule (quelle fente ?) donne une réponse en forme de particule ; poser une question en forme d’onde (uniquement sur le motif final accumulé sur l’écran du détecteur) donne une réponse en forme d’onde. PROBABILITÉS

C’est Max Born à Göttingen qui, le premier, souligna clairement le caractère probabiliste de la théorie quantique, une réalisation pour laquelle il ne reçut son prix Nobel bien mérité qu’en 1954. L’avènement de la mécanique ondulatoire avait soulevé la fameuse question des ondes, mais quelles ondes ? Au départ, on supposa qu’il pouvait s’agir d’ondes de la matière, de sorte que c’était l’électron lui-même qui se déployait de cette manière ondulatoire. Born se rendit vite compte que cette idée n’était pas satisfaisante. Elle ne pouvait pas s’accommoder des propriétés particulaires. L’équation de Schrödinger décrit plutôt des ondes de probabilité. Ce développement ne fut pas accepté par tous les  37 

  La théorie quantique  

pionniers qui conservaient avec force les instincts déterministes de la physique classique. De Broglie et Schrödinger furent désillusionnés par la physique quantique lorsqu’on leur présenta son caractère probabiliste. L’interprétation probabiliste impliquait que les mesures devaient être des occasions de changement instantané et de discontinuité. Si un électron se trouvait dans un état où la probabilité était répartie « ici », « là » et, peut-être, « partout », lorsque sa position était mesurée et qu’on découvrait qu’il était, à cet instant, « ici », alors la distribution de probabilité devait changer soudainement, se concentrant uniquement sur la position réellement mesurée, « ici ». Puisqu’il faut calculer la distribution de probabilité à partir de la fonction d’onde, celle-ci doit aussi changer de manière discontinue, un comportement que l’équation de Schrödinger elle-même ne prédisait pas. Ce phénomène de changement soudain, appelé « réduction du paquet d’ondes », était une condition supplémentaire qui devait être imposée à la théorie de l’extérieur. Nous verrons dans le prochain chapitre que le processus de mesure continue à susciter des perplexités quant à la manière de comprendre et d’interpréter la théorie quantique. Chez quelqu’un comme Schrödinger, la question suscite plus que de la perplexité. Elle l’a rempli de dégoût et il déclara que s’il avait su que ses idées conduiraient à ces « satanés sauts quantiques », il n’aurait pas souhaité découvrir son équation ! OBSERVABLES

(Avertissement au lecteur : cette section comprend quelques idées mathématiques simples mais qui nécessitent un effort pour les assimiler, et de la concentration pour les digérer. C’est la seule section du texte qui ose proposer une rencontre avec les mathématiques. Cela risque d’être un peu ardu pour le non-mathématicien, je m’en excuse). La physique classique décrit un monde qui est clair et déterministe. La physique quantique décrit un monde qui est nuageux mais approprié. En ce qui concerne le formalisme (expression mathématique de la théorie), nous avons vu que ces propriétés découlent du fait que le principe de  38 

  La lumière de l’aube apparaît  

Fig. 4    L’addition des vecteurs.

superposition quantique permette de mélanger des états qui, classiquement, seraient strictement immiscibles. Ce simple principe d’additivité contre-intuitive trouve une forme naturelle d’expression mathématique en termes de ce qu’on appelle les espaces vectoriels [7]. Un vecteur dans l’espace ordinaire peut être considéré comme une flèche, avec une longueur donnée et pointant dans une direction donnée. Les flèches peuvent être additionnées simplement en se suivant les unes les autres. Par exemple, cinq km vers le nord, suivis de trois km vers l’est, cela donne cinq km dans une direction 37° à l’est du nord (voir figure 4). Les mathématiciens peuvent généraliser ces idées en les étendant à des espaces à n’importe quel nombre de dimensions. La propriété essentielle de tous les vecteurs est qu’ils peuvent être ­additionnés. Ils fournissent  39 

  La théorie quantique  

ainsi une contrepartie mathématique naturelle au principe de superposition quantique. Les détails n’ont pas besoin de nous préoccuper ici, mais, comme il est toujours bon de se sentir à l’aise avec la terminologie, il convient de remarquer qu’une forme particulièrement sophistiquée d’espace vectoriel, appelé espace de Hilbert, fournit le ­véhicule ­mathématique idoine pour aborder la théorie quantique. Jusqu’à présent, la discussion s’est concentrée sur les états de mouvement. On peut penser qu’ils résultent de manières spécifiques pour préparer le matériau initial d’une expérience : le tir d’électrons à partir d’un canon à électrons ;le passage de la lumière à travers un système optique particulier ; la déviation de particules par un ensemble particulier de champs électriques et magnétiques ; et ainsi de suite. On peut considérer que l’état est « ce qu’il en est » pour le système qui a été préparé, bien que l’imprévisibilité visuelle de la théorie quantique signifie que ce ne sera pas une question aussi claire et simple qu’elle le serait en physique classique. Si le physicien veut savoir quelque chose de plus précis (où se trouve réellement l’électron ?), il devra faire une observation, impliquant une intervention expérimentale sur le système. Par exemple, l’expérimentateur peut souhaiter mesurer une quantité dynamique particulière, comme la position ou la quantité de mouvement d’un électron. La question formelle se pose alors : si l’état est représenté par un vecteur, comment représenter les observables qui peuvent être mesurés ? La réponse se trouve dans les opérateurs qui agissent dans l’espace de Hilbert. Ainsi, le schéma reliant le formalisme mathématique à la physique inclut non seulement la spécification que les vecteurs correspondent à des états, mais aussi que les opérateurs correspondent à des observables [8]. L’idée générale d’un opérateur est qu’il s’agit de quelque chose qui transforme un état en un autre. Un exemple simple est fourni par les opérateurs de rotation. Dans l’espace tridimensionnel ordinaire, une rotation de 90 o autour de la verticale (on invoque la règle du tire-­bouchon) transforme un vecteur (pensez à une flèche) pointant vers l’est en un vecteur (flèche) pointant vers le nord.  40 

  La lumière de l’aube apparaît  

Fig. 5    Les rotations non commutantes.

Une propriété importante des opérateurs est qu’ils ne commutent généralement pas entre eux, c’est-à-dire que l’ordre dans lequel ils agissent est significatif. Considérons deux opérateurs : R1, une rotation  41 

  La théorie quantique  

de 90o autour de la verticale ; R2, une rotation de 90 o (toujours à gauche) autour d’un axe horizontal pointant vers le nord. Appliquez-les dans l’ordre R1 suivi de R2 sur une flèche pointant vers l’est. R1 transforme cela en une flèche pointant vers le nord, qui est alors inchangée par R2. Nous représentons les deux opérations effectuées dans cet ordre comme le produit R2.R1, puisque les opérateurs, comme l’hébreu et l’arabe, sont toujours lus de droite à gauche. En appliquant les opérateurs dans l’ordre inverse, on transforme d’abord la flèche vers l’est en une flèche pointant vers le bas (effet de R2), qui est ensuite laissée inchangée (effet de R1). Puisque R2.R1 se termine par une flèche pointant vers le nord et R1.R2 se termine par une flèche pointant vers le bas (vers le sud). Ces deux produits sont tout à fait distincts l’un de l’autre. L’ordre importe – les rotations ne commutent pas. Les mathématiciens reconnaîtront que les matrices peuvent également être considérées comme des opérateurs, et la non-commutativité des matrices utilisées par Heisenberg est donc un autre exemple spécifique de cette propriété générale des opérateurs. Tout cela peut sembler assez abstrait, mais la non-commutativité s’avère être la contrepartie mathématique d’une propriété physique importante. Pour voir comment cela se produit, il faut d’abord établir comment le formalisme des opérateurs pour les observables est lié aux résultats réels des expériences. Les opérateurs sont des entités mathématiques assez sophistiquées, mais les mesures sont toujours exprimées sous forme de nombres non-sophistiqués, comme 2,7 unités de n’importe quelle entité. Si la théorie abstraite doit donner un sens aux observations physiques, il doit y avoir un moyen d’associer les nombres (les résultats des observations) aux opérateurs (le formalisme mathématique). Heureusement, les mathématiques s’avèrent être à la hauteur de ce défi. Les idées clés sont les vecteurs propres et les valeurs propres [8]. Parfois, un opérateur agissant sur un vecteur ne change pas la direction de ce vecteur. Un exemple serait une rotation autour de l’axe vertical, qui laisse un vecteur vertical complètement inchangé. Un autre exemple serait l’opération d’étirement dans la direction verticale. Cela  42 

  La lumière de l’aube apparaît  

ne changerait pas la direction d’un vecteur vertical, mais modifierait sa longueur. Si l’étirement a un effet de doublement, la longueur du vecteur vertical est multipliée par 2. En termes plus généraux, nous disons que si un opérateur O transforme un vecteur particulier υ en un multiple λ de lui-même, alors υ est un vecteur propre de O avec une valeur propre λ. L’idée essentielle est que les valeurs propres (λ) donnent une façon mathématique d’associer des nombres à un opérateur particulier (O) et à un état particulier (υ). Les principes généraux de la théorie quantique comprennent l’exigence audacieuse qu’un vecteur propre (également appelé état propre) corresponde physiquement à un état dans lequel, en mesurant la quantité observable O, donnera avec certitude le résultat λ. Un certain nombre de conséquences importantes découlent de cette règle. L’une d’entre elles est l’implication réciproque : comme il existe de nombreux vecteurs qui ne sont pas des vecteurs propres, il y aura de nombreux états dans lesquels la mesure de O ne donnera aucun résultat particulier avec certitude. (Mathematica® mis de côté : il est assez facile de voir que la superposition de deux états propres de O qui correspondent à des valeurs propres différentes donnera un état qui ne peut être un simple état propre de O). La mesure de O dans des états de ce dernier type doit donc donner une variété de réponses différentes à différents moments de mesure. (Le caractère probabiliste bien connu de la théorie quantique se manifeste à nouveau.) Quel que soit le résultat effectivement obtenu, l’état conséquent doit alors lui correspondre ; c’est-à-dire que le vecteur doit changer instantanément pour devenir le vecteur propre approprié de O. C’est la version sophistiquée de la réduction du paquet d’ondes. Une autre conséquence importante concerne les mesures qui peuvent être mutuellement compatibles, c’est-à-dire effectuées en même temps. Supposons qu’il soit possible de mesurer simultanément O1 et O2, avec les résultats λ1 et λ2, respectivement. En procédant ainsi dans un ordre, on multiplie le vecteur d’état par λ1 puis par λ2, tandis qu’en inversant l’ordre des observations, on inverse simplement l’ordre dans lequel λ multiplie le vecteur d’état. Comme les λ ne sont que des nombres ordinaires, cet ordre n’a pas d’importance. Cela implique qu’O2 O1 et O1 O2 agissant sur le  43 

  La théorie quantique  

vecteur d’état ont des effets identiques, de sorte que l’ordre de l’opérateur n’a pas d’importance. En d’autres termes, les mesures simultanées ne peuvent être mutuellement compatibles que pour les observables qui correspondent à des opérateurs qui commutent entre eux. Dans l’autre sens, les observables qui ne commutent pas ne seront pas mesurables simultanément. Nous voyons ici se manifester à nouveau la « nébulosité » familière de la théorie quantique. En physique classique, l’expérimentateur peut mesurer ce qu’il veut, quand il le veut. Le monde physique est présenté sous l’œil potentiellement perçant et avisé du scientifique. Dans le monde quantique, en revanche, la vision du physicien est partiellement voilée. Notre accès à la connaissance des entités quantiques est épistémologiquement plus limité que ne le supposait la physique classique. Notre « flirt » mathématique avec les espaces vectoriels est terminé. Les lecteurs un peu déroutés doivent simplement retenir qu’en théorie quantique, seuls les objets observables dont les opérateurs commutent entre eux peuvent être mesurés simultanément. LE PRINCIPE D’INCERTITUDE

Ce que cela signifie fut considérablement clarifié par Heisenberg en 1927 lorsqu’il formula son célèbre principe d’incertitude. Il se rendit compte que la théorie devait préciser ce qu’elle permettait de savoir par le biais de mesures. Le souci d’Heisenberg ne portait pas sur les arguments mathématiques du type de ceux que nous venons d’examiner, mais sur des « expériences de pensée » idéalisées qui cherchaient à explorer le contenu physique de la mécanique quantique. L’une de ces expériences de pensée a consisté à étudier le microscope à rayons γ. En principe, l’idée est de découvrir avec quelle précision on pourrait mesurer la position et la quantité de mouvement d’un électron. Selon les règles de la mécanique quantique, les opérateurs correspondants ne se déplacent pas. Par conséquent, si la théorie fonctionne réellement, il ne devrait pas être possible de connaître les valeurs de la position et de la  44 

  La lumière de l’aube apparaît  

quantité de mouvement avec une précision arbitraire. Heisenberg voulait comprendre en termes physiques pourquoi il en était ainsi. Commençons par essayer de mesurer la position de l’électron. Une façon de le faire serait d’éclairer l’électron, puis de regarder dans un microscope pour voir où il se trouve. (N’oubliez pas qu’il s’agit d’expériences de pensée.) Les instruments optiques ont un pouvoir de résolution limité, ce qui réduit la précision avec laquelle les objets peuvent être localisés. On ne peut pas faire mieux que la longueur d’onde de la lumière utilisée. Bien sûr, une façon d’améliorer la précision serait d’utiliser des longueurs d’onde plus courtes – c’est là que les rayons γ entrent en jeu, puisqu’il s’agit de rayonnements à très haute fréquence (courte longueur d’onde). Cependant, cette ruse a un coût, résultant du caractère particulaire du rayonnement. Pour que l’électron soit visible, il doit faire dévier la trajectoire d’au moins un photon dans le microscope. La formule de Planck implique que plus la fréquence est élevée, plus le photon transporte d’énergie. Par conséquent, la diminution de la longueur d’onde soumet l’électron à une perturbation de plus en plus importante de son mouvement par sa collision avec le photon. Il s’ensuit que l’on perd de plus en plus la connaissance de la quantité de mouvement de l’électron après la mesure de sa position. Il y a un compromis inévitable entre la précision croissante de la mesure de position et la précision décroissante de la connaissance de l’impulsion. Ce fait est à la base du principe d’incertitude : il n’est pas possible d’avoir simultanément une connaissance parfaite de la position et de l’impulsion [9]. Pour le dire plus clairement, on peut savoir où se trouve un électron, mais ne pas savoir ce qu’il fait ; ou on peut savoir ce qu’il fait, mais ne pas savoir où il se trouve. Dans le monde quantique, ce que le physicien classique considérerait comme une demi-connaissance est le mieux que nous puissions offrir. Cette demi-connaissance est une caractéristique quantique. Les observables se présentent par paires qui s’excluent épistémologiquement l’une l’autre. Un exemple quotidien de ce comportement peut être donné en termes musicaux. Il n’est pas possible à la fois d’attribuer un instant précis au moment où une note a été jouée et de savoir ­précisément quelle était sa hauteur. En effet, pour déterminer la h­ auteur  45 

  La théorie quantique  

d’une note, il faut analyser la fréquence du son et, pour cela, il faut écouter une note pendant une période qui dure plusieurs oscillations avant de pouvoir faire une estimation précise. C’est la nature ondulatoire du son qui impose cette restriction, et si les questions de mesure de la théorie quantique sont discutées du point de vue de la mécanique des ondes, des considérations exactement similaires ramènent au principe d’incertitude. L’histoire humaine derrière la découverte de Heisenberg est intéressante. À l’époque, il travaillait à l’Institut de Copenhague, dont le directeur était Niels Bohr. Bohr aimait les discussions interminables et le jeune Heisenberg était l’un de ses interlocuteurs préférés. Au bout d’un certain temps, les interminables ruminations de Bohr poussèrent son jeune collègue presque à la distraction. Heisenberg était heureux de saisir l’occasion offerte par l’absence de Bohr pendant ses vacances au ski pour se consacrer à son propre travail et terminer son article sur le principe d’incertitude. Il s’empressa ensuite de le publier avant que le vénérable et vénéré Bohr ne revienne. À son retour, Bohr détecta une erreur que Heisenberg avait commise. Heureusement, l’erreur put être corrigée et cela n’affecta pas le résultat final. Cette petite erreur concernait le pouvoir de résolution des instruments optiques. Il se trouve qu’Heisenberg avait déjà rencontré des problèmes à ce sujet auparavant. Il avait fait ses travaux de doctorat à Munich sous la direction d’Arnold Sommerfeld, l’un des principaux protagonistes de l’ancienne théorie quantique. Brillant théoricien, Heisenberg ne s’était pas beaucoup préoccupé des travaux expérimentaux qui devaient également faire partie de ses études. Le collègue expérimentateur de Sommerfeld, Wilhelm Wien, l’avait remarqué. Comme il avait pris en grippe l’attitude cavalière du jeune homme, il décida de la lui faire payer lors de l’examen oral. Il demanda alors à Heisenberg de préciser par déduction le pouvoir de résolution de ses instruments optiques ! Et ce dernier n’a pas su répondre. Après l’examen, Wien affirma que cette lacune ne permettait pas à Heisenberg d’obtenir son diplôme.  46 

  La lumière de l’aube apparaît  

Sommerfeld, bien sûr (et à juste titre), plaida pour l’obtention de son doctorat et au plus haut niveau (summa cum laude). En fin de compte, il fallut trouver un compromis et le futur prix Nobel obtint son doctorat, mais au niveau le plus bas possible. LES AMPLITUDES PROBABILISTES

La façon dont les probabilités sont calculées dans la théorie quantique se décline en ce que l’on appelle les amplitudes de probabilité. Pour bien comprendre de quoi il s’agit, il faudrait rentrer dans des explications mathématiquement trop exigeantes. Retenons deux aspects dont le lecteur doit être conscient. Le premier est que ces amplitudes sont des nombres complexes, c’est-à-dire qu’elles impliquent non seulement des nombres ordinaires mais aussi i, la racine carrée « imaginaire » de -1. En fait, les nombres complexes sont endémiques dans l’expression formaliste de la théorie quantique. En effet, ils offrent une manière très pratique de représenter un aspect des ondes que nous avons abordé au chapitre 1, quand nous examinions les phénomènes d’interférence. Nous avons vu que la phase des ondes est liée au fait que deux ensembles d’ondes sont en phase ou en décalage l’un par rapport à l’autre (ou à toute possibilité intermédiaire entre ces deux ensembles). Mathématiquement, les nombres complexes constituent un moyen naturel et pratique d’exprimer ces « relations de phase ». La théorie doit cependant veiller à ce que les résultats des observations (valeurs propres) soient exempts de toute contamination par des termes impliquant i. Pour ce faire, il faut que les opérateurs correspondant aux observables satisfassent à une certaine condition que les mathématiciens appellent « hermitienne » [8]. Le deuxième aspect des amplitudes de probabilité dont nous devons au moins être informés est que, dans le cadre de l’appareil mathématique de la théorie dont nous avons discuté, leur calcul s’avère impliquer une combinaison de vecteurs d’état et d’opérateurs observables. Comme ce sont ces « éléments matriciels » (comme on appelle ces combinaisons) qui ont la signification physique la plus directe, et comme il s’avère qu’ils sont formés de ce que l’on pourrait appeler des « sandwiches » observables,  47 

  La théorie quantique  

la dépendance de la physique au temps peut être attribuée soit à une dépendance au temps présente dans les vecteurs d’état, soit à une dépendance au temps présente dans les observables. Cette observation s’avère être un indice de la façon dont, malgré leurs différences apparentes, les théories de Heisenberg et de Schrödinger correspondent en fait exactement à la même physique [10]. Leur apparente dissemblance provient du fait que Heisenberg attribue toute la dépendance temporelle des opérateurs et que Schrödinger l’attribue entièrement aux vecteurs d’état. Les probabilités elles-mêmes, qui, pour avoir un sens, doivent être des nombres positifs, sont calculées à partir des amplitudes par une sorte de quadrillage (appelé « le carré du module ») qui donne toujours un nombre positif à partir de l’amplitude complexe. Il existe également une condition de mise à l’échelle (appelée « normalisation ») qui garantit que lorsque toutes les probabilités sont additionnées, elles totalisent 1 (signifiant que quelque chose ait lieu, avec une certitude absolue). COMPLÉMENTARITÉ

Au moment de ces merveilleuses découvertes, Copenhague était le centre des évaluations et des verdicts rendus sur ce qui se passait. Niels Bohr n’apportait alors plus de contributions détaillées aux progrès techniques. Il restait cependant profondément intéressé par les questions d’interprétation et c’est à son intégrité et à son discernement que les jeunes effrontés, qui étaient en fait les auteurs des documents pionniers, ont soumis leurs découvertes. Copenhague était la cour du philosophe-roi, à qui les travaux intellectuels en mécanique quantique de la nouvelle génération de scientifiques étaient présentés pour être évaluées et reconnues. Outre ce rôle de figure paternelle, Bohr offrit un aperçu perspicace de la nouvelle théorie quantique, sous la forme de qu’il a appelé la notion de complémentarité. La théorie quantique offre un certain nombre de modes de pensée alternatifs. Il y avait les représentations alternatives du processus qui pouvaient être basées sur la mesure de toutes les positions ou de tous les moments ; la dualité entre la pensée en termes d’entités  48 

  La lumière de l’aube apparaît  

ondes ou en termes de particules. Bohr souligna que les deux membres de ces paires d’alternatives devaient être pris également au sérieux et pouvaient être traités sans contradiction, car chacun se complétait plutôt que d’entrer en conflit avec l’autre. En effet, ils correspondent à des arrangements expérimentaux différents et mutuellement incompatibles qui ne peuvent être mis en œuvre en même temps. Soit on mettait en place une expérience sur les ondes (la double fente), auquel cas une question ondulatoire était posée et recevait une réponse ondulatoire (un modèle d’interférence) ; soit on mettait en place une expérience sur les particules (en détectant par quelle fente l’électron était passé), auquel cas la question ondulatoire recevait une réponse particulaire (deux zones d’impact à l’opposé des deux fentes). La complémentarité était évidemment une idée utile, bien qu’elle ne résolve aucunement tous les problèmes d’interprétation, comme le montrera le chapitre suivant. En vieillissant, Bohr se préoccupa de plus en plus de questions philosophiques. C’était assurément un très grand physicien, mais il me semble qu’il était nettement moins doué pour cette dernière vocation. Ses pensées étaient vastes et nébuleuses, ainsi, de nombreux livres ont été écrits par la suite pour tenter de les analyser, avec des conclusions lui attribuant diverses positions philosophiques incompatibles entre elles. Cela ne l’aurait peut-être pas étonné, car il aimait à dire qu’il y avait une complémentarité entre le fait de pouvoir dire quelque chose clairement et le fait que ce soit quelque chose de profond et qui vaille la peine d’être dit. Il est certain que la pertinence de la complémentarité pour la théorie quantique (où la question se pose par expérience et où nous possédons un cadre théorique global qui la rend intelligible) n’autorise pas d’exporter facilement la notion vers d’autres disciplines, comme si elle pouvait être invoquée pour « justifier » tout appariement paradoxal et fantaisiste. On peut penser que Bohr s’en est dangereusement approché lorsqu’il a suggéré que la complémentarité pouvait éclairer la question séculaire du déterminisme et du libre arbitre par rapport à la nature humaine. Nous nous abstiendrions de poursuivre cette réflexion philosophique ici, pour mieux la reprendre au chapitre final.  49 

  La théorie quantique  

LA LOGIQUE QUANTIQUE

Il est bien possible que la théorie quantique ait modifié de façon frappante nos conceptions de termes physiques tels que position et moment. Il est encore plus surprenant qu’elle ait également affecté notre façon de penser des petits mots logiques tels que « et » et « ou ». La logique classique, telle qu’elle est conçue par Aristote et « l’homme de l’omnibus Clapham » (à savoir, le quidam raisonnable, le citoyen éclairé, représentatif), est basée sur la loi de distribution de la logique. Si je vous dis que Bill est roux et qu’il est soit à la maison soit au pub, vous vous attendrez à trouver un Bill roux à la maison ou un Bill roux au pub. Cela semble une conclusion assez inoffensive à tirer, et formellement, cela dépend de la loi aristotélicienne du milieu exclu : il n’y a pas de terme intermédiaire entre « à la maison » et « pas à la maison ». Dans les années 1930, les gens ont commencé à se rendre compte que les choses étaient différentes dans le monde quantique. Un électron peut non seulement être « ici » et « pas ici », mais aussi dans un certain nombre d’autres états qui sont des superpositions de « ici » et « pas ici ». C’est un moyen terme qu’Aristote n’aurait jamais imaginé. La conséquence est qu’il existe une forme spéciale de logique, appelée logique quantique, dont les détails ont été élaborés par Garret Birkhoff et John von Neumann. Elle est parfois appelée logique à trois valeurs, parce qu’en plus du « vrai » et du « faux », elle prend en compte la réponse probabiliste « peut-être », un concept avec lequel les philosophes ont joué de manière autonome.

 50 

3 Un horizon paradoxal qui s’assombrit À l’époque où la théorie quantique moderne a été découverte, les problèmes physiques qui occupaient le devant de la scène traitaient du comportement des atomes et des radiations. Cette période de découverte initiale a été suivie à la fin des années 1920 et au début des années 1930 par une période d’exploitation soutenue et fébrile, où les nouvelles idées étaient appliquées à une grande variété d’autres phénomènes physiques. Par exemple, nous verrons un peu plus tard que la théorie quantique a permis de mieux comprendre comment les électrons se comportent à l’intérieur des solides cristallins. J’ai entendu un jour Paul Dirac parler de cette période de développement rapide en disant que c’était une époque « où des hommes de second plan ont accompli un travail de premier plan ». Dans la bouche de presque tout le monde, ces mots auraient été désobligeants et peu agréables. Ce n’est pas le cas de Dirac. Toute sa vie, il eut une façon simple et directe de parler, il disait ce qu’il voulait dire avec franchise et sans fioritures. Ses mots étaient simplement destinés à transmettre quelque chose de la richesse de la compréhension qui découlait de ces premières intuitions fondamentales. Cette application réussie des idées quantiques s’est poursuivie sans relâche. Nous utilisons maintenant la théorie avec autant d’efficacité pour discuter du comportement des quarks et des gluons, une réussite impressionnante si l’on se rappelle que ces constituants de la matière nucléaire sont au moins 100 millions de fois plus petits que les atomes qui préoccupaient les pionniers dans les années 1920. Les physiciens savent faire les calculs et ils constatent que les réponses continuent à être justes avec une précision étonnante. Par exemple, l’électrodynamique  51 

  La théorie quantique  

quantique (théorie de l’interaction des électrons avec les photons) donne des résultats qui concordent avec l’expérimentation, avec une précision comprenant une erreur inférieure à la largeur d’un cheveu humain par rapport à la distance entre Los Angeles et New York ! Considérée en ces termes, l’histoire quantique est un formidable récit de succès, peut-être la plus grande réussite de l’histoire des sciences physiques. Pourtant, un profond paradoxe demeure. Malgré la capacité des physiciens à faire les calculs, ils ne comprennent toujours pas la théorie. De graves problèmes d’interprétation restent en suspens, et font l’objet de litiges permanents. Ces questions litigieuses concernent deux perplexités en particulier : la signification du caractère probabiliste de la théorie et la nature du processus de mesure. PROBABILITÉS

Les probabilités ont leur place également en physique classique, leur origine résidant dans l’ignorance de certains détails de ce qui se passe. Un exemple de ce paradigme est le tirage au sort avec une pièce de monnaie. Personne ne doute que la mécanique newtonienne détermine la façon dont la pièce doit atterrir après avoir été jetée – il n’est pas question d’une intervention directe de Fortuna, la déesse du hasard – mais le mouvement est trop sensible aux détails précis et infimes de la façon dont la pièce a été lancée (détails dont nous ignorons l’existence) pour que nous puissions prédire exactement ce que sera le résultat. Nous savons cependant que si la pièce n’est pas truquée, les chances sont égales, 1/2 pour qu’elle tombe pile et 1/2 face. De même, pour un dé non-pipé, la probabilité qu’un nombre donné se termine face vers le haut est de 1/6. Si l’on demande la probabilité de lancer un 1 ou un 2, il suffit d’additionner les différentes probabilités pour obtenir 1/3. Cette règle d’addition est valable parce que les processus de lancement qui mènent à 1 ou à 2 sont distincts et indépendants l’un de l’autre. Comme ils n’ont aucune influence les uns sur les autres, on additionne simplement les cotes qui en résultent. Tout cela semble assez simple. Pourtant, dans le monde quantique, les choses sont différentes.  52 

 Un horizon paradoxal qui s’assombrit  

Considérons d’abord ce qui serait l’équivalent classique de l’expérience quantique avec les électrons et les doubles fentes. Un analogue courant serait de lancer des balles de tennis sur une clôture percée de deux trous. Il y aura une certaine probabilité qu’une balle passe par un trou et une certaine probabilité qu’elle passe par l’autre. Si nous nous préoccupons de la probabilité que la balle atterrisse de l’autre côté de la clôture, puisqu’elle doit passer par un trou ou l’autre, il suffit d’additionner ces deux probabilités (comme nous l’avons fait pour les deux faces du dé). Dans le cas quantique, les choses sont différentes en raison du principe de superposition qui permet à l’électron de passer par les deux fentes. Ce qui, classiquement, était des possibilités mutuellement distinctes, s’entremêlent l’une à l’autre par la mécanique quantique. Par conséquent, les lois de combinaison des probabilités sont différentes dans la théorie quantique. Si l’on doit additionner un certain nombre de possibilités intermédiaires non observées, ce sont les amplitudes des probabilités que l’on doit additionner, et non les probabilités ellesmêmes. Dans l’expérience des doubles fentes, on doit ajouter l’amplitude observée (en passant par A) à l’amplitude observée (en passant par B). Rappelons que les probabilités sont calculées à partir des amplitudes par une sorte de quadrillage. L’effet de l’addition-avant- la-mise-au-carré est de produire ce qu’un mathématicien appellerait des « termes croisés ». On peut apprécier cette idée en considérant l’équation arithmétique simple : (2 + 3)2 = 22 + 32 + 12 Ce 12 « supplémentaire » est le terme croisé. Peut-être cela vous semble-t-il un peu mystérieux. La notion essentielle est la suivante : dans le monde de tous les jours, pour obtenir la probabilité d’un résultat final, il suffit d’additionner les probabilités de possibilités intermédiaires indépendantes. Dans le monde quantique, la combinaison des possibilités intermédiaires qui ne sont pas directement observées se fait de manière plus subtile et plus sophistiquée. C’est ­pourquoi le calcul quantique implique des termes croisés. Puisque les amplitudes de probabilité sont des nombres complexes, ces termes croisés incluent des effets de phase, de sorte qu’il peut y avoir une  53 

  La théorie quantique  

interférence constructive ou destructrice, comme cela se produit dans l’expérience dite des doubles fentes. Pour résumer, très succinctement, les probabilités classiques correspondent à l’ignorance et se combinent par simple addition. Les probabilités quantiques se combinent d’une manière apparemment plus insaisissable et inimaginable (au sens de l’image). La question se pose alors : serait-il néanmoins possible de comprendre les probabilités quantiques comme ayant également leur origine dans l’ignorance du physicien de tout ce qui se passe, de sorte que les probabilités de base sous-jacentes – qui correspondraient à une connaissance inaccessible mais complètement détaillée de ce qui se passe – s’additionneraient encore de manière classique ? Derrière cette question se cache une nostalgie de certains qui voudraient rendre à la physique son déterminisme, même si cela devait s’avérer être une sorte de déterminisme voilé. Prenons par exemple la désintégration d’un noyau radioactif (instable et susceptible de se briser). Tout ce que la théorie quantique peut prédire, c’est la probabilité que cette désintégration se produise. Par exemple, elle peut dire qu’un noyau particulier a une probabilité de 1/2 de se désintégrer au cours de l’heure suivante, mais elle ne peut pas prédire si ce noyau spécifique se désintégrera réellement au cours de cette heure. Pourtant, ce noyau possède peut-être une petite horloge interne qui spécifie précisément le moment où il se désintégrera, mais que nous ne pouvons pas lire. Si c’était le cas, et si d’autres noyaux du même type avaient leurs propres horloges internes dont les différents réglages les feraient se désintégrer à des moments différents, alors ce que nous avons attribué comme probabilités découlerait simplement de l’ignorance, de notre incapacité à accéder aux réglages de ces horloges internes cachées. Bien que les défaillances nous semblent aléatoires, elles seraient en fait entièrement déterminées par ces détails inconnus. En réalité, finalement, la probabilité quantique ne serait alors pas différente de la probabilité classique. Les théories de ce type sont appelées des interprétations variables cachées de la mécanique quantique. Mais sont-elles réellement possibles ?  54 

 Un horizon paradoxal qui s’assombrit  

Le célèbre mathématicien John von Neumann pensait avoir montré que les propriétés peu ordinaires des probabilités quantiques impliquaient qu’elles ne pouvaient jamais être interprétées comme la conséquence de l’ignorance des variables cachées. En fait, il y avait dans son argumentation une erreur et il a fallu des années pour l’identifier. Nous verrons plus tard qu’une interprétation déterministe de la théorie quantique est possible, et où les probabilités découlent de l’ignorance des détails. Cependant, nous verrons dans le même temps que la théorie qui « réussit » ainsi possède d’autres propriétés qui l’ont fait paraître peu attrayante pour la majorité des physiciens. DÉCOHÉRENCE

Un aspect des problèmes que nous examinons dans ce chapitre peut être formulé en se demandant comment il se fait que les constituants élémentaires du monde physique, tels que les quarks, les gluons et les électrons, dont le comportement est nuageux et approprié, peuvent donner naissance au monde macroscopique de l’expérience quotidienne, qui semble si clair et si fiable. Un pas important vers une certaine compréhension de cette transition a été franchi grâce à une évolution qui a eu lieu au cours des 25 dernières années. Les physiciens ont pris conscience que dans de nombreux cas, il est important de prendre en compte, plus sérieusement qu’auparavant, l’environnement dans lequel les processus quantiques se déroulent réellement. La pensée communément admise avait pris cet environnement comme un vide, à l’exception des entités quantiques dont les interactions faisaient l’objet d’une considération explicite. En réalité, cette idéalisation ne fonctionne pas toujours, et là où elle ne fonctionne pas, des conséquences importantes peuvent en découler. Ce qui avait été négligé, c’était la présence quasi-omniprésente des radiations. Les expériences se déroulent dans un océan de photons, certains provenant du Soleil et d’autres du rayonnement de fond cosmique universel qui est un écho persistant de l’époque où l’univers avait environ un demi-million d’années et venait tout juste de devenir suffisamment  55 

  La théorie quantique  

froid pour que la matière et le rayonnement se découplent de leur mélange universel précédent. Il s’avère que la conséquence de ce rayonnement de fond pratiquement omniprésent est d’affecter les phases des amplitudes de probabilité pertinentes. La prise en compte de cette « randomisation de phase » peut, dans certains cas, avoir pour effet d’éliminer presque entièrement les termes croisés dans les calculs de probabilité quantique. (En gros, elle calcule la moyenne d’environ autant de « plus » que de « moins », ce qui donne un résultat proche de zéro). Tout cela peut se produire avec une rapidité assez étonnante. Ce phénomène est appelé la « décohérence ». La décohérence a été saluée par certains comme fournissant l’indice permettant de comprendre comment les phénomènes quantiques microscopiques et les phénomènes classiques macroscopiques sont interdépendants. Malheureusement, ce n’est qu’une demi-vérité. Elle peut servir à faire ressembler certaines probabilités quantiques à des probabilités classiques, mais elle ne les rend pas identiques. Il reste encore la perplexité centrale de ce que l’on appelle « le problème de la mesure ». LE PROBLÈME DE LA MESURE QUANTIQUE

En physique classique, les mesures ne posent pas de problème. Il s’agit simplement d’observer ce qui se passe. Au préalable, nous ne pouvons peut-être pas faire plus que d’attribuer une probabilité de 50 % que la pièce atterrira sur face, mais si c’est ce que nous voyons, c’est simplement parce que c’est ce qui s’est réellement passé. La mesure dans la théorie quantique conventionnelle est différente parce que le principe de superposition réunit des possibilités alternatives, possiblement mutuellement exclusives, jusqu’au dernier moment, lorsque soudain l’une d’entre elles seule fait surface comme l’actualité réalisée à cette occasion. Nous avons vu qu’une façon de penser à ce sujet peut être en termes d’effondrement du paquet d’ondes. La probabilité de l’électron était répartie entre « ici », « là » et « partout », mais lorsque le physicien pose la question expérimentale « Où êtes-vous ? » et qu’à cette occasion p­ articulière  56 

 Un horizon paradoxal qui s’assombrit  

Fig. 6    L’expérience de Stern-Gerlach.

la réponse « ici » apparaît, alors toute la probabilité s’effondre du fait de cette seule réalité. La grande question restée sans réponse dans notre discussion jusqu’à présent est la suivante : comment cela se produit-il ? Les mesures sont une chaîne de conséquences corrélées par lesquelles un état de fait dans le monde quantique microscopique produit un signal correspondant observable dans le monde quotidien des appareils de mesure de laboratoire. Nous pouvons clarifier ce point en examinant une expérience quelque peu idéalisée, qui ne nous induira pas en erreur, pour mesurer le spin d’un électron. La propriété du spin correspond au comportement des électrons comme s’ils étaient de minuscules aimants. En raison d’un effet quantique inimaginable (au sens toujours de l’image) qu’il suffira de demander au lecteur d’accepter « sur parole », l’aimant de l’électron ne peut pointer que dans deux directions opposées, que l’on peut appeler par convention « vers le haut » et « vers le bas ». L’expérience est réalisée avec un faisceau d’électrons non polarisé au départ, c’est-à-dire des électrons dans un état de superposition égale de « haut » et de « bas ». Ces électrons sont amenés à traverser un champ magnétique inhomogène.  57 

  La théorie quantique  

En raison de l’effet magnétique de leur spin, ils seront déviés vers le haut ou vers le bas selon la direction du spin. Ils passeront ensuite à travers l’un ou l’autre des deux détecteurs positionnés de façon appropriée, Du ou Dd (des compteurs Geiger, par exemple), et l’expérimentateur entendra alors l’un ou l’autre de ces détecteurs émettre un « clic », ce qui enregistre le passage d’un électron dans le sens ascendant ou descendant. Cette procédure est appelée expérience Stern-Gerlach, du nom des deux physiciens allemands qui ont été les premiers à mener une telle étude. (En fait, elle a été réalisée avec un faisceau atomique, mais ce sont les électrons des atomes qui contrôlaient ce qui se passait). Comment analyser ce qui se passe ? Si le spin est « haut », l’électron est dévié vers le haut, puis il passe à travers Du, celui-ci émet un clic, et l’expérimentateur l’entend. Si le spin est « bas », l’électron est dévié vers le bas, passe à travers Dd, qui émet un clic que l’expérimentateur entend. On voit ce qui se passe dans cette analyse. Elle nous présente une chaîne de conséquences corrélées : si… alors… alors… Mais lors d’une mesure réelle, une seule de ces chaînes se produit. Qu’est-ce qui fait que cette situation particulière se produit à cette occasion particulière ? Qu’est-ce qui fait que cette fois, la réponse sera « haute » et non pas « basse » ? La décohérence ne répond pas à cette question. Ce qu’elle fait, c’est de resserrer les maillons des différentes chaînes, les rendant plus classiques, mais cela n’explique pas pourquoi une chaîne particulière est la possibilité réalisée à un moment donné. L’essence du problème de mesure est la recherche de l’origine de cette spécificité. Nous examinerons la variété des réponses proposées, mais nous verrons qu’aucune d’entre elles n’est entièrement satisfaisante ou exempte de perplexité. Les propositions peuvent être classées sous plusieurs rubriques.

(1) La non-pertinence Certains tentent d’analyser finement à l’extrême le problème, en avançant qu’il n’est pas pertinent. Un argument en faveur de cette  58 

 Un horizon paradoxal qui s’assombrit  

position est l’affirmation positiviste selon laquelle faire de la science consiste simplement à corréler des phénomènes mais qu’elle ne doit pas aspirer à les comprendre. Si nous savons comment faire les sommes quantiques, et si les réponses présentent une corrélation très satisfaisante avec l’expérience empirique, alors c’est tout ce que nous pourrions et devrions souhaiter. Il est tout simplement intellectuellement trop avare d’en demander plus. Une forme plus raffinée de positivisme est représentée par ce que l’on appelle « l’approche des histoires cohérentes », qui établit des formulations de protocoles pour obtenir des séquences de prédictions quantiques qui soient facilement interprétables comme des résultats provenant de l’utilisation d’appareils de mesure classiques. Un autre type d’argument, et qui relève également de la rubrique de la non-pertinence, est l’affirmation selon laquelle la physique quantique ne devrait pas du tout chercher à parler d’événements individuels, mais qu’elle devrait plutôt s’intéresser aux « ensembles », c’est-à-dire aux propriétés statistiques de collections d’événements. Si tel était le cas, on serait en droit d’attendre un compte rendu purement probabiliste. Un troisième type d’argument dans cette catégorie générale affirme que la fonction d’onde ne concerne pas du tout les états des systèmes physiques, mais les états de la connaissance humaine de ces systèmes. Si l’on pense simplement de manière épistémologique, alors « l’effondrement » est un phénomène qui ne pose pas de problème : avant, j’étais ignorant ; maintenant, je sais. Il semble toutefois très étrange que la représentation de ce que l’on prétend être contenu dans l’esprit satisfasse en fait une équation d’apparence physique comme l’équation de Schrödinger. Tous ces arguments ont une caractéristique commune. Ils adoptent une vision minimaliste du rôle et objectifs de la physique. En particulier, ils supposent qu’elle ne s’intéresse pas à la compréhension de la nature détaillée de certains processus physiques. Ce point de vue peut être sympathique pour ceux qui possèdent un certain type de disposition philosophique, mais il est détestable pour l’esprit du scientifique, dont l’ambition est d’atteindre le plus haut degré possible de compréhension  59 

  La théorie quantique  

de ce qui se passe dans le monde physique. Se contenter de moins serait une « trahison des clercs ».

(2) Les grands systèmes Les fondateurs de la mécanique quantique étaient, bien sûr, conscients des problèmes que la mesure posait pour la théorie. Niels Bohr, en particulier, s’est beaucoup intéressé à cette question. La réponse qu’il a proposée avec force est connue sous le nom de l’École de Copenhague. L’idée clé ici était qu’un rôle unique était joué par les appareils de mesure classiques. Bohr soutenait que c’était l’intervention de ces grands appareils de mesure qui produisait l’effet déterminant. Avant même que la question des mesures n’apparaisse, il était nécessaire d’avoir un moyen de voir comment on pourrait récupérer au niveau de la théorie quantique les succès très considérables de la mécanique classique dans la description des processus se déroulant à l’échelle de la vie quotidienne. Il ne servirait en effet à rien de décrire le microscopique au détriment du macroscopique. Cette exigence, appelée principe des correspondances, revenait en gros à pouvoir voir que les « grands » systèmes (l’échelle de grandeur étant fixée par la constante de Planck) devraient se comporter d’une manière parfaitement approchée par les équations de Newton. Plus tard, les gens ont réalisé que la relation entre la mécanique quantique et la mécanique classique était beaucoup plus subtile que celle donnée par cette image simpliste. Par la suite, nous verrons qu’il existe des phénomènes macroscopiques qui présentent certaines propriétés intrinsèquement quantiques, y compris la possibilité d’une exploitation technologique, comme dans l’informatique quantique. Toutefois, ces phénomènes se produisent dans des circonstances quelque peu exceptionnelles et le cap général indiqué par le du principe de correspondance allait dans la bonne direction. Bohr a souligné qu’une mesure impliquait à la fois l’entité quantique et l’appareil de mesure classique et il a insisté sur le fait que l’on devait considérer la mise en œuvre mutuelle des deux comme un seul et même ensemble (qu’il a appelé un « phénomène »). L’endroit exact où, le long de la chaîne de conséquences corrélées menant d’un bout à l’autre,  60 

 Un horizon paradoxal qui s’assombrit  

la particularité d’un résultat spécifique se trouvait alors devenait une question qui pouvait être évitée, à condition de garder les deux extrémités de la chaîne définitivement reliées entre elles. À première vue, cette proposition a quelque chose d’attrayant. Si vous entrez dans un laboratoire de physique, vous y trouverez le genre d’appareils dont parlait Bohr. Mais il y a aussi quelque chose de louche dans cette proposition. Son récit a un ton dualiste, comme si le monde physique était composé de deux classes différentes d’« êtres » : des entités quantiques appropriées et des appareils de mesure classiques déterminants. En réalité, il existe un monde physique unique et moniste. Ces éléments des appareils classiques sont eux-mêmes composés de constituants (à la base de tout, les quarks, les gluons et les électrons). L’interprétation originale de Copenhague n’a pas abordé le problème de savoir comment un appareil déterminant pouvait émerger d’un substrat quantique indéterminé. Néanmoins, Bohr et ses amis agitèrent leurs mains dans la bonne direction, même si ce ne fut pas assez vigoureux. Aujourd’hui, je pense que la majorité des physiciens quantiques en exercice souscriraient à ce que l’on pourrait appeler une interprétation néo-Copenhague. Dans cette optique, l’ampleur et la complexité de l’appareil macroscopique est ce qui lui permet d’une certaine façon de jouer le rôle déterminant. La manière dont cela se produit n’est certainement pas bien comprise du tout, mais on peut au moins établir une corrélation avec une autre propriété (également mal comprise) des grands systèmes : leur irréversibilité. À une exception près – mais qui n’est pas vraiment significative pour la présente discussion – les lois fondamentales de la physique sont réversibles. Pour voir ce que cela signifie, supposons, contrairement à Heisenberg, que l’on puisse faire un film de deux électrons en interaction. Ce film aurait le même sens s’il était tourné en avant ou en arrière. En d’autres termes, dans le micro-monde, il n’y a pas de flèche intrinsèque du temps, qui distingue le futur du passé. Dans le macromonde, les choses sont évidemment très différentes. Les systèmes s’épuisent et le monde quotidien est irréversible. Le film d’une balle où l’on voit des rebonds de  61 

  La théorie quantique  

plus en plus hauts est tourné à l’envers. Ces effets sont liés à la deuxième loi de la thermodynamique, qui stipule que, dans un système isolé, l’entropie (la mesure du désordre) ne diminue jamais. La raison en est qu’il y a beaucoup plus de façons d’être désordonné que d’être ordonné, de sorte que le désordre l’emporte haut la main. Il suffit de penser à votre bureau, si vous n’intervenez pas de temps en temps pour le ranger. Or, la mesure est l’enregistrement irréversible d’un signal macroscopique de l’état des choses dans le micro-monde. Elle intègre donc une direction intrinsèque du temps : avant il n’y avait pas de résultat, après il y en a un. Il est donc plausible de supposer qu’une compréhension adéquate des grands systèmes complexes qui explique pleinement leur irréversibilité pourrait également fournir un indice précieux sur la nature du rôle qu’ils jouent dans la mesure quantique. Dans l’état actuel des connaissances, cependant, cela reste un vœu pieux plutôt qu’une réalisation réelle.

(3) La nouvelle physique Certains ont estimé – pour résoudre le problème des mesures – qu’il faudra une réflexion plus radicale que la simple mise en avant de principes déjà connus de la science. Girardin, Ghirardi, Rimmer et Weber ont fait une suggestion particulièrement intéressante dans ce sens (connue sous le nom de théorie de la GRW). Ils proposent une propriété universelle d’effondrement des fonctions d’ondes aléatoires dans l’espace, mais que la vitesse à laquelle cela se produit dépendrait de la quantité de matière présente. Pour les entités quantiques seules, ce taux est trop faible pour avoir un effet perceptible, en revanche, en présence de quantités macroscopiques de matière (par exemple, dans un appareil de mesure classique), il devient si rapide qu’il est pratiquement instantané. C’est une suggestion qui, en principe, est ouverte à l’investigation par des expériences délicates visant à détecter d’autres manifestations de cette propension à l’effondrement. En l’absence d’une telle confirmation empirique, cependant, la plupart des physiciens considèrent la théorie de la GRW comme trop ad hoc pour être convaincante.  62 

 Un horizon paradoxal qui s’assombrit  

(4) La conscience Dans l’analyse de l’expérience Stern-Gerlach, le dernier maillon de la chaîne corrélée était un observateur humain qui entend le compteur qui émet des « clic ». Chaque mesure quantique dont nous connaissons le résultat a eu comme dernière étape la prise de conscience du résultat par quelqu’un. La conscience est l’expérience mal comprise mais indéniable (sauf par certains philosophes) de l’interface entre le matériel et le mental. Les effets des drogues ou des lésions cérébrales montrent clairement que le matériel peut agir sur le mental. Pourquoi ne pas s’attendre à ce qu’un pouvoir réciproque du mental agisse sur le matériel ? Une telle chose semble se produire lorsque nous exécutons l’intention volontaire de lever un bras. Peut-être, alors, est-ce l’intervention d’un observateur conscient qui détermine le résultat d’une mesure. À première vue, la proposition a un certain attrait, et un certain nombre de physiciens reconnus ont adhéré à ce point de vue. Néanmoins, elle présente également de très graves difficultés. À la plupart des époques et dans la plupart des endroits, l’Univers a été dépourvu de conscience. Doit-on supposer que dans ces vastes étendues d’espace et de temps cosmiques, aucun processus quantique n’a eu de conséquence déterminante ? Supposons que l’on mette en place une expérience informatisée dont le résultat est imprimé sur un bout de papier, qui est ensuite automatiquement stocké sans qu’aucun observateur ne le regarde avant six mois. Serait-il possible que ce ne soit qu’à ce moment-là (six mois plus tard) que l’on considère qu’il y a une empreinte définitive sur le papier ? Ces conclusions ne sont pas absolument impossibles, mais de nombreux scientifiques ne les trouvent pas du tout plausibles. Les difficultés s’intensifient encore si l’on considère la triste histoire du chat de Schrödinger. Le malheureux animal est emmuré dans une boîte qui contient également une source radioactive ayant une chance sur deux de se désintégrer dans l’heure qui suit. Si la décomposition a lieu, les radiations émises déclencheront la libération d’un gaz létal qui tuera instantanément le chat. L’application des principes conventionnels de la théorie quantique  63 

  La théorie quantique  

à la boîte et à son contenu conduit à l’implication qu’à la fin de l’heure, et avant qu’un observateur conscient ne soulève le couvercle de la boîte, le chat est dans une superposition 50-50 entre « vivant » et « mort ». Ce n’est qu’après l’ouverture de la boîte qu’il y a un effondrement des possibilités, entraînant la découverte, soit d’un cadavre en train à l’évidence de se refroidir, soit d’un félin en superforme. Mais l’animal, lui, sait sûrement s’il est vivant ou non, sans qu’une intervention humaine soit nécessaire pour l’aider à en arriver à cette conclusion. Peut-être devrions-nous donc conclure que la conscience du chat est aussi efficace que la conscience humaine pour déterminer les résultats quantiques. Où s’arrêtera-t-on alors ? Les vers de terre peuvent-ils aussi faire s’effondrer la fonction d’onde ? Ils ne sont peut-être pas exactement conscients, mais on aurait tendance à supposer que d’une manière ou d’une autre, ils ont la propriété certaine d’être soit vivants soit morts. Ce genre de difficultés a empêché la plupart des physiciens de croire que l’hypothèse d’un rôle unique pour la conscience est la solution au problème de la mesure.

(5) De nombreux mondes Une proposition encore plus audacieuse rejette totalement l’idée de l’effondrement. Ses partisans affirment que le formalisme quantique doit être pris plus au sérieux que de lui imposer de l’extérieur l’hypothèse entièrement ad hoc d’un changement discontinu de la fonction d’onde. Il faut plutôt reconnaître que tout ce qui peut arriver arrive. Pourquoi alors les expérimentateurs ont-ils l’impression contraire, en découvrant qu’à cette occasion l’électron est « ici » et nulle part ailleurs ? La réponse est qu’il s’agit là de la vision à œillères d’un observateur dans cet univers, mais la réalité quantique est bien plus grande que ce qu’une image si contraignante suggère. Non seulement il y a un monde dans lequel vit le chat de Schrödinger, mais il y a aussi un monde parallèle et déconnecté dans lequel le chat de Schrödinger meurt. En d’autres termes, à chaque acte de mesure, la réalité physique se divise en une multiplicité d’univers séparés, dans chacun desquels des expérimentateurs différents (clonés) observent les différents résultats possibles de la mesure. La réalité est un « multivers » plutôt qu’un simple univers.  64 

 Un horizon paradoxal qui s’assombrit  

Les mesures quantiques se produisant tout le temps, c’est une proposition d’une étonnante prodigalité ontologique. Le pauvre Guillaume d’Occam (dont le « rasoir » logique est censé couper les hypothèses inutilement prodigues) doit se retourner dans sa tombe à l’idée d’une telle multiplication d’entités. Une autre façon de concevoir cette prolifération inimaginable est de la situer non pas à l’extérieur du cosmos mais à l’intérieur des états d’esprit/cerveau des observateurs. Cette démarche est le résultat d’un passage d’une interprétation de plusieurs mondes à une interprétation de plusieurs esprits, mais cela ne sert guère à réduire la prodigalité de la proposition. Au début, les seuls physiciens attirés par cette façon de penser étaient les cosmologistes quantiques, qui cherchaient à appliquer la théorie quantique à l’Univers lui-même. Bien que nous restions perplexes quant à la relation entre le microscopique et le macroscopique, cette extension en direction du cosmique est une démarche audacieuse dont la faisabilité n’est pas nécessairement évidente. Cependant, si elle doit être réalisée, l’approche des mondes multiples peut sembler la seule option à utiliser, car lorsque le Cosmos est impliqué, il n’y a plus de place pour l’appel scientifique aux effets des grands systèmes externes ou de la conscience. Récemment, il semble que d’autres physiciens aient été de plus en plus enclins à adopter l’approche des mondes multiples. Cependant, pour beaucoup d’entre nous, cela reste un marteau-pilon à vapeur métaphysique utilisé pour casser une noix quantique, certes très résistante.

(6) Déterminisme En 1954, David Bohm publia un article sur la théorie quantique entièrement déterministe et qui donnait exactement les mêmes prédictions expérimentales que celles de la mécanique quantique conventionnelle. Dans cette théorie, les probabilités découlent simplement de l’ignorance de certains détails. Cette découverte remarquable a conduit John Bell à réexaminer l’argument de von Neumann selon lequel cela était impossible et à exposer l’hypothèse erronée sur laquelle cette conclusion erronée également avait été fondée.  65 

  La théorie quantique  

Bohm réalisa cet exploit impressionnant en prononçant le divorce entre l’onde et la particule, que l’Ecole de Copenhague avait mariées dans une complémentarité indissoluble. Dans la théorie de Bohm, il y a des particules classiques, aussi classiques que Newton souhaitaient qu’elles soient. Lorsque l’on mesure leurs positions ou leurs moments, il s’agit simplement d’observer ce qui existe sans ambiguïté. Mais en plus des particules, il y a une onde complètement séparée, dont la forme à tout instant encapsule des informations sur l’ensemble de l’environnement. Cette onde n’est pas directement discernable mais elle a des conséquences empiriques, car elle influence le mouvement des particules d’une manière qui s’ajoute aux effets des forces conventionnelles qui peuvent également agir sur elles. C’est cette influence de l’onde cachée (parfois appelée « onde de guidage » ou source du « potentiel quantique ») qui affecte de manière sensible les particules et réussit à produire l’apparition d’effets d’interférence et les probabilités caractéristiques qui leur sont associées. Ces effets d’ondes directrices sont strictement déterministes. Bien que les conséquences soient étroitement prévisibles, elles dépendent très délicatement du détail des positions réelles des particules, et c’est cette sensibilité à des variations infimes qui produit l’apparence d’un caractère aléatoire. Ainsi, ce sont les positions des particules qui agissent comme les variables cachées dans la théorie « bohmienne ». Pour mieux comprendre la théorie de Bohm, il est instructif de se demander comment elle traite l’expérience des doubles fentes. En raison de la nature picturale des particules, dans cette théorie, l’électron doit absolument passer par l’une des fentes. Qu’est-ce qui ne marche donc pas avec notre argument précédent selon lequel il ne peut en être ainsi ? Ce qui permet de contourner cette première conclusion, c’est l’effet de l’onde cachée. Sans son existence et son influence indépendantes, il serait en effet vrai que si l’électron passait par la fente A, la fente B n’aurait pas d’importance et aurait pu aussi bien être ouverte que fermée. Mais l’onde de Bohm renferme des informations instantanées sur l’environnement total, et donc sa forme est différente si B est fermée à ce qu’il est quand B est ouverte. Cette différence a des conséquences importantes sur la  66 

 Un horizon paradoxal qui s’assombrit  

façon dont l’onde guide les particules. Si B est fermée, la plupart d’entre elles sont dirigées vers l’endroit opposé à A ; si B est ouverte, la plupart seront orientées vers le point au milieu de l’écran du détecteur. On aurait pu supposer qu’une version déterminée et imaginable (au sens « image ») de la théorie quantique aurait un grand attrait pour les physiciens. En fait, peu d’entre eux se sont ralliés aux idées bohmiennes. La théorie est certes instructive et intelligente, mais beaucoup pensent qu’elle est bien trop intelligente pour être vraie. Il y a un air d’artifice dans cette théorie qui la rend peu attrayante. Par exemple, l’onde cachée doit satisfaire une équation d’onde. D’où vient cette équation ? La réponse franche est de nulle part ou, plus exactement, de l’esprit de Schrödinger. Pour obtenir les bons résultats, l’équation de la vague de Bohm doit être l’équation de Schrödinger, mais cela ne découle d’aucune logique interne de la théorie et il s’agit simplement d’une stratégie ad hoc conçue pour produire des réponses empiriquement acceptables. Il existe également certaines difficultés techniques qui font que la théorie n’est pas totalement satisfaisante. L’une des plus ardues concerne les propriétés probabilistes. Je dois admettre que, par souci de simplicité, je ne les ai pas tout à fait énoncées correctement jusqu’à présent. Ce qui est exactement vrai, c’est que si les probabilités initiales relatives aux dispositions des particules coïncident avec celles que la théorie quantique classique prescrirait, alors cette coïncidence entre les deux théories sera maintenue pour tous les mouvements ultérieurs. Cependant, il faut bien commencer quelque part. En d’autres termes, le succès empirique de la théorie de Bohm exige soit que l’Univers ait démarré avec les bonnes probabilités (quantiques) intégrées au départ, soit, si ce n’est pas le cas, qu’un processus de convergence l’ait rapidement conduit dans cette direction. Cette dernière possibilité n’est pas inconcevable (un ­physicien ­l’appellerait « relaxation » sur les probabilités quantiques), mais elle n’a pas été démontrée et son échelle de temps n’a pas été estimée de manière fiable. Le problème de la mesure continue de nous inquiéter alors que nous contemplons la gamme étonnante de propositions, au mieux ­partiellement convaincantes, qui ont été faites pour le résoudre. Parmi  67 

  La théorie quantique  

les options retenues, il y a le mépris (la non-pertinence) ; physique connue (décohérence) ; physique espérée (grands systèmes) ; nouvelle physique inconnue (GRW) ; nouvelle physique cachée (Bohm) ; conjecture métaphysique (conscience, multi-mondes). Il s’agit d’une histoire enchevêtrée et il est embarrassant pour un physicien de la raconter, étant donné le rôle central que la mesure a dans la pensée physique. Pour être franc, nous n’avons pas une maîtrise intellectuelle de la théorie quantique aussi solide que nous le souhaiterions. Nous pouvons effectuer tous les calculs et, en ce sens, expliquer les phénomènes, mais nous ne comprenons pas vraiment ce qui se passe. Pour Bohr, la mécanique quantique est indéterminée ; pour Bohm, la mécanique quantique est déterminée. Pour Bohr, le principe d’incertitude de Heisenberg est un principe ontologique d’indétermination ; pour Bohm, le principe d’incertitude de Heisenberg est un principe épistémologique d’ignorance. Nous reviendrons sur certaines de ces questions métaphysiques et interprétatives dans le dernier chapitre. En attendant, une autre question spéculative nous attend. EXISTE-T-IL DES ÉTATS PRÉFÉRENTIELS ?

Au xixe siècle, des mathématiciens tels que Sir William Rowan Hamilton développèrent une compréhension très générale de la nature des systèmes dynamiques newtoniens. L’une des caractéristiques des résultats de ces recherches fut d’établir qu’il existe de nombreuses manières équivalentes pour formuler une analyse. Il est souvent commode, pour les besoins de la pensée physique, de donner un rôle privilégié à la représentation explicite des processus comme se produisant dans l’espace, mais ce n’est en aucun cas une nécessité fondamentale. Lorsque Dirac élabora les principes généraux de la théorie quantique, cette égalité démocratique entre les différents points de vue fut maintenue dans la nouvelle dynamique qui en a résulté. Tous les observables – et leurs états propres correspondants – avaient un statut égal en ce qui concerne la théorie fondamentale. Les physiciens expriment cette conviction en

 68 

 Un horizon paradoxal qui s’assombrit  

disant qu’il n’y a pas de « base préférentielle » (un ensemble spécial d’états, correspondant à un ensemble spécial d’observables et qui ont une signification unique). La lutte avec ce problème des mesures a soulevé dans l’esprit de certains la question de savoir si ce principe de non-préférence devait être maintenu. Parmi la variété des propositions sur la table, il y a la caractéristique que la plupart d’entre elles semblent attribuer un rôle particulier à certains états, soit en tant qu’états finaux de l’effondrement, soit en tant qu’états qui en donnent l’illusion : dans une discussion de (néo-) Copenhague centrée sur les appareils de mesure, la position spatiale semble jouer un rôle particulier lorsqu’on parle de « pointeurs » sur les échelles ou de marques sur les plaques photographiques ; de même, dans l’interprétation des multi-mondes, ce sont ces mêmes états qui sont à la base de la division entre les mondes parallèles ; dans l’interprétation de la conscience, ce sont vraisemblablement les états du cerveau qui correspondent à ces perceptions qui sont la base privilégiée de l’interface matière/esprit ; la proposition du GRW postule l’effondrement sur les états de position spatiale ; la théorie de Bohm attribue un rôle spécial aux positions des particules, dont les minuscules détails sont les variables cachées effectives de la théorie. Il convient également de noter que la décohérence est un phénomène qui se produit dans l’espace. S’il s’agit en fait d’indications de la nécessité de réviser la pensée démocratique antérieure, la mécanique quantique s’avérerait avoir encore une autre influence « révisionniste » à faire peser sur la physique.

 69 

4 Des développements supplémentaires La période mouvementée de la découverte fondamentale des quanta au milieu des années 1920 a été suivie d’une longue période de développements au cours de laquelle les implications de la nouvelle théorie ont été explorées et exploitées. Nous devons, à présent, noter certaines des idées issues de ces développements supplémentaires. L’EFFET TUNNEL

Les relations d’incertitude du type Heisenberg ne s’appliquent pas seulement aux positions et aux moments. Elles s’appliquent également au temps et à l’énergie. Bien que l’énergie soit, au sens large, une quantité préservée dans la théorie quantique – tout comme dans la théorie classique – elle ne l’est que jusqu’au niveau de l’incertitude pertinente. En d’autres termes, la mécanique quantique offre la possibilité « d’emprunter » de l’énergie supplémentaire, à condition qu’elle soit « remboursée » avec une rapidité appropriée. Cet argument quelque peu original (qui peut être rendu plus précis et plus convaincant par des calculs détaillés) permet à la mécanique quantique de réaliser des choses qui seraient rigoureusement interdites en physique classique. Le premier exemple de processus de ce type à être reconnu concernait la possibilité de creuser un tunnel à travers une barrière potentielle. Le prototype est décrit dans la figure 7, où la « colline » carrée représente une région dont l’entrée nécessite le paiement d’un tarif énergétique (appelé énergie potentielle) équivalent à la hauteur de la colline. Une particule en mouvement emportera avec elle l’énergie de  71 

  La théorie quantique  

Fig. 7    L’effet tunnel.

son ­mouvement, ce que les physiciens appellent énergie cinétique. En physique classique, la situation est claire. Une particule dont l’énergie cinétique est supérieure au tarif énergétique potentiel traversera la barrière à une vitesse réduite (comme une voiture qui ralentit en franchissant une colline), mais qui accélérera à nouveau de l’autre côté en récupérant toute son énergie cinétique. Si l’énergie cinétique est inférieure à la barrière potentielle, la particule ne peut pas franchir la « colline » et va simplement rebondir en arrière. En mécanique quantique, la situation est différente en raison de la possibilité particulière de monnayer de l’énergie contre le temps. Cela peut permettre à une particule dont l’énergie cinétique est classiquement insuffisante pour franchir la colline, de franchir néanmoins parfois la barrière, à condition qu’elle atteigne l’autre côté assez rapidement pour rembourser l’énergie dans le délai nécessaire. C’est comme si la particule avait creusé un tunnel à travers la colline. Le remplacement de ces récits pour le moins originaux par des calculs précis permet de conclure qu’une particule dont l’énergie cinétique n’est pas trop éloignée de la hauteur de la barrière a une certaine probabilité de la franchir et une certaine probabilité de repartir en arrière. Il existe des noyaux radioactifs qui se comportent comme s’ils contenaient certains constituants, appelés particules-a, piégés à l’intérieur du noyau par une barrière potentielle générée par les forces nucléaires. Si seulement ces particules pouvaient franchir la barrière, elles auraient assez d’énergie pour s’échapper totalement de l’autre côté. Les noyaux  72 

 Des développements supplémentaires  

de ce type présentèrent en fait le phénomène de désintégration-a et ce fut un triomphe précoce de l’application des idées quantiques au niveau nucléaire que d’utiliser les calculs de l’effet tunnel en vue de donner un compte rendu quantitatif des propriétés de ces émissions-a. STATISTIQUES

En physique classique, des particules identiques (c’est-à-dire deux de la même espèce comme, par exemple, deux électrons) se distinguent néanmoins l’une de l’autre. Si, dans un premier temps, nous les désignons par les étiquettes 1 et 2, ces marques de discrimination auront une signification durable lorsque nous suivrons les trajectoires des particules. Si les électrons finissent par émerger après une série d’interactions compliquées, nous pouvons encore, en principe, dire lequel est étiqueté 1 et lequel 2. Dans le monde quantique flou et imprévisible, en revanche, ce n’est plus le cas. Comme il n’y a pas de trajectoires observables en continu, tout ce que nous pouvons dire après une interaction, c’est qu’un électron a émergé ici et qu’un autre a émergé là. Tout étiquetage initial que nous aurions choisi ne peut être suivi. Dans la théorie quantique, les particules identiques sont également des particules impossibles à distinguer. Comme les étiquettes ne peuvent pas avoir de signification intrinsèque, l’ordre particulier dans lequel elles apparaissent dans la fonction d’onde (ψ) doit être sans importance. Pour les particules identiques, l’état (1,2) doit être physiquement identique à l’état (2,1). Cela ne signifie pas que la fonction d’onde est strictement inchangée par l’échange, car il s’avère que les mêmes résultats physiques seraient obtenus soit à partir de ψ, soit à partir de -ψ [11]. Cet argument, bien qu’un peu rapide, nous conduit à une grande conclusion. Le résultat concerne ce que l’on appelle les « statistiques », c’est-à-dire le comportement de divers ensembles de particules identiques. En mécanique quantique, il y a deux possibilités (correspondant aux deux signes possibles du comportement de ψ dans le cadre de l’échange) : les statistiques de Bose-Einstein, dans le cas où ψ est inchangée dans le cadre de l’échange. Cela indique que la fonction d’onde est symétrique,  73 

  La théorie quantique  

avec échange de deux particules. Les particules qui ont cette propriété sont appelées bosons. La statistique de Fermi-Dirac s’appliquant au cas où ψ change de signe avec l’échange. C’est-à-dire que la fonction d’onde est antisymétrique sous l’échange de deux particules. Des particules qui ont cette propriété sont appelées fermions. Les deux options donnent des comportements qui sont différents des statistiques des particules classiquement distinguables. Il s’avère que les statistiques « quantiques » entraînent des conséquences importantes tant pour la compréhension fondamentale des propriétés de la matière que pour la construction technologique de nouveaux dispositifs. (On avance que 30 % du PIB des États-Unis proviennent des industries basées sur les quanta : semi-conducteurs, lasers, etc.) Les électrons sont des fermions. Cela implique que deux d’entre eux ne peuvent jamais se trouver exactement dans le même état. Ce fait découle du raisonnement selon lequel l’échange ne produirait aucun changement (puisque les deux états sont les mêmes) et, en même temps, produira un changement de signe (en raison des statistiques sur les fermions). La seule façon de sortir de ce dilemme est de conclure que la fonction d’onde à deux particules a en fait la valeur nulle. (Une autre façon d’énoncer le même argument est de souligner que vous ne pouvez pas faire une combinaison antisymétrique avec deux entités identiques.) Ce résultat est appelé le principe d’exclusion et il fournit la base qui permet de comprendre le tableau périodique (la table de Mendeleïev) en chimie, avec des propriétés récurrentes d’éléments apparentés. En fait, le principe d’exclusion est à la base de la possibilité d’une chimie suffisamment complexe en fin de compte pour soutenir le développement de la vie elle-même. L’histoire de la chimie se déroule ainsi : dans un atome, il n’y a que certains états d’énergie disponibles pour les électrons et, bien sûr, le principe d’exclusion exige qu’il ne peut y avoir plus d’un électron qui occupe chaque état. L’état énergétique le plus bas et stable de l’atome correspond au remplissage des états les moins énergétiques disponibles.  74 

 Des développements supplémentaires  

Ces états peuvent être ce que les physiciens appellent « dégénérés », ce qui signifie qu’il existe plusieurs états différents, mais tous avec la même énergie. Un ensemble d’états dégénérés constitue un niveau d’énergie. Nous pouvons nous imaginer mentalement l’état énergétique le plus bas de l’atome : constitué par l’addition d’électrons un par un à des niveaux d’énergie successifs, jusqu’à atteindre le nombre d’électrons requis pour un atome donné. Une fois tous les états d’un niveau d’énergie remplis, un électron supplémentaire devra passer au niveau d’énergie immédiatement supérieur de l’atome. Ce niveau rempli à son tour, il devra passer au niveau suivant, et ainsi de suite. Dans un atome contenant de nombreux électrons, les niveaux d’énergie les plus bas (également appelés « couches » ou « coquilles ») seront tous remplis, les électrons restants occupant partiellement la couche suivante. Ces électrons « restants » sont ceux qui sont les plus éloignés du noyau et, de ce fait, ils déterminent les interactions chimiques de l’atome avec les autres atomes. Lorsque l’on monte dans l’échelle de la complexité atomique (en parcourant le tableau périodique), le nombre d’électrons restants (0, 1, 2…) varie de manière cyclique, au fur et à mesure que les couches se remplissent, et c’est ce schéma répétitif d’électrons les plus extérieurs qui autorise les « répétitions » chimiques du tableau périodique. À la différence des électrons, les photons sont des bosons. Il s’avère que le comportement des bosons est l’exact opposé de celui des fermions. Le principe d’exclusion n’est plus applicable ! Les bosons aiment être dans le même état. Ils ressemblent aux Européens du Sud, s’entassant joyeusement dans le même compartiment du train, tandis que les fermions sont comme les Européens du Nord, qui vont se répartir un à un dans tous les compartiments du train. Ce « copinage » des bosons est un phénomène qui, dans sa forme la plus extrême, conduit à un degré de concentration dans un seul état que l’on appelle la condensation des bosons. C’est cette propriété qui s’applique au dispositif technologique du laser. La puissance de la lumière laser est due à son caractère « cohérent », c’est-à-dire que la lumière est constituée de nombreux photons, tous dans le même état, une propriété que les statistiques de Bose-Einstein encouragent fortement. Il existe également des effets associés à la supraconductivité  75 

  La théorie quantique  

(disparition totale de la résistance électrique à très basse température), effets qui dépendent de la condensation de Bose-Einstein, ce qui entraîne des conséquences observables au niveau macroscopique des propriétés quantiques. (La basse température est nécessaire pour éviter que des « bousculades » thermiques ne viennent détruire la cohérence.) Les électrons et les photons sont également des particules avec un spin, c’est-à-dire qu’ils transportent une quantité intrinsèque de moment angulaire (une mesure des effets de rotation), presque comme s’ils étaient de petites toupies. Dans les unités naturelles de la théorie quantique (définies par la constante de Planck), l’électron a un spin 1/2 et le photon un spin 1. Il s’avère que ce fait illustre une règle générale : les particules de spin entier (0, 1…) sont toujours des bosons ; les particules de spins demi-entiers (1/2, 3/2…) sont toujours des fermions. Du point de vue de la théorie quantique ordinaire, ce théorème du spin et de la statistique n’est qu’une règle empirique inexpliquée. Cependant, Wolfgang Pauli (qui a également formulé le principe d’exclusion) a découvert que lorsque la théorie quantique et la relativité restreinte sont combinées, le théorème apparaît comme une conséquence nécessaire de cette combinaison. La mise en commun des deux théories permet d’obtenir une vision plus riche que celle que l’une ou l’autre fournit seule. Le tout s’avère être plus grand que la somme de ses parties. LA STRUCTURE EN BANDES

La forme de matière solide la plus simple à imaginer est un cristal, dans lequel les atomes constitutifs sont ordonnés selon le schéma d’un réseau régulier. Un cristal macroscopique – significatif à l’échelle de l’expérience quotidienne – contiendra tellement d’atomes qu’il peut être traité comme étant effectivement infiniment grand du point de vue microscopique de la théorie quantique. L’application des principes de la mécanique quantique à des systèmes de ce type révèle de nouvelles propriétés, intermédiaires entre celles des atomes individuels et celles des particules en mouvement libre. Nous avons vu que dans un atome, les énergies électroniques possibles se présentent sous la forme  76 

 Des développements supplémentaires  

Fig. 8    La structure en bandes.

d’une série discrète de niveaux distincts. D’autre part, on notera qu’un électron en mouvement libre peut posséder n’importe quelle énergie positive, correspondant à l’énergie cinétique de son mouvement réel. Les propriétés énergétiques des électrons dans les cristaux sont une sorte de compromis entre les deux extrêmes. Les valeurs possibles de l’énergie se trouvent dans une série de « bandes ». À l’intérieur d’une bande donnée, il existe une gamme continue de possibilités ; entre les bandes, les électrons ne disposent d’aucun niveau d’énergie. En résumé, les propriétés énergétiques des électrons dans un cristal correspondent à une série de plages de valeurs alternativement autorisées et interdites. L’existence de cette structure de bandes fournit la base pour comprendre les propriétés électriques des solides cristallins. Les courants électriques résultent de l’induction du mouvement des électrons dans le solide. Si la bande d’énergie la plus élevée d’un cristal est totalement ­remplie, ce changement d’état des électrons nécessitera que des électrons excitateurs se répandent à travers l’espace dans la bande qui se trouve immédiatement dessus. La transition exigerait un apport énergétique important par électron excité. Comme cela est très difficile à réaliser, un cristal dont les bandes sont totalement remplies se comportera comme un isolant. Il sera très difficile d’induire un mouvement dans ses électrons. Si, toutefois, un cristal a sa bande la plus élevée partiellement remplie, l’excitation sera facile, car elle ne nécessitera qu’un faible apport d’énergie pour amener un électron dans un état disponible d’énergie légèrement supérieur. Un tel cristal se comportera comme un conducteur électrique.  77 

  La théorie quantique  

DES EXPÉRIENCES À CHOIX DIFFÉRÉ

La discussion de John Archibald Wheeler sur ce qu’il a appelé les « expériences de choix différé » donnèrent un aperçu supplémentaire des implications qu’on peut qualifier d’« étranges » du principe de superposition. Un arrangement possible est illustré à la figure 9. Un faisceau de lumière étroit est subdivisé au point A en deux sous-faisceaux réfléchis par les miroirs en B et C et ensuite réunis à nouveau au point D, où un motif d’interférence peut se former en raison de la différence de phase entre les deux trajectoires (les ondes sont déphasées). On peut considérer qu’un faisceau initial est si faible qu’à tout moment, un seul photon traverse l’appareil. Les effets d’interférence à D doivent alors être compris comme étant dus à l’auto-interférence entre les deux états superposés : trajectoire à gauche et trajectoire à droite. (Cela est comparable à la discussion antérieure sur l’expérience de la double fente au chapitre 2.) La nouvelle caractéristique qu’évoqua Wheeler apparaît si l’appareil est modifié en insérant un dispositif X entre les points C et D. X est un commutateur qui soit laisse passer un photon, soit le détourne vers un détecteur Y. Si le commutateur est réglé pour la transmission, l’expérience est la même qu’auparavant, avec un motif d’interférence en D. Si l’interrupteur est réglé pour la déviation et que le détecteur Y enregistre un photon, il ne peut y avoir d’interférence à D car ce photon doit avoir pris le chemin de la droite pour être dévié par Y. Wheeler a souligné le fait étrange que le réglage de X pouvait être choisi alors que le photon est en vol après A. Jusqu’à ce que le réglage de l’interrupteur soit sélectionné, le photon est, dans un certain sens, « ouvert » à deux options : celle de suivre les chemins de la gauche et de la droite et celle de ne suivre que l’un d’eux. Des expériences astucieuses ont été menées dans ce sens. LA SOMMATION DES AMPLITUDES ET PARCOURS POSSIBLES

Richard Feynman découvrit une façon originale de reformuler la théorie quantique. Cette reformulation donne les mêmes prédictions  78 

 Des développements supplémentaires  

Fig. 9    Une expérience à choix différé.

que l’approche conventionnelle, mais offre une manière imagée très différente de penser la façon dont ces résultats se produisent.  79 

  La théorie quantique  

La physique classique nous présente des trajectoires claires, des chemins de mouvement uniques reliant le point de départ A au point d’arrivée B. Conventionnellement, ceux-ci sont calculés en résolvant les célèbres équations de la mécanique newtonienne. Au xviiie siècle, on découvrit que la trajectoire réelle suivie pouvait être décrite d’une manière différente, mais équivalente, c’est-à-dire comme la trajectoire reliant A à B, qui donne la valeur minimale pour une quantité dynamique particulière associée à différents chemins. Cette quantité est appelée « action ». Ce n’est pas le lieu ici de vous asséner sa définition précise. Le principe de la moindre action (comme on l’a naturellement appelé) s’apparente à la propriété des rayons lumineux, à savoir qu’ils empruntent le chemin du temps minimal pour relier deux points. (S’il n’y a pas de réfraction, ce chemin est une ligne droite, mais dans un milieu réfractaire, le principe du moindre temps conduit à la courbure familière des rayons, comme lorsqu’un bâton plongé dans un verre d’eau semble courbé). En raison de l’imprévisibilité nuageuse des processus quantiques, les particules quantiques n’ont pas de trajectoire définie. Feynman a suggéré que l’on devrait plutôt imaginer une particule quantique se déplaçant du point A au point B le long de toutes les trajectoires possibles, directes ou sinueuses, rapides ou lentes. De ce point de vue, la fonction ondulatoire de la pensée conventionnelle est née de l’addition des contributions de toutes ces possibilités, donnant lieu à la description de « la sommation des amplitudes et parcours possibles ». Les détails de la formation des termes de cette immense intégrale sont trop techniques pour être abordés ici. Il s’avère que la contribution d’un chemin donné est liée à l’action associée à ce chemin, divisée par la constante de Planck. (Les dimensions physiques de l’action et de h sont les mêmes, de sorte que leur rapport est un nombre pur, indépendant des unités dans lesquelles nous choisissons de mesurer les quantités physiques). La forme réelle prise par ces contributions de différents chemins est telle que des chemins voisins ont tendance à s’annuler, en raison des fluctuations rapides des signes (plus précisément, des phases) de leurs contributions. Si le système considéré est un système dont l’action  80 

 Des développements supplémentaires  

est importante par rapport à h, seule la trajectoire d’action minimale contribuera beaucoup (puisqu’il s’avère que c’est près de cette trajectoire que les fluctuations sont les plus faibles et que l’effet des annulations est donc minimisé). Cette observation permet de comprendre simplement pourquoi les grands systèmes se comportent de manière classique, en suivant des trajectoires de moindre action. Formuler ces idées de manière précise et calculable n’est pas du tout facile. On peut facilement imaginer que la plage de variation représentée par la multiplicité des trajectoires possibles n’est pas un simple agrégat sur lequel on peut calculer l’intégrale. Néanmoins, l’approche « intégrale fictionnelle des historiques » a eu deux conséquences importantes. La première est qu’elle a conduit Feynman à découvrir une technique de calcul beaucoup plus facile à gérer, désormais universellement appelée « intégrales de Feynman », qui est l’approche la plus utile des calculs quantiques mise à la disposition des physiciens au cours des cinquante dernières années. Elle donne une image physique dans laquelle les interactions sont dues à l’échange d’énergie et d’élan transmis par ce qu’on appelle les particules virtuelles. L’adjectif « virtuel » est invoqué parce que ces « particules » intermédiaires, qui ne peuvent pas apparaître dans l’état initial ou final du processus, ne sont pas contraintes d’avoir des masses physiques, mais plutôt une intégrale de toutes les valeurs de masse possibles. L’autre avantage de l’approche des sommes par rapport aux histoires est qu’il existe des systèmes quantiques assez subtils et délicats pour lesquels elle offre une manière plus claire de formuler le problème que celle donnée par l’approche plus conventionnelle. LA DÉCOHÉRENCE (SUITE)

Les effets environnementaux des rayonnements omniprésents qui produisent la décohérence ont une signification qui va au-delà de leur pertinence partielle pour le problème de la mesure. Une évolution récente importante a été la prise de conscience qu’ils ont également  81 

  La théorie quantique  

une ­incidence sur la façon dont il faut envisager la mécanique quantique des systèmes dits « chaotiques ». Les imprévisibilités intrinsèques présentes dans la nature ne proviennent pas uniquement des processus quantiques. La plupart des physiciens ont été très surpris de constater, il y a une quarantaine d’années, que même en physique newtonienne, il existe de nombreux systèmes dont l’extrême sensibilité aux effets de très petites perturbations rend leur comportement futur impossible à prévoir avec précision. Ces systèmes chaotiques (comme on les appelle) deviennent rapidement sensibles aux détails au niveau de l’incertitude de Heisenberg ou en dessous. Pourtant, leur traitement d’un point de vue quantique – un sujet appelé « chaologie quantique » – s’avère problématique. La raison de cette perplexité est la suivante : les systèmes chaotiques ont un comportement dont le caractère géométrique correspond aux célèbres fractales (dont l’ensemble de Mandelbrot, objet d’au moins une centaine d’affiches psychédéliques, est l’exemple le plus connu). Les fractales sont ce qu’on appelle « autosimilaires », c’est-à-dire qu’elles se ressemblent pratiquement, quelle que soit l’échelle à laquelle on les examine (dents de scie comprenant des dents de scie… jusqu’aux plus petites). Les fractales n’ont donc pas d’échelle naturelle. Les systèmes quantiques, en revanche, possèdent une échelle naturelle, fixée par la constante de Planck. Par conséquent, la théorie du chaos et la théorie quantique ne s’accordent pas parfaitement l’une à l’autre. Le décalage qui en résulte conduit à ce que l’on appelle « la suppression quantique du chaos » : les systèmes chaotiques voient leur comportement modifié lorsqu’il s’agit de se fier aux détails, au niveau quantique. Cela entraîne à son tour un autre problème pour les physiciens, qui prend sa forme la plus aiguë lorsqu’on considère la 16e lune de Saturne, appelée Hypérion. Ce gros rocher, en forme de pomme de terre, de la taille de New York, virevolte dans l’espace de façon chaotique. Si l’on applique les notions de suppression quantique à Hypérion, on s’attend à avoir un résultat étonnamment efficace, malgré la taille considérable de cette lune. En fait, sur la base de ce calcul, le mouvement chaotique d’Hypérion  82 

 Des développements supplémentaires  

ne peut durer au maximum qu’environ 37 ans. Les astronomes observent Hypérion depuis un peu moins longtemps que cela, mais personne ne s’attend à ce que son étrange tumulte prenne fin si tôt. À première vue, nous sommes confrontés à un sérieux problème. Cependant, la prise en compte de la décohérence le résout pour nous. La tendance de la décohérence à faire bouger les choses dans une direction plus classique a pour effet, à son tour, de supprimer la suppression quantique du chaos. On peut s’attendre avec confiance à ce qu’Hypérion continue de virevolter pendant très longtemps encore. L’effet Zénon quantique est un autre effet de nature assez similaire, dû aussi à la décohérence. Un noyau radioactif à cause de la désintégration est ramené à son état initial par les « mini-observations » qui résultent de son interaction avec les photons de l’environnement. Ce retour continu à la case départ a pour effet d’inhiber sa désintégration, un phénomène qui a été observé expérimentalement. Cet effet porte le nom du philosophe grec ancien Zénon d’Elée, dont la méditation sur l’observation d’une flèche devant se trouver maintenant à un point fixe particulier le convainquit que la flèche ne pouvait pas être en mouvement. Ces phénomènes montrent clairement que la relation entre la théorie quantique et sa limite classique est subtile, impliquant l’entrelacement d’effets qui ne peuvent être caractérisés par une simple division simpliste en « grand » et « petit ». LA THÉORIE QUANTIQUE RELATIVISTE

Notre discussion sur le théorème du spin et de la statistique a déjà montré que la combinaison de la théorie quantique et de la relativité restreinte produit une théorie unifiée du contenu enrichi. La première équation satisfaisante qui réussit à formuler de manière cohérente la combinaison des deux fut l’équation relativiste de l’électron, découverte par Paul Dirac en 1928 [12]. Son détail mathématique est trop technique pour être présenté dans un livre comme celui-ci, mais nous pouvons noter deux conséquences importantes et imprévues qui découlent de cette évolution.  83 

  La théorie quantique  

Dirac produisit son équation simplement en tenant compte des besoins de la théorie quantique et de l’invariance relativiste. Il fut certainement agréablement surpris lorsqu’il découvrit que les prédictions de l’équation sur les propriétés électromagnétiques de l’électron étaient telles qu’il s’avéra que les interactions magnétiques de l’électron étaient deux fois plus fortes que ce à quoi on aurait pu naïvement s’attendre en considérant l’électron comme une toupie miniature, chargée électriquement. On savait déjà empiriquement que c’était le cas, mais personne n’avait été en mesure de comprendre pourquoi ce comportement ­apparemment anormal devait être ce qu’il est. La deuxième conséquence, encore plus importante, est due au fait que Dirac transforma brillamment la menace de défaite en victoire triomphante. En l’état, l’équation comportait un défaut flagrant. Elle permettait des états d’énergie positive du type nécessaire pour correspondre au comportement des électrons réels, mais elle permettait également des états d’énergie négative. Ces derniers n’avaient tout simplement pas de signification sur le plan physique. Pourtant, ils ne pouvaient pas être simplement rejetés, car les principes de la mécanique quantique permettraient inévitablement la conséquence désastreuse de passer des états d’énergie positive physiquement acceptables à ces états. (Ce serait un désastre physique en ce sens que les transitions vers de tels états pourraient produire des quantités illimitées d’énergie positive, ce qui mènerait à une sorte de machine à mouvement perpétuel hors de contrôle). Pendant un certain temps, cela constitua une énigme hautement embarrassante. Puis Dirac réalisa que les statistiques de Fermi des électrons pourraient nous permettre de sortir de ce dilemme. Avec beaucoup d’audace, il supposa que tous les états d’énergie négative étaient déjà occupés. Le principe d’exclusion bloquerait alors la possibilité de toute transition vers ces derniers à partir des états d’énergie positifs. Ce que l’on pensait être l’espace vide (communément appelé « le vide ») était en fait rempli de cette « mer » d’électrons d’énergie négative ! Cette image semble plutôt étrange et plus tard, en fait, il s’est avéré possible de formuler la théorie de telle manière que les résultats souhaités  84 

 Des développements supplémentaires  

d’une manière moins pittoresque mais aussi moins bizarre puissent être conservés. Entre-temps, le travail avec le concept de la mer d’énergie négative a conduit Dirac à une découverte de première importance. Si une quantité suffisante d’énergie était fournie, par exemple, par un photon très énergétique, il serait possible d’éjecter un électron à énergie négative de la mer, le transformant en un électron à énergie positive de type ordinaire. Que faire alors du « trou » que ce processus aurait laissé dans la mer négative ? L’absence d’énergie négative est identique à la présence d’énergie positive (deux « moins » font un « plus »), de sorte que le trou se comporterait comme une particule d’énergie positive. Mais l’absence de charge négative est identique à la présence d’une charge positive, de sorte que cette « particule trou » serait chargée positivement, contrairement à l’électron chargé négativement. Dans les années 1930, la manière dont les physiciens pensaient les particules élémentaires était assez conservatrice par rapport à la liberté spéculative qui allait suivre. Ils n’aimaient pas du tout l’idée de suggérer l’existence d’un nouveau type de particule, jusqu’alors inconnu. Au départ, on supposa que cette particule positive dont Dirac parlait pourrait simplement être le proton bien connu, chargé positivement. Cependant, on se rendit compte vite que le trou devait avoir la même masse que l’électron, alors que le proton est beaucoup plus massif. Ainsi, la seule interprétation acceptable proposée conduisit à la prédiction – quelque peu refoulée – d’une toute nouvelle particule, rapidement baptisée positron, de masse électronique mais de charge positive. Son existence fut bientôt confirmée expérimentalement par la détection des positrons dans les rayons cosmiques. (En fait, des exemples avaient été vus beaucoup plus tôt, mais ils n’avaient pas été reconnus comme tels. Les expérimentateurs avaient du mal à voir ce qu’ils ne cherchaient pas réellement.) On s’est rendu compte que ce jumelage électron-positon était un exemple particulier de comportement répandu dans la nature. Il y a à la fois de la matière (comme les électrons) et de l’antimatière chargée de façon opposée (comme les positrons). Le préfixe « anti- » est ­approprié  85 

  La théorie quantique  

car un électron et un positron peuvent s’annihiler mutuellement, disparaissant dans un éclat d’énergie. (À l’ancienne, l’électron remplit le trou dans la mer et l’énergie libérée est alors rayonnée. À l’inverse, comme nous l’avons vu, un photon très énergétique peut chasser un électron de la mer, laissant un trou derrière lui et créant ainsi une paire électron-positon). L’histoire féconde de l’équation de Dirac – qui a conduit à la fois à une explication des propriétés magnétiques et à la découverte de l’antimatière, sujets qui n’ont joué aucun rôle dans la motivation initiale de l’équation – est un bel et remarquable exemple de la valeur à long terme que peut revêtir une idée scientifique vraiment fondamentale. C’est cette fertilité qui persuade les physiciens qu’ils sont vraiment « sur la bonne voie » et que, contrairement aux suggestions de certains philosophes et sociologues des sciences, ils ne se contentent pas d’accepter tacitement d’envisager les choses d’une manière particulière. Ils font plutôt des découvertes sur ce qu’est réellement le monde physique. LA THÉORIE QUANTIQUE DES CHAMPS

Dirac fit une autre découverte fondamentale lorsqu’il appliqua les principes de la mécanique quantique non pas aux particules mais au champ électromagnétique. Ce développement donna le premier exemple connu de théorie quantique des champs. Avec le recul, il n’est pas trop difficile, techniquement parlant, de franchir cette étape. La principale différence entre une particule et un champ est que la première n’a qu’un nombre fini de degrés de liberté (manières indépendantes dont son état peut changer), alors qu’un champ a un nombre infini de degrés de liberté. Il existe des techniques mathématiques bien connues pour gérer cette différence. Les théories des champs quantiques s’avèrent d’un intérêt considérable et nous offrent une façon très éclairante de penser la dualité onde/ particule. Un champ est une entité étalée dans l’espace et le temps. Il s’agit donc d’une entité qui a un caractère intrinsèquement ondulatoire. L’application de la théorie quantique au champ a pour résultat que ses  86 

 Des développements supplémentaires  

quantités physiques (telles que l’énergie et la quantité de mouvement) deviennent présentes en paquets discrets et dénombrables (les quanta). Mais cette « comptabilité » est exactement ce que nous associons au comportement des particules. En étudiant un champ quantique, nous étudions et comprenons donc une entité qui présente explicitement des propriétés ondulatoires et particulaires de la manière la plus claire possible. C’est un peu comme si l’on se demandait comment un mammifère pouvait en arriver à pondre un œuf et que l’on nous présentait l’ornithorynque. Un exemple réel est toujours le plus instructif. Il s’avère qu’en théorie quantique des champs, les états qui présentent des propriétés ondulatoires (techniquement, qui ont des phases définies) sont ceux qui contiennent un nombre indéfini de particules. Cette dernière propriété est une possibilité naturelle en raison du principe de superposition de la théorie quantique qui permet de combiner des états contenant un nombre variable de particules. Ce serait une option impossible dans la théorie classique, où l’on pourrait simplement regarder et voir pour compter le nombre de particules réellement présentes. Le vide dans la théorie quantique des champs possède des propriétés inhabituelles particulièrement importantes. Le vide, bien sûr, représente l’état ou le niveau d’énergie le plus bas, dans lequel il n’y a pas d’excitation correspondant aux particules. Pourtant, bien que dans ce sens il n’y ait rien, dans la théorie quantique des champs, cela ne signifie pas qu’il n’y a réellement rien. La raison : une technique mathématique standard, appelée analyse de Fourier, nous permet de considérer un champ comme l’équivalent d’un ensemble infini d’oscillateurs harmoniques. À chaque oscillateur est associée une fréquence particulière et l’oscillateur se comporte dynamiquement comme s’il était un pendule de cette fréquence donnée. Le vide de champ est l’état dans lequel toutes ces « pendules » sont dans leur état d’énergie le plus bas. Pour une pendule classique, c’est le moment où le pendule est au repos et au fond. C’est vraiment une situation dans laquelle rien ne se passe. Cependant, la mécanique quantique ne permet pas qu’un degré de tranquillité aussi parfait puisse exister. Heisenberg ne permettra pas au « pendule » d’avoir à la fois une position définie (en bas) et un mouvement véritable (au repos). Au lieu de  87 

  La théorie quantique  

cela, le pendule quantique doit être en mouvement léger même dans son état d’énergie le plus bas (près du fond et presque au repos, mais pas tout à fait). Le frémissement quantique qui en résulte est appelé mouvement du point zéro. L’application de ces idées à l’ensemble infini d’oscillateurs qu’est un champ quantique implique que son vide est un bourdonnement d’activité. Des fluctuations ont lieu en permanence, au cours desquelles des « particules » transitoires apparaissent et disparaissent. Un vide quantique ressemble plus à un plénum qu’à un espace vide. Lorsque les physiciens en sont venus à appliquer la théorie quantique des champs à des situations impliquant des interactions entre champs, ils se sont heurtés à des difficultés. Le nombre infini de degrés de liberté avait tendance à produire des réponses infinies pour ce qui aurait dû n’être que des quantités physiques finies. L’interaction avec le vide, qui fluctue sans cesse, a joué un rôle important dans ce processus. Finalement, on a trouvé un moyen de produire du sens à partir du « non-sens », c’est-à-dire de l’absurdité. Certains types de théories des champs (appelées théories « renormalisables ») ne produisent que des types limités d’infinis, simplement associés aux masses de particules et à la force de leurs interactions. Le simple fait de supprimer ces termes infinis et de les remplacer par les valeurs mesurées finies des quantités physiques pertinentes constitue un protocole qui définit des résultats significatifs, même s’il ne s’avère pas être exact, d’un point de vue purement mathématique. Il en résulte également qu’elle fournit des expressions finies qui sont en accord stupéfiant avec l’expérimentation. La plupart des physiciens sont satisfaits de ce succès pragmatique. Dirac lui-même ne fut jamais aussi heureux. Il désapprouvait fortement les tours de passe-passe douteux avec des quantités formellement infinies. Aujourd’hui, toutes les théories des particules élémentaires (comme la théorie des quarks qui composent la matière) sont des théories des champs quantiques. Les particules sont considérées comme des excitations énergétiques du champ sous-jacent. (Une théorie des champs appropriée s’avère aussi pouvoir fournir la bonne façon de traiter les difficultés de la « mer » d’électrons d’énergie négative.)  88 

 Des développements supplémentaires  

LE CALCUL QUANTIQUE

Récemment, la possibilité d’exploiter le principe de superposition comme moyen d’obtenir une puissance de calcul considérablement accrue a suscité un intérêt considérable. L’informatique conventionnelle est basée sur la combinaison d’opérations binaires, exprimées formellement par des combinaisons logiques de 0 et de 1, mises en évidence, en termes matériels, par des interrupteurs qui sont soit allumés soit éteints. Dans un appareil classique, bien sûr, ces dernières sont des possibilités mutuellement exclusives. Un interrupteur est soit allumé, soit éteint. Dans le monde quantique, cependant, l’interrupteur pourrait être dans un état qui est une superposition de ces deux possibilités classiques. Une séquence de telles superpositions correspondrait à un type de traitement parallèle totalement nouveau. La possibilité de maintenir simultanément un nombre important de billes en l’air – comme un jongleur – pourrait, en principe, représenter une augmentation de la puissance de calcul que l’ajout d’éléments supplémentaires multiplierait de manière exponentielle, par rapport à l’augmentation linéaire dans des circonstances conventionnelles. De nombreuses tâches de calcul, telles que le décodage ou la factorisation de très grands nombres, deviendraient réalisables, chose impossible avec les machines actuelles. Ce sont des possibilités passionnantes. (Leurs partisans se plaisent à en parler en termes de mondes multiples, comme si le traitement avait lieu dans des univers parallèles, mais il semble qu’en réalité, seul le principe de superposition lui-même soit à la base de la faisabilité de l’informatique quantique.) La mise en œuvre effective, cependant, sera une entreprise nettement délicate, avec de nombreux problèmes qui restent à résoudre. Nombre d’entre eux sont centrés sur la conservation stable d’états superposés. Le phénomène de décohérence montre à quel point il peut être problématique d’isoler un ordinateur quantique des interférences nocives de l’environnement. L’informatique quantique fait l’objet de sérieuses considérations technologiques et entrepreneuriales, mais en tant que procédure efficace, elle reste actuellement au niveau d’une lueur d’espoir dans l’œil de ses partisans.  89 

5 Vers l’unité Einstein, par son explication de l’effet photoélectrique, fut l’un des grands-pères de la théorie quantique. Cependant, il détesta son petit-fils. Comme la grande majorité des physiciens, Einstein était profondément convaincu de la réalité du monde physique et avait confiance en la véracité et la fiabilité du récit scientifique sur sa nature. Il se mit pourtant à croire que cette réalité ne pouvait être garantie que par une forme d’objectivité naïve que la pensée newtonienne avait prédite et acceptée. Par conséquent, Einstein abhorra l’adéquation nuageuse que l’orthodoxie de l’École de Copenhague attribuait à la nature d’un monde quantique. Sa première attaque contre la théorie quantique moderne prit la forme d’une série d’expériences de pensée très ingénieuses, chacune d’entre elles visant à contourner, d’une certaine manière, les limites du principe d’incertitude de Heisenberg. L’adversaire d’Einstein dans ce concours était Niels Bohr qui réussit à chaque fois à montrer qu’une application approfondie des idées quantiques à tous les aspects de l’expérience proposée permettait au principe d’incertitude de survivre indemne. Finalement, Einstein admit sa défaite dans cette bataille particulière. Après avoir pansé ses blessures, Einstein revint dans la mêlée et trouva un nouveau terrain d’affrontement. Avec l’aide de deux collaborateurs plus jeunes, Boris Podolsky et Nathan Rosen, il démontra l’existence d’implications très particulières à long terme, jusqu’alors inaperçues, sur le comportement du point de vue de la mécanique quantique de deux particules clairement distantes l’une de l’autre. Les problèmes sont plus faciles à expliquer en termes de développement ultérieur de ce que l’on peut appeler la pensée ou le paradoxe EPR (du nom de ses découvreurs Einstein, Podolsky et Rosen). L’argument vint de David Bohm et, bien  91 

  La théorie quantique  

que le raisonnement sous-jacent soit un peu ardu, cela vaut la peine de vous y accrocher. Supposons que deux particules aient des spins s1 et s2 et que l’on sache que leur spin total est nul. Cela implique, bien sûr, que s2 est – s1. Le spin est un vecteur (c’est-à-dire qu’il a une magnitude et une direction, voyez-le comme une flèche), nous avons suivi la convention mathématique en utilisant des caractères gras pour les quantités vectorielles. Un vecteur de spin aura donc trois composantes, mesurées le long de trois directions spatiales choisies, x, y et z. Si l’on devait mesurer la composante x de s1 en obtenant la réponse s′1x, alors la composante x de s2 doit être – s′1x. Si, en revanche, on avait mesuré la composante y de s1 obtenant la réponse s′1y, on saurait que la composante y de s2 doit être – s′1y. Mais la mécanique quantique ne permet pas de mesurer simultanément les composantes x et y du spin, car il existe une relation d’incertitude entre elles. Einstein fit valoir que, si cela peut être le cas selon la pensée quantique orthodoxe, ce qui arrive à la particule 1 ne peut avoir d’effet immédiat sur la particule 2, qui en est éloignée. Si c’est le cas, et si l’on peut choisir de mesurer les composantes x ou y du spin à 1 et d’obtenir certaines connaissances sur les composantes x ou y respectivement du spin à 2, alors Einstein a affirmé que la particule 2 doit effectivement avoir ces valeurs définies pour ses composantes de spin, que les mesures aient été réellement effectuées ou non. C’est ce que la théorie quantique classique a nié, parce que, bien sûr, la relation d’incertitude entre les composantes x et y du spin s’appliquait autant à la particule 2 qu’à la particule 1. La conclusion d’Einstein à partir de cet argument modérément compliqué fut qu’il devait y avoir quelque chose d’incomplet dans la théorie quantique conventionnelle. Elle ne tenait pas compte de ce qu’il croyait être des valeurs définies des composantes du spin. Presque tous ses collègues physiciens interprètent les choses différemment. Selon eux, ni s1 ni s2 n’ont de composantes de spin définies tant qu’une mesure n’a pas été effectuée. Ensuite, la détermination de la composante x de 1 force la composante x de 2 à prendre la valeur opposée. En d’autres termes, la  92 

 Vers l’unité  

mesure à 1 entraîne également un effondrement de la fonction d’onde à 2 sur la valeur opposée de la composante x du spin. Si c’était la composante y qui avait été mesurée à 1, alors l’effondrement à 2 serait intervenu sur la composante de spin y opposée. Ces deux états à 2 (composantes x et y connues) sont absolument distincts l’un de l’autre. Ainsi, la logique majoritaire conduit à la conclusion que la mesure à 1 produit un changement instantané à 2, un changement qui dépend précisément de ce qui est mesuré à 1. En d’autres termes, il y a une certaine unité contre-intuitive entre 1 et 2 ; l’action à 1 produit des conséquences immédiates pour 2 et les conséquences sont différentes pour les différentes actions à 1. C’est ce qu’on appelle généralement l’effet EPR. La terminologie est quelque peu ironique puisqu’Einstein lui-même refusa de croire à une telle connexion à long terme, la considérant comme une influence trop « effrayante » pour être acceptable par un physicien. La question a donc été laissée en suspens pendant un certain temps. L’étape suivante fut franchie par John Bell qui analysa les propriétés du système 1-2 comme s’il s’agissait d’un système véritablement séparé (comme Einstein l’avait supposé), avec des propriétés à 1 dépendant uniquement de ce qui se passe localement à 1 et des propriétés à 2 dépendant uniquement de ce qui se passe localement à 2. Bell montre que s’il y avait cette stricte localité, certaines relations entre des quantités mesurables (on les appelle maintenant les inégalités de Bell) que la mécanique quantique prédit seraient violées dans certaines circonstances. Ce fut un pas en avant très significatif, faisant passer l’argument du domaine des expériences de pensée au domaine empiriquement accessible, c’està-dire qui pouvait être réellement étudié en laboratoire. Les expériences n’ont pas été faciles à réaliser, mais finalement, au début des années 1980, Alain Aspect et ses collaborateurs réussirent à mener habilement une enquête, confirmant les prédictions de la théorie quantique et niant la possibilité d’une théorie purement locale du type de celle qu’Einstein avait épousée. Il était devenu évident qu’un degré irréductible de non-localité était présent dans le monde physique. Les entités quantiques qui interagissent les unes avec les autres restent mutuellement enchevêtrées, quelle que soit la distance à laquelle elles peuvent éventuellement être  93 

  La théorie quantique  

séparées dans l’espace. Il semble que la nature lutte contre un réductionnisme implacable. Même le monde subatomique ne peut être traité de manière purement atomiste. L’implication de l’effet EPR dans la « relationnalité » profonde, présente dans la structure fondamentale du monde physique, est une découverte que la pensée physique et la réflexion métaphysique doivent encore accepter pour en élucider pleinement toutes les conséquences. Dans le cadre de ce processus continu d’assimilation, il est nécessaire d’être aussi clair que possible sur la nature de l’enchevêtrement que l’effet EPR implique. Il faut reconnaître qu’il s’agit d’un véritable cas d’action à distance, et pas seulement d’un gain de connaissances supplémentaires. En langage courant, l’effet EPR est ontologique et non simplement épistémologique. L’augmentation des connaissances à distance n’est en aucun cas problématique ou surprenante. Supposons qu’une urne contienne deux boules, l’une blanche, l’autre noire. Vous et moi mettons tous les deux une main dans l’urne pour en retirer une, le poing fermé. Vous vous rendez ensuite à un kilomètre de distance, vous ouvrez le poing et vous constatez que vous avez la boule blanche. Immédiatement, vous savez que je dois avoir la noire. La seule chose qui a changé dans cet épisode, c’est votre état de connaissance. J’ai toujours eu la boule noire, vous avez toujours eu la boule blanche, mais maintenant vous avez pris conscience qu’il en est ainsi. En revanche, dans l’effet EPR, ce qui se passe à 1 change ce qui se passe à 2. C’est comme si vous trouviez une boule rouge dans votre main, je devais avoir une boule bleue dans la mienne, mais si vous trouviez une boule verte, je devais avoir une boule jaune et, avant que vous ne regardiez, aucun de nous n’avait de boules de couleurs déterminées. Un lecteur attentif peut s’interroger sur ce changement instantané. La relativité restreinte n’interdit-elle pas qu’une chose à 1 ait un effet quelconque à 2 jusqu’à ce qu’il ait le temps de transmettre une influence se déplaçant au maximum à la vitesse de la lumière ? Pas tout à fait. Ce que la relativité interdit c’est la transmission instantanée d’informations, d’un type qui permettrait la synchronisation immédiate d’une horloge  94 

 Vers l’unité  

à 2 heures avec une horloge à 1 heure. Il s’avère que l’enchevêtrement du type EPR ne permet pas la transmission de messages de ce type. La raison en est que l’unité dans la séparation prend la forme de corrélations entre ce qui se passe à 1 et ce qui se passe à 2 et qu’aucun message ne peut être lu à partir de ces corrélations sans savoir ce qui se passe aux deux extrémités. C’est comme si un chanteur à 1 chantait une série aléatoire de notes et qu’un chanteur à 2 chantait également une série aléatoire de notes, ce n’est que si l’on pouvait les entendre tous les deux ensemble que l’on se rendrait compte que les deux chanteurs sont en « harmonie » l’un avec l’autre. Le fait de réaliser cela nous met en garde contre « l’exagération quantique » qui affirme à tort que l’effet EPR apporte la « preuve » que la télépathie est possible.

 95 

6 Les leçons et leurs significations L’image du processus physique que nous présente la théorie quantique est radicalement différente de ce que l’expérience quotidienne nous laisse espérer. Sa particularité est telle qu’elle soulève avec une certaine force la question de savoir s’il s’agit bien de la nature subatomique ou si la mécanique quantique n’est rien d’autre qu’une façon commode de parler, bien que bizarre, et de nous permettre d’effectuer les calculs. Nous pouvons obtenir des réponses qui concordent étonnamment bien avec les résultats obtenus en laboratoire par l’utilisation d’appareils de mesure classiques, mais peut-être ne devrions-nous pas croire la théorie. La question soulevée est essentiellement d’ordre philosophique, allant au-delà de ce qui peut être réglé par la simple utilisation des r­ essources propres de la science. En fait, ce questionnement quantique n’est qu’un exemple particulier – bien qu’exceptionnellement difficile – du débat philosophique fondamental entre les positivistes et les réalistes. POSITIVISME ET RÉALISME

Les positivistes voient le rôle de la science comme étant une réconciliation de données d’observation. Si l’on peut faire des prédictions qui rendent compte de manière précise et harmonieuse du comportement de l’appareil de mesure, la tâche est réussie. Les questions ontologiques (qu’y a-t-il vraiment là-dedans ?) ne sont pas pertinentes, mieux vaut s’en débarrasser. Le monde du positivisme est peuplé de contre-indications et d’impacts visibles sur les plaques photographiques.  97 

  La théorie quantique  

Ce point de vue a une longue histoire. Le cardinal Bellarmin demanda à Galilée de considérer le système copernicien comme un simple moyen pratique de « sauver les apparences », une bonne façon de faire des calculs pour déterminer où les planètes apparaîtront dans le ciel. Galilée n’aurait pas dû penser que la Terre fait réellement le tour du Soleil – tandis que Copernic aurait dû être considéré comme ayant utilisé la supposition simplement comme un dispositif de calcul pratique. Cette tentative de sauver la face n’a pas plu à Galilée, et des suggestions similaires n’ont pas été accueillies favorablement par les scientifiques en général. Si la science se contente de corréler des données, sans nous dire à quoi ressemble réellement le monde physique, il est difficile de voir que les travaux scientifiques valent tout ce temps, tous ces efforts et tout ce talent consacrés. Ses résultats semblent trop maigres pour justifier un tel degré d’implication. En outre, l’explication la plus naturelle de la capacité d’une théorie à sauver les apparences serait certainement qu’elle correspond à la réalité. Néanmoins, Niels Bohr semblait souvent parler de la théorie quantique d’une manière positiviste. Un jour, il écrivit à un ami qu’il n’y a pas de monde quantique. Il n’y a qu’une description physique quantique abstraite. Il est faux de penser que la tâche de la physique est de découvrir comment est la nature. La physique s’intéresse à ce que nous pouvons dire de la nature.

Il serait possible de dire que la préoccupation de Bohr concernant le rôle des appareils de mesure classiques encouragea un tel point de vue positiviste. Nous avons vu qu’au cours de ses dernières années, il s’intéressa beaucoup aux questions philosophiques et écrivit beaucoup à ce sujet. Le corpus qui en résulte d’ailleurs est difficile à interpréter. Les dons qu’avait Bohr en matière de philosophie sont loin d’être à la hauteur de son exceptionnel talent de physicien. De plus, il croyait – et il a montré l’exemple – qu’il existe deux types de vérité : une triviale, mais clairement articulée, et une profonde dont on ne peut parler que de façon filandreuse, tel un nuage. Il est certain que le corps de ses écrits a été interprété de manière très diverse par les commentateurs. Certains ont estimé qu’il y avait une sorte de réalisme auquel Bohr adhérait.  98 

  Les leçons et leurs significations  

Les réalistes considèrent que le rôle de la science est de découvrir à quoi ressemble réellement le monde physique. C’est une tâche qui ne sera jamais complètement accomplie. De nouveaux régimes physiques (rencontrés à des énergies encore plus élevées, par exemple) seront toujours à l’étude, et il se pourrait bien qu’ils présentent des caractéristiques très inattendues dans leur comportement. Une évaluation honnête des réalisations de la physique peut tout au plus prétendre à la vraisemblance (un compte rendu précis d’une gamme large mais circonscrite de phénomènes) et non à la vérité absolue (un compte rendu total de la réalité physique). Les physiciens sont les cartographes du monde physique, ils trouvent des théories adéquates à une échelle choisie mais ne sont pas capables de décrire tous les aspects de ce qui se passe. Une telle vision philosophique considère que l’accomplissement de la science physique est le resserrement de l’emprise d’une réalité réelle. Le monde du réalisme est peuplé d’électrons et de photons, de quarks et de gluons. Le pragmatisme, cette position philosophique qui reconnaît le fait technologique selon lequel la physique nous permet de faire des choses, sans aller jusqu’à une position réaliste qui affirmerait que nous savons comment est le monde en réalité, offre une sorte de mi-chemin entre le positivisme et le réalisme. Un pragmatiste pourrait dire que nous devrions prendre la science au sérieux, mais que nous ne devrions pas aller jusqu’à y accorder une croyance. Pourtant, l’explication la plus évidente du succès technologique de la science est certainement qu’elle est basée sur une compréhension en termes de vérisimilitude de la façon dont la matière se comporte réellement. Un certain nombre d’arguments en faveur du réalisme scientifique peuvent être avancés. L’un d’eux, déjà mentionné, est qu’il permet de comprendre naturellement les succès prédictifs de la physique et sa fécondité à long terme, ainsi que le fonctionnement fiable des nombreux dispositifs technologiques construits à la lumière de son image du monde physique. Le réalisme explique également pourquoi l’effort scientifique est considéré comme utile, attirant l’attention et le dévouement inconditionnel de personnes de grand talent, car il s’agit d’une activité qui permet de connaître réellement la façon dont les choses sont. Le ­réalisme  99 

  La théorie quantique  

correspond à la conviction des scientifiques selon laquelle ils font l’expérience de la découverte et ne font pas qu’apprendre de meilleures façons de faire les calculs, ou se mettre tacitement d’accord entre eux pour voir les choses d’une certaine manière. Cette conviction de faire des découvertes vient de l’expérience répétée de l’attente du scientifique face à l’attitude récalcitrante de la nature. Le physicien peut aborder les phénomènes avec certaines idées en tête, pour constater finalement qu’elles ne se vérifient pas dans le monde physique qui ne se comporte comme ils l’avaient pensé. La nature nous oblige à reconsidérer notre comportement, ce qui conduit souvent à la découverte du caractère totalement inattendu de ce qui se passe. L’essor de la théorie quantique est, bien sûr, un exemple remarquable d’une réinterrogation de la pensée du scientifique imposée par la réalité physique. Si la théorie quantique nous dit effectivement à quoi ressemble réellement le monde subatomique, alors sa réalité est très différente de l’objectivité naïve avec laquelle nous pouvons aborder le monde des objets quotidiens. C’est le point qu’Einstein a eu tant de mal à accepter. Il croyait passionnément à la réalité du monde physique, mais il a rejeté la théorie quantique conventionnelle parce qu’elle présupposerait à tort que seul l’objectif serait le réel. La réalité quantique est « nuageuse » et a un caractère bien trempé. Le philosophe-physicien français Bernard d’Espagnat a dit qu’elle était « voilée ». La figure la plus philosophique, au sens propre du mot, parmi les figures fondatrices de la théorie quantique était Werner Heisenberg. Il a estimé qu’il serait utile d’emprunter à Aristote le concept de potentia. Heisenberg a écrit que dans les expériences sur les événements atomiques, nous avons affaire à des choses qui sont des faits, avec des phénomènes qui sont tout aussi réels que n’importe quel phénomène de la vie quotidienne. Mais les atomes ou les particules élémentaires ne sont pas aussi réels ; ils forment un monde de potentialités ou de possibilités plutôt que de choses ou de faits.

Un électron ne possède pas toujours une position définie ou un mouvement prédéfini, mais possède plutôt la potentialité de présenter  100 

  Les leçons et leurs significations  

l’une ou l’autre de ces caractéristiques si une mesure transforme cette potentialité en réalité. Je ne suis pas d’accord avec Heisenberg lorsqu’il dit que ce fait rend un électron « moins réel » qu’une table ou une chaise. L’électron jouit simplement d’un autre type de réalité, approprié à sa nature. Si nous voulons connaître les choses telles qu’elles sont, nous devons être prêts à les connaître tels qu’ils sont réellement, à leurs propres conditions, pour ainsi dire. Pourquoi presque tous les physiciens veulent-ils insister sur la réalité, bien comprise, des électrons ? Je crois que c’est parce que l’hypothèse selon laquelle il y a des électrons, avec toutes les subtiles propriétés quantiques qui vont avec, rend intelligibles de grandes parties de l’expérience physique qui, autrement, nous seraient opaques. Cela explique les propriétés de conduction des métaux, les propriétés chimiques des atomes, notre capacité à construire des microscopes électroniques, et bien d’autres choses encore. C’est l’intelligibilité (plutôt que l’objectivité) qui est l’indice de la réalité – une conviction, d’ailleurs, qui est consonante avec une tradition métaphysique issue de la pensée de Thomas d’Aquin. La réalité voilée qui est l’essence même de la nature des électrons est représentée dans notre pensée par les fonctions d’onde qui leur sont associées. Lorsqu’un physicien réfléchit à ce qu’un électron « fait », c’est la fonction d’onde appropriée qui est à l’esprit. De toute évidence, la fonction d’onde n’est pas une entité aussi accessible que la présence objective d’une boule de billard, mais elle ne fonctionne pas non plus dans la pensée quantique d’une manière qui rend confortable la notion positiviste selon laquelle il s’agit simplement d’un dispositif de calcul. La fonction ondulatoire, qui ressemble à une vague, semble être un véhicule approprié pour véhiculer la potentialité voilée de la réalité quantique. POUR ÊTRE RAISONNABLE

Si l’étude de la physique quantique devait nous apprendre quelque chose, c’est bien que le monde est rempli de surprises. Personne n’aurait pu supposer qu’il pouvait y avoir des entités qui se comporteraient  101 

  La théorie quantique  

parfois comme des ondes et parfois comme des particules. Cette prise de conscience s’est imposée à la communauté des physiciens par la nécessité de disposer d’une expérience empirique réelle. Comme Bohr l’a dit un jour, le monde n’est pas seulement plus étrange que nous le pensions, il est plus étrange que nous pourrions le penser. Nous avons noté précédemment que même la logique doit être modifiée lorsqu’elle est appliquée au monde quantique. Un slogan pour le physicien quantique pourrait bien être : « Pas de tyrannie excessive du bon sens. » Cette devise transmet un message dont la pertinence dépasse le seul domaine quantique. Elle nous rappelle que notre capacité de prévision rationnelle est assez myope. La question qu’un scientifique devrait poser instinctivement face à ce qui se propose de rendre compte d’un aspect de la réalité, que ce soit dans le cadre de la science ou au-delà, n’est pas « est-ce raisonnable ? », comme si nous pensions savoir à l’avance quelle forme la raison allait prendre. La bonne question est plutôt : « Qu’est-ce qui vous fait penser que cela pourrait être le cas ? » Cette dernière question est beaucoup plus ouverte, car elle n’exclut pas la possibilité d’une surprise radicale, mais insiste sur le fait que ce qui est affirmé doit être étayé par des preuves. Si la théorie quantique nous encourage à garder une souplesse dans notre conception de ce qui est raisonnable, elle nous encourage également à reconnaître qu’il n’existe pas d’épistémologie universelle, pas de moyen souverain unique par lequel nous pourrions espérer acquérir toutes les connaissances. Si nous pouvons connaître le monde quotidien dans sa clarté newtonienne, nous ne pouvons connaître le monde quantique que si nous sommes prêts à l’accepter dans son incertitude heisenberguienne. Insister sur un compte rendu naïvement objectif des électrons ne peut que conduire à l’échec. Il existe une sorte de cercle épistémologique : la façon dont nous connaissons une entité doit se conformer à la nature de cette entité ; la nature de l’entité est révélée par ce que nous savons sur elle. Il est impossible d’échapper à cette délicate circularité. L’exemple de la théorie quantique encourage la croyance que le cercle peut être « bénin » et non « vicieux ».  102 

  Les leçons et leurs significations  

LES CRITÈRES MÉTAPHYSIQUES

Les théories physiques qui réussissent doivent finalement pouvoir démontrer leur capacité à s’adapter aux faits expérimentaux. La sauvegarde des apparences est une réalisation nécessaire, bien qu’il puisse y avoir quelques périodes intermédiaires difficiles sur le chemin (comme lorsque Dirac fit face initialement à la prédiction apparemment ­désastreuse sur le plan empirique d’états d’énergie négative de l’électron). La propriété de fécondité durable sera particulièrement convaincante, car une théorie s’avère capable de prédire ou de donner une compréhension de phénomènes nouveaux ou inattendus (explication de Dirac sur les propriétés magnétiques des électrons et sa prédiction du positron). Cependant, ces succès empiriques ne sont pas toujours en soi des critères suffisants pour qu’une théorie soit approuvée et adoptée par la communauté scientifique. Le choix entre une interprétation indéterministe de la théorie quantique et une interprétation déterministe ne peut être fait sur ces bases. Bohm sauve les apparences, au même titre que Bohr. La question entre eux doit être réglée pour d’autres raisons. Il s’avère que la décision dépend d’un jugement métaphysique et pas seulement de mesures physiques. Parmi les critères métaphysiques que la communauté scientifique prend très au sérieux lorsqu’elle évalue le poids à accorder à une théorie, se trouvent :

(1) Champ d’application La théorie doit rendre intelligible l’éventail le plus large possible de phénomènes. Dans le cas de Bohr et de Bohm, ce critère ne conduit pas à un règlement de la question entre eux, en raison de l’équivalence empirique des deux ensembles de résultats (il faut cependant noter que la pensée bohmienne doit compléter son exposé par de meilleurs arguments pour étayer sa conviction que les probabilités initiales sont correctement données par un calcul de fonction d’onde).

 103 

  La théorie quantique  

(2) Économie Plus une théorie est concise et parcimonieuse, plus elle paraîtra attrayante. La théorie de Bohm est moins bien notée ici en raison de son hypothèse de l’onde cachée en plus des particules observables. Cette multiplication des entités est certainement considérée par de nombreux physiciens comme une caractéristique peu attrayante de la théorie. (3) Élégance C’est une notion, à laquelle on peut ajouter la propriété de naturel, qui résulte de l’absence d’artifice excessif. C’est pour cette raison que la plupart des physiciens trouvent que les idées bohmiennes sont les plus difficiles à mettre en pratique. En particulier, l’appropriation ad hoc mais nécessaire pour accepter l’équation de Schrödinger en tant qu’équation de l’onde bohmienne revêt un air opportuniste peu attrayant. Ces critères ne se situent pas seulement en dehors de la physique elle-même, ils sont tels que leur évaluation est aussi une question de jugement personnel. Pour être convainquant, il ne suffit pas de suivre un protocole formalisé. L’évaluation de ce jugement ne peut être déléguée à un ordinateur. Le fait que la communauté de la physique quantique soit en majorité en faveur de Bohr et contre Bohm est un exemple paradigmatique de ce que le philosophe de la science, Michael Polanyi, aurait appelé le rôle de la « connaissance personnelle » dans la science. Polanyi, qui fut lui-même un éminent physico-chimiste avant de se tourner vers la philosophie, souligna que, bien que le sujet de la science soit le monde physique impersonnel, l’activité qui consiste à faire de la science est inéluctablement une activité de personnes. En effet, elle implique de nombreux actes de jugement qui requièrent l’exercice de compétences tacites qui ne peuvent être acquises que par des personnes qui ont fait un long apprentissage au sein de la communauté des scientifiques en quête de vérité. Ces jugements ne concernent pas seulement l’application du type de critères métaphysiques dont nous avons parlé. À un niveau plus quotidien, ils incluent des compétences telles que la capacité de l’expérimentateur à évaluer et à éliminer les  104 

  Les leçons et leurs significations  

effets de « bruit de fond » fallacieux qui pourraient autrement contaminer les résultats d’une expérience. Il n’existe pas de petit livre noir qui indique à l’expérimentateur comment procéder. C’est une chose qui s’apprend par l’expérience. Comme le répétait souvent Polanyi, nous en savons tous « plus que nous ne pouvons en dire », que ce soit dans les compétences tacites de la bicyclette, l’appréciation du vin ou la conception et l’exécution d’expériences physiques réussies. HOLISME

Nous avons vu au chapitre 5 que l’effet EPR montre une non-localité intrinsèque présente dans le monde quantique. Nous avons également vu que le phénomène de décohérence a mis en évidence les effets étonnamment puissants que l’environnement général peut exercer sur les entités quantiques. Bien que la physique quantique soit la physique des très petits, elle ne valide en aucun cas un compte rendu purement atomiste de la réalité. La physique ne détermine pas la métaphysique (la vision du monde au sens large), mais elle la contraint certainement, plutôt comme les fondations d’une maison contraignent – mais ne déterminent pas complètement – l’édifice qui sera construit sur elles. La pensée philosophique n’a pas toujours pris en compte de manière adéquate les implications des aspects holistiques de la théorie quantique. Il ne fait aucun doute qu’ils encouragent l’acceptation de la nécessité de parvenir à une représentation du monde naturel qui réussit à la fois à reconnaître que ses éléments constitutifs sont effectivement des particules élémentaires et que leur combinaison donne naissance à une réalité plus intégrée qu’une simple image constitutive pourrait le laisser supposer. LE RÔLE DE L’OBSERVATEUR

Un cliché souvent répété est que la théorie quantique est « créée par l’observateur ». Une réflexion plus approfondie permettra de nuancer et de réduire considérablement cette affirmation. Ce qui peut être dit  105 

  La théorie quantique  

dépendra essentiellement de l’interprétation du processus de mesure qui sera choisie. C’est la question centrale car, entre les mesures, l’équation de Schrödinger prescrit qu’un système quantique évolue de manière parfaitement continue et déterminée. Il est également important de rappeler que la définition générale de la mesure est l’enregistrement macroscopique irréversible du signal d’un état microscopique. Cet événement peut impliquer un observateur, mais en général il n’est pas nécessaire. Seule l’interprétation de la conscience attribue un rôle unique aux actes d’un observateur conscient. Toutes les autres interprétations concernent simplement des aspects du processus physique, sans faire appel à la présence d’une personne. Même dans l’interprétation en conscience, le rôle de l’observateur se limite à choisir consciemment ce qui doit être mesuré et à provoquer inconsciemment le résultat final. La réalité ne peut être transformée que dans les limites de la potentialité quantique déjà présente. Dans la vision néo-Copenhague, l’expérimentateur choisit quel(s) appareil(s) utiliser et donc ce qui doit être mesuré, mais le résultat est ensuite décidé au sein de ces appareils par des processus physiques macroscopiques. Si, au contraire, c’est la « nouvelle physique » dite de GRW qui est à l’œuvre, c’est un processus aléatoire qui produit le résultat réel. Si la théorie de Bohm est correcte, le rôle de l’observateur est simplement de voir ce qui est déjà le cas sans ambiguïté. Dans l’interprétation des mondes multiples, c’est l’observateur qui est soumis à l’action de la réalité physique, étant cloné pour apparaître dans tous ces univers parallèles, dans le vaste portefeuille desquels tous les résultats possibles sont réalisés quelque part ou autre. Aucun facteur commun n’unit ces différents témoignages sur le rôle de l’observateur. Il semble tout au plus approprié de ne parler que de « réalité influencée par l’observateur » et d’éviter de parler de « réalité créée par l’observateur ». Ce qui n’était pas déjà potentiellement présent dans un certain sens ne pourrait jamais voir le jour. Dans ce contexte, il convient également de s’interroger sur l’affirmation, souvent associée à des parallèles avec le concept de mâyâ  106 

  Les leçons et leurs significations  

dans la pensée orientale védique, selon laquelle le monde quantique est un « monde en dissolution » fait d’insubstantialité. C’est une sorte de demi-vérité. Il y a la caractéristique de « voile » quantique dont nous avons déjà parlé, ainsi que le rôle largement reconnu que joue la potentialité dans la compréhension quantique. Mais il y a aussi des aspects persistants du monde quantique qui doivent également être pris en compte. Les quantités physiques telles que l’énergie et la quantité de mouvement sont conservées dans la théorie quantique, tout comme elles le sont dans la physique classique. Rappelons également que l’un des premiers triomphes de la mécanique quantique a été d’expliquer la stabilité des atomes. Le principe d’exclusion quantique sous-tend la structure fixe du tableau périodique. Le monde quantique ne se dissout en aucun cas dans l’insaisissabilité. L’EXAGÉRATION QUANTIQUE

Il semble approprié de clore ce chapitre par un avertissement pour la santé intellectuelle de chacun. La théorie quantique est, certes, étrange et surprenante, mais selon elle, il n’est pas si étrange d’affirmer que « tout est possible ». Bien sûr, personne ne conteste une telle désinvolture, mais il existe une sorte de discours qui peut dangereusement se rapprocher de cette attitude caricaturale. On pourrait l’appeler de « l’exagération quantique ». Je souligne que la mesure et la sobriété doivent être de mise lorsqu’on fait appel à la connaissance quantique. Nous avons vu que l’effet EPR n’offre pas d’explication à la télépathie, car son degré d’enchevêtrement mutuel ne pourrait pas faciliter le transfert d’informations. Les processus quantiques dans le cerveau peuvent éventuellement avoir un lien avec l’existence de l’esprit conscient humain, mais l’incertitude subatomique aléatoire est en fait très différente de l’exercice du libre arbitre d’un agent. La dualité onde/particule est un phénomène très surprenant et instructif, dont le caractère apparemment paradoxal a été résolu pour nous par les connaissances de la théorie quantique des champs. Cependant,  107 

  La théorie quantique  

elle ne nous confère pas la liberté d’embrasser n’importe quelle paire de notions apparemment contradictoires qui nous prennent au dépourvu. Comme une drogue puissante, la théorie quantique est merveilleuse lorsqu’elle est appliquée correctement ; elle est désastreuse lorsqu’on en abuse et l’applique à mauvaise escient.

 108 

  Lectures complémentaires Les livres relatifs à la théorie quantique sont légion. La liste suivante présente une courte sélection personnelle qui pourrait être utile de pour un lecteur à la recherche d’informations complémentaires. Des livres qui utilisent plus les mathématiques que celui-ci, tout en restant accessibles : T. Hey et P. Walters, The Quantum Universe (Cambridge University Press, 1987) J. C. Polkinghorne, The Quantum World (Penguin, 1990) M. Rae, Quantum Physics: Illusion or Reality? (Cambridge University Press, 1986) Un livre qui utilise les mathématiques à un niveau professionnel, tout en étant beaucoup plus concerné par les questions d’interprétation que le sont les manuels scolaires : C. J. Isham, Lectures on Quantum Theory: Mathematical and Structural Foundations (Imperial College Press, 1995) La présentation la plus connue d’un des fondateurs du sujet : P. A. M. Dirac, The Principles of Quantum Mechanics, 4e ed. (Oxford University Press, 1958) Une analyse philosophique complexe sur quelques thèmes sujets à interprétation : B. d’Espagnat, Reality and the Physicist: Knowledge, Duration and the Quantum World (Cambridge University Press, 1989) Une introduction plus générale aux questions de philosophie des sciences : W. H. Newton-Smith, The Rationality of Science (Routledge et Kegan Paul, 1981)  109 

  La théorie quantique  

Newton-Smith, cependant, ne tient pas compte de la pensée de Michael Polanyi, que l’on peut trouver dans : M. Polanyi, Personal Knowledge (Routledge et Kegan Paul, 1958) Des livres présentant un intérêt particulier pour la version bohmienne de la théorie quantique : D. Bohm et B. Hiley, The Undivided Universe (Routledge, 1993) J. T. Cushing, Quantum Mechanics: Historical Contingency and the Copenhagen Hegemony (University of Chicago Press, 1994) Les écrits de deux figures fondatrices : N. Bohr, Atomic Physics and Human Knowledge (Wiley, 1958) W. Heisenberg, Physics and Philosophy: The Revolution in Modern Science (Allen & Unwin, 1958) Les biographies des principaux physiciens quantiques : A. Pais, Niels Bohr’s Times in Physics, Philosophy and Polity (Oxford University Press, 1991) H. S. Kragh, Dirac: A Scientific Biography (Cambridge University Press, 1990) A. Pais, “Subtle is the Lord…”: The Science and Life of Albert Einstein (Oxford University Press, 1982) J. Gleick, Genius: The Life and Science of Richard Feynman (Pantheon, 1992) D. C. Cassidy, Uncertainty: The Life and Science of Werner Heisenberg (W. H. ­Freeman, 1992) W. Moore, Schrödinger: Life and Thought (Cambridge University Press, 1989)

 110 

  Glossaire D’une manière générale, ce glossaire se limite à définir les termes présents dans le texte ou qui sont particulièrement importants pour une compréhension de base de la théorie quantique. D’autres termes qui ne reviennent qu’une seule fois ou qui sont d’une importance moins fondamentale sont définis dans le texte lui-même, et sont accessibles via l’index. Bosons : particules dont les fonctions d’onde sont symétriques. Chaologie quantique : le sujet (très mal compris) de la mécanique quantique des systèmes chaotiques. Complémentarité : le fait, très souligné par Niels Bohr, qu’il existe des façons distinctes et mutuellement exclusives d’envisager un système quantique. Constante de Planck : la nouvelle constante physique fondamentale qui fixe l’échelle de la théorie quantique. Décohérence : effet de l’environnement sur les systèmes quantiques, capable d’induire rapidement un comportement presque classique. Degrés de liberté : les différentes manières indépendantes dont un système dynamique peut changer au cours de son mouvement. École de Copenhague : une famille d’interprétations de la théorie quantique dérivée de Niels Bohr et mettant l’accent sur l’indétermination et le rôle des appareils de mesure classiques dans la mesure. Effondrement du paquet d’ondes : changement discontinu de la fonction d’une onde occasionné par un acte de mesure. Épistémologie : discussion philosophique sur la signification de ce que nous pouvons savoir.  111 

  La théorie quantique  

Équation de Schrödinger : l’équation fondamentale de la théorie quantique qui détermine comment la fonction d’onde varie avec le temps. Fermions : particules dont les fonctions d’onde sont asymétriques. Fonction d’onde : la représentation mathématique la plus utile d’un état dans la théorie quantique. C’est une solution de la dualité onde/particule de l’équation de Schrödinger : la propriété quantique selon laquelle les entités peuvent parfois se comporter comme des particules et parfois comme des ondes. Formule de Balmer : une formule simple pour les fréquences des raies les plus importantes du spectre de l’hydrogène. Inégalités de Bell : conditions qui devraient être satisfaites dans une théorie strictement locale, sans corrélations non locales. Interprétation des multimondes : une interprétation de la théorie quantique dans laquelle tous les résultats possibles de la mesure sont effectivement réalisés dans différents mondes parallèles. L’effet EPR : conséquence contre-intuitive que deux entités quantiques qui ont interagi l’une avec l’autre conservent un pouvoir d’influence mutuelle quelle que soit la distance qui les sépare. Moment angulaire : une quantité dynamique qui est la mesure du mouvement de rotation. Non-commutant : la propriété que l’ordre de multiplication importe, de sorte qu’AB n’est pas la même chose que BA. Observables : quantités qui peuvent être mesurées expérimentalement. Ontologie : discussion philosophique sur la nature de l’être. Phénomènes d’interférence : effets résultant de la combinaison des ondes, qui peuvent se traduire par un renforcement (ondes en phase) ou une annulation (ondes hors phase). Physique classique : théorie physique déterministe et imaginable (au sens de « image ») du type de celle qu’Isaac Newton a découverte.  112 

 Glossaire 

Physique statistique : traitement du comportement global des systèmes complexes sur la base de leurs états les plus probables. Positivisme : position philosophique selon laquelle la science se préoccupe simplement de la corrélation entre des phénomènes directement observés. Pragmatisme : la position philosophique selon laquelle la science est en réalité une question de capacité technique à faire avancer les choses. Principe d’exclusion : la condition selon laquelle deux fermions (comme deux électrons) ne peuvent pas être dans le même état. Principe d’incertitude : le fait qu’en théorie quantique, les éléments observables peuvent être regroupés par paires (comme la position et la quantité de mouvement, le temps et l’énergie) de telle sorte que les deux membres de la paire ne peuvent pas être mesurés simultanément avec une exactitude précise. L’échelle de la limite de la précision simultanée est fixée par la constante de Planck. Problème de mesure : la question litigieuse dans l’interprétation de la théorie quantique concernant la manière dont on doit comprendre l’obtention d’un résultat précis à chaque fois qu’une mesure est effectuée. Quarks et gluons : candidats actuels pour les constituants de base de la matière nucléaire. Rayonnement : énergie transportée par le champ électromagnétique. Réalisme : la position philosophique selon laquelle la science nous dit ce qu’est réellement le monde physique. Spin : le moment angulaire intrinsèque que possèdent les particules élémentaires Statistiques : le comportement des systèmes composés de particules identiques. Superposition : principe fondamental de la théorie quantique qui permet d’additionner des états qui, en physique classique, ne sont pas additionnables.  113 

  La théorie quantique  

Théorie bohmienne : une interprétation déterministe de la théorie quantique proposée par David Bohm. Théorie du chaos : la physique des systèmes dont l’extrême sensibilité aux détails des circonstances rend leur comportement futur intrinsèquement imprévisible. Théorie quantique des champs : application de la théorie quantique à des champs tels que le champ électromagnétique ou le champ associé aux électrons. Variables cachées : des quantités non observables qui aident à fixer ce qui se passe réellement dans une interprétation déterministe de la théorie quantique.

 114 

  Annexe mathématique J’expose ici, sous une forme concise, quelques détails mathématiques simples qui éclaireront, pour ceux qui le souhaitent, divers points soulevés dans le texte principal. Les prérequis pour lire cette annexe vont de la capacité à se sentir à l’aise avec les équations algébriques à une certaine familiarité élémentaire avec la notation du calcul différentiel.

1. La formule de Balmer Il est très utile de donner la formule sous la forme légèrement modifiée dans laquelle elle a été réécrite par Rydberg. Si υn est la fréquence de la n-ième ligne du spectre visible de l’hydrogène (n prenant les valeurs entières, 3, 4…), alors 1 1 υn = cR  2 − 2  , (1.1) 2 n  où c est la vitesse de la lumière et R est une constante appelée la constante Rydberg. Exprimer la formule de cette manière, comme la différence de deux termes, s’est finalement avéré être une manœuvre astucieuse (voir la section 3 ci-dessous). D’autres séries de lignes spectrales dans lesquelles le premier terme est 1/12, 1/32, etc., ont été identifiées par la suite.

2. L’effet photoélectrique Selon Planck, le rayonnement électromagnétique oscillant υ fois par seconde est émis en quanta d’énergie hυ, où h est la constante de Planck et a la valeur minuscule de 6,63 × 10– 34 joules-secondes. (Si l’on remplace υ par la fréquence angulaire ω = 2πυ, la formule devient ħω, où ħ = h/2π, aussi souvent appelée constante de Planck et prononcée « h bar » ou « h slash »).  115 

  La théorie quantique  

Einstein avait avancé que ces quanta avaient une existence permanente. Si un rayonnement tombait sur un métal, l’un des électrons du métal pourrait absorber un quantum, acquérant ainsi son énergie. Si l’énergie nécessaire à l’électron pour s’échapper du métal était W, alors cette évasion aurait lieu si hυ > W, mais elle serait impossible si hυ