Symétries continues 9782759826322

Les groupes de symétrie, ou groupes d’invariance, jouent un rôle important dans toute la physique. Les translations d’es

194 23 13MB

French Pages 533 [532] Year 2021

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Symétries continues
 9782759826322

Citation preview

Franck Laloë

Symétries continues

S AV O I R S A C T U E L S EDP Sciences/CNRS Éditions

Dans la même collection : Plasmas créés par laser - Généralités et applications choisies Patrick Mora Physique de la turbulence - Des tourbillons aux ondes Sébastien Galtier Le temps dans la géolocalisation par satellites Pierre Spagnou et Sébastien Trilles Physique quantique, information et calcul - Des concepts aux applications Pascal Degiovanni, Natacha Portier, Clément Cabart, Alexandre Feller et Benjamin Roussel Théorie statistique des champs François David Mécanique quantique - Tomes I, II et III Claude Cohen-Tannoudji, Bernard Diu et Franck Laloë Comprenons-nous vraiment la mécanique quantique ? - 2e édition Franck Laloë Retrouvez tous nos ouvrages et nos collections sur http://laboutique.edpsciences.fr Imprimé en France

© 2021, EDP Sciences, 17 avenue du Hoggar, BP 112, Parc d’activités de Courtabœuf, 91944 Les Ulis Cedex A et CNRS Éditions, 15, rue Malebranche, 75005 Paris. Tous droits de traduction, d’adaptation et de reproduction par tous procédés réservés pour tous pays. Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des pages publiées dans le présent ouvrage, faite sans l’autorisation de l’éditeur est illicite et constitue une contrefaçon. Seules sont autorisées, d’une part, les reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective, et d’autre part, les courtes citations justifiées par le caractère scientifique ou d’information de l’œuvre dans laquelle elles sont incorporées (art.  L.  122-4, L.  122-5 et L.  335-2 du Code de la propriété intellectuelle). Des photocopies payantes peuvent être réalisées avec l’accord de l’éditeur. S’adresser au : Centre français d’exploitation du droit de copie, 3, rue Hautefeuille, 75006 Paris. Tél. : 01 43 26 95 35. EDP Sciences, ISBN (papier) : 978-2-7598-2631-5, ISBN (ebook) : 978-2-7598-2632-2 CNRS Éditions, ISBN : 978-2-271-13957-3

Table des matières I

Transformations de symétrie A Symétries fondamentales . . . . . . . . . . . . . . . . . . . . . B Symétries en mécanique classique . . . . . . . . . . . . . . . . C Symétries en mécanique quantique . . . . . . . . . . . . . . .

1 1 6 24

AI Points de vue d’Euler et de Lagrange en mécanique classique 29 1 Point de vue d’Euler . . . . . . . . . . . . . . . . . . . . . . . 30 2 Point de vue de Lagrange . . . . . . . . . . . . . . . . . . . . 32 *********** II Notions sur la théorie des groupes 37 A Propriétés générales des groupes . . . . . . . . . . . . . . . . 38 B Représentations linéaires d’un groupe . . . . . . . . . . . . . 48 AII Classes résiduelles d’un sous-groupe ; groupe quotient 57 1 Classes résiduelles à gauche . . . . . . . . . . . . . . . . . . . 57 2 Groupe quotient . . . . . . . . . . . . . . . . . . . . . . . . . 58 *********** III Introduction aux groupes continus A Propriétés générales . . . . . . . . B Exemples . . . . . . . . . . . . . . C Groupes de Galilée et de Poincaré

et groupes de Lie 61 . . . . . . . . . . . . . . . 62 . . . . . . . . . . . . . . . 78 . . . . . . . . . . . . . . . 86

AIII Représentation adjointe, forme de Killing, opérateur de Casimir 97 1 Représentation adjointe à l’algèbre de Lie . . . . . . . . . . . 97 2 Forme de Killing ; produit scalaire et changement de base dans L . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 3 Constantes de structure totalement antisymétriques . . . . . 101 4 Opérateur de Casimir . . . . . . . . . . . . . . . . . . . . . . 102

TABLE DES MATIÈRES

IV Représentations induites dans l’espace des états 105 A Conditions imposées aux transformations dans l’espace des états107 B Théorème de Wigner . . . . . . . . . . . . . . . . . . . . . . . 109 C Transformations des observables . . . . . . . . . . . . . . . . 114 D Représentations linéaires dans l’espace des états . . . . . . . . 115 E Facteurs de phase et représentations projectives . . . . . . . . 120 AIV Représentations projectives unitaires de dimension finie des groupes de Lie connexes 127 1 Cas où G est simplement connexe . . . . . . . . . . . . . . . . 128 2 Cas où G est p-connexe . . . . . . . . . . . . . . . . . . . . . 131 BIV Théorème de Uhlhorn-Wigner 133 1 Espace réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 2 Espace complexe . . . . . . . . . . . . . . . . . . . . . . . . . 137 *********** V Représentations des groupes de Galilée et de Poincaré : masse, spin et énergie 139 A Groupe de Galilée . . . . . . . . . . . . . . . . . . . . . . . . 141 B Groupe de Poincaré . . . . . . . . . . . . . . . . . . . . . . . 154 AV Quelques propriétés des opérateurs S et W 2 171 1 Opérateur S . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171 2 Valeurs propres de l’opérateur W 2 . . . . . . . . . . . . . . . 173 BV Groupe des déplacements géométriques 177 1 Rappels : propriétés classiques des déplacements . . . . . . . 178 2 Opérateurs associés dans l’espace des états . . . . . . . . . . 190 CV Groupe de Lorentz propre 1 Lien avec le groupe SL(2, C) . . . . . . . . . . . . . . . . . . 2 Petit groupe associé à un quadrivecteur . . . . . . . . . . . . 3 Opérateur W 2 . . . . . . . . . . . . . . . . . . . . . . . . . .

201 201 207 211

DV Réflexions d’espace (parité) 213 1 Action dans l’espace réel . . . . . . . . . . . . . . . . . . . . . 213 2 Opérateur associé dans l’espace des états . . . . . . . . . . . 215 3 Conservation de la parité . . . . . . . . . . . . . . . . . . . . 217

iv

TABLE DES MATIÈRES

VI Construction d’espaces des états et d’équations d’onde 221 A Groupe de Galilée, équation de Schrödinger . . . . . . . . . . 222 B Groupe de Poincaré, équations de Klein-Gordon et de Dirac . 234 AVI Lagrangiens des équations d’onde 1 Lagrangien pour un champ . . . . 2 Equation de Schrödinger . . . . . . 3 Equation de Klein-Gordon . . . . . 4 Equation de Dirac . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

245 245 248 249 249

*********** VII Représentations irréductibles du groupe spineurs A Représentations unitaires irréductibles du tions . . . . . . . . . . . . . . . . . . . . B Particules de spin 1/2 ; spineurs . . . . . . C Composition des moments cinétiques . . .

des rotations, groupe des . . . . . . . . . . . . . . . . . . . . .

251 rota. . . . 252 . . . . 274 . . . . 281

AVII Homorphisme entre les matrices de SU (2) et celles de rotation 297 1 Transformation d’un vecteur P induite par une matrice de SU (2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297 2 La transformation est une rotation . . . . . . . . . . . . . . . 299 3 Homomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . 300 4 Lien avec le raisonnement du chapitre VII . . . . . . . . . . . 301 5 Lien avec les représentations bivaluées . . . . . . . . . . . . . 303 *********** VIII Transformation des observables par rotation 305 A Opérateurs vectoriels . . . . . . . . . . . . . . . . . . . . . . . 308 B Opérateurs tensoriels . . . . . . . . . . . . . . . . . . . . . . . 312 C Théorème de Wigner-Eckart . . . . . . . . . . . . . . . . . . . 329 D Décomposition de la matrice densité sur les opérateurs tensoriels345 AVIII Rappels élémentaires sur les tenseurs classiques 1 Vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . 2 Tenseurs . . . . . . . . . . . . . . . . . . . . . . . . . 3 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . 4 Critère de tensorialité . . . . . . . . . . . . . . . . . 5 Tenseurs symétriques et antisymétriques . . . . . . . 6 Tenseurs particuliers . . . . . . . . . . . . . . . . . . 7 Tenseurs irréductibles . . . . . . . . . . . . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

355 355 356 359 361 361 362 363 v

TABLE DES MATIÈRES

BVIII Opérateurs tensoriels du second ordre 367 1 Produit tensoriel de deux opérateurs vectoriels . . . . . . . . 367 2 Composantes cartésiennes du tenseur dans le cas général . . . 369 CVIII Les moments multipolaires 1 Moments multipolaires électriques . . . . . . . . . . . . . . . 2 Moments multipolaires magnétiques . . . . . . . . . . . . . . 3 Moments multipolaires d’un système quantique dans une multiplicité de moment cinétique J donné . . . . . . . . . . . . .

373 374 387 393

*********** IX Groupes SU (2) et SU (3) 399 A Système de particules discernables mais équivalentes . . . . . 401 B Groupe SU (2) et symétrie d’isospin . . . . . . . . . . . . . . 417 C Symétrie SU (3) . . . . . . . . . . . . . . . . . . . . . . . . . . 423 AIX La nature d’une particule est équivalente à un nombre quantique interne 449 1 Antisymétrisation partielle ou totale d’un vecteur d’état . . . 449 2 Correspondance entre les états de deux systèmes physiques . 451 3 Conséquences physiques . . . . . . . . . . . . . . . . . . . . . 453 BIX Opérateurs changeant la symétrie d’un vecteur d’état par permutation 455 1 Fermions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 455 2 Bosons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459 *********** X Brisures de symétrie 461 A Magnétisme, brisure de la symétrie de rotation . . . . . . . . 462 B Quelques autres exemples . . . . . . . . . . . . . . . . . . . . 469 APPENDICE I

vi

Le renversement du temps 1 Renversement du temps en mécanique classique . . . . . . . . 2 Opérateurs antilinéaires et antiunitaires en mécanique quantique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Renversement du sens du temps et antilinéarité . . . . . . . . 4 Forme explicite de l’opérateur de renversement du temps . . . 5 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . .

477 477 478 483 491 498 503

Préface La naissance de la mécanique quantique a souvent été comparée à celle de la relativité, initialement introduite en 1905 par Albert Einstein. La force du raisonnement d’Einstein a été de partir d’idées physiques fondées sur l’invariance de la vitesse de la lumière, d’en déduire un principe de symétrie très général (équivalence de tous les référentiels inertiels), puis de traduire ces idées en équations, pour enfin construire une théorie conséquence nécessaire de ces équations. Il est ainsi arrivé à la relativité, sous sa forme dite spéciale (ou restreinte). Cette construction déductive a donné aux théories de la relativité, tant spéciale que générale (elle aussi basée sur un principe physique, le principe d’équivalence), un caractère particulièrement convaincant. Par opposition en quelque sorte, la découverte de la mécanique quantique n’est pas issue d’un tel superbe raisonnement abstrait, mais plutôt d’une collection de mystères expérimentaux : comment calculer le rayonnement du corps noir, les spectres atomiques, ou l’effet photoélectrique ? Après 25 ans d’efforts, de 1900 à 1925, la solution est apparue, comme un algorithme presque magique, fournissant des résultats permettant d’expliquer toutes les expériences. En quelques années, il a aussi été démontré que ce formalisme était mathématiquement cohérent, même s’il pouvait être écrit sous différentes formes, soit en tant qu’équations d’onde, soit en tant que mécanique matricielle. Il s’agissait donc d’un succès fantastique pour la physique, assorti d’une énorme réserve : alors que les équations étaient cohérentes et claires, et les prédictions toujours vérifiées, les objets physiques eux-mêmes restaient mal définis. De nombreuses interprétations contradictoires ont donc été proposées, en tentant désespérément de reconstruire des objets et des propriétés à partir de ces extraordinaires équations. Le manque de succès de ces tentatives a pu conduire à la conclusion qu’elles étaient irrémédiablement vouées à l’échec et qu’il n’y avait rien, ou alors quelque chose vide de sens, entre les données expérimentales et le formalisme mathématique. Alors que nous approchons du centenaire de la mécanique quantique, la situation est-elle toujours la même ? Ou est-il possible d’identifier quelques pierres blanches le long de ce chemin accidenté, qui pourraient finalement donner un sens à toute la construction ? Et il s’agirait ici de revenir à l’idée simple qui fonde la physique, en affirmant qu’elle décrit bien des objets et leurs propriétés, qui existent dans le monde réel. À mon avis, ce livre est une telle pierre blanche sur le long chemin de la physique quantique. J’ai découvert ces idées en tant qu’étudiant au “DEA Brossel” au début des années 1980, en suivant le cours de Franck dont cet ouvrage est isssu, et elles m’ont immédiatement fasciné. Au lieu de règles de quantification canoniques mystérieuses et presque magiques, une grande partie du formalisme de la mécanique quantique était obtenue par une voie beaucoup plus terre à terre : en partant simplement des règles qui régissent vii

Préface le monde de la physique classique, intégrées dans des principes de symétrie. Ces règles incluent les transformations géométriques, translations dans l’espace et le temps, rotations, et peuvent être étendues aux changements de référentiel, qu’ils soient effectués en relativité galiléenne ou einsteinienne. En admettant que la description d’un système quantique requiert un espace de Hilbert (j’y reviendrai plus loin), on peut montrer que toutes ces transformations de symétrie continues doivent être représentées, au sens mathématique, par des transformations unitaires (ou antiunitaires) agissant dans l’espace de Hilbert. A partir de la structure même de ces transformations géométriques généralisées, et avec un petit (mais crucial !) détour par les algèbres de Lie pour écrire des relations de commutations entre générateurs infinitésimaux des opérations de symétrie, de nombreuses caractéristiques essentielles de la mécanique quantique apparaissent alors “spontanément” : l’équation de Schrödinger dans le cas de la relativité de Galilée, les équations de Klein-Gordon et de Dirac dans le cas de la relativité d’Einstein, et le spin (étonnamment !) dans les deux cas. Cet ouvrage présente ces reconstructions de manière particulièrement claire et convaincante. À mon avis, cette connexion intime entre le classique et le quantique nous indique qu’il est également vain de tenter, soit de “rendre le quantique classique” avec des variables cachées ou idées similaires, soit de “rendre le classique quantique”, avec des approches de type émergence. En fait, et en accord avec une version rajeunie des idées de Bohr, les deux aspects classique et quantique sont simultanément nécessaires pour décrire notre monde physique, parce que la description des systèmes quantiques (idéalement isolés) n’a de sens que si elle est intégrée dans des contextes classiques (idéalement non bornés). Mais je parle là de mon point de vue personnel, et pas de celui exprimé par Franck dans ce livre, donc je dois ajouter qu’au-delà de ces questions fondamentales on y trouve aussi des réponses très pratiques – qui étaient en fait le véritable objectif du cours de DEA ! Il s’agit donc d’apprendre à connaître les opérateurs tensoriels irréductibles, le théorème de Wigner-Eckart, les coefficients de Clebsch-Gordan – des notions moins métaphysiques que les considérations précédentes, mais néanmoins d’une importance fondamentale, en particulier pour toute la théorie des spectres atomiques et moléculaires. Dans une dernière partie de cette introduction, je ne peux m’empêcher de revenir sur une affirmation précédente, “admettre qu’un système quantique a besoin d’un espace de Hilbert... ” : mais pourquoi en est-il ainsi ? Cette question m’a préoccupé pendant de nombreuses années, mais je pense avoir une réponse maintenant, même si elle n’est pas (encore ?) partagée par Franck : ce qui doit venir avant le présent livre est simplement une forme de théorie non classique des probabilités, basée sur des projections (dans un espace de Hilbert) plutôt que sur des partitions (dans une tribu de Borel), viii

Préface comme ce serait le cas en physique classique. L’idée de base de cette nouvelle théorie des probabilités est d’associer des projecteurs mutuellement orthogonaux à des résultats de mesure mutuellement exclusifs. Ceci correspond à une propriété fondamentalement quantique, à savoir que les évènements mutuellement exclusifs correspondant à des résultats de mesure ne peuvent être subdivisés, et que pour un système donné, il n’y aura jamais plus de N résultats de mesure mutuellement exclusifs dans tout contexte de mesure réalisable. Cette idée de quantification contextuelle est extensible (avec quelques précautions mathématiques !) à N infini dénombrable, en utilisant des bases hilbertiennes et des distributions. En admettant cette idée fondamentalement quantique, et quelques arguments simples, il n’y a en fait plus de choix : des théorèmes mathématiques très puissants permettent de montrer que la seule théorie possible est la mécanique quantique. Plus précisément, le théorème d’Uhlhorn, discuté dans un complément de ce livre, montre que les transformations unitaires entre projecteurs sont nécessaires pour conserver le caractère mutuellement exclusif des èvènements dans chaque contexte ; et le théorème de Gleason montre que la loi de Born est nécessaire pour respecter la structure générale d’une loi de probabilité. Une fois ce cadre probabiliste établi, on parvient en fait au point de départ de cet ouvrage, et la vraie physique – celle des transformations de symétrie continues – peut entrer en action. Je ne pense pas que Franck veuille se lancer sur cette voie aventureuse, bien qu’elle me soit apparue comme une conséquence des développements présentés ici ; mais que vous soyez d’accord ou pas, les idées présentées dans cet ouvrage sont passionnantes, découvrez-les (ou redécouvrez-les) ! Philippe Grangier CNRS - Institut d’Optique Graduate School - Ecole Polytechnique.

ix

x

Introduction Comme beaucoup d’ouvrages, celui-ci est issu d’un cours présenté devant des étudiants pendant plusieurs années, d’un polycopié rédigé à cette occasion, ainsi que d’exposés préparés par ces mêmes étudiants pour en illustrer certains aspects. Au tout début, il s’agissait d’un cours du DEA “Physique quantique” dispensé à la fin des années 1970 au laboratoire de physique de l’ENS. L’objectif principal était de familiariser de futurs doctorants avec les techniques de calcul basées sur l’invariance par rotation, les opérateurs tensoriels irréductibles, le théorème de Wigner-Eckart, etc. Ces techniques, souvent importées de la physique nucléaire, étaient en effet devenues un outil de base en optique quantique, théorie du pompage optique, relaxation, etc. Avec cet objectif, il m’avait cependant semblé utile de replacer l’exposé dans un contexte un peu plus général, et de reprendre les idées de Wigner sur le rôle essentiel des générateurs du groupe de Poincaré. L’expérience a rapidement montré que cet aspect intéressait particulièrement les étudiants (ainsi d’ailleurs que l’enseignant !), et ce qui était au départ un cours de deux heures s’est rapidement développé en plusieurs chapitres. Au bout de quelques années, cet aspect plus fondamental était devenu une bonne moitié du cours. Le contenu de cet ouvrage reflète tout naturellement cette dualité dans les objectifs d’enseignement. Un premier point de vue est celui du lecteur désirant maîtriser le plus rapidement possible les outils techniques d’un tel cours. Après une introduction générale, il pourra directement passer aux chapitres VII et VIII qui exposent les résultats principaux concernant les symétries de rotation, ou au chapitre IX concernant les symétries d’échange entre particules. C’est également avec l’objectif de fournir des outils pratiques utiles que le complément DV , ainsi que l’appendice, font des incursions dans le domaine des symétries discrètes : la parité d’espace et le renversement du temps. Au lieu de considérer cette dernière comme une symétrie à part, comme c’est souvent le cas, nous la placerons dans le cadre général des symétries d’espace-temps. Un autre point de vue sera celui du lecteur qui, au contraire, désire privilégier les aspects fondamentaux. Il se dirigera alors plutôt vers les chapitres V et VI. La démarche qui y est présentée est celle de Wigner [4] dans le cadre de la relativité restreinte d’Einstein, et celle de Levy-Leblond [29, 30] dans le cadre galiléen. Elle permet de montrer comment “le quantique émerge du classique” à partir d’hypothèses très générales : d’une part on suppose que l’espace-temps classique reste en mécanique quantique le cadre général permettant de décrire l’évolution des systèmes physiques, et d’autre part on suppose que cette description se fait dans un espace des états linéaire (et complexe). Inutile alors d’utiliser des “règles de quantification”, plus ou moins artificielles et parfois ambigües, afin de passer d’une description classique à une description quantique d’un système physique. Les seules propriétés de l’espace-temps classique permettent en effet de prévoir l’existence xi

Introduction d’opérateurs quantiques linéaires agissant dans l’espace des états, et possèdant des propriétés de commutation bien précises ; à partir de là, on peut ensuite construire des espaces des états divers, plus ou moins simples. Ainsi, sans aucune hypothèse supplémentaire on démontre l’existence de plusieurs opérateurs, un de masse (diagonal), un autre d’impulsion, un autre de moment cinétique, etc. De plus, et même pour une particule ponctuelle, on voit apparaître un opérateur de spin associé à une rotation interne, ce qui est impossible en mécanique classique (un objet vraiment ponctuel ne peut tourner sur lui-même). En un sens on pourrait dire que, partant de considérations physiques (l’espace-temps a une structure classique donnée par la relativité restreinte) on arrive à des résultats mathématiques sur les descriptions quantiques possibles des objets les plus simples (représentations irréductibles). A partir de ces considérations, on peut construire diverses équations d’onde quantiques : équations de Schrödinger, Klein-Gordon, Dirac. D’un point de vue pratique, nous avons utilisé la convention usuelle selon laquelle des passages pouvant être sautés en première lecture sont imprimés en plus petits caractères. Nous avons également conservé, dans toute la mesure du possible, les notations de la référence [10]. Après quelques hésitations, nous n’avons pas fait un usage généralisé des notations covariantes de la relativité. Ces notations sont certes presque indispensables en théorie des champs, et il est donc utile de familiariser le lecteur avec elles. On y gagne aussi en élégance, par exemple lorsque l’on traite les 6 générateurs du groupe de Lorentz propre comme les composantes d’un seul tenseur du second ordre, que l’on construit le générateur de Pauli-Lubanski, etc. Mais on perd ainsi un objectif constant de notre approche : mener des raisonnements parallèles pour les groupes de Galilée et de Poincaré, bien identifier les termes supplémentaires en 1/c qui apparaissent dans le second cas, et mettre ainsi en lumière l’origine des effets relativistes. Nous nous en sommes donc tenus à la notation la plus élémentaire qui, pour finir, n’impose pas de calculs plus longs si l’on veut détailler chaque étape du raisonnement. Les diverses versions du polycopié initial, ainsi que du présent manuscrit, ont bénéficié des conseils de bien des collègues et étudiants ayant suivi ce cours. Ne pouvant tous les citer, je me limiterai à deux, qui depuis sont devenus des chercheurs réputés (et des amis) : Dominique Delande, un des premiers à avoir pris la peine de lire en détail le polycopié initial et proposé des corrections fort utiles ; Philippe Grangier qui, depuis toujours, s’est montré un partisan enthousiaste de ces méthodes de “construction” de la mécanique quantique à partir des symétries, et en a fait usage dans ses propres travaux. L’appendice sur le renversement du temps a grandement bénéficié des remarques très pertinentes de Guy Fishman. Un grand merci tout spécial à Michel Le Bellac qui, après une lecture soigneuse de plusieurs chapitres, a fait plusieurs suggestions très intéressantes, et m’a incité à compléter le texte sur certains points qui manquaient effectivement à l’exposé. xii

Chapitre I

Transformations de symétrie A

B

C

A. A-1.

Symétries fondamentales . . . . . . . . . . . . A-1 Définition . . . . . . . . . . . . . . . . . . . . A-2 Exemples . . . . . . . . . . . . . . . . . . . . A-3 Points de vue actif et passif . . . . . . . . . . Symétries en mécanique classique . . . . . . B-1 Equations de Newton . . . . . . . . . . . . . B-2 Equations de Lagrange . . . . . . . . . . . . . B-3 Equations de Hamilton . . . . . . . . . . . . Symétries en mécanique quantique . . . . . . C-1 Procédure standard de quantification . . . . . C-2 Transformations de symétrie . . . . . . . . . C-3 Conséquences générales . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. 1 . 1 . 3 . 4 . 6 . 6 . 8 . 19 . 24 . 24 . 25 . 27

Symétries fondamentales Définition

Considérons un système physique quelconque qui, à l’instant t0 , se trouve dans l’état S(t0 ). Pour un système classique constitué par exemple de N particules, S(t0 ) désignera les 2N valeurs des positions et vitesses des particules à l’instant t0 . Après évolution, le système se trouve à l’instant t dans l’état S(t). Introduisons maintenant une transformation T qui, au système dans un état S quelconque, fasse correspondre un autre système dans un état S 0 (figure 1). Les types de transformations T que l’on peut imaginer sont évidemment multiples : dilatation dans un facteur 2 des distances entre particules, rotation des positions et des vitesses d’un angle donné (fixe ou dépendant du temps), changement de signe des charges électriques, etc.

CHAPITRE I

TRANSFORMATIONS DE SYMÉTRIE

Figure 1 – On considère une transformation T qui, à tout état S(t) d’un système physique, fait correspondre un autre état S 0 (t). Si les mêmes lois d’évolution permettent de calculer la séquence des états S(t) et celle des états S 0 (t), on dit que T est une transformation de symétrie.

L’application de la transformation à une suite quelconque d’états S(t), décrivant un mouvement possible du système, donne une autre suite d’états S 0 (t). Par définition, nous dirons que T est une transformation de symétrie si la suite des états S 0 (t) décrit aussi un mouvement possible du système, c’est-à-dire un système régi par les mêmes lois d’évolution que le système initial ; cette condition doit être satisfaite quel que soit l’état initial S(t0 ) choisi. Une transformation T est dite de symétrie si les transformés par T de tous les mouvements possibles sont également des mouvements possibles. Une autre façon de présenter les choses est de dire que, sur la figure 1, on peut à tout instant t “refermer le carré” par une transformation T , et ceci quel que soit le mouvement considéré. La définition d’une transformation de symétrie T ne concerne donc pas seulement un état instantané S(t) du système à un instant donné (par exemple lorsque l’on dit que telle figure géométrique est symétrique ou pas) mais l’ensemble des états par lesquels le système passe successivement lorsque le temps s’écoule. On peut d’ailleurs considérer des transformations T qui ne soient pas elles-mêmes instantanées (translations ou dilatations de l’échelle des temps, etc.) 2

A. SYMÉTRIES FONDAMENTALES

A-2.

Exemples

Reprenons les quelques exemples de transformations cités plus haut. L’opération de dilatation d’espace dans un facteur 2 n’est pas en général une transformation de symétrie de la mécanique classique, pas plus que celle associée à une rotation du système d’un angle proportionnel au temps (passage dans un référentiel non galiléen, où les effets d’inertie se manifestent différemment). Par contre, et nous y reviendrons en détail, l’opération de translation ou de rotation d’une quantité fixe d’un système physique isolé est une opération de symétrie (homogénéité et isotropie de l’espace). Citons un certain nombre de symétries, dites fondamentales : – les translations dans l’espace ; – les rotations dans l’espace ; – les translations dans le temps ; – les transformations “relativistes” de Lorentz (ou de Galilée) ; – P (parité, c’est-à-dire symétrie d’espace par rapport à l’origine), C (conjugaison de charge) et T (renversement du temps) ; – l’échange entre particules identiques. Parmi ces transformations, toutes sont actuellement considérées comme transformations de symétrie pour l’ensemble des lois physiques régissant les systèmes isolés 1 , sauf P , C et T . Ces dernières ne sont transformations de symétrie que si les interactions considérées dans le système sont d’origine électromagnétique (ou forte), mais pas si les interactions faibles jouent un rôle. On peut remarquer que l’invariance par translation de l’évolution d’un système isolé serait une notion difficile à abandonner complètement ; elle constitue presque la définition de ce que l’on entend par “système physique isolé”. Pour les translations dans le temps, si elles n’étaient pas, au moins de façon approchée 2 , transformations de symétrie par les systèmes isolés, les fondements de la physique ou même de la méthode scientifique elle-même seraient bouleversés : la même expérience faite aujourd’hui ou demain donnerait des résultats différents. Dans la mesure où, à l’heure actuelle, ces symétries sont considérées comme devant être satisfaites par toutes les lois physiques quelles qu’elles soient, connues ou à découvrir, on peut dire qu’elles fournissent des “superlois” (Wigner) de caractère particulièrement fondamental. On comprend donc l’importance qui s’attache à leur étude. 1. Bien sûr, il faut aussi exclure les transformations de Galilée, puisqu’elles ne sont transformations de symétrie que dans la mesure où elles constituent des approximations des transformations de Lorentz, c’est-à-dire à la limite dite “non relativiste” (toutes les vitesses considérées  vitesse de la lumière c, toutes les distances considérées ∆x  c × ∆t). 2. Il existe certaines théories cosmologiques où des constantes physiques “fondamentales” changent (Dirac) au fur et à mesure de la dilatation de l’Univers, ce qui change le groupe de transformations laissant invariantes les lois physiques.

3

CHAPITRE I

TRANSFORMATIONS DE SYMÉTRIE

Remarques :

(i) Si deux transformations T et T 0 sont de symétrie, leur produit T 0 T a la même propriété : on s’attend à voir apparaître la structure de groupe pour les ensembles de transformations de symétrie. (ii) Dans le cas de la symétrie de renversement du temps, il faut en réalité changer sur la figure 1 S 0 (t) en S 0 (−t) et renverser le sens de la flèche verticale de droite qui symbolise l’évolution du système (cf. appendice I et sa figure 2). (iii) Nous avons dit que l’ensemble des translations et rotations était constitué de transformations de symétrie pour un système physique isolé. Pour un système physique soumis à l’action d’un potentiel extérieur (donc non isolé), certaines de ces transformations peuvent éventuellement garder leur propriété de symétrie. C’est par exemple le cas des rotations autour de l’origine O pour un système soumis à l’action d’un potentiel central autour de O. A-3.

Points de vue actif et passif

Pour définir une transformation T , deux points de vue sont possibles. Le premier est le point de vue d’un seul observateur, lié à un référentiel donné. A tout mouvement du système physique S, il fait correspondre par T un autre mouvement, obtenu à partir du premier par une transformation qui peut être une translation, une rotation, un décalage dans le temps, etc. Comme nous l’avons vu, la transformation est dite de symétrie si les deux mouvements peuvent être décrits par l’observateur par les mêmes équations dynamiques ; les deux mouvements ne diffèrent alors que par des conditions initiales différentes. Ce point de vue est dit “actif”, puisqu’il attribue à l’observateur le rôle d’appliquer la transformation. Mais on peut aussi se placer d’un second point de vue, dit passif, où un seul mouvement du système est décrit par deux observateurs, chacun utilisant son référentiel propre. De ce fait, les deux observateurs attribuent au système physique par exemple une position, ou une orientation, ou une vitesse, etc. qui n’est pas la même, de sorte qu’ils le décrivent mathématiquement de façon différente. La transformation est alors dite de symétrie si ces descriptions dans deux référentiels différents sont solutions des mêmes équations dynamiques. De façon concise, dans le point de vue actif, c’est le système qui change, alors que dans le point de vue passif c’est le référentiel (les axes). Selon les cas, l’un ou l’autre de ces points de vue est le plus naturel : pour une translation dans le temps par exemple, on visualise facilement deux mouvements différents décalés dans le temps, ce qui privilégie le point de vue actif ; mais, 4

A. SYMÉTRIES FONDAMENTALES

dans le cadre de la relativité où les observateurs attachés à divers référentiels galiléens jouent un grand rôle, le point de vue passif est souvent commode. Remarques :

(i) Dans la mesure où la définition même d’une translation, rotation, etc. est basée sur un changement des coordonnées d’espace (ou de temps) du système physique, et où ces coordonnées définissent les positions relatives de S et du système de référence, il est clair que points de vue actif et passif sont en fait équivalents. Mathématiquement, les opérations à effectuer sur les équations pour traduire l’effet de la transformation T sont exactement les mêmes dans les deux cas. Physiquement, on peut partir d’une transformation dans le point de vue passif où le mouvement de S est unique, mais vu dans deux référentiels différents ; rien n’empêche cependant de passer au point de vue actif en introduisant un nouveau mouvement qui, dans le premier référentiel, est vu comme le mouvement initial dans le second. (ii) En fait, la distinction physique entre ces deux points de vue ne prend vraiment son sens que si l’un des référentiels est privilégié par rapport à l’autre. C’est par exemple le cas si l’on a supposé (comme on le fait souvent implicitement) l’existence d’un troisième référentiel, indépendant à la fois de Oxyz et du système étudié, par exemple le référentiel du laboratoire (Oxyz peut alors être un référentiel lié à des instruments de mesure qui, comme le système étudié, sont mobiles par rapport au laboratoire). La différence entre les deux points de vue est alors claire : on “fait bouger”, soit le système, soit les appareils de mesure. Un autre cas où points de vue actif et passif diffèrent est celui où Oxyz est un référentiel d’inertie mais où la transformation T considérée dépend du temps de telle sorte que ce ne soit plus le cas de O0 x0 y 0 z 0 (par exemple T est une rotation de vitesse angulaire constante). Dans un cas de cette sorte, le point de vue passif est mieux adapté en mécanique quantique 3 . C’est en fait celui que nous prendrons souvent.

3. Un exemple simple permet de comprendre les difficultés du point de vue actif dans ce cas. On sait que la circulation de la “vitesse” (courant de probabilité) d’un électron dans un potentiel central est quantifiée. Une augmentation de sa vitesse angulaire d’une quantité quelconque n’est donc pas possible en mécanique quantique.

5

CHAPITRE I

B.

TRANSFORMATIONS DE SYMÉTRIE

Symétries en mécanique classique

En mécanique classique, nous allons voir que les symétries imposent certaines formes aux lois physiques et, de plus, donnent des constantes du mouvement. Commençons par un exemple particulièrement simple, traité dans le cadre des équations de Newton (F = mγ). B-1.

Equations de Newton

Considérons deux particules de masses m1 et m2 , de positions r1 et r2 , interagissant par un potentiel U (r1 , r2 ; t). Les équations du mouvement s’écrivent : (

m1 r¨1 = f1 (r1 , r2 ; t) = −∇r1 U (r1 , r2 ; t) m2 r¨2 = f2 (r1 , r2 ; t) = −∇r2 U (r1 , r2 ; t)

(I-1)

où r¨1 désigne la dérivée seconde de r1 et ∇r1 le gradient par rapport aux coordonnées r1 . • Invariance par translation Soit a un vecteur constant quelconque. Supposons que, dans toute transformation :  T  r1 =⇒ r1 + a  T

(I-2)

r2 =⇒ r2 + a

on obtienne à partir d’un mouvement possible un autre mouvement possible (avec le même potentiel U ). Comme la transformation ne change pas les accélérations c’est que : (

f1 (r1 + a, r2 + a ; t) = f1 (r1 , r2 ; t) f2 (r1 + a, r2 + a ; t) = f2 (r1 , r2 ; t)

(I-3)

Ainsi les gradients de la fonction potentiel U par rapport aux deux variables sont invariants lorsque les deux variables vectorielles subissent un accroissement de a. Il s’ensuit que, dans cette transformation des variables, U n’est changé que d’une constante. Cette constante peut dépendre du temps, mais reste sans conséquence sur le mouvement des particules puisqu’elle est indépendante des positions. Si de plus l’on impose à U de s’annuler à l’infini, cette constante est nécessairement nulle, ce qui implique que le potentiel reste invariant dans la transformation des variables. Il s’ensuit que U est alors une fonction de r1 − r2 seulement : U (r1 + a, r2 + a ; t) ≡ U (r1 , r2 ; t) 6

(I-4)

B. SYMÉTRIES EN MÉCANIQUE CLASSIQUE

Ceci nous impose donc une limitation sur les potentiels qui sont possibles (contrainte sur la forme des lois physiques) : U ≡ U (r1 − r2 ; t)

(I-5)

De plus, on vérifie alors immédiatement que f1 = −f2 , ce qui entraîne : d [m1 r˙ 1 + m2 r˙ 2 ] = 0 dt

(I-6)

Donc, l’impulsion totale est une constante du mouvement lorsque les translations sont transformations de symétrie. • Invariance par rotation Si, de plus, les rotations sont des transformations de symétrie, il apparaît d’autres propriétés. Par un raisonnement semblable au précédent, on voit que le champ de forces f1 (ou f2 ), considéré comme fonction de r = r1 − r2 , est invariant dans toute rotation du vecteur r. C’est donc un champ tel que f1 et f1 sont parallèles à r1 − r2 et dont le module ne dépend que de |r|. Par suite : U ≡ U (|r| ; t)

(I-7)

et : d [m1 r1 × r˙ 1 + m2 r2 × r˙ 2 ] = r1 × f1 + r2 × f2 dt = (r1 − r2 ) × f1 = 0

(I-8)

La conservation dans le temps du moment cinétique total découle donc de l’invariance de l’ensemble des mouvements possibles par rotation. • Translation dans le temps La correspondance entre les mouvements est alors donnée par :  T  r1 (t) =⇒ r1 (t − τ ) 

(I-9)

T

r2 (t) =⇒ r2 (t − τ )

où τ est une constante quelconque (le nouveau mouvement est ainsi en avance dans le temps d’une quantité +τ par rapport au mouvement initial). On aura ainsi une transformation de symétrie si : (

f1 (r1 , r2 ; t − τ ) = f1 (r1 , r2 ; t) f2 (r1 , r2 ; t − τ ) = f2 (r1 , r2 ; t)

∀τ

(I-10) 7

CHAPITRE I

TRANSFORMATIONS DE SYMÉTRIE

Les forces dépendent donc explicitement des positions, mais pas du temps. Par suite : U (r1 , r2 ; t − τ ) = U (r1 , r2 ; t) + G(t, τ )

(I-11)

La fonction G est sans signification physique puisqu’elle ne dépend pas des positions et n’affecte pas les accélérations. On peut l’éliminer et, τ étant quelconque dans (I-11), choisir une énergie potentielle qui est indépendante du temps : W (r1 , r2 ) = U (r1 , r2 ; t = 0)

(I-12)

Les mouvements possibles peuvent alors être décrits par un potentiel W indépendant du temps. Calculons maintenant : i d h m1 r˙ 12 + m2 r˙ 22 = 2 (r˙ 1 · f1 + r˙ 2 · f2 ) = −2 (r˙ 1 · ∇W + r˙ 2 · ∇W ) dt d = −2 W (I-13) dt

Nous avons donc : d dt



m1 2 m2 2 r˙ + r˙ + W = 0 2 1 2 2 

(I-14)

L’énergie totale (cinétique et potentielle) est donc une constante du mouvement. Nous n’irons pas plus loin dans l’étude des symétries du point de vue des équations de Newton. En effet, ces dernières ne constituent pas un point de départ commode pour quantifier un système physique ; il est préférable d’utiliser, soit le formalisme lagrangien, soit le formalisme hamiltonien. B-2. B-2-a.

Equations de Lagrange Formalisme général 4

Le système est décrit par un ensemble de coordonnées généralisées qi (i = 1, 2, . . . N ) ; il dépend éventuellement d’un certain nombre de paramètres λα (masses des particules, charges, etc). On suppose qu’il lui est associé une fonction L, dite fonction de Lagrange, ou encore lagrangien : L ≡ L(qi , q˙i ; t ; λα )

(I-15)

4. Pour un exposé plus détaillé, voir par exemple l’appendice III de la référence [10], ou un livre de mécanique analytique classique.

8

B. SYMÉTRIES EN MÉCANIQUE CLASSIQUE

telle que les équations du mouvement soient données par les équations de Lagrange : d dt



∂L ∂ q˙i



=

∂L ∂qi

[i = 1, 2, . . . , N ]

(I-16)

Dans ces équations, les q˙i désignent les dérivées par rapport au temps des qi . Rappelons que la dérivée totale par rapport au temps d’une fonction K (qi , q˙i ; t) est par définition : d ∂K X ∂K X ∂K K (qi , q˙i ; t) = + q˙i + q¨i dt ∂t ∂qi ∂ q˙i i i

(I-17)

Comme les équations de Newton, les équations de Lagrange sont donc du second ordre par rapport au temps. On sait qu’elles sont équivalentes à un principe de moindre action qui donne, d’un point de vue global (et non local dans le temps), les mouvements possibles du système physique considéré. Ce principe indique que, parmi tous les mouvements a priori possibles du système qui le conduisent à l’instant t1 de l’état S1 (symbolisant l’ensemble des qi ) vers l’état S2 à l’instant t2 , un mouvement ne peut être effectivement réalisé (satisfaire aux équations du mouvement) que s’il rend stationnaire l’action : A =

Z t2

dt L [qi (t), q˙i (t) ; t]

(I-18)

t1

Sur la figure 2, où l’ensemble des coordonnées qi est symbolisé par un axe unique q des ordonnées, on a représenté plusieurs chemins a priori possibles en tiretés et, en traits pleins, le chemin effectivement suivi par le système qui minimise A . Les avantages du point de vue lagrangien tiennent principalement à sa très grande généralité, les équations d’évolution de nombreux systèmes physiques pouvant prendre la forme (I-16) avec un choix convenable de la fonction L. De plus, quelles que soient les variables qi choisies pour décrire l’état du système (par exemple, utilisation de coordonnées sphériques au lieu de cartésiennes, etc.), les équations d’évolution gardent toujours la même forme (I-16), ce qui n’est pas le cas des équations de Newton. Pour un système de particules interagissant avec un potentiel V (rn ; t), on peut utiliser le lagrangien : L = T (r˙ n ) − V (rn ; t)

(I-19)

Ici, les 3 composantes des vecteurs position rn des particules (de masse mn ) jouent le rôle des qi , et T est l’énergie cinétique : T =

1X mn r˙ n2 2 n

(I-20) 9

CHAPITRE I

TRANSFORMATIONS DE SYMÉTRIE

Figure 2 – On considère deux états successifs S1 et S2 d’un système physique, représentés de façon symbolique par la valeur d’une seule variable de position q sur l’axe vertical, et tous les “chemins” possibles (suite d’états à tous les instants intermédiaires) qui relient S1 et S2 ; ces chemins virtuels sont schématisés par les lignes en tiretés. Aucun d’entre eux ne peut réellement être suivi par le système, sauf s’il rend stationnaire l’action A définie en I-18. Ce chemin réel est représenté par une ligne continue.

Dans ce cas, les forces dérivent d’un potentiel, mais le formalisme lagrangien s’applique de façon plus générale. On peut par exemple calculer l’évolution d’un système constitué de particules interagissant avec un champ électromagnétique donné, décrit par des potentiels scalaire V et vecteur A. Un lagrangien possible est alors (cf. par exemple Appendice III, § 4.b, de [10]) :

L=

X 1 n

2

mn r˙ n2



+ qn A (rn ) · r˙ − qn V (rn )

(I-21)

(qn désigne ici la charge électrique de la nième particule). Comme il a été rappelé plus haut, bien d’autres équations du mouvement (les équations de Maxwell par exemple) peuvent être obtenues à partir d’équations de Lagrange et d’un principe variationnel.

Remarques :

(i) Il ne faut pas croire qu’un lagrangien unique correspond aux équations du mouvement d’un système physique donné. Il existe en réalité de nombreux lagrangiens “équivalents”. Par exemple, si K est une fonction quelconque K(qi , t), on peut à partir du lagrangien L construire 10

B. SYMÉTRIES EN MÉCANIQUE CLASSIQUE

un autre lagrangien L0 : L0 (qi , q˙i ; t) = L(qi , q˙i ; t) +

d K(qi ; t) dt

(I-22)

(on notera que K ne doit pas dépendre des q˙i sinon, dans L0 , s’introduiraient des dérivées secondes des qi , ce qui n’est pas possible pour un lagrangien). En effet, la variation δL du lagrangien s’écrit : δL = L0 − L =

∂K X ∂K + q˙j ∂t ∂qj j

(I-23)

et :    X d ∂ d ∂K ∂2K ∂2K    δL = = + q˙j   dt ∂ q˙i dt ∂qi ∂qi ∂t ∂qi ∂qj j 2 2 X  ∂ ∂ K ∂ K   q˙j   ∂qi δL = ∂qi ∂t + ∂qi ∂qj

(I-24)

j

de sorte que les contributions de δL aux deux membres de (I-16) sont égales, et se compensent donc exactement. Une autre façon de vérifier que L et L0 sont équivalents est de remarquer que la variation correspondante d’action s’écrit : Z t2

δA =

dt t1

dK = K [qi (t2 ) ; t2 ] − K [qi (t1 ) ; t1 ] dt

(I-25)

La variation δA ne dépend pas du chemin suivi par le système entre S1 et S2 mais uniquement de S1 , S2 et t1 , t2 . Par suite, A et A + δA seront toujours stationnaires pour les mêmes chemins. (ii) On laisse parfois entendre que, réciproquement, deux lagrangiens équivalents diffèrent nécessairement par une dérivée totale par rapport au temps. Une telle affirmation est inexacte. Un premier contre-exemple évident est donné par la possibilité de multiplier le lagrangien par une constante quelconque. Mais l’ensemble des lagrangiens équivalents est en général bien plus vaste. Par exemple, pour une particule libre, on peut aussi bien prendre L ou L0 donnés par : L = x˙ 2 + y˙ 2 + z˙ 2 L0 = αx˙ 2 + β y˙ 2 + γ z˙ 2 où α, β et γ sont des constantes quelconques. Il serait intéressant de trouver une procédure générale pour trouver tous les lagrangiens équivalents à un lagrangien donné. Ceci permettrait d’obtenir des conditions nécessaires et suffisantes pour qu’une transformation T donnée soit transformation de symétrie. De plus, il serait possible d’examiner si les quantifications à partir de ces lagrangiens conduisent aux mêmes résultats physiques. Ce problème général ne semble pas actuellement avoir été résolu.

11

CHAPITRE I

B-2-b.

α.

TRANSFORMATIONS DE SYMÉTRIE

Constantes du mouvement ; théorème de Noether

Quelques cas simples

Les propriétés d’invariance de L peuvent se traduire par l’existence de constantes du mouvement. Par exemple, si le lagrangien (I-19) est invariant par toute translation de l’ensemble des particules d’une même quantité a [rn =⇒ rn + a], alors : X

∇rn L = 0

(I-26)

n

entraîne d’après (I-16) : d X pn (t) = 0 dt n

(I-27)

où les pn sont définis par : pn (t) = ∇r˙ n L = mr˙ n (t)

(I-28)

La conservation de l’impulsion totale est donc une conséquence de l’invariance du lagrangien par translation dans l’espace 5 . De même, si L est invariant par translation dans le temps : ∂L =0 ∂t alors, en définissant la fonction H par : H(t) =

X

r˙ n (t) · pn (t) − L [rn (t), r˙ n (t)]

(I-29)

(I-30)

n

on vérifie facilement d’après (I-16) et (I-28) que, lors de l’évolution du système, H reste constant : X d H(t) = {¨ rn · pn + r˙ n · ∇rn L − r˙ n · ∇rn L − r¨n · pn } = 0 dt n

(I-31)

L’invariance par translation dans le temps entraîne donc que l’énergie H est une constante du mouvement. Mais l’invariance des équations du mouvement dans une transformation T n’entraîne pas nécessairement que L doit être invariant dans cette transformation. Une autre possibilité (cf. remarque ci-dessus) est que l’effet de T soit d’ajouter à L une dérivée totale par rapport au temps. Nous allons voir que, dans ce cas également, l’invariance de la transformation T se traduit par l’existence d’une constante du mouvement. 5. La conservation de l’impulsion totale résulte de l’invariance de L si toutes les particules subissent une même translation. Cette invariance est alors valable quelles que soient les interactions entre particules. Une invariance de L par translation d’une seule des particules entraînerait la conservation de son impulsion individuelle (particule sans interaction).

12

B. SYMÉTRIES EN MÉCANIQUE CLASSIQUE

β.

Démonstration générale du théorème

Considérons donc, de façon générale, une transformation T des coordonnées généralisées qi d’un système quelconque définie par : T

qi =⇒ qi + δqi

(I-32)

Nous supposerons que la transformation T est infinitésimale et que : δqi = δε fi (qj , q˙j ; t)

(I-33a)

où δε est une quantité infiniment petite. Les variations δ q˙i des dérivées temporelles des qi sont données par : δ q˙i = δε gi (qj , q˙j , q¨j ; t)

(I-33b)

On note au passage que gi peut dépendre de q¨j , contrairement à fi . En effet, par définition de δ q˙i : d (qi + δqi ) = q˙i + δ q˙i dt

(I-34)

de sorte que : d ∂fi X gi = fi = + dt ∂t j

∂f ∂f q˙j + q¨j ∂qj ∂ q˙j

!

(I-35)

Dans la transformation T , la variation infinitésimale δL du lagrangien s’écrit : δL =

X  ∂L

  X  ∂L ∂L ∂L δqi + δ q˙i = δε fi + gi ∂qi ∂ q˙i ∂qi ∂ q˙i i

i

(I-36)

Si maintenant la transformation T est choisie de façon que δL soit proportionnel à la dérivée totale par rapport au temps d’une fonction Λ : δL = δε

d Λ dt

(I-37)

le théorème de Noether dit que la fonction : F =

X i

fi

∂L −Λ ∂ q˙i

(I-38)

est une constante du mouvement ; dF/dt est nul le long de toutes les trajectoires possibles du système considéré. 13

CHAPITRE I

TRANSFORMATIONS DE SYMÉTRIE

Démonstration : la dérivée totale de temps est : d dt

"

#

X i

X ∂L ∂L d fi = gi + fi ∂ q˙i ∂ q˙i dt i

=

∂L ∂L gi + fi ∂ q˙i ∂qi

X i



∂L ∂ q˙i

P

i

fi ∂L/∂ q˙i par rapport au





(I-39)

(la seconde égalité, obtenue grâce aux équations du mouvement, étant vérifiée le long des trajectoires possibles du système). Donc, d’après (I-36) et (I-37) : d dt

"

#

X i

∂L δL d fi = = Λ ∂ q˙i δε dt

(I-40)

Si l’on reporte ce résultat dans (I-38), on obtient immédiatement dF/dt = 0, et le théorème est démontré. Remarques :

(i) Si l’on peut directement (sans utiliser les équations du mouvement) mettre l’expression (I-36) de δL sous la forme d’une dérivée totale par rapport au temps d’une fonction Λ(qi ; t), dans ce cas L et L + δL sont des lagrangiens équivalents. T est alors transformation de symétrie au sens défini plus haut. Rappelons cependant que, réciproquement, T peut être transformation de symétrie sans que nécessairement δL = dΛ(qi , t)/dt. Toutefois, ceci n’est jamais possible si les fonctions fi choisies dépendent des q˙j . En effet, on voit sur (I-35) que δL dépendrait des q¨j , ce qui ne peut être le cas de dΛ(qi ; t)/dt. (ii) Il peut donc arriver que l’on ait à utiliser les équations de Lagrange pour passer de (I-36) à (I-37). Par exemple, on peut s’en servir pour exprimer les q¨j qui apparaissent en général dans (I-36), en fonction des qi et q˙i ; on peut alors chercher une fonction Λ(qi , t) indépendante des q˙i (dont la dérivée totale par rapport au temps ne contient pas les q¨i ). Rien n’empêche de considérer des fonctions Λ qui dépendent des q˙i (voir en particulier le premier exemple donné ci-dessous). On notera cependant que, dans ce cas, la fonction L + δε dΛ/dt ne peut plus être considérée comme un lagrangien. (iii) Le théorème de Noether n’a bien sûr d’intérêt que si la constante du mouvement F n’est pas triviale, identiquement nulle ou indépendante des coordonnées généralisées par exemple ! Si l’on se place dans le cas envisagé dans la remarque (i) ci-dessus où on a réussi à écrire δL sous la forme (I-37) avec Λ ≡ Λ(qi ; t) (indépendant

14

B. SYMÉTRIES EN MÉCANIQUE CLASSIQUE

des q˙i ), la constante du mouvement F est en général intéressante car elle dépend des q˙i par l’intermédiaire des ∂L/∂ q˙i et éventuellement des fi . Par contre, si l’on accepte les fonctions Λ(qi , q˙i , t), le risque est plus grand de n’obtenir aucune information. Un cas trivial est celui où l’on prend des fonctions fi absolument quelconques, et on écrit δL sous la forme (I-37) en P choisissant la fonction Λ = i fi ∂L/∂ q˙i (c’est toujours possible puisque (I-40) exprime simplement que le long des trajectoires, δL est toujours proportionnel à la dérivée totale de cette fonction Λ). Le résultat obtenu est alors F ≡ 0.

γ.

Exemples Donnons quelques exemples simples d’application du théorème de Noe-

ther. • Considérons tout d’abord un système quelconque dont le lagrangien L ne dépend pas explicitement du temps. Comme loi de transformation, choisissons : T

qi (t) =⇒ qi (t + δt)

(I-41)

où δt est une constante 6 qui joue le rôle de δε. L’opération T décale dans le temps l’évolution du système (le décalage étant ici − δt) ; c’est donc une translation dans le temps. Comme δt est infinitésimal, on peut écrire : δqi (t) = q˙i δt de sorte que : (

fi = q˙i

(I-42)

gi = q¨i Par ailleurs : δL = δt

∂L ∂L dL q˙i + q¨i = δt ∂qi ∂ q˙i dt

X i



(I-43)

(puisque ∂L/∂t = 0 par hypothèse). Donc, ici la fonction Λ n’est autre que le lagrangien lui-même. D’après (I-38), la constante du mouvement est alors : F =

X i

q˙i

∂L −L ∂ q˙i

(I-44)

qui est simplement la définition habituelle de l’hamiltonien H (énergie). 6. Il se trouve qu’il est commode pour cette démonstration de mettre un signe + dans (I-41) au lieu du signe moins de (I-9).

15

CHAPITRE I

TRANSFORMATIONS DE SYMÉTRIE

• Reprenons également l’exemple déjà abordé au § B-2-b précédent et examinons quelles constantes du mouvement découlent de l’invariance par translation dans l’espace ou par changement de repère galiléen. Le lagrangien considéré est : X mn L= r˙ n2 − V (r1 , . . . , rn . . .) (I-45) 2 n où le potentiel d’interaction V est invariant dans une translation de l’ensemble des positions (selon la notation habituelle, nous avons ici remplacé les qi par des rn , ou plus précisément par les trois composantes de ces vecteurs). L’invariance de L dans la transformation rn =⇒ rn + δa redonne immédiatement la conservation de l’impulsion totale. Les 3 composantes du vecteur infinitésimal δa jouent ici le rôle de 3 infiniment petits δε ; les égalités fi = 1, gi = 0, δL = 0 donnent pour constantes du mouvement les 3 composantes du vecteur : P =

X

∇r˙ n L =

X

n

pn

(I-46)

n

• Introduisons maintenant un changement de repère galiléen pur par : rn =⇒ rn + tδv

(I-47)

Les 3 composantes du vecteur δv jouent maintenant le rôle de δε et : δrn = tδv

(I-48)

Dans ce cas, δL s’écrit : δL = δv ·

" X

#

(mn r˙ n − t ∇rn V )

(I-49)

n

Si V est invariant par translation comme en (I-26), la somme de tous ses gradients s’annule, et : δL = δv ·

d G dt

(I-50)

où : G(t) =

X

m rn (t)

(I-51)

n

G est la position du centre de masse de l’ensemble des particules. Remplaçons Λ par G dans (I-38) ; nous obtenons la constante (vectorielle) du mouvement : G0 = t

X n

16

mn r˙ n −

X n

mn rn = P t − G(t)

(I-52)

B. SYMÉTRIES EN MÉCANIQUE CLASSIQUE

donc : G(t) = P t + G0

(I-53)

et nous retrouvons le déplacement uniforme du centre de masse des particules. Supposons enfin que V ne soit pas nécessairement invariant par translation mais que la somme des forces (extérieures) s’exerçant sur les particules soit un vecteur constant F . Alors, on vérifie facilement que l’on peut écrire : δL = −δv ·

d Λ dt

(I-54)

où : Λ(t) = G(t) −

1 2 t F 2

(I-55)

La constante du mouvement est donc dans ce cas : 1 G0 = P t − G(t) − F t2 2 et on retrouve de cette façon que le centre de masse se déplace selon un mouvement uniformément accéléré.

Exercice : On considère une particule de masse m, de position r, d’impulsion p = mr˙ et de moment cinétique ` = r × p. Cette particule est soumise à l’action d’un potentiel central V = −α/rn (n est un entier positif). Introduire la transformation δr = δε × `

(I-56)

et montrer que : i nα h ˙ − (δε · r) (r · r) ˙ δL = −m n+2 r 2 (δε · r) r

(I-57)

Dans le cas d’un potentiel coulombien (n = 1), montrer que : d r δL = −mα δε · dt r 



(I-58)

En déduire que le vecteur M (vecteur de Runge-Lentz) : 1 r p × (r × p) − α (I-59) m r est, dans ce cas, une constante. Interprétation physique : les points de la trajectoire (plane) de la particule où la vitesse est perpendiculaire à r sont fixes. La trajectoire, au lieu d’être une “rosette”, est donc une courbe fermée ; en fait, c’est une ellipse dont le grand axe est parallèle à M et l’excentricité vaut |M |. M=

17

CHAPITRE I

TRANSFORMATIONS DE SYMÉTRIE

Remarque : En (I-33), nous avons supposé que la transformation ne concernait que les qi (et les q˙i ), mais pas le temps. On peut s’affranchir de cette restriction en supposant qu’en plus des variations δqi et δ q˙i écrites en (I-33), il s’introduit une variation du temps : δt = δε h (qj , q˙j ; t)

(I-60)

la relation (I-35) n’est plus valable dans ce cas. En écrivant que : (q˙i + δ q˙i ) d (t + δt) = d [qi + δqi ]

(I-61)

on obtient immédiatement, au premier ordre en δε : gi dt + q˙i dh = dfi

(I-62)

c’est-à-dire : dfi dh gi = − q˙i dt dt On a de plus : δL = δε

( X i

(I-63)

∂L ∂L fi + gi ∂qi ∂ q˙i



∂L +h ∂t

) (I-64)

Si δL s’écrit : h i d dh δL = δε Λ+L dt dt

(I-65a)

alors on montre que la fonction : A=

X ∂L ∂ q˙i

i

[fi − hq˙i ] + hL − Λ

(I-65b)

est une constante du mouvement. Il vient en effet, si l’on utilise les équations de Lagrange pour obtenir la dérivée totale par rapport au temps de ∂L/∂ q˙i et (I-65a) pour obtenir celle de Λ :

X ∂L X ∂L dA = [fi − hq˙i ] + dt ∂qi ∂ q˙i i

i

"

dh ∂L +L +h + dt ∂t

X i

h

dfi dh − q˙i − h¨ qi dt dt

∂L ∂L q˙i + q¨i ∂qi ∂ q˙i

i

# −

δL dh −L δε dt

(I-66)

Si l’on reporte alors la relation (I-64) pour calculer δL/δε, et enfin si l’on remplace gi par sa valeur (I-63), on constate que tous les termes du second membre de cette égalité disparaissent deux à deux. A est donc bien une constante du mouvement. Exercice : En posant fi = gi = 0, h = 1, retrouver comme en (I-44) que H est une constante du mouvement si ∂L/∂t = 0.

Avant de quitter la mécanique classique, nous allons donner quelques rappels concernant le formalisme hamiltonien, qui est souvent utilisé pour “quantifier” un système physique. Ce n’est d’ailleurs pas la seule méthode : il existe par exemple une autre procédure de quantification à partir du formalisme lagrangien [11] (postulats de Feynman), qui est fréquemment mise en œuvre, surtout en théorie des champs. 18

B. SYMÉTRIES EN MÉCANIQUE CLASSIQUE

B-3.

Equations de Hamilton

B-3-a.

Formalisme général

A toute coordonnée généralisée qi du système, associons l’impulsion conjuguée : pi =

∂L ∂ q˙i

(I-67)

Nous allons supposer qu’on peut exprimer tous les q˙i en fonction des pi et qi de sorte que l’état dynamique du système est donné aussi bien par l’ensemble des qi et q˙i que par l’ensemble des qi et pi . Dans le point de vue de Hamilton, ce sont les qi et pi qui sont considérés comme variables indépendantes. On introduit l’hamiltonien : H (pi , qi ) =

X

pi q˙i (qj , pj ) − L [qi , q˙i (qj , pj )]

(I-68)

i

où, au second membre, la notation q˙i (qj , pj ) rend explicite le fait que les dérivées des qi sont maintenant exprimées en fonction des variables qj et pj pour j quelconque. A partir de maintenant, nous simplifierons la notation en q˙i . On peut alors calculer la différentielle de H : dH (pi , qi ) =

X

[q˙i dpi + pi dq˙i ] −

i

∂L ∂L dqi − ∂qi ∂ q˙i dq˙i

(I-69a)

La définition (I-67) de pi montre que les termes du second membre en dq˙i s’annulent, et les équations de Lagrange indiquent que ∂L/∂qi peut être remplacé par p˙i . Il vient donc : dH (pi , qi ) =

X i

[q˙i dpi − p˙i dqi ] ≡

X  ∂H i

∂H dpi + dqi ∂pi ∂qi



(I-69b)

Par identification des termes en dpi et dqi , on obtient alors les équations du mouvement de Hamilton : ∂H ∂pi  ∂H   p˙ i = − ∂qi     q˙i =

(I-70)

Au lieu de N équations différentielles du second ordre par rapport au temps entre N variables (point de vue lagrangien), ce sont 2N équations entre 2N variables, mais du premier ordre seulement. 19

CHAPITRE I

B-3-b.

TRANSFORMATIONS DE SYMÉTRIE

Crochets de Poisson

Soient A(qi , pi ) et B(pi , qi ) deux grandeurs physiques définies dans le point de vue de Hamilton. On appelle crochet de Poisson {A, B} l’expression : {A, B} =

X  ∂A ∂B i

∂B ∂A − ∂qi ∂pi ∂qi ∂pi



(I-71)

On vérifie immédiatement que : {qi , pj } = δij {qi , qj } = {pi , pj } = 0

(I-72)

ainsi que les relations : {A, A} = 0

(I-73a)

{A, B} = −{B, A}

(I-73b)

{A, BC} = {A, B} C + B {A, C}

(I-73c)

(mêmes règles que pour les commutateurs). D’après (I-70), l’évolution dans le temps d’une grandeur physique quelconque F (qi , pi ; t) est donnée par : dF ∂F X ∂F ∂F = + q˙i + p˙i dt ∂t ∂qi ∂pi i 



=

∂F + {F, H} ∂t

(I-74)

Les crochets de Poisson nous donnent donc directement l’évolution dans le temps d’une fonction quelconque F des positions et impulsions. Ils peuvent également, dans certains cas, fournir de nouvelles constantes du mouvement : en utilisant (I-73c) et (I-74), on montre en effet que si F et G sont deux constantes du mouvement, leur crochet de Poisson est également une constante du mouvement (théorème de Poisson) 7 . Exercice : Montrer que l’expression {A, {B, C}} + {B, {C, A}} + {C {A, B}} est identiquement nulle (identité de Jacobi). En déduire le théorème de Poisson. Les crochets de Poisson peuvent également donner les transformés par une opération infinitésimale T d’un mouvement du système. Vérifions-le sur un exemple concret, celui d’une particule de masse m dont le mouvement est donné en fonction d’un paramètre u : x = f1 (u)

y = f2 (u)

z = f3 (u)

t = f4 (u)

(I-75)

7. Bien sûr, il peut se faire que ce crochet de Poisson soit simplement nul ou égal à une constante indépendante des q et des p, ou encore par exemple proportionnel à F ou G ; dans un tel cas, le théorème de Poisson n’apporte aucune information nouvelle.

20

B. SYMÉTRIES EN MÉCANIQUE CLASSIQUE

• Translation dans l’espace d’un vecteur infinitésimal δa. La définition de la translation est : x0 = x + δax

y 0 = y + δay

z 0 = z + δaz

t0 = t

(I-76)

où δa est un vecteur infinitésimal constant. Or : {px , x} = −1

{py , x} = {pz , x} = 0

(I-77)

et par suite : {δa · p, x} = −δax

(I-78)

On vérifie donc que : ( 0 r = r − {δa · p, r}

p0 = p − {δa · p, p}

(I-79)

ce qui nous montre que les crochets de Poisson de δa · p avec les variables dynamiques donnent les translations infinitésimales. • Rotations dans l’espace autour d’un vecteur infinitésimal δa (indépendant du temps) : δa = a δϕ

(I-80)

où a est le vecteur unitaire de l’axe de rotation et δϕ l’angle de rotation. On a: (

δr = r 0 − r = δa × r δp = p0 − p = δa × p

(I-81)

Par ailleurs, introduisons le vecteur (moment cinétique) : `=r×p

(I-82)

On obtient : {δa · ` , x} = −δay z + δaz y {δa · ` , px } = −δay pz + δaz py

(I-83)

et, par suite : ( 0 r = r − {δa · ` , r}

p0 = p − {δa · ` , p}

(I-84) 21

CHAPITRE I

TRANSFORMATIONS DE SYMÉTRIE

Figure 3 – Les trajectoires d’un système physique sont symbolisées sur cette figure par le tracé d’une seule coordonnée x(t) en fonction du temps t. On considère deux mouvements du système, décrits respectivement par les fonctions x(t) et x0 (t) = x(t − δt). Si δt > 0, le second mouvement est en avance d’un temps δt par rapport au premier. Le moment cinétique ` joue donc, vis-à-vis des rotations, le même rôle que p vis-à-vis des translations. • Translation dans le temps Considérons deux mouvements définis par r(t) et r 0 (t), le second étant en avance d’un temps δt par rapport au premier (figure 3), comme dans la relation (I-9). On a alors : ( 0 ˙ r (t) = r(t − δt) ' r(t) − δt r(t)

˙ p0 (t) = p(t − δt) ' p(t) − δt p(t)

(I-85)

Donc, d’après (I-74), et au premier ordre en δt : ( 0 r = r − {δt H, r}

p0 = p − {δt H, p}

(I-86)

H est donc associé aux translations dans le temps 8 . • Transformation de Galilée pure Considérons (figure 4) deux repères galiléens S et S 0 , d’axes parallèles, −−→ tels que le vecteur OO0 qui joint leurs origines soit égal à −tδv [δv est un vecteur infinitésimal constant]. Si, dans le repère S, la particule considérée 8. On notera au passage la différence entre l’opération qui consiste à construire un nouveau mouvement en avance dans le temps, et la propagation dans le temps d’un mouvement donné par r(t). Dans le second cas, on calcule r(t + δt), de sorte que ces deux opérations se traduisent mathématiquement par des signes opposés.

22

B. SYMÉTRIES EN MÉCANIQUE CLASSIQUE

Figure 4 – Deux repères galiléens S et S 0 ont des axes parallèles, et le vecteur qui joint leurs origines O et O0 est égal à −tδv, où δv est un vecteur infinitésimal constant. −−→ est repérée par un vecteur r(t) = OM (t), elle est repérée dans S 0 par un −−−→ vecteur r 0 (t) = O0 M (t) donné par : r 0 = r + tδv

(I-87)

De même : p0 = p + mδv

(I-88)

Introduisons le vecteur : G0 (t) = −mr + tp

(I-89)

Il vient : (

{x , G0 · δv} = tδvx {px , G0 · δv} = mδvx

(I-90)

et donc : r 0 = r + {δv · G0 , r} p0 = p + {δv · G0 , p}

(I-91)

Le vecteur G0 engendre donc par crochets de Poisson des transformations de Galilée infinitésimales. Pour un ensemble de plusieurs particules, G correspondrait à la position du centre de masse du système. 23

CHAPITRE I

C.

TRANSFORMATIONS DE SYMÉTRIE

Symétries en mécanique quantique

Comme nous allons le voir dans la suite, en mécanique quantique le rôle joué par les transformations de symétrie est au moins aussi important qu’en mécanique classique. C-1.

Procédure standard de quantification

L’ensemble des qi et des pi sont remplacés, en mécanique quantique, par un vecteur (“ket”) |ψi appartenant à l’espace des états E du système. Pour une particule sans spin, deux “bases” possibles sont, soit la base {|ri} des vecteurs propres de l’opérateur position R, soit la base {|pi} des vecteurs propres de l’impulsion P . A ces deux bases correspondent les fonctions : ψ(r) = hr|ψi

(I-92a)

ψ(p) = hp|ψi

(I-92b)

dites respectivement fonctions d’onde en représentation r et p. Les grandeurs classiques A (qi , pi ) deviennent maintenant des opérateurs linéaires hermitiques agissant dans E : A (qi , pi ) =⇒ A

(I-93)

En général, tout ket |ψi peut être décomposé sur des vecteurs propres de A ; A est alors appelé une “observable”. Aux crochets de Poisson classiques correspondent des commutateurs entre observables. Les relations (I-72) deviennent : h

i

Rxi , Pxj = i~ δij

(I-94)

(où xi et xj désignent x, y ou z). L’équation d’évolution de |ψi est l’équation de Schrödinger : i~

d |ψ(t)i = H(t) |ψ(t)i dt

(I-95)

dans laquelle l’hamiltonien H(t) désigne l’observable quantique associée à la fonction de Hamilton classique. Cette équation est équivalente à : |ψ(t)i = U (t, t0 ) |ψ(t0 )i

(I-96)

Dans cette dernière relation, |ψ(t)i désigne le vecteur d’état à l’instant t, |ψ(t0 )i sa valeur à l’instant initial t0 , et U (t, t0 ) est l’opérateur unitaire satisfaisant : i~ 24

d U (t, t0 ) = H(t) U (t, t0 ) dt

(I-97a)

C. SYMÉTRIES EN MÉCANIQUE QUANTIQUE

avec : U (t0 , t0 ) = 1

(I-97b)

Lorsque H est indépendant du temps, on a simplement : 

U (t, t0 ) = exp

i − H (t − t0 ) ~



(I-98)

L’opérateur U (t) est appelé “opérateur d’évolution”. On trouvera plus de détails sur ses propriétés dans le complément FIII et le § A du chapitre XX de [10]. C-2.

Transformations de symétrie

Considérons une transformation T du système physique. Avant transformation, ce dernier sera décrit par un ket |ψ(t)i à l’instant t, après transformation par un ket |ψ 0 (t)i. On définit un opérateur T (agissant dans l’espace des états E ) qui fait passer de |ψi à |ψ 0 i : |ψ 0 (t)i = T (t) |ψ(t)i

(I-99)

(dans de nombreux cas, T (t) sera un opérateur linéaire et unitaire). Le schéma de la figure 1 devient alors celui de la figure 5. La transformation considérée sera de symétrie si : U (t, t0 ) T (t0 )|ψ(t0 )i = T (t)|ψ(t)i = T (t)U (t, t0 )|ψ(t0 )i

(I-100)

c’est-à-dire, |ψ(t0 )i étant quelconque : U (t, t0 ) T (t0 ) = T (t) U (t, t0 )

(I-101)

Si cette condition est réalisée, alors : U † (t, t0 ) T (t) U (t, t0 ) = T (t0 )

(I-102)

Cette égalité exprime que, dans le point de vue de Heisenberg, l’opérateur T (t) correspond à un opérateur TH indépendant du temps. T est donc une constante du mouvement. Si T est indépendant du temps, (I-101) devient : [T, U (t, t0 )] = 0

(I-103)

et implique donc la commutation de T avec l’opérateur d’évolution U à tout instant. Si, de plus, H est également indépendant du temps (systèmes conservatifs), cas où U est donné par (I-98), alors (I-103) peut s’écrire : [T, H] = 0

(I-104)

On retrouve que T est une constante du mouvement. 25

CHAPITRE I

TRANSFORMATIONS DE SYMÉTRIE

Figure 5 – Schéma permettant d’examiner en mécanique quantique si la transformation T , représentée dans l’espace par l’opérateur T (t), est une transformation de symétrie. Les flèches vers le bas indiquent la propagation dans le temps sous l’effet de l’opérateur d’évolution U (t, t0 ), les doubles flèches horizontales l’effet de T (t). La transformation T est une transformation de symétrie si le transformé par T (t) d’une évolution possible du système est une autre évolution possible. C’est effectivement le cas si l’on peut “refermer le carré” par la flèche horizontale du bas de cette figure, annotée d’un point d’interrogation. Remarque : On sait que deux kets différant entre eux par un facteur de phase global correspondent à des états physiques identiques. On peut donc remplacer (I-101) par l’égalité plus générale : U (t, t0 ) T (t0 )|ψ(t0 )i = eiα(t) T (t) U (t, t0 ) |ψ(t0 )i

∀ |ψ(t0 )i

(I-105a)

où α(t) est une fonction du temps qui, a priori, pourrait également dépendre de |ψ(t0 )i. En fait, cette dépendance ne peut exister car, en posant : T (t) U (t, t0 )|ψ(t0 )i = |χi

(I-105b)

l’égalité (I-105a) peut s’écrire (l’opération T est inversible) : U (t, t0 ) T (t0 ) U −1 (t0 , t) T −1 (t) |χi = eiα(t) |χi

(I-105c)

où α est éventuellement fonction de |χi ; mais l’opérateur agissant à gauche de cette égalité apparaît alors comme un opérateur linéaire dont tout ket |χi est vecteur propre, ce qui signifie que toutes ses valeurs propres sont égales (matrice diagonale). Il s’ensuit que α est nécessairement indépendant du ket. En conséquence, nous avons : U (t, t0 ) T (t0 ) = eiα(t,t0 ) T (t) U (t, t0 )

(I-105d)

où α(t) est une fonction réelle du temps, nulle pour t = t0 . Mais alors en posant : T 0 (t) = eiα(t,t0 ) T (t)

26

(I-106)

C. SYMÉTRIES EN MÉCANIQUE QUANTIQUE

on retombe pour T 0 sur une égalité du type (I-101). Nous supposerons donc ici que T 0 est défini 9 de façon que α(t) = 0.

C-3.

Conséquences générales

Les relations (I-101), (I-103) ou (I-104) impliquent que, si T est transformation de symétrie, les opérateurs U et H ne peuvent pas avoir une forme quelconque. Par exemple, nous verrons qu’un hamiltonien en L · R est interdit si l’opération géométrique de parité est transformation de symétrie (on définit L = R × P ). De même, une symétrie par renversement du temps interdit un hamiltonien en R · P , etc. Nous avons déjà remarqué que (I-102) ou (I-104) impliquent l’existence de constantes du mouvement. Par exemple, (I-104) entraîne que T , T 2 , T 3 , etc. sont constants en valeur moyenne. Tous les opérateurs T que l’on peut trouver, leurs produits, ... donnent des constantes du mouvement. Pour les systèmes conservatifs, l’existence de telles constantes simplifie la recherche des états stationnaires (kets propres de H) : on cherche une base de kets propres communs à H et T . On sait que la commutation de H et T entraîne : ht1 |H|t2 i = 0

si t1 6= t2

(I-107)

[|t1 i et |t2 i sont des vecteurs propres de T , de valeurs propres t1 et t2 ]. Ce type de relation donne des “règles de sélection” pour H ; ces règles sont en fait valables pour toutes les observables invariantes par T . Des informations concernant la dégénérescence peuvent également être obtenues. Soit, en effet, |E0 i un ket propre de H, de valeur propre E0 . L’égalité (I-104) entraîne que, si : |E00 i = T |E0 i

(I-108)

alors |E00 i est un ket propre de H de même valeur propre E0 . En effet : H |E00 i = H T |E0 i = E0 T |E0 i = T H |E0 i = E0 |E00 i

(I-109)

Si |E0 i et |E00 i ne sont pas proportionnels, la valeur propre E0 est au moins deux fois dégénérée. Si T1 et T2 satisfont (I-102), leur produit possède la même propriété. Les opérateurs T associés aux transformations de symétrie forment donc un groupe. Les T ne commutent pas nécessairement entre eux (groupe non commutatif), et nous verrons l’importance des relations de commutation entre ces opérateurs. 9. Nous considérons ici le cas d’une seule transformation T . Le cas où l’on veut éliminer les facteurs de phase pour tout un groupe de transformations est plus délicat, et nous aurons l’occasion d’y revenir.

27

• POINTS DE VUE D’EULER ET DE LAGRANGE

Complément AI Points de vue d’Euler et de Lagrange en mécanique classique 1

Point de vue d’Euler . . . . . . . . . . . . . . . . . 30

2

Point de vue de Lagrange . . . . . . . . . . . . . . 32

Le but de ce complément est d’exposer deux points de vue différents utilisés en mécanique statistique classique pour décrire un ensemble de systèmes physiques se déplaçant dans l’espace des phases. En mécanique des fluides, on distingue les points de vue d’Euler et celui de Lagrange. Dans le premier (Euler), on s’intéresse à l’évolution de l’écoulement du fluide en chaque point fixe de l’espace, par exemple en calculant sa vitesse en chaque point comme fonction du temps ; ce sont donc des “prises de vue instantanées” successives du fluide auxquelles l’on s’intéresse. Dans le second (Lagrange), on suit le mouvement de chaque élément du fluide ; ceci conduit à étudier les trajectoires de chacun de ces éléments, et conduit à définir le long de ces trajectoires des dérivées totales par rapport au temps. Etendant ces idées depuis l’espace ordinaire vers un espace plus grand, que nous appellerons “espace des phases”, nous allons définir les points de vue d’Euler et de Lagrange pour décrire en statistique classique un ensemble de systèmes physiques. Nous verrons que ces deux points de vue présentent une certaine analogie avec, respectivement, ceux de Schrödinger et de Heisenberg en mécanique quantique. Comme le point de vue de Heisenberg, celui de Lagrange est mieux adapté aux calculs de valeurs moyennes à deux temps (fonctions de corrélation). Nous allons donc condidérer un ensemble de systèmes physiques dont chacun est décrit, en formalisme hamiltonien, par N coordonnées qi et N moments conjugués pi . Chaque état dynamique est donc défini par la donnée d’un point de coordonnées qi et pi , qui appartient à un espace à 2N dimensions (6 si le système est constitué d’une particule unique) dit “espace des phases”. Les équations de Hamilton donnent le mouvement de ce point : ∂ H [qj (t), pj (t) ; t] ∂pi ∂    p˙ i (t) = − H [qj (t), pj (t) ; t] ∂qi     q˙i (t) =

(1)

où H[qi , pi ; t] est l’hamiltonien de chaque système, supposé identique pour tous. 29



COMPLÉMENT AI

1.

Point de vue d’Euler

Considérons maintenant un ensemble statistique de tels systèmes, défini à l’instant origine t = t0 par une densité de probabilité dans l’espace des phases ρ(qi , pi , t0 ). A chaque instant t, la description instantanée de cet ensemble est faite via une densité de probabilité ρ(qi , pi , t). Par définition, cette dernière fournit la probabilité dP(t) : dP(t) = ρ (q1 , q2 . . . qN , p1 , p2 . . . pN ; t) × dq1 . . . dqN dp1 . . . dpN

(2)

pour que, à l’instant t, le point caractéristique du système se trouve dans un élément de volume : dq1 dq2 . . . dqN dp1 dp2 . . . dpN

(3)

centré en : q1 , q2 , . . . , qN , p1 , p2 . . . pN

(4)

On a, bien sûr : Z

dN q

Z

dN p ρ (q1 , . . . , qN , p1 , . . . , pN ; t) = 1

(5)

où R dN qR et dN pR sont des notations simplifiées pour dq1 dq2 . . . dqN et dp1 dp2 . . . dpN respectivement. De même, nous simplifierons la notation de l’ensemble des coordonnées (4) en q1 , ..., pN . Rappelons que l’évolution du système est considérée comme certaine (la fonction H n’est pas aléatoire), de sorte que les probabilités n’interviennent que dans la définition de son état initial. Dans l’espace des phases à 2N dimensions, on peut considérer que ρ donne la densité d’un fluide ; la densité de courant associée sera alors un vecteur à 2N composantes : R

R

R

R

∂ H (qj , pj ; t) ∂pi J (q1 , ..., PN )  ∂   ρ (qj , pj ; t) p˙ i = −ρ (qj , pj ; t) H (qj , pj ; t) ∂qi     ρ (qj , pj ; t) q˙i = ρ (qj , pj ; t)

R

(6)

où les deux composantes de rang i de ce vecteur sont écrites à droite de l’accolade. On peut alors calculer le nombre de systèmes de la distribution qui entrent et sortent dans chaque volume dans l’espace des phases, de façon à obtenir la variation locale ∂ρ/∂t de la densité ρ. Le théorème de la divergence conduit à : − 30

∂ρ = ∂t

2N

∇·J

(7)

• POINTS DE VUE D’EULER ET DE LAGRANGE 2N ∇

· J symbolise la divergence du vecteur J dans l’espace des phases :  X ∂  ∂ 2N ∇·J = ρ (qj , pj ; t) H (qj , pj ; t) ∂qi ∂pi i



∂ − ∂pi

∂ ρ (qj , pj ; t) H (qj , pj ; t) ∂qi





(8)

Les termes en ∂ 2 H/∂qi ∂pi disparaissent de cette expression et il reste, compte tenu de la définition (I-71) des crochets de Poisson : 2N

n

∇ · J = ρ (qj , pj ; t) , H (qj , pj ; t)

o

(9)

de sorte que la relation (7) devient : ∂ρ  = H (qj , pj ; t) , ρ (qj , pj ; t) (10) ∂t Considérons maintenant une grandeur A qui dépend des qi et pi et éventuellement explicitement du temps :

A (qi , pi ; t)

(11)

Ce peut être par exemple l’énergie cinétique d’un ensemble de particules, leur énergie potentielle d’interaction, etc. La valeur moyenne de A est donnée à chaque instant t par : A (t) =

Z

dN q

Z

dN p ρ (qi , pi ; t) A (qi , pi ; t)

(12)

Compte tenu de (10), l’évolution de cette valeur moyenne est donnée par : d ∂ A (t) = dN q dN p {H, ρ} A + ρ A (13) dt ∂t Anticipant un peu sur le point de vue de Lagrange, calculons maintenant la dérivée totale par rapport au temps de ρ. On “accompagne” alors les particules et on mesure à chaque instant leur “densité” dans l’espace des phases :   X  ∂ρ X  ∂H ∂ρ d ∂ ∂ρ ∂ ∂H ∂ρ ρ= ρ+ q˙i + p˙i = ρ+ − dt ∂t ∂qi ∂pi ∂t ∂pi ∂qi ∂qi ∂pi i i Z

Z





∂ ρ + {ρ, H(t)} (14) ∂t Comme {ρ, H} = −{H, ρ}, il reste simplement : d ρ=0 (15) dt Ce résultat constitue le théorème de Liouville. Il exprime que les particules du “fluide” s’écoulent sans que leur “densité” varie le long des trajectoires (ce qui ne veut pas dire qu’elle ne varie pas en un point donné fixe de l’espace des phases) ; elles occupent au cours du temps un volume constant de l’espace des phases. =

31



COMPLÉMENT AI

2.

Point de vue de Lagrange

Le point de vue du § 1 précédent est caractérisé par le fait que les intégrations se font avec des distributions de probabilités qui sont différentes à chaque instant t. Dans certains cas, en particulier si l’on veut calculer des valeurs moyennes à deux temps, il est plus commode d’effectuer des intégrations avec une seule distribution, qui est alors celle décrivant l’état du système à un instant t = t0 , que l’on peut choisir comme instant initial. Dans le point de vue de Lagrange, on utilise une seule densité de probabilité ρL dans l’espace des phases, indépendante du temps, et donnée par : 





ρL qi0 , p0i = ρ qi = qi0 , pi = p0i ; t = t0



(16)

où ρ est la même fonction qu’au § 1. Ceci rappelle le point de vue de Heisenberg en mécanique quantique, où le vecteur d’état |ψH i ne varie pas, la dépendance hamiltonienne en temps étant reportée sur les opérateurs AH . Ici, nous allons effectivement définir une fonction classique A L (qi0 , p0i ; t) qui contient elle aussi une dépendance en temps induite par l’hamiltonien. Pour t = t0 , cette fonction a la même valeur qu’en point de vue d’Euler. A l’instant t, elle donne par définition la contribution à la grandeur A des points de l’espace des phases qui étaient à l’instant t0 en qi0 et p0i . En d’autres termes, si les solutions des équations (1) satisfaisant aux conditions initiales qj (t = 0) = qj0 et pj(t = 0) = p0j sont notées : (

qj qi0 , p0i ; t



(17)

pj qi0 , p0i ; t



nous définissons la fonction A L qi0 , p0i ; t par : 





h









i

A L qi0 , p0i ; t = A qi qi0 , p0i ; t , pi qi0 , p0i ; t ; t

(18)

Mettant à profit la conservation de la densité de probabilité (15), nous pouvons alors écrire : A (t) =

Z

N 0

d q

Z



dN p0 ρL qi0 , p0i







A L qi0 , p0i ; t

(19)

D’autre part, A L dépend explicitement du temps, même si ce n’est pas le cas de A lui-même, puisque d’après (18) et (1) :    X  ∂A ∂H ∂ ∂A ∂H ∂A L 0 0 A qi , pi ; t = − + ∂t ∂qi ∂pi ∂pi ∂qi ∂t i

= {A (t), H(t)} + 32

∂A ∂t

(20)

• POINTS DE VUE D’EULER ET DE LAGRANGE Dans le second membre de cette égalité, la dépendance en qi0 et p0i est obtenue en remplaçant les qj et pj par leurs expressions (17). Une valeur moyenne à deux temps se calcule aisément. En effet : A

(t)B(t0 )

Z

=

N 0

Z

d q











dN p0 ρN qi0 , p0i × A L qi0 , p0i ; t B L qi0 , p0i ; t0



(21) Remarque :

L’égalité (20) est “mixte” car elle donne la variation temporelle de A L en fonction d’un crochet de Poisson des variables qi et pi , celles du point de vue d’Euler. Il est également possible de n’utiliser dans le point de vue de Lagrange que les variables qi0 et p0i , et donc d’introduire les crochets de Poisson correspondants : n

o

A (t), B (t) L

L

L

=

X n

∂A L ∂B L ∂A L ∂B L − ∂qn0 ∂p0n ∂p0n ∂qn0

!

(22)

Nous allons voir que l’égalité (20) peut alors être réécrite : o ∂ L 0 0  n L A qi , pi ; t = A (t), H L (t) L ∂t h     i ∂A qj qi0 , p0i ; t , pj qi0 , p0i ; t ; t + ∂t

(23a)

soit, si A (en point de vue d’Euler) ne dépend pas du temps : o ∂ L 0 0  n L A qi , pi ; t = A (t), H L (t) L ∂t

(23b)

Démonstration : Dans un premier temps, calculons les crochets de Poisson : {qi (t), qj (t)}L

{pi (t), pj (t)}L

{qi (t), pj (t)}L

Au temps t = 0, ce sont les crochets de Poisson habituels. Pour un temps t quelconque, il faut tenir compte du fait que qi (t) et pi (t) dépendent a priori des qk0 et p0k pour toutes les valeurs de k (sauf bien sûr si les particules sont indépendantes). A un temps infinitésimal dt, on a :  ∂H  dt  qi (dt) = qi0 +  ∂pi (24)  ∂H   pj (dt) = p0j − dt ∂qj Au premier ordre en dt, nous obtenons alors : {qi (dt), pj (dt)}L = δij −

∂2H ∂2H dt + dt = δij ∂qj ∂pi ∂qj ∂pi

(25)

33

COMPLÉMENT AI



ainsi que : {qi (dt), qj (dt)}L = −

∂2H ∂2H dt + dt = 0 ∂pj ∂pi ∂pj ∂pi

(26)

Le même calcul permet de montrer la nullité du crochet de Poisson-Lagrange {pi (dt), pj (dt)}L . De proche en proche, on montre ainsi que ces expressions restent indépendantes du temps, et gardent la valeur des crochets de Poisson habituels : {qi (t), pj (t)}L = δij

(27a)

{qi (t), qj (t)}L = 0

(27b)

{pi (t), pj (t)}L = 0

(27c)

Nous pouvons maintenant évaluer la valeur de la quantité {A L (t), B L (t)}L définie en (22). Utilisant la définition (18) et le théorème de dérivation des fonctions de fonctions, nous obtenons : "   X  ∂A ∂qi  L ∂A ∂pi ∂B ∂qj ∂B ∂pj L A (t), B (t) L = + + ∂qi ∂qn0 ∂pi ∂qn0 ∂qj ∂p0n ∂pj ∂p0n ijn    # ∂A ∂qi ∂A ∂pi ∂B ∂qj ∂B ∂pj − + + ∂qi ∂p0n ∂pi ∂p0n ∂qj ∂qn0 ∂pj ∂qn0 X  ∂A ∂B ∂A ∂B = {qi (t), qj (t)}L + {pi (t), qj (t)}L ∂qi ∂qj ∂pi ∂qj ij  ∂A ∂B ∂A ∂B + {qi (t), pj (t)}L + {pi (t), pj (t)}L ∂qi ∂pj ∂pi ∂pj (28) D’après les relations générales (27), il vient alors :  X  ∂A ∂B ∂A ∂B {A (t), B(t)}L = − ∂qi ∂pi ∂pi ∂qi i = {A , B}

(29)

ou, au second membre, il faut remplacer les qj et pj par leurs expressions (17) en fonction des qn0 et p0n .

Un exemple simple : Particule à une dimension soumise à une force mg(t) : • Point de vue d’Euler : p2 − mg(t)x 2m d p d x= p = mg(t) dt m dt

H(t) =

 Z t   dt0 g(t0 ) + p0  p(t) = m 0 Z t Z t0  p0  0  x(t) = dt dt00 g(t00 ) + t + x0 0

34

0

m

• POINTS DE VUE D’EULER ET DE LAGRANGE • Point de vue de Lagrange : 1 H (x0 , p0 ; t) = p0 + m 2m 

L

− mg(t)

Z t

0

dt g(t )

"Z 0 t

Z t0

0

=

p0 dt g(t ) + t + x0 m 00

dt 0

p20

2

0

0

Z t

2m

− mg(t) x0 + p0

#

00

0



0

dt g(t ) − t g(t) 0

+ F (t) où : F (t) = m

" Z t 1

2

dt0 g(t0 )

2



0

Z t

dt0

Z t0

0

#

dt00 g(t) g(t00 )

0

L’impulsion de la particule et sa position sont, en point de vue de Lagrange : pL (p0 ; t) = p0 + m

Z t

dt0 g(t0 )

0

t x (x0 , p0 ; t) = x0 + p0 + m L

n

Z t

0

Z t0

dt 0

dt00 g(t00 )

0

o

On vérifie facilement que xL (t), pL (t) = 1, et on calcule : t p0 + dt0 g(t0 ) − t g(t) − L m 0 Z t p0 p(t) = + dt0 g(t0 ) = m m 0 n o ∂H(t) pL (t), H L (t) = m g(t) = − L ∂x

n

o

xL (t), H L (t)

Z

=



t (−mg(t)) m 

de sorte que l’égalité (29) est bien satisfaite.

35

Chapitre II

Notions sur la théorie des groupes A

B

Propriétés générales des groupes . . . . . . . . . . 38 A-1

Définitions ; exemples . . . . . . . . . . . . . . . .

38

A-2

Table de multiplication – Groupes isomorphes . . .

42

A-3

Sous-groupes – Centre . . . . . . . . . . . . . . . .

44

A-4

Classes de conjugaison . . . . . . . . . . . . . . . .

45

A-5

Groupe produit tensoriel (ou produit direct) . . . .

47

Représentations linéaires d’un groupe . . . . . . . 48 B-1

Définition et propriétés . . . . . . . . . . . . . . .

48

B-2

Représentations équivalentes . . . . . . . . . . . .

52

B-3

Caractères . . . . . . . . . . . . . . . . . . . . . . .

52

B-4

Somme et produit de deux représentations . . . . .

53

B-5

Représentations réductibles ou irréductibles . . . .

54

Nous avons déjà entrevu au chapitre précédent l’importance de la notion de groupe dans les problèmes de symétrie. Dans ce chapitre, nous allons exposer quelques notions de théorie des groupes. Il n’est pas question ici de donner un cours général sur cette théorie. Nous chercherons plutôt à donner un premier contact avec les notions importantes, et à introduire le vocabulaire utile à la lecture des ouvrages consacrés à l’étude des symétries en physique. Le lecteur désirant en savoir plus pourra se reporter à la bibliographie.

CHAPITRE II

A.

NOTIONS SUR LA THÉORIE DES GROUPES

Propriétés générales des groupes

A-1.

Définitions ; exemples

Un groupe G est un ensemble constitué d’éléments, qui seront notés g1 , g2 , g3 , . . ., gi , gj , . . ., entre lesquels on a défini une loi de composition interne (multiplication) : gi , gj =⇒ produit, noté gi gj

(II-1)

Cette loi est telle que : • elle est associative : ∀ i, j, k

gi (gj gk ) = (gi gj ) gk

(II-2)

• il existe un élément neutre, noté e, tel que : eg = ge = g

∀g

(II-3)

• tout élément g possède un inverse, noté g −1 , avec lequel il commute : gg −1 = g −1 g = e

(II-4)

(les inverses “à droite” et “à gauche” sont donc identiques). La loi de multiplication n’est pas nécessairement commutative, et on peut avoir : gi gj 6= gj gi

(II-5)

Si elle l’est, c’est-à-dire si gi gj = gj gi pour tout i, j, le groupe est dit commutatif, ou abélien. Un groupe fini contient un nombre fini N d’éléments ; N est appelé ordre du groupe. Un groupe infini en contient un nombre infini (qui peut être dénombrable ou avoir la puissance du continu). L’inverse de g1 g2 est g2−1 g1−1 : (g1 g2 )−1 = g2−1 g1−1

(II-6)

(démonstration immédiate). On appelle “commutateur” de gi et gj l’élément du groupe : gi gj gi−1 gj−1

(II-7)

Ce commutateur est évidemment l’élément neutre e si gi et gj commutent (gi gj = gj gi ), et réciproquement. 38

A. PROPRIÉTÉS GÉNÉRALES DES GROUPES

Figure 1 – Le groupe cyclique Z8 comprend l’ensemble des nombres complexes e2iπp/8 (p = 0, 1, . . . , 7) ; la multiplication entre deux nombres complexes étant commutative, c’est un groupe abélien. Remarque :

On ne confondra pas cette définition du commutateur entre éléments d’un groupe (où une loi d’addition – soustraction n’a pas nécessairement été définie) avec celle, complètement différente, du commutateur entre opérateurs. Un groupe fini satisfait le “lemme de réarrangement”, souvent utile : si l’on choisit un élément quelconque g0 de G, en multipliant par g0 à gauche (ou à droite) l’ensemble des éléments de G, on obtient à nouveau une fois et une seule tous les éléments de G, mais dans un ordre différent (si g0 6= e). En effet, le produit g0 g est égal à un élément donné g 0 du groupe pour une seule valeur de g = g0−1 g 0 . Exemples de groupes • L’ensemble des 2 nombres +1 et −1 muni de la loi de multiplication habituelle, forme un groupe particulièrement simple (commutatif d’ordre 2). • De même, l’ensemble des nombres complexes e2iπp/N (N fixé, p = 0, 1, . . . , N − 1) forme un groupe abélien, d’ordre N , représenté par des points régulièrement espacés sur un cercle dans le plan complexe (figure 1). Ce groupe est appelé groupe cyclique Zn (ou quelquefois CN ). • Le groupe des entiers positifs ou négatifs, additif (muni de la loi de composition de l’addition habituelle), et noté Z∞ . L’ensemble des entiers positifs ne constitue pas un groupe, puisqu’il ne contient pas l’inverse (donc, ici, l’opposé) de chacun de ses éléments. Donnons maintenant quelques exemples de groupes non abéliens. 39

CHAPITRE II

NOTIONS SUR LA THÉORIE DES GROUPES

• Le groupe SN des permutations 1 de N objets, d’ordre N ! Ce groupe est non abélien si N ≥ 3. Prenons S3 par exemple, et notons P2 3 1 la permutation qui amène l’objet noté 2 à la place de l’objet 1, l’objet 3 à la place de l’objet 2, et l’objet 1 à celle de l’objet 3. On vérifie aisément que l’action successive de P2 3 1 puis de P2 1 3 sur les objets 123, dans cet ordre, donne 321. Par contre, si l’on applique les mêmes permutations à 123 mais en commençant par P2 1 3 , on obtient 132. Par suite : P2 1 3 P2 3 1 6= P2 3 1 P2 1 3 de sorte que S3 n’est pas commutatif. • Le groupe des opérations géométriques laissant invariante une figure donnée. Le produit de 2 éléments du groupe étant défini par l’application successive des deux opérations, on vérifie immédiatement qu’il s’agit bien d’un groupe. Un exemple est fourni par l’ensemble des transformations planes qui conservent les distances et un triangle équilatéral, qui comprend : – les rotations autour du centre O du triangle, d’angles O, 2π/3 et 4π/3 ; ces opérations sont notées I, C3 , C32 ; – les symétries par rapport à trois droites passant par O et les sommets du triangle, notées V , V 0 , et V 00 . On peut vérifier que V C3 = V 0 et que C3 V = V 00 : le groupe n’est pas commutatif. On le désigne par C3v . • Le groupe abélien des translations T(n) dans un espace à n dimensions, ou encore des rotations R(n) autour d’un point donné O dans cet espace. On peut également introduire le groupe des déplacements, dont les éléments sont le produit d’un élément de R(n) par un autre de T(n) . Nous avons ici des exemples de groupes infinis continus, sur lesquels nous reviendrons au chapitre suivant. • Groupes de matrices, munis de la loi habituelle de multiplication des matrices. Ces groupes sont importants en physique mais leur nomenclature varie quelque peu d’un ouvrage à l’autre : 1. Considérons N objets a1 , a2 , . . . , aN rangés dans un ordre de référence. Suivant un usage courant en physique, nous appelons ici permutation Pijk... de ces N objets une opération où l’objet i est amené en première place, l’objet j en seconde, etc. Cette opération porte donc sur l’ordre des objets (une autre définition possible, que l’on rencontre parfois, serait de considérer que la permutation porte sur la nature des objets, transformant l’objet a1 en ai , etc., ce qui conduirait à une table de multiplication différente). En mathématiques, on désigne plutôt par “substitution” une telle application biunivoque d’un ensemble sur lui-même, réservant le mot de permutation au rangement des objets dans un ordre donné.

40

A. PROPRIÉTÉS GÉNÉRALES DES GROUPES

Figure 2 – Le groupe C3v est le groupe des transformations planes qui conservent les distances ainsi qu’un triangle équilatéral. Ce groupe comprend des rotations d’angles 0, 2π/3 et 4π/3 autour du centre O du triangle, ainsi que les symétries par rapport à trois droites passant par O et les sommets du triangle, notées V , V 0 , et V 00 . – GL(n, C) groupe (linéaire) des matrices n × n régulières (déterminant non nul, donc inversibles), complexes. – GL(n, R) comme précédemment, mais en se limitant aux matrices réelles. – SL(n, C) et SL(n, R) désignent les groupes ayant les propriétés précédentes mais où, de plus, on impose aux matrices d’être unimodulaires (déterminant égal à 1). S signifie dans ce contexte “spécial”, par opposition au G de “général”. – U (n) matrices n×n unitaires (conservent la norme et le produit scalaire) 2 . – SU (n) matrices n × n unitaires unimodulaires. Ces groupes jouent un rôle important en physique des particules élémentaires. – O(n) matrices n × n orthogonales (unitaires et réelles). – SO(n) matrices n×n orthogonales unimodulaires. Par exemple, SO(3) désigne l’ensemble des matrices de rotation autour d’un point dans l’espace habituel à 3 dimensions (l’unimodularité éliminant les symétries par rapport à un point ou un plan). SO(3) et R(3) (groupes de rotations dans l’espace habituel à 3 dimensions) sont donc pratiquement deux désignations différentes d’un même groupe.

2. Les matrices hermitiques ne forment pas un groupe puisque, si M1 et M2 sont hermitiques, le produit M1 M2 ne l’est pas nécessairement (sauf si M1 M2 = M2 M1 ).

41

CHAPITRE II

A-2.

NOTIONS SUR LA THÉORIE DES GROUPES

Table de multiplication – Groupes isomorphes

Pour définir la loi de multiplication dans un groupe G, on peut donner un tableau à double entrée (table de multiplication) où, à l’intersection de la ième ligne et de la jème colonne, figure le produit gi gj : g1 g1

g12

g2 . . . gi . . . gN

g2 g1 . . . gi g1 . . . gN g1

g2 ..... gj ....... gN g1 g2 .. g1 gj

.. g1 gN

g22 .. g2 gj .. g2 gN . . . . . . . . . gi g2 .. gi gj .. gi gN . . . . . . . . . 2 gN g2 .. gN gj .. gN

Ce tableau spécifie la structure du groupe. Il n’est pas quelconque : par exemple, chaque élément g apparaît une fois et une seule dans chaque ligne et dans chaque colonne. Si G est commutatif, le tableau est symétrique (par rapport à la diagonale principale). Exercice : Ecrire la table de multiplication du groupe C3v . Il se peut qu’il existe un sous-ensemble d’éléments gα , gβ . . . gγ de G, tel que tous les éléments g ∈ G puissent être obtenus par produit des éléments de ce sous-ensemble. Les gα , gβ . . . gγ sont alors appelés “générateurs” du groupe. Exemples : (i) ZN : un seul générateur, e2iπ/N (ii) SN : le sous-ensemble des transpositions (iii) C3v : C3 et V On peut définir le groupe G par un certain nombre de relations entre les générateurs, sans se donner toute la table de multiplication. Par exemple, pour C3v : V 2 = I ; (C3 )3 = I ; C3 V C3 = V ; C3 et V 6= I ; C3 6= V 42

A. PROPRIÉTÉS GÉNÉRALES DES GROUPES

Figure 3 – A trois dimensions, un groupe est constitué de trois rotations d’axe Oz d’angles 0, 2π/3, 4π/3, ainsi que de trois symétries par rapport à des plans à 120 degrés contenant Oz. Ce groupe est isomorphe au groupe C3v de la figure 2. Homomorphisme : G =⇒ G0

On dit qu’il existe un homomorphisme du groupe G dans le groupe G0 si, à tout élément g ∈ G, on fait correspondre un élément : g 0 = f (g) ∈ G0 de façon que la loi de composition interne des groupes soit respectée : g10 g20 = f (g1 ) f (g2 ) = f (g1 g2 )

(II-8)

(le produit des transformés g10 et g20 est égal au transformé du produit g1 g2 ). Isomorphisme : G ⇐⇒ G0

Lorsque la correspondance ci-dessus est biunivoque (application bijective), c’est-à-dire lorsque : g1 6= g2 =⇒ g10 6= g20 et que tout élément g 0 de G0 correspond à un élément g de G, on dit qu’on a isomorphisme. Les deux groupes G et G0 ont alors même table de multiplication. Ils ne diffèrent en fait que par la dénomination des éléments. On a donc tendance à identifier deux groupes isomorphes et à les considérer comme deux réalisations différentes de ce que l’on appelle un même groupe abstrait. Exemples : (i) SO(3) et R(3) . (ii) Le groupe des transformations dans l’espace à 3 dimensions (figure 3) constitué de : 43

CHAPITRE II

NOTIONS SUR LA THÉORIE DES GROUPES

• 3 rotations, d’angles 0, 2π/3, 4π/3 autour d’un axe Oz. • 3 symétries par rapport à des plans à 120 degrés contenant Oz. Ce groupe est isomorphe à C3v . (iii) les 2 groupes précédents sont isomorphes à S3 (permutations des sommets d’un triangle équilatéral). Une façon de vérifier l’isomorphisme entre deux groupes est de s’assurer qu’ils ont des nombres égaux de générateurs avec les mêmes relations dans leur table de multiplication. A-3.

Sous-groupes – Centre

Soit H un sous-ensemble de G. Si H constitue lui-même un groupe (avec bien sûr la même loi de multiplication que G), on dit que H est un sousgroupe de G. Un sous-ensemble K quelconque de G ne constitue pas un sousgroupe : il faut que ce sous-ensemble soit fermé pour la loi de multiplication (c’est-à-dire que le produit de deux éléments de K appartienne à K) et que K contienne l’inverse de chacun de ses éléments. Exemples : (i) I, C3 , C32 forment un sous-groupe de C3v (isomorphe à Z3 ), mais pas I et C3 seulement. (ii) R(3) est un sous-groupe de l’ensemble des déplacements dans l’espace à 3 dimensions. (iii) R(2) est un sous-groupe de R(3) . Théorème de Cayley : Tout groupe fini d’ordre N est isomorphe à un sous-groupe de SN (groupe des permutations de N objets). Cette propriété peut être comprise en regardant la table de multiplication du groupe : à tout élément du groupe est associée une ligne sur laquelle figure une permutation des N éléments du groupe (lemme de réarrangement). Il n’est pas difficile de vérifier qu’on a effectivement isomorphisme en appliquant les lois de multiplication dans le groupe initial et celui des permutations. Sous-groupe invariant : Un sous-groupe H de G est dit invariant si : g H g −1 ⊂ H

∀g∈G

(II-9a)

c’est-à-dire si, quels que soient g appartenant à G et h à H, l’élément : h0 = g h g −1

(II-9b)

appartient aussi 3 à H. 3. Si G est un groupe fini, l’égalité (II-9a) est équivalente à g H g −1 = H (la démonstration est élémentaire et utilise le fait que, si h1 6= h2 , alors g h1 g −1 6= g h2 g −1 ).

44

A. PROPRIÉTÉS GÉNÉRALES DES GROUPES

Il revient au même de dire que, quels que soient g ∈ G et h ∈ H, il existe h0 ∈ H tel que : g h = h0 g

(II-10)

(ou l’inverse, en changeant les rôles de h et h0 ).

L’ensemble des éléments c de G qui commutent avec tous les éléments de G constitue évidemment un sous-groupe invariant abélien, appelé centre C du groupe G. Il se peut que C = G (si G est abélien) ou, à l’opposé, que C soit limité à l’élément identité (exemple : C3v ). A-4.

g0

Classes de conjugaison

Considérons deux éléments g et g 0 de G. On dit que g est conjugué de (par l’élément f ∈ G) si : g = f −1 g 0 f

(II-11)

On voit que : • g est conjugué de lui-même (f = e) • g 0 est conjugué de g (par f −1 ). On peut donc dire que g et g 0 sont conjugués l’un de l’autre. • Si g1 est conjugué de g2 (par f ) et g2 de g3 (par j), g1 est conjugué de g3 . En effet : 





g1 = f −1 g2 f = f −1 j −1 g3 jf



(II-12)

La conjugaison est une relation d’équivalence entre éléments de G. • Un sous-groupe invariant est la réunion de classes d’équivalence complètes. La classe de l’élément g est l’ensemble des éléments qui lui sont conjugués. Tous les éléments d’une classe sont donc conjugués deux à deux. On vérifie facilement que deux classes sont, soit disjointes (pas d’élément commun), soit confondues. En d’autres termes, les classes forment une partition de G, qui apparaît donc comme la réunion de classes disjointes. Remarques : (i) L’élément neutre est toujours seul dans sa classe. Cette classe est la seule qui soit un sous-groupe de G. (ii) Dans un groupe commutatif, les classes sont les éléments euxmêmes (elles ne contiennent qu’un élément unique).

45

CHAPITRE II

NOTIONS SUR LA THÉORIE DES GROUPES

(iii) Il existe également un “lemme de réarrangement” pour les classes C d’un goupe : si l’on choisit un élément quelconque g0 de G, l’ensemble des g0−1 gg0 redonne les éléments de C dans un ordre différent lorsque g prend successivement toutes les valeurs dans C (les g0−1 gg0 appartiennent évidemment à C et sont tous différents). (iv) L’égalité (II-10) exprime que h0 et h sont conjugués. Donc, un sous-groupe invariant peut être défini comme un sous-groupe qui contient ses éléments en classes complètes.

Exercices : (i) Montrer que les inverses des éléments d’une classe forment une classe, non nécessairement confondue avec la première. (ii) Soit g un élément d’une classe d’un groupe G fini d’ordre N , et soit p le nombre d’éléments de G qui commutent avec g. Montrer que g est conjugué de chaque élément de sa classe (en particulier de lui-même) exactement p fois (c’est-à-dire par p éléments différents de G). En déduire que N = pn, où n est le nombre d’éléments de la classe de g : l’ordre d’une classe divise celui du groupe. (iii) Si C et C 0 sont deux classes de G, on appelle produit des deux classes l’ensemble des éléments de G qui peuvent s’écrire gg 0 avec g ∈ C, g 0 ∈ C 0 . Montrer que ce produit est la réunion d’un certain nombre de classes de G. Cas de transformations géométriques

Supposons que les éléments de G soient des transformations géométriques inversibles A, B, . . . agissant sur des vecteurs x, y, . . . Par exemple, G = C3v ou G = R(3) . Alors, la notion de classe s’interprète géométriquement de façon très simple. En effet, notons y le transformé de x dans l’opération A: y = Ax

(II-13)

Choisissant une transformation quelconque C du groupe, nous posons : ( 0 x = Cx

y 0 = Cy

(II-14)

Alors l’opération qui permet de passer de x0 à y 0 est la conjuguée de A par l’élément C −1 : y 0 = A˜ x0

(II-15)

où : A˜ = CA C −1 46

(II-16)

A. PROPRIÉTÉS GÉNÉRALES DES GROUPES

Pour des transformations linéaires, les formules (II-14) sont celles d’un changement d’axes : les composantes de x et x0 (ou de y et y 0 ) sont celles d’un même vecteur, relatives à des systèmes d’axes différents (dans les colonnes de la matrice C on a alors les composantes des nouveaux vecteurs de base sur les anciens). Dans ce point de vue, A et son conjugué désignent la même opération géométrique, mais dans des axes différents. Par exemple, si G = C3v , on a : C3−1 V C3 = V 00

(II-17)

Le transposé de V par C3 est la symétrie par rapport à un axe dont la direction a subi la rotation C3−1 par rapport à sa direction initiale. De façon analogue : h

C3 2

i−1

V [C3 ]2 = V 0

(II-18)

De même, si G = R(3) , l’ensemble des éléments d’une classe comprend les rotations d’un même angle, autour d’un axe quelconque. A-5.

Groupe produit tensoriel (ou produit direct)

On considère deux groupes différents G et G0 , d’éléments gi et gk0 . Par définition, les éléments du produit tensoriel G ⊗ G0 sont les paires (gi , gk0 ). La loi de composition : gi , gk0



gj , ge0 = gi gj , gk0 ge0 



(II-19)

donne, on le vérifie aisément, une structure de groupe au produit G ⊗ G0 . Remarque :

Si H est un sous-groupe invariant de G, on peut définir la notion de groupe quotient G/H qui est, dans certains cas, la notion inverse du produit (voir complément AII ). Exemples : (i) Si G et G0 sont respectivement des groupes de matrices N × N et N 0 × N 0 , d’éléments Mi et Mk0 , leur produit direct conduit à l’ensemble des matrices produit tensoriel : Mik = Mi ⊗ Mk0

(II-20a)

dont, par définition, les éléments sont : hn, p|Mik |n0 , p0 i = hn|Mi |n0 i × hp|Mk0 |p0 i

(II-20b) 47

CHAPITRE II

NOTIONS SUR LA THÉORIE DES GROUPES

(ii) Prenons G = T(3) et G0 = R(3) . Dans le groupe des déplacements [groupe euclidien E(3) ], chaque transformation peut être obtenue par produit d’une rotation par une translation, de sorte que l’on pourrait penser que E(3) est le produit direct de T(3) et R(3) . Mais ce n’est pas le cas car, lors du produit de deux déplacements, la rotation du second s’applique à la position résultant du premier, y compris l’effet de la première translation. Translations et rotations se mélangent donc (ces opérations ne commutent pas), et le déplacement produit n’est pas obtenu par la simple règle (II-19) du produit tensoriel. B.

Représentations linéaires d’un groupe

B-1.

Définition et propriétés

On considère un groupe G, d’éléments notés g. On suppose qu’on connaît un ensemble de matrices carrées P × P , régulières M (det M 6= 0, M −1 existe), ensemble qui sera noté (P ) R : M ∈ (P ) R

(II-21)

Une représentation linéaire de G par l’ensemble des M est définie si l’on se donne une correspondance entre chaque élément g et une matrice M , qui sera notée M (g), de façon que : M (gg 0 ) = M (g) × M (g 0 )

(II-22)

(la matrice associée au produit est le produit des matrices). En d’autres termes, la loi de composition interne étant respectée, on peut définir une représentation linéaire comme un homomorphisme de G dans (P ) R. Le nombre P est appelé “dimension” de la représentation (ou quelquefois “degré”). Remarques :

(i) Se donner une matrice carrée régulière P ×P revient à se donner un opérateur linéaire M , inversible, agissant dans un espace vectoriel Ep à P dimensions. On peut donc ainsi définir une représentation comme un homomorphisme entre G et un ensemble d’opérateurs linéaires inversibles agissant dans Ep . (ii) Les matrices M sont supposées inversibles, ce qui exclut des correspondances comme celle qui associe à tout élément g la même matrice : N (g) = 48

0 1

!

0 1

(II-23)

B. REPRÉSENTATIONS LINÉAIRES D’UN GROUPE

bien que cette correspondance respecte la loi de composition interne [on vérifie facilement que N est un projecteur (non orthogonal), c’est-à-dire que N = N 2 = N 3 = . . . (matrice idempotente)]. (iii) Si G lui-même est défini comme un groupe de matrices inversibles [SO(n) par exemple], on a immédiatement une représentation de G qui est donnée par ces matrices elles-mêmes. Il ne faut cependant pas croire que ce soit la seule représentation possible. Par exemple, on peut associer à tout élément du groupe la (même) matrice unité P × P , ce qui donne une représentation dite triviale. (iv) Nous désignerons en fait, soit la correspondance G =⇒ (P ) R, soit l’ensemble (P ) R des matrices par le même mot “représentation”. B-1-a.

Propriétés simples

Si e désigne l’élément neutre de G, et g −1 l’inverse de g, on a : M (ge) = M (g) = M (g) M (e)

(II-24)

d’après (II-22) et donc : M (e) = M −1 (g) M (g) = (1)

(matrice unité)

(II-25)

puisque les M sont inversibles. De même : M (gg −1 ) = M (e) = M (g) M (g −1 )

(II-26)

et donc, d’après (II-25) : M (g −1 ) = M −1 (g) La matrice associée à e est donc toujours la matrice unité P × P ; deux matrices inverses sont associées à deux éléments inverses. B-1-b.

Représentation fidèle

Si, lorsque g1 et g2 sont différents, M (g1 ) et M (g2 ) sont également toujours différentes, la représentation est dite “fidèle” : g1 6= g2 =⇒ M (g1 ) 6= M (g2 )

(II-27)

la correspondance G =⇒ (P ) R est dans ce cas biunivoque (isomorphisme). 49

CHAPITRE II

B-1-c.

NOTIONS SUR LA THÉORIE DES GROUPES

Représentations projectives

Du fait qu’en mécanique quantique, la multiplication du vecteur d’état |ψi par un facteur de phase globale ne modifie pas l’état physique, on introduit souvent en physique la notion de “représentation projective” où (II-22) est remplacé par : 0

M (gg 0 ) = eiϕ(g,g ) M (g) M (g 0 )

(II-28)

où ϕ(g, g 0 ) est une fonction réelle de g et g 0 . Cette dernière égalité est moins contraignante que (II-22) ; les représentations projectives ne sont en général pas des représentations au sens strict. B-1-d.

Exemples

(i) On peut dire que R(3) est représenté par SO(3). Nous verrons plus loin (chapitre VII) qu’il existe bien d’autres représentations de R(3) . (ii) Groupe des translations T(3) dans l’espace à 3 dimensions. Ces translations dépendent de 3 paramètres, qui sont les composantes `x , `y , `z du vecteur de translation `. Les transformations correspondantes des coordonnées s’écrivent : x 0 = x + `x

y 0 = y + `y

z 0 = z + `z

(II-29)

Contrairement au cas de l’exemple précédent, on n’a pas ici une transformation linéaire. On peut cependant écrire :  0   x x  y0  y       0  = M (`)   z  z 

1

(II-30)

1

avec : 

1 0  M (a) =  0 0

0 1 0 0

0 0 1 0



`x `y    `z  1

(II-31)

On vérifie aisément que : M (`1 + `2 ) = M (`1 ) M (`2 )

(II-32)

de sorte que les M fournissent une représentation de dimension 4 de T(3) . 50

B. REPRÉSENTATIONS LINÉAIRES D’UN GROUPE

(iii) Le groupe SN peut par exemple être représenté de la façon simple suivante : permutation paire =⇒ matrice (1) permutation impaire =⇒ matrice (−1)

(II-33)

C’est une représentation de dimension 1, la plus simple après la représentation triviale. Elle joue un rôle fondamental en mécanique quantique pour le système de N fermions identiques (postulat d’antisymétrisation), alors que c’est la représentation triviale pour les systèmes de bosons identiques (postulat de symétrisation). Il existe cependant des représentations de SN de dimensions plus élevées et non commutatives [M (g) M (g 0 ) 6= M (g 0 ) M (g)]. Considérons en effet N objets a1 , a2 , . . . , aN , rangés dans un ordre de référence, qui deviennent a01 , a02 , . . . , a0N sous l’effet d’une permutation Pα . A cette permutation nous pouvons associer la matrice M (Pα ), carrée N × N , définie par : a01 a1  0    a  2  a2   .  = (M (Pα ))  .   .   .   .   .  





a0N



(II-34)

aN

M (Pα ) est une matrice qui, dans chacune de ses lignes ou de ses colonnes, n’a qu’un seul élément non nul : l’élément (M )ij de la ligne i et la colonne j vaut 1 si l’objet aj prend la place de ai sous l’effet de la permutation Pα . Par exemple, dans S3 : 



010   M (P2 3 1 ) =  0 0 1  100

(II-35)

On vérifie alors par simple produit de matrices que le produit de deux matrices M est bien la matrice associée au produit des permutations, c’est-à-dire que ces matrices fournissent effectivement une représentation de SN . Pour les systèmes constitués de particules identiques, plutôt que de limiter le postulat de symétrisation aux représentations de SN de dimension 1, il a été envisagé de postuler que, pour certains types de particules identiques, il faut en mécanique quantique introduire des représentations de dimension plus élevée (para-statistiques). Cependant, l’existence de particules élémentaires nécessitant effectivement cette généralisation des postulats n’a pas été prouvée.

51

CHAPITRE II

NOTIONS SUR LA THÉORIE DES GROUPES

(iv) Il est clair que, si l’on a une représentation d’un groupe quelconque, on dispose également d’une représentation de tout sous-groupe. Or, nous avons vu plus haut que tout groupe fini d’ordre N est isomorphe à un sousgroupe de SN . Par suite, en utilisant la représentation (II-34), on peut obtenir une représentation de tout groupe fini, appelée “représentation régulière”. A chaque élément g du groupe (dans lequel on a défini un ordre de référence g1 , g2 , . . . , gN ), on associe la matrice carrée N × N M (g) telle que :     gg1 g1  gg2   g2       gg3    (II-36)   = (M (g))  g3   ..   ..   .   .  ggN

gN

Multiplions cette relation à gauche par (M (g 0 )) ; nous obtenons une relation indiquant que le produit de matrices (M (g))(M (g 0 )) est associé dans le groupe à l’élément produit gg 0 ; on a bien une représentation du groupe.

Exercice : Construire la représentation régulière de C3v . B-2.

Représentations équivalentes

Soient M1 (g) et M2 (g) deux représentations de même dimension P du groupe G. S’il existe une matrice S inversible telle que : M2 (g) = S −1 M1 (g) S

∀g

(II-37)

les deux représentations sont dites équivalentes. Remarques :

(i) On peut considérer que M1 (g) et M2 (g) sont les matrices associées, dans deux bases différentes d’un espace Ep à P dimensions, à un même opérateur M (g) ; S est alors la matrice de changement de base. En termes d’opérateurs, deux représentations équivalentes sont donc en fait la même représentation. (ii) On montre (cf. [16], p. 74) que toute représentation matricielle d’un groupe fini est équivalente à une représentation formée de matrices unitaires. B-3.

Caractères

On appelle caractères d’une représentation l’ensemble des nombres : χ(g) = Tr {M (g)} 52

(II-38)

B. REPRÉSENTATIONS LINÉAIRES D’UN GROUPE

Remarques :

(i) Pour une représentation donnée, les caractères de tous les éléments d’une même classe sont égaux : Tr {N −1 M N } = Tr {N N −1 M } = Tr {M }

(II-39)

(ii) De même, on voit immédiatement que deux représentations équivalentes ont mêmes caractères χ(g) pour tous les éléments g ∈ G. (iii) Il existe un théorème important qui dit que toute représentation est déterminée de façon unique (bien sûr à une équivalence près) par l’ensemble de ses caractères (c’est-à-dire ceux des différentes classes de G). On trouvera par exemple la démonstration dans le livre de J.P. Serre [26], chapitre I. Les caractères sont particulièrement importants dans l’étude des représentations irréductibles, que nous allons introduire plus bas. B-4.

Somme et produit de deux représentations

• La somme (directe) de deux représentations M1 (g) et M2 (g) d’un même groupe G, de dimensions respectives p1 et p2 , est donnée par les matrices P × P (avec P = p1 + p2 ) : M (g) =

M1 (g) 0

0 M2 (g)

!

(II-40)

On vérifie facilement que les M (g) donnent une autre représentation de G. Si M1 (g) et M2 (g) sont des matrices associées à des opérateurs M1 (g) et M2 (g) agissant respectivement dans des espaces vectoriels Ep1 et Ep2 , M (g) peut être associée à un opérateur agissant dans l’espace somme directe : Ep = Ep1 ⊕ Ep2

(II-41)

L’opération somme permet donc, à partir de deux représentations (ou d’une seule si M1 ≡ M2 ), d’en construire une autre, de dimension plus grande, dont les caractères sont les sommes : χ(g) = χ1 (g) + χ2 (g)

(II-42)

• Le produit (tensoriel) des représentations M1 et M2 [d’éléments de matrice hn1 |M1 |n01 i et hn2 |M2 |n02 i] est défini par les matrices produits tensoriels : M (g) = M1 (g) ⊗ M2 (g)

(II-43) 53

CHAPITRE II

NOTIONS SUR LA THÉORIE DES GROUPES

c’est-à-dire : hn1 , n2 |M (g)|n01 , n02 i = hn1 |M1 (g)|n01 i hn2 |M2 (g)|n02 i

(II-44)

Les matrices M (g) peuvent être associées à des opérateurs agissant dans un espace produit tensoriel Ep1 ⊗ Ep2 ; leur dimension est P = p1 × p2 , et les caractères valent : χ(g) = χ1 (g) × χ2 (g)

Remarque :

Le produit de deux représentations peut être effectué pour deux groupes différents G1 et G2 . On obtient alors une représentation du produit (tensoriel) G1 ⊗ G2 . B-5.

Représentations réductibles ou irréductibles

Une représentation est dite “réductible” si elle est équivalente à une représentation qui est une somme directe de représentations du même groupe. C’est le cas si l’on peut trouver dans la relation (II-37) une matrice S telle que, quel que soit g : M2 (g) =

Ma (g) 0 0 Mb (g)

!

(II-45)

| {z } | {z } pa

pb

où la dimension pa et pb des deux blocs est la même pour tout g (avec bien sûr pa + pb = P ). Lorsqu’on a trouvé une matrice S qui réalise l’égalité (II-45) pour tout g, on dit qu’on a décomposé la représentation initiale en deux représentations de dimensions plus faibles pa et pb . Le problème est de trouver une même matrice S qui convienne pour toutes les matrices M (g) : il ne suffirait pas, par exemple, de diagonaliser chaque matrice M (g), chacune dans sa base propre, pour décomposer complètement la représentation, sauf s’il se trouvait que toutes les bases propres soient les mêmes. Si la représentation est telle qu’aucune matrice S inversible ne permette d’obtenir l’égalité (II-45) pour tous les M (g), elle est appelée “irréductible”. Remarques :

(i) La notion de réductibilité se définit de même pour tout ensemble de matrices, sans référence à la représentation d’un groupe G. 54

B. REPRÉSENTATIONS LINÉAIRES D’UN GROUPE

(ii) Dire que la représentation est réductible est équivalent à dire qu’il existe dans l’espace Ep où agissent les opérateurs M (g) deux sousespaces Ep1 et Ep2 , dont Ep est la somme directe, chacun d’entre eux étant (globalement) invariant sous l’action de tous les M (g). (iii) On définit parfois la réductibilité d’un ensemble de matrices de façon moins contraignante, en imposant seulement l’invariance globale d’un sous-espace Ep1 sous l’action des M (g). Il faut alors remplacer (II-45) par :   Ma (g) Mc (g) −1 M2 (g) = S M1 (g) S = (II-46) 0 Mb (g) qui est évidemment une condition plus faible. Dans ce point de vue, on dit que, si (II-45) est réalisée, la représentation est “complètement réductible”. Cette distinction n’a d’ailleurs d’intérêt que pour les ensembles infinis de matrices car on démontre que, si un ensemble fini de matrices est réductible, il est complètement réductible. Nous prendrons ici toujours le mot “réductible” dans son sens fort comme en (II-45) ; si on le désire, on peut considérer que le mot “complètement” est sous-entendu partout.

Un problème important est la décomposition d’une représentation donnée d’un groupe en représentations irréductibles, c’est-à-dire la mise de la représentation sous la forme d’une somme de blocs irréductibles grâce à une matrice S 0 convenable : 

Ma0 (g)

  

M2 (g) = (S 0 )−1 M1 (g) S 0 =  0



Mb0 (g)

0 Mc0 (g)

Md0 (g)

   

(II-47) Donnons sans démonstration un certain nombre de résultats : • Les représentations irréductibles obtenues par décomposition d’une représentation donnée ne dépendent pas (à une équivalence près) de la façon dont est effectuée la décomposition (théorème d’unicité). • Les représentations irréductibles d’un groupe abélien sont toutes de dimension 1. Inversement, tout groupe non commutatif possède au moins une représentation irréductible de dimension supérieure ou égale à deux. • Le nombre de représentations irréductibles non équivalentes d’un groupe fini est égal au nombre de ses classes. La théorie des caractères est utile pour la recherche des représentations irréductibles d’un groupe fini. En particulier, elle fournit un critère d’irréductibilité d’une représentation. 55

CHAPITRE II

NOTIONS SUR LA THÉORIE DES GROUPES

De nombreuses applications physiques existent de la théorie des groupes finis et utilisent la théorie des caractères : citons par exemple les groupes ponctuels cristallographiques, les groupes de vibration des molécules. Les groupes infinis sont également d’une très grande importance et ce sont eux que nous allons maintenant aborder. Exercice : Carré symétrique et carré alterné d’une représentation On effectue le produit tensoriel d’une représentation irréductible M1 (g) par elle-même, en posant : M (g) = M1 (g) ⊗ M1 (g)

(II-48)

Les opérateurs M (g) agissent dans l’espace : E2P = EP ⊗ EP

(II-49)

que l’on rapporte à la base orthonormée : |vi,j i = |ui i ⊗ |uj i

(II-50)

(les |ui i sont une base orthonormée de EP ). Introduire l’opérateur d’échange Pech défini par : Pech |vi,j i = |vj,i i

(II-51)

et montrer qu’il est unitaire et commute avec tous les M (g). En déduire que la représentation M (g) est réductible, pouvant être décomposée en deux représentations de dimensions P (P + 1)/2 et P (P − 1)/2.

56

• CLASSES RÉSIDUELLES ; GROUPE QUOTIENT

Complément AII Classes résiduelles d’un sous-groupe ; groupe quotient 1 2

Classes résiduelles à gauche . . . . . . . . . . . . . 57 Groupe quotient . . . . . . . . . . . . . . . . . . . . 58

Soit H un sous-groupe de G. L’élément général de H sera noté h, celui de G noté g. 1.

Classes résiduelles à gauche

A chaque sous-groupe H de G, on peut associer une façon de regrouper les éléments de G en classes C0 , C1 , C2 , . . . dites “classes résiduelles à gauche” de H, dont la réunion redonne le groupe G. Considérons en effet deux éléments g et g 0 et supposons qu’il existe h et h0 appartenant au sous-groupe H tels que : g h = g 0 h0

(1)

On définit ainsi une relation d’équivalence entre éléments g (en particulier on vérifie facilement que, du fait que H est un sous-groupe, la relation est transitive : g équivalent à g 0 et g 0 équivalent à g 00 entraîne que g est équivalent à g 00 ). Les classes C sont alors définies comme les ensembles constitués par tous les éléments de G équivalents entre eux. La classe C0 sera choisie en y mettant tous les éléments de G équivalents à e, c’est-à-dire tous les éléments g tels que : g h = e h0

(2)

ou encore : g = h0 h−1 ∈ H

(3)

Réciproquement, si g ∈ H, on peut écrire : g g −1 = e

(4)

qui est l’égalité (1) avec h = g, g 0 = e, h0 = e. C0 est donc simplement le sous-groupe H lui-même. C1 sera obtenu en choisissant un élément quelconque de G hors de C0 , et en lui associant tous les éléments équivalents, et ainsi de suite pour C2 , C3 , etc. 57

COMPLÉMENT AII



La relation (1) peut s’écrire : g 0 = g h00

(5)

avec : h00 = h h0−1 ∈ H

(6)

Inversement, (5) redonne (1) si l’on pose h0 = e et h = h00 . On peut donc dire que g et g 0 sont équivalents par H s’il existe h00 ∈ H tel que (5) soit satisfaite. On voit alors que, à chaque élément g, on peut associer par (5) autant d’éléments g 0 équivalents distincts qu’il y a d’éléments dans H. Donc, si H est fini et d’ordre p, chaque classe C contient le même nombre p d’éléments distincts. Soit q le nombre de classes, N l’ordre du groupe fini G. Ce dernier étant la réunion des classes (disjointes) C0 , C1 , C2 , . . . on a : N =pq

(7)

Nous aboutissons donc au résultat suivant (théorème de Lagrange) : l’ordre d’un sous-groupe d’un groupe d’ordre fini N est un diviseur de l’entier N . Remarques :

(i) On définit de même des classes résiduelles à droite associées à H. Elles sont en général distinctes des précédentes (sauf bien sûr si G est abélien). (ii) Si H est un sous-groupe invariant, on démontre aisément que les classes résiduelles à droite et à gauche sont les mêmes [cf. relation (II-10) du chapitre II]. (iii) Ne pas confondre classes résiduelles associées à H et classes de conjugaison (§ A-4 du chapitre II). 2.

Groupe quotient

Supposons maintenant que H soit un sous-groupe invariant de G. Nous pouvons alors définir une loi de multiplication entre classes en appelant “classe produit” Ci Cj l’ensemble des éléments de la forme gi gj où gi ∈ Ci , gj ∈ Cj . Vérifions que l’on obtient ainsi une autre classe Ck (grâce au fait que H est invariant). En effet, si gi0 et gj0 sont deux autres éléments de Ci et Cj respectivement, on a, d’après (5) : gi0 = gi h1 gj0 = gj h2 58

(8)

• CLASSES RÉSIDUELLES ; GROUPE QUOTIENT et donc, en utilisant l’égalité (II-10) du chapitre II : gi0 gj0 = gi h1 gj h2 = gi gj h01 h2 = gi gj h00

(9)

Cette égalité exprime que le produit gi0 gj0 est équivalent à gi gj . Réciproquement, on voit en prenant le même calcul à rebours que tous les éléments de Ck peuvent être ainsi obtenus. Avec la loi de composition ainsi définie, l’inverse de la classe Ck sera la classe Ck−1 qui contient tous les éléments inverses de ceux de Ck (on vérifie que, si H est invariant, il constitue bien une classe C). L’élément neutre est la classe C0 , c’est-à-dire H lui-même. L’ensemble des C constitue donc un groupe, qui est par définition le groupe quotient G/H. Exercices : (i) Montrer que, si l’on effectue le produit tensoriel G = G1 ⊗ G2 , H = G1 ⊗ e2 est un sous-groupe invariant de G [e2 est l’élément neutre de G2 ]. Montrer que, pour les éléments de G , la relation d’équivalence (1) devient particulièrement simple dans ce cas et que le groupe quotient G /H est isomorphe à G2 . (ii) On considère le groupe euclidien E(3) des déplacements dans l’espace ponctuel réel à trois dimensions. T(3) désigne l’ensemble des translations dans l’espace réel. Montrer que T(3) est un sous-groupe invariant de E(3) . Montrer que E(3) /T(3) est isomorphe au sous-groupe des rotations R(3) .

59

Chapitre III

Introduction aux groupes continus et groupes de Lie A

B

C

Propriétés générales . . . . . . . . . . . . . . . A-1 Les groupes continus . . . . . . . . . . . . . . A-2 Groupes de Lie . . . . . . . . . . . . . . . . . Exemples . . . . . . . . . . . . . . . . . . . . . B-1 Groupe SO(2) . . . . . . . . . . . . . . . . . B-2 Transformation de Galilée à une dimension . B-3 Groupe SU (2) . . . . . . . . . . . . . . . . . Groupes de Galilée et de Poincaré . . . . . . C-1 Groupe de Galilée . . . . . . . . . . . . . . . C-2 Groupe de Poincaré . . . . . . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. 62 . 62 . 69 . 78 . 78 . 79 . 81 . 86 . 86 . 92

Ce chapitre est consacré à l’exposé de quelques notions sur les groupes infinis (groupes contenant un nombre infini d’éléments) et tout particulièrement les groupes ayant la puissance du continu (ensembles non dénombrables 1 ). Par exemple, le groupe des translations le long d’un axe donné Ox (vecteur unitaire ex ) d’une quantité pex , où p est un entier positif, négatif ou nul. Ce groupe est infini, mais dénombrable (p varie de façon discrète). Un autre exemple est fourni par le groupe T(1) des translations d’une quantité aex , où a est un nombre réel quelconque. Contrairement au précédent, ce groupe infini n’est pas dénombrable. 1. Un ensemble infini est dénombrable si l’on peut établir une correspondance biunivoque entre ses éléments et les entiers naturels 1, 2, 3, ... Sinon, on dit que l’ensemble a la puissance du continu. Exemple : l’ensemble des rationnels (fractions) est dénombrable, mais celui des nombres réels (rationnels et irrationnels) de l’intervalle [0,1] a la puissance du continu.

CHAPITRE III

INTRODUCTION AUX GROUPES DE LIE

Nous commencerons (§ A) par donner un certain nombre de notions générales concernant les groupes continus et quelques éléments de topologie. Puis nous étudierons quelques exemples simples (§ B). Enfin, nous considèrerons deux cas particuliers très importants : groupe de Galilée et groupe de Poincaré (§ C). A.

Propriétés générales

A-1. A-1-a.

Les groupes continus Définitions

Nous allons considérer un groupe G dont les éléments sont repérés par un nombre fini n de paramètres réels a1 , a2 , . . . an . Ces derniers peuvent être notés de façon plus condensée par un vecteur a ∈ Rn , de composantes a1 , a2 , . . . an : g = g(a1 , a2 , . . . an ) = g(a) a ∈ Rn

(III-1)

Pour décrire tout le groupe, a doit varier dans un certain domaine D de Rn , fini ou infini, qui a la puissance du continu. Les paramètres sont supposés essentiels (non redondants) : le groupe ne peut pas être décrit de façon continue 2 par un nombre moindre de paramètres. Par exemple, pour le groupe T(1) des translations dans un espace à 1 dimension, le paramètre unique a est essentiel. Mais, si l’on avait introduit deux paramètres a1 et a2 pour définir une translation d’un vecteur (a1 + a2 )ex , on n’aurait évidemment pas des paramètres essentiels. Nous supposons qu’il existe une correspondance biunivoque entre les éléments de G et ceux de D (dans D, il n’y a pas deux points a1 et a2 qui correspondent au même élément g de G). Se donner un vecteur a de composantes a1 , a2 , . . . an ou un élément g ∈ G revient alors au même. Cependant, il sera souvent commode de raisonner sur les vecteurs a au lieu des g. L’entier n est appelé dimension du groupe. Produit : Si g(a) et g(b) sont deux éléments de G, le produit g(a) g(b) appartient également à G, et peut par suite être décrit par une valeur c du paramètre dans D : g(c) = g(a) g(b)

(III-2)

2. Nous anticipons ici quelque peu, supposant que des topologies ont été définies dans le groupe et dans l’espace des paramètres, ce qui permet d’introduire la notion de continuité.

62

A. PROPRIÉTÉS GÉNÉRALES

La valeur de c est une fonction de a et de b : c = Φ2 (a, b)

(III-3)

La fonction Φ2 donne donc, dans D, le reflet de la loi de composition interne dans G. Elle n’est d’ailleurs pas quelconque. De l’associativité de la loi de multiplication dans G découle que : Φ2 (a, Φ2 (b, c)) = Φ2 (Φ2 (a, b) , c)

(III-4)

Inverse : L’élément g −1 (a) est décrit par une valeur a0 du paramètre de D : g −1 (a) = g(a0 )

(III-5)

avec : a0 = Φ1 (a)

(III-6)

Exemple : Pour le groupe T(1) , ou plus généralement pour un groupe de translations repérées par leur vecteur a : (

Φ2 (a, b) = a + b Φ1 (a) = −a

A-1-b.

(III-7)

Notions intuitives de topologie

Dans Rn on définit facilement une topologie, par exemple à partir de la distance δ entre deux points a et b : δ (a, b) =

( n X

)1/2 2

(ai − bi )

(III-8)

i=1

On peut par suite introduire la notion de voisinage d’un point a (ensemble ouvert), ensemble de tous les points b tel que : δ (a, b) < ε

(III-9)

et parler de points a0 tendant vers un point a, de limite, de continuité, etc. Dans le groupe G lui-même, nous allons supposer qu’une topologie a également été introduite, ce qui est en particulier le cas dès qu’on a défini une “distance” entre deux de ses éléments g(a) et g(b).

63

CHAPITRE III

INTRODUCTION AUX GROUPES DE LIE

Exemples : (i) Dans le groupe T(3) des translations, on peut définir la distance entre deux translations par le module de la différence de leurs vecteurs `. C’est simplement la distance (au sens habituel dans l’espace ordinaire R3 ) entre les images d’un même point par les deux opérations. (ii) Dans le groupe R(3) , on peut définir la distance entre deux rotations R 0 et R 00 comme la valeur supérieure du module du vecteur e00 − e0 = R 00 e − R 0 e, lorsque la direction d’un vecteur unitaire e varie. Pour deux rotations de même axe [dans SO(2) par exemple] d’angles ϕ1 et ϕ2 , la distance est alors 2| sin[(ϕ1 − ϕ2 )/2]|. On peut alors définir, comme en (III-9), le voisinage de chaque élément g. Le groupe G est dans ce cas un “groupe topologique”. Nous appellerons “groupe continu” un tel groupe où le produit gg 0 ainsi que l’inverse g −1 sont des fonctions continues de g et g 0 . De plus, nous supposerons que a varie “de façon continue” dans D et que les fonctions ϕ1 et ϕ2 sont des fonctions continues de leurs variables (sauf éventuellement sur la frontière du domaine D). Une notion importante est celle d’homéomorphie : c’est une correspondance biunivoque et bicontinue entre deux ensembles topologiques D1 et D2 . Lorsqu’une telle correspondance existe, D1 et D2 sont dits homéomorphes. Exemples : (i) Ensembles homéomorphes :

Figure 1 – Représentations schématiques d’ensembles homéomorphes ; chacun des trois ensembles de la colonne de gauche est homéomorphe à celui de la colonne de droite. 64

A. PROPRIÉTÉS GÉNÉRALES

(ii) Ensembles non homéomorphes :

Figure 2 – Représentations schématiques d’ensembles non homéomorphes ; dans la première ligne, le point d’intersection s’oppose à la bicontinuité, dans la seconde c’est la coupure dans l’ensemble de gauche. Si le volume de D est fini, nous dirons que le groupe est “compact” 3 . Si ce volume est composé “d’un seul morceau”, D et par suite le groupe G seront dits “connexes” 4 . Exemple : La figure 3 symbolise un domaine non connexe (en deux morceaux) :

Figure 3 – Représentation schématique d’un ensemble “non connexe”, composé de deux morceaux. Une notion utile est celle de “chemins homotopes” (ou, plus simplement, “équivalents”). Un chemin dans D sera défini comme une trajectoire d’un point M de D dont la position dépend de façon continue d’un paramètre (qui peut par exemple être interprété comme le temps) variant dans un intervalle fini. De façon plus précise, un chemin est l’image dans D par 3. De façon générale, on dit en mathématiques qu’un ensemble (espace métrique) est compact si, de toute suite infinie de ses éléments, on peut extraire une suite convergente. Si l’on se limite à l’étude des groupes de Lie, on peut se contenter de cette définition plus simple. 4. La définition générale d’un ensemble topologique connexe est qu’il n’est pas la réunion de deux ouverts non vides sans points communs.

65

CHAPITRE III

INTRODUCTION AUX GROUPES DE LIE

une correspondance continue f d’un intervalle fermé [t0 , t1 ] de la droite réelle (axe des temps par exemple) ; les points M du chemin sont donc donnés par M = f (t) avec t0 ≤ t ≤ t1 (si t0 < t1 ). On peut convenir de prendre une fois pour toutes t0 = 0 et t1 = 1. Les points M0 = f (t0 ) et M1 = f (t1 ) sont les extrémités du chemin (figure 4). Si M0 et M1 sont confondus (le chemin se referme sur lui-même), on dit que le chemin est un “lacet” ou encore un “chemin fermé”.

Figure 4 – Deux chemins possibles dans un ensemble, d’extrémités M0 et M1 . Le point courant est M (t), avec par convention 0 ≤ t ≤ 1. Supposons que, dans un ensemble, deux points quelconques soient toujours les extrémités d’un ou plusieurs chemins (on peut passer continûment d’un point à l’autre.) ; l’ensemble est alors connexe. Deux chemins de mêmes extrémités M0 et M1 sont dits “homotopes” si l’on peut déformer le premier de façon continue pour obtenir le second (ou inversement). Partant du premier chemin M (t) allant de M0 à M1 , on doit donc pouvoir définir à chaque instant une transformation continue des points M (t) qui les amène sur les points du second chemin (figure 5).

Figure 5 – Deux chemins de mêmes extrémités M0 et M1 sont homotopes si une déformation continue permet de passer de l’un à l’autre. La figure montre deux exemples de couples de chemins homotopes. Cette notion de chemins homotopes s’applique en particulier aux chemins fermés. Si un chemin fermé peut être de façon continue déformé en un “chemin nul”, où les points M (t) sont confondus avec M0 pour tout t (le point M reste immobile), on dit que ce chemin est “homotope à zéro”. 66

A. PROPRIÉTÉS GÉNÉRALES

Exemples : (i) L’ensemble des points intérieurs à un cercle du plan est un ensemble où tous les chemins fermés sont homotopes à zéro (cf. figure 6).

Figure 6 – Dans l’ensemble des points intérieurs à un cercle du plan, tous les chemins fermés sont homotopes à zéro. Il en est de même de l’ensemble des points de la surface d’une sphère (dans l’espace à 3 dimensions). (ii) Par contre, si l’on exclut de l’ensemble précédent les points intérieurs à un petit cercle concentrique au premier (ou simplement le centre du cercle lui-même), on ne peut pas passer continûment d’un chemin fermé qui fait q tours de l’origine à un autre qui en fait q 0 (si q 0 6= q). Il existe donc dans un tel ensemble des chemins non homotopes, ainsi que des lacets non homotopes à zéro. (iii) Considérons l’ensemble des points intérieurs à une sphère traversée par un fil électrique, suivant un de ses diamètres, ce fil étant parcouru par un courant i. Le théorème d’Ampère indique que les circulations du champ magnétique B le long des chemins homotopes sont égales, nulles pour les chemins homotopes à zéro. (iv) Dans le plan complexe, l’intégrale d’une fonction complexe le long d’un chemin fermé est nulle si ce chemin est tracé dans le domaine ∆ où la fonction est dérivable (conditions de Cauchy), et s’il est homotope à zéro dans ∆. Si tous les chemins fermés de l’ensemble topologique sont homotopes à zéro, l’ensemble est dit “simplement connexe” 5 ; dans le cas contraire, “non-simplement connexe”. 5. Nous appellerons p-connexe, ou connexe de classe p, un ensemble où il existe un nombre maximum de p chemins fermés non homotopes. Pour un ensemble comportant des “trous” comme celui de la figure 7, p est infini. Dans le cas du groupe des rotations R(3) , nous verrons au chapitre VI que p = 2.

67

CHAPITRE III

INTRODUCTION AUX GROUPES DE LIE

Exemple : Un ensemble qui comporte des “trous”, même s’il est “en un seul morceau” (connexe), n’est pas simplement connexe. C’est le cas de l’exemple (ii) précédent ou d’un ensemble comme celui schématisé sur la figure 7 :

Figure 7 – Dans un ensemble qui comporte des “trous”, tous les chemins fermés ne sont pas homotopes à zéro ; l’ensemble n’est alors pas simplement connexe.

Considérons enfin l’ensemble des chemins fermés d’origine M0 donnée. Cet ensemble peut être divisé en un certain nombre de classes d’équivalence, comprenant tous les chemins fermés homotopes entre eux. Nous appellerons Π1 (M0 ) l’ensemble de ces classes. Par ailleurs, on peut définir le produit de deux chemins fermés d’origine M0 [de façon intuitive, si le point mobile M (t) décrit le premier chemin de M0 à M0 , puis le second, on obtient un autre chemin fermé qu’on appelle produit]. On vérifie que le produit permet de définir une loi de composition dans Π1 (M0 ), que chaque classe a un inverse (chemins parcourus en sens opposés), que l’élément neutre existe (chemin homotope à zéro). L’ensemble Π1 (M0 ) est donc un groupe, que l’on appelle “groupe d’homotopie”. Pour un groupe connexe, on démontre que la structure du groupe Π1 est la même, quel que soit le point M0 . Exemples : (i) Pour un groupe simplement connexe, Π1 est le groupe Z1 à un élément. Si le groupe est p-connexe, Π1 a p éléments distincts. (ii) Dans les cas envisagés plus haut où l’ensemble est l’intérieur d’un cercle moins son centre, ou d’une sphère moins son diamètre, Π1 est isomorphe au groupe commutatif Z∞ . (iii) Un tore, dans l’espace à 3 dimensions, a pour groupe Π1 un groupe isomorphe à Z∞ ⊗ Z∞ . (iv) Pour un ensemble comportant r “trous”, le groupe Π1 est engendré par r éléments (associés respectivement à un chemin entourant chacun des trous), et a un nombre infini d’éléments. Π1 n’est pas commutatif dans ce cas (si r > 1) : il ne revient pas au même de faire q fois le tour d’un trou, puis q 0 fois le tour d’un autre, ou d’inverser ces opérations.

68

A. PROPRIÉTÉS GÉNÉRALES

A-2.

Groupes de Lie

A-2-a.

Définitions

Aux conditions énoncées plus haut pour que le groupe G soit continu, nous ajouterons celle que Φ1 et Φ2 sont analytiques (développables en série entière). Le groupe est alors un groupe de Lie. Dans la pratique, les groupes de Lie que l’on considère en physique sont souvent des groupes de matrices 6 N × N régulières M (a). Ce sont fréquemment les matrices fournies par la représentation d’un groupe de transformations, par exemple des transformations géométriques. Nous allons donc nous limiter à ce cas. De plus, par commodité, nous supposerons que la matrice unité N × N est décrite par le paramètre a = 0. M (0) = 1

(III-10)

Si ce n’était pas le cas, une simple translation du domaine D dans Rn nous y ramènerait. Donnons tout de suite quelques exemples simples de tels groupes. Exemples : (i) Groupe des homothéties à une dimension, définies par x0 = ax (a > 0), c’est-à-dire par des matrices 1 × 1. C’est un groupe de dimension 1, abélien, non compact puisque le domaine accessible à a est tout un demi-axe positif. (ii) Groupe GL(2, C) des matrices régulières complexes 2 × 2 : M (a) =

1 + a1 a3 a4 1 + a2

!

avec a1 + a2 + (a1 a2 − a3 a4 ) 6= −1 (III-11)

On a : M (a) M (b) =

!

(1 + a1 )(1 + b1 ) + a3 b4

(1 + a1 )b3 + a3 (1 + b2 )

a4 (1 + b1 ) + (1 + a2 )b4

a4 b3 + (1 + a2 )(1 + b2 ) (III-12)

qui donne la fonction Φ2 . Ce groupe est non abélien, de dimension n = 8 (puisque la donnée d’un nombre complexe équivaut à celle de deux réels), alors que N = 2. (iii) Groupe R(2) , ou SO(2), des matrices de rotation autour d’un axe fixe. Nous appellerons ici ϕ le paramètre unique (n = 1) : M (ϕ) =

cos ϕ − sin ϕ sin ϕ cos ϕ

!

0 ≤ ϕ < 2π

(III-13)

6. Ne pas confondre N avec la dimension n du groupe (voir exemples suivants).

69

CHAPITRE III

INTRODUCTION AUX GROUPES DE LIE

Figure 8 – Le domaine de variation du paramètre ϕ pour le groupe des rotations autour d’un axe fixe est une simple circonférence. On a simplement ici : (

Φ1 (a = ϕ) = −ϕ Φ2 (a = ϕ, b = ϕ0 ) = ϕ + ϕ0

(III-14)

C’est un groupe abélien, dont le domaine D peut être représenté dans le plan par une circonférence (figure 8). Il vaut en effet mieux prendre le domaine D sous la forme d’une circonférence que d’un segment de droite de longueur 2π, dont les deux extrémités correspondraient à des rotations infiniment voisines ; on respecte ainsi la topologie du groupe. C’est un groupe compact, connexe, mais non simplement connexe [groupe Π1 = Z∞ ] ; il est homéomorphe au groupe des nombres complexes de module 1. (iv) Groupe O(2) des matrices associées aux rotations dans le plan autour d’un point fixe O, ou à leur produit par une symétrie par rapport à un axe passant par O : M (ϕ) =

ε cos ϕ − sin ϕ ε sin ϕ cos ϕ

!

0 ≤ ϕ < 2π ; ε = ±1 (III-15a)

On a : det M (ϕ) = ε

(III-15b)

Le domaine D associé à ce groupe comprend ici deux morceaux (deux “nappes”) associés respectivement aux matrices de déterminants +1 et −1 (on ne peut pas passer continûment de +1 à −1). Il se représente donc par deux circonférences (figure 9). Ce groupe n’est pas connexe, mais il est compact. A-2-b.

Opérateurs infinitésimaux

Considérons donc un groupe de matrices M (a), N × N , dépendant du paramètre (vectoriel) a. Nous supposons que les M (a) forment un groupe de 70

A. PROPRIÉTÉS GÉNÉRALES

q Figure 9 – Domaine de variation des paramètres pour le groupe O(2), qui est composé de deux “nappes”, l’une de déterminant unité et l’autre de déterminant −1. Lie et que leurs éléments de matrice sont des fonctions continues et dérivables des composantes de a. Rappelons que, par hypothèse : M (0) = (1)

(III-16)

Nous allons nous intéresser à des transformations, proches de l’identité, pour lesquelles le paramètre a prend une valeur infinitésimale. Un développement de Taylor au premier ordre de M (δa) donne : M (δa) = (1) +

n X

δai Xi + . . .

(III-17)

i=1

où Xi est une matrice N × N : Xi =

∂ M (a)|a = 0 δai

(III-18)

Nous utiliserons fréquemment à partir de maintenant un indice en position haute (indice contravariant) pour désigner les composantes δai de δa (ou ai de a). Il n’y a aucune raison a priori pour que les Xi appartiennent au groupe G et, dans les exemples qui vont suivre, ce ne sera effectivement pas le cas. Nous supposerons que les matrices Xi sont non nulles et indépendantes (l’une d’entre elles n’est pas combinaison linéaire des autres). La relation (III-17) exprime que, pour toute matrice M (δa) où le paramètre est infinitésimal, la différence avec la matrice unité est une combinaison linéaire des Xi (c’est-à-dire appartient à un espace vectoriel dont les Xi forment une base). Les Xi sont appelés “générateurs infinitésimaux” du groupe. Prenons maintenant deux opérateurs infinitésimaux M (δa) et M (δb) et considérons leur “commutateur”. Ce dernier appartient au groupe G et peut s’écrire M (δc) avec : M (δc) = M (δa) M (δb) M −1 (δa) M −1 (δb)

(III-19) 71

CHAPITRE III

INTRODUCTION AUX GROUPES DE LIE

Nous allons calculer cette matrice jusqu’au deuxième ordre inclus en δa et δb, c’est-à-dire en incluant les termes du deuxième ordre, soit “carrés” en δai δaj ou δbi δbj , soit “rectangles” en δai δbj (i, j = 1, 2, . . . n). Le calcul est en fait simplifié par le fait que tous les termes carrés sont nuls. En effet, si δb = 0, M (δb) est la matrice unité et l’expression (III-19) montre qu’il en est de même pour M (δc). Cette matrice est donc indépendante de δa et tous les termes de son développement en δa (sauf celui d’ordre 0) sont nuls. De même, si δa = 0, on a aussi M (δc) = (1) ce qui entraîne la nullité des termes carrés en δb. Nous savons donc dès le départ que nous pouvons ignorer tous les termes du second ordre qui ne sont pas croisés en δa · δb, les autres devant de toute façon s’annuler à la fin du calcul. Ceci nous permet par exemple d’utiliser telle quelle la formule (III-17), sans pousser plus loin le développement. De même, nous avons le droit d’écrire : M −1 (δa) = (1) −

n X

δai Xi + . . .

(III-20)

i=1

en ignorant les termes suivants [en multipliant les deuxièmes membres de (III-19) et (III-20) entre eux, on vérifie qu’on obtient bien (1) à des termes du second ordre près]. Dans ces conditions, le calcul donne : M (δa) M (δb) = (1) +

n X

δai Xi +

i=1

n X

δbj Xj +

j=1

M (δa) M (δb) M −1 (δa) = (1) +

n X

P

i=1

i i δa Xi ).

δai Xi +

i=1 n X

δai Xi −

δai δbj Xi Xj

(III-21)

ij

Multiplions à droite cette égalité par (1 −



X

n X

Il vient :

δbj Xj +

j=1

X

X

δai δbj Xi Xj

ij

δai δbj Xj Xi

ij

= (1) + δbj Xj +

n X

δai δbj [Xi , Xj ] + . . .

i,j=1

(III-22) où apparaît le commutateur des deux matrices Xi et Xj : [Xi , Xj ] = Xi Xj − Xj Xi

(III-23)

Il ne nous reste plus qu’à multiplier à droite par (1 − j δbj Xj ) ce qui, dans P le cadre de notre approximation, conduit simplement à retrancher j δbj Xj du second membre de (III-22). Donc : P

72

A. PROPRIÉTÉS GÉNÉRALES

n X

M (δa) M (δb) M −1 (δa) M −1 (δb) = M (δc) = (1)+

δai δbj [Xi , Xj ]+. . .

i,j=1

(III-24) (les termes négligés étant du 3e ordre ou plus). Examinons maintenant ce que donnent ces opérations en termes de paramètres du groupe. Il faut pour cela utiliser les fonctions Φ1 et Φ2 ; on a: M (δa) M (δb) ⇐⇒ δc1 = Φ2 (δa, δb) M (δa) M (δb) M −1 (δa) ⇐⇒ δc2 = Φ2 (δc1 , Φ1 (δa))

(III-25)

et enfin : M (δc) ⇐⇒ δc = Φ2 (δc2 , Φ1 (δb))

(III-26)

Nous avons déjà vu que, dans notre approximation, M (δa) et M (−δa) peuvent être considérées comme inverses l’une de l’autre. Donc : Φ1 (δa) = −δa + . . .

(III-27)

Pour obtenir δc, nous allons faire un calcul calqué sur celui effectué précédemment. Si δa est nul, δc1 vaut δb. De même, si δb est nul, δc1 = δa. Par suite : δc1 = Φ2 (δa, δb) = δa + δb +

n X

δai δbj Fij + . . .

(III-28)

i,j=1

(comme plus haut, nous ignorons les termes carrés du second ordre) avec : Fij =

∂2 Φ2 (a, b)|a = b = 0 ∂ai ∂bj

(III-29)

Evaluons ensuite δc2 : X

δc2 = Φ2 (δc1 , −δa) = δa+δb+

ij

X

δai δbj Fij −δa+

(δai +δbi )(−δaj )Fij +. . .

ij

(III-30) où les termes en δa se compensent, et les termes en δai δaj peuvent être ignorés. Enfin : 73

CHAPITRE III

INTRODUCTION AUX GROUPES DE LIE

δc = Φ2 (δc2 , −δb) = δb +

X

δai δbj (Fij − Fji ) − δb +

ij

X

δbi δbj Fij + . . .

ij

(III-31) qui nous donne simplement, en ignorant le terme en δbi δbj : δc =

X

δai δbj [Fij − Fji ]

(III-32)

ij

Si l’on appelle fijk la kième composante de Fij : Fij =

n X

fijk ek

(III-33)

k=1

(les ek sont les vecteurs unitaires de la base de Rn ) on a aussi : k

δc =

n X

k δai δbj (fijk − fji )

(III-34)

i,j=1

L’égalité (III-20) nous permet d’évaluer toute matrice voisine de l’unité dont le paramètre est infinitésimal. Appliquée à δc, elle donne : n X

M (δc) = (1) +

k δai δbj (fijk − fji ) Xk

(III-35)

i,j,k=1

Si nous comparons à l’égalité (III-24), et compte tenu du fait que les Xk sont des matrices linéairement indépendantes, nous obtenons par identification : [Xi , Xj ] =

n X

k Cij Xk

(III-36)

k=1

avec : k k Cij = fijk − fji

(III-37)

Donc, quels que soient Xi et Xj , leur commutateur est encore une combinaison linéaire de n matrices X. Remarque :

Nous nous sommes intéressés aux opérateurs infinitésimaux proches de l’opérateur unité, mais les résultats que nous avons obtenus concernent tout le groupe, pas seulement le voisinage de cet opérateur unité. Pour le voir, on peut prendre une valeur arbitraire du paramètre a, le faire varier d’une valeur infinitésimale δa, et introduire la matrice N (δa) qui caractérise la variation de M : N (δa) = M (a + δa)M −1 (a)

(III-38)

Les raisonnements précédents restent alors valables lorsque l’on remplace M (δa) par N (δa). 74

A. PROPRIÉTÉS GÉNÉRALES

A-2-c.

Constantes de structure ; algèbre de Lie

k , qui sont reliés d’après (III-37) aux dérivées secondes à Les nombres Cij l’origine de la fonction ϕ2 , sont appelés “constantes de structure” du groupe. Ce sont des nombres réels puisque les paramètres a et la fonction φ2 le sont. La relation d’antisymétrie : k k Cij = −Cji

(III-39)

permet de voir qu’il existe en fait n2 (n − 1)/2 constantes de structure pour un groupe de dimension n. Les constantes ont été introduites à partir de considérations portant uniquement sur des matrices M (δa) infiniment proches de la matrice unité k traduisent uniquement des propriétés (1). On pourrait donc croire que les Cij du groupe au voisinage de l’élément identité. En fait, ce n’est pas le cas ; en effectuant le produit : M (a0 ) M (δa)

(III-40)

on peut obtenir des matrices variant de façon infinitésimale autour d’un élément quelconque donné M (a0 ) du groupe. Les opérateurs Xi , les constantes de structure, etc. traduisent donc des propriétés du groupe valables au voisinage de tout élément. k jouent un rôle très important dans l’étude des Les constantes Cij groupes de Lie. Elles donnent les propriétés locales de la loi de composition du groupe, indiquent si cette loi est commutative 7 , etc. Pour un groupe continu, les constantes de structure jouent donc, en quelque sorte, le rôle de la table de multiplication pour un groupe fini. Elles ne suffisent cependant pas à déterminer entièrement la structure du groupe, c’est-à-dire sa loi de multiplication (la fonction Φ2 ). On montre (nous l’admettons ici sans démonstration) que deux groupes de Lie de même dimension n, ayant les mêmes constantes de structure, sont localement isomorphes, mais pas nécessairement globalement 8 (on montre que ces deux groupes sont homomorphes à un même groupe 9 ). Au voisinage d’un élément M (a0 ) donné, les égalités (III-17) et (III40) nous montrent que les variations infinitésimales de toute matrice M sont données par une combinaison linéaire des Xi : X = Σi λi Xi

(III-41)

7. Un groupe abélien se reconnaîtra à la nullité de toutes les constantes de structure. 8. Un exemple important sur lequel nous reviendrons est donné par SO(3) et SU (2) qui ont mêmes constantes de structure et ne sont que localement isomorphes. 9. Si l’on se donne une algèbre de Lie, on peut donc lui faire correspondre plusieurs groupes G, G0 , . . . qui ne sont pas nécessairement simplement connexes. Cependant, parmi eux, il en existe un Gu qui est simplement connexe et appelé “groupe de revêtement universel” des G. Un homomorphisme [de noyau discret, isomorphe au groupe d’homotopie Π1 de G] permet de passer de Gu à G.

75

CHAPITRE III

INTRODUCTION AUX GROUPES DE LIE

L’ensemble L des opérateurs X ainsi définis (où les λi ont des valeurs réelles quelconques) constitue un espace vectoriel appelé “algèbre de Lie” du groupe. Par définition, les Xi forment donc une base de L . Comme nous l’avons déjà noté, les éléments de cette algèbre n’appartiennent en général pas à G. Rappelons que, de façon générale, une algèbre est un espace vectoriel muni d’une loi de composition interne supplémentaire (produit) bilinéaire, distributive par rapport à l’addition. En tout, 3 lois de composition (dont 2 internes) sont donc définies dans une algèbre : multiplication par un scalaire λ, addition interne, multiplication interne. Dans le cas d’une algèbre de Lie d’opérateurs, la deuxième loi est simplement la somme X + X 0 des deux opérateurs, et la troisième fait correspondre à X et X 0 leur commutateur : X, X 0 =⇒ [X, X 0 ]

(III-42)

Cette dernière loi n’est en général pas associative (on dit que l’algèbre n’est pas associative) puisqu’on a l’égalité de Jacobi : [X, [X 0 , X 00 ]] + [X 0 , [X 00 , X]] + [X 00 , [X, X 0 ]] = 0

(III-43)

Cette égalité permet d’ailleurs d’obtenir certaines contraintes satisfaites par les constantes de structure. En effet, si l’on reporte (III-36) dans (III-43), on obtient, compte tenu de l’indépendance linéaire des Xi : Xn

o

` m ` m ` m Cij C`k + Cjk C`i + Cki C`j =0

∀ m ; ∀ i, j, k

(III-44)

`

où les indices i, j, k subissent dans le premier membre de cette égalité une permutation circulaire, alors que m ne change pas. Une autre démonstration de cette relation est donnée dans la remarque (i) ci-dessous. Inversement, on montre que, si l’on se donne des constantes de struck = −C k ] satisfaisant à la relation de ture quelconques, antisymétriques [Cij ji Jacobi (III-44), on peut définir (au moins) une loi de composition Φ2 (a, b) et donc un groupe de Lie G correspondant. Un problème intéressant en mathématiques est l’utilisation des relations (III-39) et (III-43) pour construire les algèbres de Lie possibles pour chaque dimension n donnée. Nous ne l’aborderons pas ici. Nous appellerons opérateur de Lie toute matrice de L , c’est-à-dire toute matrice X de la forme de (III-41) ; nous réserverons le nom de “générateurs infinitésimaux” aux mêmes opérateurs multipliés par la constante imaginaire i, dont l’avantage sera d’être hermitiques (et non antihermitiques) dans plusieurs cas physiques intéressants. Remarques : (i) L’égalité (III-44) est liée à l’associativité de la loi de composition interne dans le groupe G, associativité qui se traduit par la relation (III-4) pour la

76

A. PROPRIÉTÉS GÉNÉRALES

fonction Φ2 . Considérons en effet le produit M (δh) = M (δa) M (δb) M (δc) de 3 matrices du groupe. On a : δh = Φ2 [Φ2 (δa, δb), δc] = Φ2 [δa, Φ2 (δb, δc)]

(III-45)

Calculons les termes en δa δb δc qui apparaissent dans δh. D’après (III-29) :  X  Φ2 (δa, δb) = δa + δb + Fij δai δbj + . . .   ij X  Fjk δbj δck + . . .   Φ2 (δb, δc) = δb + δc +

(III-46)

jk

En utilisant une seconde fois (III-29), on trouve que les termes cherchés sont :

X

F`k

    X X X ` `  fij δai δbj  δck = Fi`  fjk δbj δck  δai ij

`k

i`

(III-47)

jk

Par identification des termes correspondants, il vient : X

` fij F`k =

X

` fjk Fi`

(III-48a)

ou encore : X X ` m ` m fij f`k = fjk fi`

(III-48b)

`

`

`

`

k (quels que soient i, j, k et m). D’autre part, d’après la définition de Cij , le premier membre de (III-44) vaut :

X

X  m  `  ` ` m ` ` ` fij − fji (f`k − fk` )+ fjk − fkj f`i − fi`

`

`

+

X

` ` fki − fik



m m f`j − fj`



`

quantité dont on montre en utilisant 6 fois l’égalité (III-48b) (et en changeant les noms des indices) qu’elle est nulle, ce qui redémontre donc (III-44). (ii) Si l’on a : Tr{Xi Xj } = δij k les Cij sont complètement symétriques. En effet, on a alors : k Tr{Xk [Xi , Xj ]} = Cij = Tr{Xk Xi Xj − Xk Xj Xi } = Tr{[Xk , Xi ]Xj } j j = Cki = −Cik

77

CHAPITRE III

B.

INTRODUCTION AUX GROUPES DE LIE

Exemples

B-1.

Groupe SO(2)

Ses matrices sont données en (III-13). On a : !

M (dϕ) =

1 − dϕ dϕ 1

(III-49)

et donc : X=

0 1

−1 0

!

= −iσy

(III-50)

où σy est la deuxième matrice de Pauli : σy =

0 i

!

−i 0

(III-51)

L’algèbre de Lie est ici de dimension 1, et l’unique générateur infinitésimal associé est σy . On n’a pas de constante de structure (groupe abélien). Examinons comment remonter du générateur infinitésimal aux transformations finies. On peut écrire : M (ϕ + dϕ) = M (dϕ) M (ϕ) = [1 − iσy dϕ] M (ϕ)

(III-52)

et : dM (ϕ) = −i σy dϕ M (ϕ)

(III-53)

Comme on a ici en fait un seul opérateur (qui commute évidemment avec lui-même), on peut intégrer l’équation différentielle : dM (ϕ) = −i σy M (ϕ) dϕ comme une équation différentielle ordinaire, de sorte que : M (ϕ) = e−iϕ σy

(III-54)

(III-55)

D’ailleurs, comme σy2 = 1, on a : 1 e−iϕ σy = 1 − iϕ σy + (iϕ)2 + . . . 2 = cos ϕ − i sin ϕ σy

(III-56)

qui nous redonne immédiatement (III-13), compte tenu de (III-51). Ici, les matrices du groupe sont toutes les exponentielles de celles de l’algèbre de Lie (groupe exponentiel). Nous rencontrerons fréquemment ce cas. On a :   X p M (ϕ) = lim 1 + ϕ (III-57) p→∞ p 78

B. EXEMPLES

B-2.

Transformation de Galilée à une dimension

Nous considérons deux repères galiléens, S et S 0 . L’origine du premier référentiel est animée, dans le second, d’une vitesse v0 ; elle part d’une position initiale x0 10 . De même, l’origine des temps du premier référentiel correspond, dans le second, à un temps t0 . Les transformations des coordonnées associées à une transformation de Galilée à une dimension s’écrivent alors : ( 0 x = x + v0 t + x0

(III-58)

t0 = t + t0 On définit un vecteur a à 3 composantes :

a

   v0

x0  t

(III-59)

0

Introduisant une coordonnée homogène, on peut alors écrire : 







x0 x  0    t  = M (a)  t  1 1

(III-60a)

avec : 



1 v0 x0   M (a) =  0 1 t0  0 0 1

(III-60b)

En multipliant deux matrices M (a) et M (a0 ), on trouve immédiatement pour la loi de composition dans le groupe (fonction Φ2 ) :

M (a00 ) = M (a) M (a0 ) ⇐⇒

 00 0   v0 = v0 + v0 

x000 = x0 + x00 + v0 t00    00 0

(III-61)

t0 = t0 + t0

Ce groupe est non abélien. Par exemple : 



1 v0 0   M (0, 0, t00 ) M (v0 , 0, 0) =  0 1 t00  0 0 1

(III-62a)

10. On prend souvent la convention opposée pour le signe de v0 , mais pour ce qui suit il est commode que le passage de S à S 0 augmente la vitesse des objets de v0 (point de vue actif), et non de son opposé.

79

CHAPITRE III

INTRODUCTION AUX GROUPES DE LIE

alors que : 



1 v0 v0 t00   0 M (v0 , 0, 0) M (0, 0, t0 ) =  0 1 t00  0 0 1

(III-62b)

Les deux produits diffèrent par un terme en v0 t00 , correspondant à une translation résiduelle. Dans une gare, on saute dans un train en marche de vitesse v0 , et on attend un temps t0 ; ou bien, on attend t0 , et on saute ensuite dans le train ; on n’arrive pas ainsi au même endroit du train. Construisons par dérivation l’algèbre de Lie : 

X1 = XK



010   = 0 0 0 000





X3 = XH



001   X2 = XP =  0 0 0  000 

000   = 0 0 1 000

(III-63)

Nous avons donc appelé XK l’opérateur associé aux transformations de Galilée pures ; XP celui des translations d’espace ; XH celui des translations dans le temps (la raison de ces dénominations apparaîtra dans les chapitres ultérieurs). Tous les produits des ces matrices sont nuls, sauf XK XH = XP . On calcule alors aisément :    [XH , Xp ] = 0

[XK , XP ] = 0

 

(III-64)

[XK , XH ] = XP

Le groupe est donc “presque” abélien : la seule constante de structure non 2 . nulle est C13 Remontons des X aux transformations finies. On vérifie facilement que (X1,2,3 )2 = 0 (matrices nilpotentes). Par suite : eaXi = 1 + aXi +

a2 2 X + . . . = 1 + aXi 2 i

(III-65)

Donc : 

ev0 XK



1 v0 0   = 0 1 0 0 0 1



ex0 XP

et il vient : M (v0 , x0 , t) = et0 XH ex0 XP ev0 XK 80



1 0 x0   = 0 1 0  00 1



et0 XH



10 0   =  0 1 t0  00 1

(III-66)

B. EXEMPLES

B-3.

Groupe SU (2)

Rappelons que c’est le groupe des matrices complexes 2 × 2, unimodulaires (det M = 1) et unitaires (M † M = M M † = 1). Toute matrice unitaire est diagonalisable dans une base orthonormée ; les vecteurs propres associés à des valeurs propres différentes sont orthogonaux. Dans cette base, M devient M 0 qui dépend de deux quantités ϕ1 et ϕ2 réelles : 0

M =

e−iϕ1 0 0 e−iϕ2

!

(III-67)

Si l’on pose : 0

N =

ϕ1 0 0 ϕ2

!

(III-68) 0

on obtient immédiatement M 0 = e−iN . En revenant ensuite à la base initiale, N 0 devient N , et on a : M = e−iN

(III-69)

où N est une matrice hermitique [d’après (III-68), elle est symétrique et réelle dans une base orthonormée]. Comme le déterminant ne dépend pas de la base : det M = det M 0 = e−i(ϕ1 +ϕ2 ) = e−i Tr{N

0}

(III-70)

qui, pour des matrices unimodulaires, est égal à l’unité. Donc (la trace ne dépend pas de la base) : Tr{N 0 } = Tr{N } = 2nπ

(III-71)

où n est un entier. On peut supposer que n = 0 puisque, sans changer la matrice M , on peut retirer un multiple quelconque de 2π de ϕ1 (ou de ϕ2 ). Cette égalité implique que, si σx , σy , et σz désignent les matrices de Pauli :

σx =

01 10

!

σy =

0 −i i 0

!

σz =

1 0 0 −1

!

(III-72)

On peut écrire : N=

a2 a3 a1 σx + σy + σz 2 2 2

(III-73) 81

CHAPITRE III

INTRODUCTION AUX GROUPES DE LIE

puisque la condition (III-71) exclut une composante de N sur la matrice unité 2 × 2. Pour finir : M (a) = e−i[a1 σx +a2 σy +a3 σz ]/2 = e−ia·σ/2 = e−ia σu /2

(III-74)

où : a=

q

a21 + a22 + a23

u = a/a (vecteur unitaire parallèle au vecteur a) σu = σ · u = [a1 σx + a2 σy + a3 σz ] /a

(III-75)

Figure 10 – Les matrices du groupe SU (2) dépendent de trois paramètres, que l’on peut représenter dans l’espace ordinaire (à trois dimensions) par un vecteur a de longueur a. On note u = a/a le vecteur unitaire parallèle au vecteur a. Le carré de toute matrice de Pauli étant la matrice unité, on peut généraliser (III-56) : e−iaσu /2 = cos

a a − i sin σu 2 2

(III-76)

et obtenir : a a − i uz sin  2 2 M (a) =  a (−i ux + uy ) sin 2 

cos

a (−i ux − uy ) sin 2 a a  cos + i uz sin 2 2

(III-77)

(où ux , uy et uz sont les 3 composantes a1 /a, a2 /a et a3 /a du vecteur u). Le produit de deux matrices unitaires unimodulaires a la même propriété. On peut écrire la loi de groupe pour les paramètres a1 , a2 et a3 , mais nous n’en aurons pas besoin par la suite. 82

B. EXEMPLES

Le groupe SU (2) est de dimension n = 3. Par dérivation de (III-74) ou (III-77), on obtient les trois opérateurs qui engendrent l’algèbre de Lie :  ∂   X1 = M (a)|a = 0 = −i σx /2   ∂a  1  

∂ M (a)|a = 0 = −i σy /2  ∂a2     ∂   X3 = M (a)|a = 0 = −i σz /2 ∂a3

(III-78)

X2 =

Or, on sait que : [σx , σy ] = 2iσz

[σy , σz ] = 2iσx

[σz , σx ] = 2iσy

(III-79)

Il vient donc : [X1 , X2 ] = X3

[X2 , X3 ] = X1

[X3 , X1 ] = X2

(III-80)

Ces relations nous donnent immédiatement les 9 constantes de struck du groupe, dont 6 sont nulles 11 , celles pour lesquelles k = i ou j. ture Cij Nous aurons l’occasion de revenir sur l’algèbre de Lie ainsi définie, qui est également celle de SO(3).

Figure 11 – Dans chaque direction de l’espace à trois dimensions, le vecteur a doit varier entre +2π et −2π pour obtenir toutes les matrices du groupe SU (2). On obtient la matrice unité au centre O de l’intervalle [−2π, +2π] et, aux deux extrémités la même matrice −(1). Deux matrices pour lesquelles la valeur du paramètre diffère de 2π sont opposées. Lorsque la direction de a varie, son domaine de variation est une sphère de rayon 2π. k 11. On a Cij = ijk , où ijk est le symbole de Levi-Civita. Ce symbole est nul si un ou plus des deux indices i, j, k sont égaux, vaut +1 si ijk est une permutation circulaire des trois indices, et enfin −1 si elle est une transposition de deux indices.

83

CHAPITRE III

INTRODUCTION AUX GROUPES DE LIE

Examinons enfin quel est le domaine D de variation de a dans l’espace réel à 3 dimensions. Si l’on choisit la base où σu est diagonale : −ia σu /2

e

=

e−ia/2 0 0 eia/2

!

(III-81)

Donc, le long de l’axe portant le vecteur u, il faut que a varie entre −2π et +2π pour que l’on puisse obtenir une matrice unitaire diagonale quelconque (de déterminant 1). Le long de cet axe, deux vecteurs a dont les extrémités sont éloignées de 2π correspondent à des matrices opposées (figure 11). Lorsque le vecteur unitaire u prend une direction quelconque, on voit que le domaine accessible au paramètre a est l’intérieur d’une sphère de diamètre 4π. Le centre de la sphère correspond à la matrice identité. Les points sur la surface correspondent tous à la même matrice, l’opposée de la matrice identité. Nous identifierons donc tous ces points entre eux, en imaginant une sorte de “repliement” de l’espace sur lui-même (bien sûr impossible dans la réalité) où tous les points de la surface de la sphère viennent se confondre entre eux [de façon analogue à ce que nous avons fait pour SO(2), du § A-2 ; ou encore à l’opération qui consiste à faire un tore à partir d’un cylindre en le repliant et en amenant en contact ses extrémités]. Alors un chemin comme celui représenté sur la figure 12 est fermé. Une autre façon de représenter ce groupe, où les matrices (1) et −(1) jouent un rôle plus symétrique, serait de le représenter par 2 sphères de

Figure 12 – Représentation d’un chemin fermé dans SU (2). Il apparaît sur la figure comme une ligne ouverte aboutissant à deux points distincts de la surface de la sphère de rayon 2π, et semble donc ouvert. Mais ces deux points sont associés à la même matrice −(1) de SU (2), de sorte que le chemin est en fait fermé. 84

B. EXEMPLES

Figure 13 – Une autre représentation du groupe SU (2) que celle de la figure 12. On distingue maintenant les deux sous-ensembles SU (2)+ (matrices de trace positive) et SU (2)− (matrices de trace négative), associés à deux sphères différentes de rayon π. Il faut maintenant considérer comme identiques les matrices à la surface des deux sphères qui sont décrites par des vecteurs opposés à partir des centres O et O0 de chaque sphère. Deux matrices décrites par des vecteurs égaux (mais de longueur quelconque) à partir des deux centres sont des matrices opposées. diamètre 2π chacune, la première centrée en O (matrice unité), la seconde en O0 (matrice opposée à la matrice identité), et en identifiant les points A −−→ −→ et A0 de leurs surfaces si OA = −O0 A0 (figure 13). De façon plus précise, les points a de la sphère initiale de diamètre 4π correspondent, soit à un point de la sphère de gauche, soit à un point de celle de droite. Si 0 ≤ a ≤ π (“cœur” de la sphère initiale), c’est simplement le point de la sphère de gauche tel −→ que OA = a. Si par contre π ≤ a ≤ 2π (couronne extérieure de la sphère initiale), on prend le point A0 tel que : −−0→0 a O A = a − 2π = a0 a

(III-82)

(a0 est simplement la valeur du paramètre de la matrice opposée). On vérifie bien que : −− → O0 A0 → 0 si a → 2π

(III-83)

Ce point de vue conduit à décomposer SU (2) en deux sous-ensembles, SU (2)+ et SU (2)− , associés respectivement à chacune des deux sphères de 85

CHAPITRE III

INTRODUCTION AUX GROUPES DE LIE

la figure 13, et donc à des matrices opposées. Pour les caractériser, on peut remarquer que, d’après l’égalité (III-77), la trace de chaque matrice de SU (2) est donnée par : a Tr {M (a)} = 2 cos (III-84) 2 Les matrices de SU (2)+ sont donc celles de traces positives, celles de SU (2)− celles de traces négatives. Ni l’ensemble SU (2)+ , ni l’ensemble SU (2)− ne sont des sous-groupes de SU (2) : ces sous-ensembles ne sont pas fermés sous l’effet de la loi de multiplication entre matrices. Ce point est facilement visible sur l’égalité (III-81) ; nous y reviendrons en détail au § A-5-b du chapitre VII. Il ne faut pas se laisser abuser par la figure 13 et croire que SU (2) n’est pas connexe (il y a identification entre points correspondants des surfaces des deux sphères). Le fait que SU (2) est connexe est d’ailleurs évident sur la figure 12. Sur les deux figures, on peut voir que tout chemin fermé peut être contracté en un chemin arbitrairement petit : SU (2) est donc simplement connexe. Nous verrons au § 1-b-δ du complément BV que ce n’est pas le cas pour SO(3), bien que ce groupe ait même algèbre de Lie que SU (2). C.

Groupes de Galilée et de Poincaré

Les groupes de Galilée et de Poincaré jouent un rôle particulièrement fondamental en physique. Ils traduisent nos conceptions essentielles concernant l’espace et le temps, et fournissent par là-même un cadre dans lequel doivent entrer toutes les lois physiques (“superlois”). Historiquement, les physiciens ont commencé par raisonner en admettant (plus ou moins explicitement) un premier type de relativité, celui de Galilée 12 . Les lois de transformations d’espace-temps sont dans ce cas simples et intuitives et nous allons commencer par elles. Ceci nous permettra ensuite de pouvoir clairement dégager les modifications qui apparaissent en relativité d’Einstein (transformations de Lorentz, groupe de Poincaré). C-1.

Groupe de Galilée

Le groupe de Galilée est constitué par un ensemble de transformations traduisant la façon dont chaque évènement est décrit par des coordonnées 12. On parle souvent de loi physique “non relativiste” pour désigner une loi qui est invariante par transformation de Galilée. Cette désignation n’est pas très heureuse : en théorie, les transformations de Galilée ne sont en rien “moins relativistes” que celles de Lorentz. Bien sûr, on sait maintenant en physique que ce sont les lois d’invariance relativiste d’Einstein et non celles de Galilée qui sont effectivement respectées par la nature. Ceci limite évidemment beaucoup l’intérêt fondamental des transformations de Galilée ; cependant, dans de nombreux cas physiques intéressants, elles fournissent de bonnes approximations aux transfomations de Lorentz [cf. note (1) du chapitre I].

86

C. GROUPES DE GALILÉE ET DE POINCARÉ

spatio-temporelles r, t différentes dans deux repères galiléens distincts. Il existe plusieurs sous-groupes du groupe de Galilée : (i) Le groupe des rotations R(3) autour d’un point fixe O. A chaque rotation est associée une matrice 3 × 3, orthogonale et de déterminant +1 ; l’ensemble de ces matrices constitue le groupe SO(3). Par exemple, pour une rotation d’angle ϕ autour de l’axe Oz , la matrice est : 



cos ϕ − sin ϕ 0   Rez (ϕ) =  sin ϕ cos ϕ 0  0 0 1

(III-85)

A chaque rotation, on associe un vecteur rotation a parallèle à l’axe de rotation et de longueur ϕ (la direction de a donne l’axe orienté autour duquel ϕ doit être compté de façon positive). La matrice R devient alors une fonction de 3 paramètres réels : R(a) = R(ax , ay , az )

(III-86)

L’étude plus détaillée de ces matrices de rotation sera faite au chapitre VII. Nous n’aurons besoin ici que des matrices de rotations infinitésimales. A partir de (III-85), on obtient (avec az = δϕ) : 



0 −1 0   R (0, 0, δaz ) = (1) + δaz  0 0 0  0 0 0 = (1) + δaz Mz

(III-87)

avec : 



0 −1 0   Mz =  1 0 0  0 0 0

(III-88)

Par permutation circulaire des axes Ox, Oy et Oz, on trouve : R (δax , 0, 0) = (1) + δax Mx R (0, δay , 0) = (1) + δay My

(III-89)

avec : 



00 0   Mx =  0 0 −1  01 0





0 01   My =  0 0 0  −1 0 0

(III-90)

87

CHAPITRE III

INTRODUCTION AUX GROUPES DE LIE

On obtient facilement : 



000   Mx My =  1 0 0  000





010   My Mx =  0 0 0  000

(III-91)

et donc : [Mx , My ] = Mz

(III-92)

ainsi que les deux autres relations obtenues par permutation circulaire de x, y et z. (ii) Le groupe des translations. – Translations d’espace, groupe T(3) . Les opérateurs infinitésimaux sont également au nombre de trois. Ils commutent entre eux, contrairement à ceux des rotations, puisque toutes les translations commutent entre elles. Ce groupe est étudié plus en détail au § 1-a du complément BV . – Les translations dans le temps. Grâce à l’introduction d’une coordonnée homogène, nous écrivons ci-dessous les matrices associées à toutes les translations infinitésimales de temps et d’espace, et vérifions qu’elles commutent toutes. (iii) Transformations de Galilée pures. A trois dimensions, les transformations des coordonnées s’écrivent (cf. note 10) :   x0 = x + vx0 t      0  0

y = y + vy t

  z 0 = z + vz0 t      t0 = t

(III-93)

qui, cette fois, mélangent coordonnées d’espace et de temps. (iv) Nous pourrions ajouter la symétrie d’espace : (

r 0 = −r t0 = t

(III-94a)

ou de temps : (

r0 = r t0 = −t

(III-94b)

mais ce ne sont pas des transformations dépendant d’un paramètre continu, de sorte que nous n’en parlerons pas ici (cf. cependant complément DV et appendice I). 88

C. GROUPES DE GALILÉE ET DE POINCARÉ

En combinant ces ensembles, on peut obtenir d’autres sous-groupes du groupe de Galilée. Par exemple, rotations et translations (i.e. les opérations géométriques continues) donnent le groupe des déplacements (groupe euclidien) E(3) . Pour caractériser le groupe de Galilée tout entier, on peut dire qu’il est constitué de l’ensemble des transformations linéaires d’espace-temps qui, pour deux évènements quelconques, conserve l’intervalle de temps t2 −t1 , ainsi que la distance |r2 − r1 | de tous les évènements simultanés. Les transformations de Galilée s’écrivent naturellement avec des matrices 4×4 agissant sur les 4 coordonnées d’espace-temps x, y, z et t. Mais les translations ne correspondent pas à des transformations linéaires de ces coordonnées. Pour pouvoir les représenter matriciellement, nous ajoutons donc une cinquième coordonnée égale à l’unité (coordonnée homogène). Dans ces conditions, à chaque transformation du groupe est associée une matrice 5 × 5 telle que :  0   x x  y0  y      0   z =Mz  0   t  t

1

(III-95)

1

où : vx0 x0



  R(a) v 0 y  y 0  M = vz0 z0    0 0 0 1 t0

       



000

(III-96)

0 1

Le nombre de paramètres continus dont dépend chaque transformation est : 3 (rotations) + 3 (translations) + 3 (transformations de Galilée pure) + 1 (translation dans le temps) = 10. Nous écrirons : M ≡ M (a, `0 , v0 , t0 )

(III-97)

A chacun des paramètres correspond un opérateur infinitésimal : a : ax , ay , az =⇒ XJx ,Jy ,Jz `0 : x0 , y0 , z0 =⇒ XPx ,Py ,Pz t0 =⇒ XH v0 : vx0 , vy0 , vz0 =⇒ XKx ,Ky ,Kz

(III-98) 89

CHAPITRE III

INTRODUCTION AUX GROUPES DE LIE

(la raison des notations employées apparaîtra dans la suite). On calcule les matrices 5 × 5 suivantes (les traits verticaux et horizontaux séparent deux secteurs, celui des 3 coordonnées d’espace et celui des 2 coordonnées t et unité ; un zéro dans un des deux secteurs indique la nullité de tous les éléments de matrice du secteur, quatre par exemple dans le cas du carré en bas à droite de III-99a) : XJx,y,z = 

XPx

!

Mx,y,z 0 0 0

01 0 00  = 00  0 0

(III-99a)

    



XPy

00 0 01  = 00  0 0

    



XPz

00  0 00  = 01  0 0

    

(III-99b) 

XH =  

0

0  0 −1  0 0 0



XKx



10 0 00  = 00  0 0

    XKy 

(III-99c) 

00 0 10  = 00  0 0

    XKz 



00 0 00  = 10  0 0

    

(III-99d)

Remarque :

On notera le −1 qui apparaît dans XH . Au § B-1 du chapitre I, nous avons vu qu’une double translation de temps et d’espace correspond à la transformation : T

r1 (t) =⇒ r1 (t − τ ) + a Le mouvement subit une translation de vecteur +a et un décalage dans le temps de +τ (il est avancé dans le temps si τ est positif). Le signe moins dans cette égalité explique le signe moins dans XH . Pour simplifier, notons xi l’un des 3 indices x, y ou z, et εijk une quantité qui vaut 0 si deux des indices i, j, k sont égaux, +1 si i, j, k sont une permutation paire de xyz, −1 s’ils sont une permutation impaire. De plus, nous supposons implicitement une sommation sur l’indice répété k (convention de sommation d’Einstein). Les sommations ci-dessous ne comprennent qu’un seul terme non nul (si i 6= j), voire aucun (si i = j). On obtient alors 90

C. GROUPES DE GALILÉE ET DE POINCARÉ

les relations de commutation : h h

i

(III-100a)

i

(III-100b)

i

(III-100c)

XJxi , XJxj = εijk XJxk

XJxi , XPxj = εijk XPxk

h

XJxi , XKxj = εijk XKxk h

h

XJxi , XH = 0 (∀ i)

i

ou [XJ , XH ] = 0

(III-100d)

i

ou [XP , XP ] = 0

(III-100e)

i

ou [XP , XK ] = 0

(III-100f)

XPxi , XH = 0 (∀ i)

i

ou [XP , XH ] = 0

(III-100g)

i

ou [XK , XK ] = 0

(III-100h)

XPxi , XPxj = 0 (∀ i, j)

h

XPxi , XKxj = 0 (∀ i, j) h

h

XKxi , XKxj = 0 (∀ i, j) h

i

XKxi , XH = −XPxi (∀ i)

ou [XK , XH ] = −XP

(III-100i)

Ces relations nous donnent les constantes de structure du groupe de Galilée, dont beaucoup sont nulles. Elles s’interprètent de la façon suivante : – (III-100a) : propriétés de non-commutation entre rotations infinitésimales (cf. chapitre VII) ; – (III-100b) : non-commutation des rotations et des translations dans l’espace ; – (III-100c) : non-commutation des rotations et de changement de repère galiléen. On notera l’analogie entre les relations (III-100a, b, c). Elles expriment que J , P et K sont des quantités vectorielles (cf. § A du chapitre VIII). Les relations (III-100e) à (III-100h) expriment la commutation entre opérations, soit purement spatiales (translations), soit dépendant du temps : l’égalité (III-100g) par exemple exprime la commutation des translations d’espace et de temps. En ce qui concerne la dernière relation (III-100i), elle a déjà été discutée plus haut (§ B-2) dans un cas à une dimension. On remarquera que, jusqu’ici, nous n’avons utilisé aucun des postulats de la mécanique quantique (règles de quantification, etc.). Cependant, nous voyons déjà apparaître des relations de commutation qui nous rappellent par exemple celles du moment cinétique : [Jx , Jy ] = i~ Jz , etc. ou encore celle de l’hamiltonien H d’une particule libre avec son impulsion : [P , H] = 0, (la définition des opérateurs quantiques associés aux X sera donnée dans 91

CHAPITRE III

INTRODUCTION AUX GROUPES DE LIE

les chapitres ultérieurs). Cela permet de comprendre le caractère très fondamental de ces relations de commutation, qui sont plus liées à la structure même de l’espace-temps qu’au type de théorie quantique utilisée, ou à la nature du système étudié. Les relations de commutation seront par exemple les mêmes pour un champ que pour un système de particules. Remarque : Nous avons déjà vu à plusieurs reprises (cf. par ex. chap. I, troisième exemple du § B-2-b-γ) le lien entre les transformations de Galilée pure et la position du centre de masse du système. On s’attend alors à une relation du type : R = −Xk /M

(III-101)

(où M est la masse du système, une particule isolée par exemple), et effectivement, cette relation existe. L’égalité (III-100i) correspond alors simplement au fait que les variations dans le temps de la position d’un système physique sont proportionnelles p à son impulsion ( dr = M ). Mais alors, comment comprendre (III-100f), puisqu’on dt sait bien que position et impulsion ne commutent pas en mécanique quantique ? La solution à cette difficulté réside dans la nécessité, dans le cas du groupe de Galilée, d’utiliser des représentations projectives dont les facteurs de phase modifient la loi de commutation (III-100f) – cf. chapitre IV, § E-1-b). Lorsque ces facteurs de phase sont correctement pris en compte, nous verrons au § A du chapitre V que l’on retrouve de façon très naturelle toutes les relations habituelles de la mécanique quantique, y compris d’ailleurs celles qui concernent le spin de la particule.

C-2.

Groupe de Poincaré

Le groupe de Poincaré donne les transformations d’espace-temps dans le cadre de la relativité d’Einstein. Citons quelques types de telles transformations : (i) Rotations (déjà vues au paragraphe précédent) ; (ii) Translations d’espace et de temps (également déjà vues) ; (iii) Transformations de Lorentz spéciales (ou pures). Ces transformations dépendent d’un paramètre vectoriel v0 (c’est-à-dire de 3 paramètres, comme celles de Galilée pures). Posons : 

γ = 1 − β2

β = v0 /c

−1/2

(III-102)

Ces transformations s’écrivent, lorsque v est parallèle à Ox :  x + v0 t   x0 = p = γ(x + v0 t)    1 − β2    0  y = y

z0 = z          t + v0 x/c2 βx  0  p t = = γ t +  1 − β2

92

c

(III-103)

C. GROUPES DE GALILÉE ET DE POINCARÉ

On écrit ainsi des transformations homogènes entre les 4 coordonnées spatio-temporelles, auxquelles sont associées des matrices Λ(v. Lorsque v est parallèle 13 à Ox, il découle de (III-103) que : 

γ  0  Λ(v, 0, 0) =   0 γv0 /c2

0 1 0 0

0 0 1 0



γv0 0    0  γ

(III-104)

On notera que ces matrices (transformations de Lorentz pures) ne forment pas un groupe ; nous y reviendrons. (iv) Réflexions d’espace (symétrie par rapport à un point fixe 0) ; (v) Réflexions de temps. Divers groupes sont obtenus en combinant entre elles ces transformations : • (i) et (iii) : l’ensemble des produits de rotations et de transformations de Lorentz pures engendre le “groupe de Lorentz propre”. Il lui correspond un ensemble de matrices 4 × 4 de déterminant positif, décrivant des transformations homogènes des coordonnées spatio-temporelles, toutes engendrées à partir de transformations infinitésimales. • (i), (iii) et (iv) : on obtient ainsi le “groupe de Lorentz orthochrone”. Le sens du temps n’est pas renversé : si deux évènements sont séparés par un intervalle d’univers du type temps, l’antériorité est conservée dans tous les repères considérés. • Ajoutons (v) aux opérations précédentes, on obtient alors le “groupe de Lorentz complet” (transformations homogènes associées à des matrices 4 × 4). L’action combinée des réflexions d’espace et de temps crée dans ce groupe 4 “nappes” disconnectées. Jusqu’ici nous avons laissé de côté les transformations (ii), car elles ne sont pas homogènes. Si l’on prend l’ensemble de toutes les transformations, y compris celles engendrées à partir de (ii), on obtient le “groupe de Lorentz inhomogène” ou “groupe de Poincaré”. C’est l’ensemble des transformations linéaires d’espace-temps qui conservent l’intervalle d’univers : c2 (t2 − t1 )2 − (r1 − r2 )2

(III-105)

entre deux évènements quelconques. Comme au paragraphe précédent, on peut, en ajoutant une 5e coordonnée 1 aux matrices colonne des événements, décrire les transformations par des matrices 5 × 5. 13. Voir par exemple l’ouvrage de Jackson [39], p. 517 et 541 pour une expression de Λ(v) dans le cas général.

93

CHAPITRE III

INTRODUCTION AUX GROUPES DE LIE

Comme dans le cas du groupe de Galilée, nous allons nous limiter à considérer ici le groupe des transformations [obtenues à partir de (i), (ii) et (iii)] qui peuvent être engendrées à partir de transformations infinitésimales. Nous écrivons :  0   x x y  y0       0    z  = M (a, `0 , v0 , t0 )  z   0   t  t

1

(III-106)

1

et en déduisons les relations de commutation entre opérateurs infinitésimaux. Mais il n’est pas nécessaire de reprendre complètement les calculs du § C-1 précédent. Les différences qui apparaissent sont dues au fait que le groupe de Lorentz mélange plus intimement espace et temps que ne le fait celui de Galilée. Cependant, pour toutes les transformations d’espace pures, où le temps n’intervient pas, on a exactement les mêmes lois de transformations et les mêmes matrices M . Par suite, on a encore : h

i

(III-107a)

h

i

(III-107b)

XJi , XJxj = εijk XJK

XJi , XPxj = εijk XPK [XP , XP ] = 0

(III-107c)

De même, XH a la même forme que celle écrite en (III-99c). Donc, ici aussi : [XJ , XH ] = 0

(III-107d)

[XP , XH ] = 0

(III-107e)

Les changements apparaissent dès qu’intervient XK . En effet, par exemple, on voit sur (III-104) que : 

XKx

0  0   = 0   1/c2 0

0 0 0 0 0

0 0 0 0 0

1 0 0 0 0



0 0   0  0 0

(III-108)

et, en intervertissant les axes Ox et Oy : 

XKy

94

0 0 0 0 0 0   = 0 0 0   0 1/c2 0 0 0 0

0 1 0 0 0



0 0   0  0 0

(III-109)

C. GROUPES DE GALILÉE ET DE POINCARÉ

Une forme semblable est obtenue pour XKz , en décalant vers la droite l’élément en 1/c2 et vers le bas celui en 1. Comparant avec (III-99d), on voit apparaître ici un nouvel élément, en 1/c2 (qui tend donc vers 0 si c → ∞). On peut dire que c’est cet élément qui introduit tous les effets relativistes. Un calcul élémentaire donne alors : h

i

XJxi , XKxj = εijk XKxK

(III-110a)

1 δij XH c2 h i 1 XKi , XKj = − 2 εijk XJK c h i XKxi , XH = −XPxi h

i

XKi , XPj =

(III-110b) (III-110c) (III-110d)

Si la première et la quatrième de ces relations sont les mêmes que plus haut, la deuxième et la troisième sont nouvelles. La deuxième est liée à la façon dont est modifiée l’impulsion dans une transformation de Lorentz pure 14 : les composantes normales ne sont pas modifiées (d’où le δij ), mais la composante parallèle l’est. On retrouve ainsi les lois de transformation du quadrivecteur impulsion-énergie. La troisième relation de commutation nous montre à nouveau que les transformations de Lorentz pures ne forment pas un groupe : il apparaît par produit de transformations pures successives (commutateur) une rotation. Cette remarque permet de comprendre l’origine de la précession de Thomas. Exercice : Ecrire explicitement les matrices et démontrer les relations de commutation précédentes. Remarques :

(i) On obtient des formules plus symétriques si l’on remplace le temps t par ct, de façon que les quatre coordonnées d’espace-temps aient la même dimension (une longueur). La matrice de transformation de Lorentz pure (III-104) devient alors : 

γ  0  Λ(v, 0, 0) =   0 γv0 /c

0 1 0 0

0 0 1 0



γv0 /c 0    0  γ

(III-111)

14. On effectue une translation puis un changement de repère galiléen dans cet ordre, ou dans l’ordre inverse. Les résultats sont différents à cause de la contraction de Lorentz des longueurs.

95

CHAPITRE III

INTRODUCTION AUX GROUPES DE LIE

et la matrice (III-112) de XKx s’écrit : 

XKx

0  0   = 0   1/c 0

0 0 0 0 0

0 0 0 0 0

1/c 0 0 0 0



0 0   0  0 0

(III-112)

Comme plus haut, la matrice de XKy est obtenue en décalant d’un rang vers la droite l’élément de la première colonne, d’un rang vers le bas celui de la première ligne ; en répétant l’opération, on obtient celle de XKz . On remarque que ces trois matrices sont symétriques, alors que celles XJ du groupe des rotations sont antisymétriques. Toutefois, en multipliant toutes ces matrices par le tenseur métrique relativiste gµν , on peut faire en sorte que toutes les matrices des générateurs infinitésimaux du groupe de Lorentz propre soient antisymétriques. (ii) Au lieu de paramétrer une transformation de Lorentz par sa vitesse, il est souvent commode d’utiliser la “rapidité” q définie [14, 32] par : v = th q c

(III-113)

Cette paramétrisation apparaît par exemple naturellement dans les calculs du § 1-b du complément CV sur le groupe de Lorentz propre. Son avantage est que le composition de deux transformations de Lorentz de directions parallèles et de paramètres q1 et q2 donne une autre transformation de Lorentz de paramètre q1 + q2 (cf. complément CV , § 1-e) ; en d’autres termes, la loi de composition Φ2 définie en (III-3) est alors simplement linéaire.

96



REPRÉSENTATION ADJOINTE, FORME DE KILLING, OPÉRATEUR DE CASIMIR

Complément AIII Représentation adjointe, forme de Killing, opérateur de Casimir 1 2

Représentation adjointe à l’algèbre de Lie . . . Forme de Killing ; produit scalaire et changement de base dans L . . . . . . . . . . . . . . . . Constantes de structure totalement antisymétriques . . . . . . . . . . . . . . . . . . . . . . . . . Opérateur de Casimir . . . . . . . . . . . . . . . .

3 4

. 97 . 99 . 101 . 102

Dans ce complément, nous introduisons (§ 1) la notion de “représentation adjointe” à l’algèbre de Lie L . Ensuite nous construisons, à partir k du groupe, quelques quantités utiles : comdes constantes de structure Cij posantes Kij d’un tenseur covariant K dit forme de Killing (§ 2), constantes de structure C ijk antisymétriques et complètement covariantes (§ 3), opérateur de Casimir (§ 4). L’intérêt de cet opérateur tient au fait qu’il commute avec tous les opérateurs Xi . 1.

Représentation adjointe à l’algèbre de Lie

L’algèbre de Lie L est un espace vectoriel (sur les réels) dans lequel les n opérateurs Xi (i = 1, 2, . . . , n) forment une base. Tout opérateur X de L peut s’écrire : X=

n X

λi Xi

(1a)

i=i

où les λi sont des nombres réels. Lorsque nous considérerons X comme un vecteur de L , nous le noterons |Xii ; l’égalité (1a) s’écrira alors : |Xii =

n X

λi |Xi ii

(1b)

i=i

En plus de sa structure d’espace vectoriel, qui implique l’existence d’une loi de composition interne par addition, une algèbre de Lie doit admettre une seconde loi de composition interne, un produit. Dans le cas d’une algèbre d’opérateurs, ce produit est donné par le commutateur des deux opérateurs. A tout opérateur A de l’algèbre de Lie on peut associer un “opérateur adjoint” A agissant dans l’espace vectoriel L , dont l’action sur un vecteur quelconque |Xii s’écrit : A |Xii = |[A, X]ii

(2) 97



COMPLÉMENT AIII

Si nous développons A et X sur une base Xi :  X  |Aii = ai |Xi ii   i X  |Xii = λj |Xj ii  

(3)

j

nous obtenons : A |Xii =

X

ai λj |[Xi , Xj ]ii =

ij

X

k ai λj Cij |Xk ii

(4)

ijk

k (nombres réels) introduites où apparaissent les constantes de structure Cij dans le chapitre III :

[Xi , Xj ] =

n X

k Cij Xk

(5)

k=1

La relation (4) montre que les éléments de matrice (mixtes) de A dans la base des |Xk ii sont : (A )kj =

X

k i Cij a

(6)

i

où j est l’indice de colonne et k celui de ligne de la matrice, qui est réelle. De même, pour l’opérateur B associé à |Bii ∈ L : |Bii =

X

0

bi |Xi0 ii

(7)

i0

on a : (B)j` =

Cij0 ` bi

X

0

(8)

i0

Le produit : BA |Xii = |[B, [A, X]]ii

(9)

est associé à la matrice (BA ) dont les éléments sont : (BA )k` =

X

(B)j` (A )kj =

X

0

k ai bi Cij Cij0 `

(10)

iji0

j

On définit la trace d’un opérateur agissant dans l’espace vectoriel L comme la somme de ses éléments diagonaux. Pour l’opérateur BA , on obtient : Tr {BA } =

X k

98

(BA )kk =

X kj

(B)jk (A )kj

(11)



REPRÉSENTATION ADJOINTE, FORME DE KILLING, OPÉRATEUR DE CASIMIR

Nous pouvons alors définir dans L un produit scalaire bilinéaire comme la trace du produit A B : hhA|Bii = Tr {BA } =

X

ai Kij bj

(12)

ij

où nous avons introduit la forme de Killing K définie par : Kij = hhXi |Xj ii = Tr {Xi Xj }

(13)

(Xi,j désigne l’opérateur adjoint à Xi,j ). Le produit scalaire hhA|Bii est réel puisque les composantes des vecteurs le sont, et il est égal à hhB|Aii puisqu’on peut permuter deux opérateurs sous une trace. La structure d’algèbre de L nous a ainsi permis de définir une correspondance entre vecteurs |Aii de L et opérateurs A agissant dans L . Cette correspondance est un homomorphisme : au produit de deux éléments de l’algèbre L (c’est-à-dire, par définition, au commutateur |[A, B]ii ∈ L ) est associé le commutateur des opérateurs A et B. En effet, si l’on écrit la définition du produit A B : A B |Xii = | [A, [B, X]] ii

(14)

et celle du produit BA : BA |Xii = | [B, [A, X]] ii

(15)

on obtient aisément grâce à l’égalité de Jacobi : [A , B] |Xii = | [A, [B, X]] ii − | [B, [A, X]] ii = | [[A, B] , X] ii

(16)

Les matrices (A )ij sont donc telles que leur commutateur est associé au commutateur des opérateurs A correspondants. Une matrice (A ) est ainsi − → associée à chaque opérateur infinitésimal M (δa) du groupe G ; on peut alors par intégration, associer des matrices (M ) aux matrices finies M (a) du groupe. On obtient de cette façon une correspondance qui fournit une représentation du groupe, appelée “représentation adjointe à l’algèbre L ” ; sa dimension est la même que celle de L . 2.

Forme de Killing ; produit scalaire et changement de base dans L

Si nous reportons les expressions (6) et (8) dans (11) et (12), nous obtenons une autre expression du produit scalaire hhA|Bii : hhA|Bii =

X kiji0

0

k ai bi Cij Cij0 k =

X

0

k k ai bj Cik 0 Cjk

(17)

ijkk0

99

COMPLÉMENT AIII



La comparaison avec (12) montre alors que : Kij =

0

X

k k Cik 0 Cjk

(18)

kk0

Cette expression peut servir d’autre définition de la forme de Killing, directement à partir des constantes de structure. On a évidemment : Kij = Kji

(19)

de sorte que la matrice (K) des coefficients Kij est une matrice n × n symétrique et réelle (donc diagonalisable). L’égalité (12) contient donc une forme bilinéaire et symétrique des deux vecteurs réels |Xii et |Y ii ; on la désigne sous le nom de “forme de Killing”. On notera toutefois que, lorsque la structure du groupe G est quelconque, les valeurs propres de (K) ne sont pas nécessairement toutes de même signe ; en conséquence, le produit scalaire hhX|Xii de |Xii par lui-même peut être positif ou négatif. Dans L , on peut effectuer un changement de base, en passant des |Xi ii aux |X j ii définis par : |X j ii =

X

Sji |Xi ii

(20)

i

avec inversement : |Xi ii =

X

(S −1 )ji |X j ii

(21)

j

Il est alors naturel d’introduire les constantes de structure de groupe relatives k à la base des |Xii, c’est-à-dire les nombres C ij tels que : h

i

X i, X j =

X

k

C ij X k

(22)

k

On vérifie alors facilement que les constantes de structure sont les composantes deux fois covariantes et une fois contravariantes d’un tenseur 1 d’ordre 3. En effet : h

i

X i, X j =

X

Si` Sjm [X` , Xm ] =

`m

=

X

X

p Si` Sjm C`m Xp

`mp p Si` Sjm (S −1 )kp C`m X k

`mpk

1. Cf. complément AVIII : “Rappel sur les tenseurs”.

100

(23)



REPRÉSENTATION ADJOINTE, FORME DE KILLING, OPÉRATEUR DE CASIMIR

de sorte que : k

X

C ij =

p Si` Sjm (S −1 )kp C`m

(24)

`mp k

Si l’on introduit la matrice (K)ij à partir des C ij : X

K ij =

k0

k

C ik C jk0

(25)

kk0

(tenseur deux fois covariant obtenu par double contraction d’un tenseur d’ordre 6), et si l’on calcule à partir de la définition (12) le produit scalaire hhX i |X j ii, on vérifie alors que : K ij = hhX i |X j ii

(26)

Démonstration : Si nous reportons (24) dans (25), nous obtenons : XX X 0 0 0 0 p K ij = Sil Skm (S −1 )kp Clm Sjl Skm0 (S −1 )kp0 Clp0 m0 kk0 lmp

(27)

l 0 m 0 p0

Mais, puisque les matrices S et S −1 sont inverses : X X 0 0 0 Skm (S −1 )kp0 = δpm0 et Skm0 (S −1 )kp = δpm

(28)

k0

k

de sorte que nous obtenons : X X 0 m0 l 0 K ij = Sil Clm Sj Clm Sil Kll0 Sjl 0 m0 = lml0 m0

(29)

ll0

Avec un changement de nom des indices muets, cette expression redonne bien le produit scalaire hhX i |X j ii.

Le produit scalaire qui a été défini dans L est donc bien indépendant de la base choisie. Il est clair qu’on simplifie les calculs en choisissant pour les effectuer une base orthogonale d’opérateurs X [c’est-à-dire une base où (K) est diagonale]. Dans ces conditions, on peut même normer les opérateurs en les multipliant par des constantes convenables, de façon que toutes les valeurs propres de (K) vaillent ±1 ou 0 : K ij = ηi δij 3.



ηi = ±1, 0

(30)

Constantes de structure totalement antisymétriques

L’introduction des Kij permet de définir les nouvelles constantes de structure (complètement covariantes) C˜ij` par : C˜ij` =

X

k K`k Cij

(31)

k

101

COMPLÉMENT AIII



Ces constantes sont complètement antisymétriques (elles changent de signe si l’on permute deux indices quelconques, alors que cette propriété n’est valable k ). En effet, si l’on reporte que pour les deux indices i et j des constantes Cij l’expression (18) de K, on obtient : C˜ij` =

X

p k m Cij Ckp C`m

(32)

kmp

et donc, d’après la relation (III-44) du chapitre III : C˜ij` = −

X h

i

p k m k m Cjp Cki + Cpi Ckj C`m

kmp

=

X h

p p m k k m Cik Cjp C`m + Cpi Ckj Cm`

i

(33)

kmp m = −C m , C p = −C p ). Dans chacun des deux termes du (puisque Cik ki `m m` second membre, les indices i, j et ` peuvent être échangés par permutation circulaire sans autre effet que de changer les noms d’indices muets. D’autre k = −C k entraîne C ˜ij` = −C˜ji` . Par suite : part, l’égalité Cij ji

C˜ij` = C˜j`i = C˜`ij = −C˜ji` = −C˜`ji = −C˜i`j

(34)

Exercice : La transformation (31) revient à transformer l’indice k contravariant en un indice ` covariant. Vérifier qu’on a effectivement : C˜ij` = hhX` | [Xi , Xj ]ii

(35)

Remarque :

Si l’on a choisi la base |Xi ii où la matrice (K) est diagonale et où les éléments sont donnés par (30), alors (31) devient simplement : ` C˜ij` = η` Cij

4.



η` = +1, 0 ou − 1

(36)

Opérateur de Casimir

Nous allons maintenant supposer que la matrice (K) est inversible 2 (aucune de ses valeurs propres n’est nulle) et introduire la matrice inverse (H) : (H) = (K)−1

(37)

2. On montre que la condition nécessaire et suffisante pour que (K) soit inversible est que le groupe considéré n’ait pas de sous-groupe de Lie invariant abélien (on dit alors que le groupe est semi-simple).

102



REPRÉSENTATION ADJOINTE, FORME DE KILLING, OPÉRATEUR DE CASIMIR

k en D’après (31), les éléments H k` de matrice permettent d’obtenir les Cij fonction des C˜ijk : k Cij =

H k` C˜ij`

X

(38)

`

Comme (K), la matrice (H) est symétrique. L’opérateur de Casimir C est alors défini par : C=

X

H mn Xm Xn

(39)

mn

C’est donc un opérateur qui est une fonction quadratique des Xi . Calculons son commutateur avec Xj : [C, Xj ] =

X

H mn {Xm [Xn , Xj ] + [Xm , Xj ] Xn }

mn

=

X

n

H mn

k k Cnj Xm Xk + Cmj Xk Xn

o

(40)

mnk

Permutons dans le deuxième terme du second membre les indices muets m et n. Il vient, puisque (H) est symétrique : [C, Xj ] =

X

k H mn Cnj [Xm Xk + Xk Xm ]

mnk

X

=

H mn H k` C˜nj` [Xm Xk + Xk Xm ]

(41)

mnk`

Le coefficient de l’opérateur symétrique [Xm Xk + Xk Xm ] dans cette expression vaut : X

H mn H k` C˜nj`

(42)

n`

qui, d’après (34), contient une quantité qui change de signe si l’on permute n et l ; la somme sur ces deux indices est donc nulle. Par suite, le second membre de (40) est nul quel que soit j : l’opérateur de Casimir commute avec tous les éléments de l’algèbre de Lie L . Remarque :

Si, dans L , on a choisi une base d’opérateurs X i où (K) est diagonale et a la forme (30) [ηi = +1 ou −1, la valeur 0 étant exclue puisque nous avons supposé (K) inversible], l’opérateur de Casimir est simplement 2 la somme (ou la différence) des opérateurs X i : C=

X

2

ηi X i

(43)

i

Exercice : Calculer les matrices (K), (H) et l’opérateur de Casimir C pour l’algèbre de Lie des groupes SU (2) et SO(3). 103

Chapitre IV

Représentations induites dans l’espace des états A B C D

E

Conditions imposées aux transformations dans l’espace des états . . . . . . . . . . . . . . . . . . . . Théorème de Wigner . . . . . . . . . . . . . . . . . Transformations des observables . . . . . . . . . . Représentations linéaires dans l’espace des états D-1 Action d’un groupe de transformations . . . . . . . D-2 Cas d’un groupe continu . . . . . . . . . . . . . . . Facteurs de phase et représentations projectives . E-1 Propriétés locales . . . . . . . . . . . . . . . . . . . E-2 Représentations finies . . . . . . . . . . . . . . . .

107 109 114 115 115 117 120 120 124

Dans ce chapitre, nous allons utiliser, dans le cadre de la mécanique quantique, les notions introduites précédemment (groupes discrets ou continus de transformations, représentations au sens strict ou projectives, etc.). Nous commencerons, au § A, par étudier quels types d’opérateurs T agissant dans l’espace des états d’un système physique quelconque peuvent correspondre aux transformations T introduites au chapitre I (translations, rotations, changement de repère galiléen, etc.). Au § B, nous en déduirons que ces opérateurs T ne peuvent être qu’unitaires ou antiunitaires. Ceci nous permettra ensuite, au § C, de considérer la façon dont se transforment les observables du système. Dans le § D, nous nous intéresserons au cas important où l’on considère l’action non pas d’une, mais d’un ensemble de transformations T formant un groupe (continu ou discret). Enfin, au § E, nous verrons comment les facteurs de phase arbitraires des vecteurs d’état en mécanique quantique peuvent introduire des représentations plus générales, dites “projectives”.

CHAPITRE IV

REPRÉSENTATIONS

Dans le cas d’un groupe continu, le résultat de cette étude sera d’aboutir à un certain nombre de relations de commutation que doivent satisfaire les opérateurs G associés aux transformations infinitésimales du groupe (générateurs infinitésimaux). C’est un pas important dans la voie que nous allons suivre ensuite : partant de considérations générales sur les transformations que l’on peut faire subir à un système physique, nous verrons comment on peut construire les espaces des états possibles pour ce système, ainsi que des équations d’évolution dans ces espaces. Avant d’aborder ce chapitre, rappelons quelques notations et résultats. Nous avons déjà discuté, à la fin du chapitre I (§ C-2), l’effet sur le vecteur d’état |ψi d’un système physique d’une opération T . Commençons par raisonner sur un exemple, celui où T est une opération de translation d’un vecteur `. Soit donc un système physique quelconque décrit, dans un référentiel Oxyz, par un ket |ψi ∈ E . Introduisons un second référentiel O0 x0 y 0 z 0 (figure 1) obtenu par action d’une translation de vecteur −` sur Oxyz. Dans le point de vue du second référentiel, le même système physique apparaît comme ayant toutes les mêmes propriétés que dans le point de vue du premier, si ce n’est sa position dans l’espace ; cette position a subi une translation de +`. Si maintenant |ψ 0 i est le ket normé de E qui décrit le système physique considéré dans le point de vue du référentiel O0 x0 y 0 z 0 , le problème est alors de connaître |ψ 0 i en fonction de |ψ(t)i. Nous allons appeler F la transformation qui fait passer de |ψi à |ψ 0 i : |ψ 0 i = F (|ψi)

(IV-1)

(nous utilisons ce type de notation pour insister sur le fait qu’à ce stade rien n’assure que la transformation F soit linéaire ; nous reviendrons ensuite à la notation T des chapitres précédents). Ces considérations peuvent facilement être généralisées à d’autres opérations T : rotations, symétrie par rapport à un point, changement de référentiel d’inertie (transformation de Galilée ou de Lorentz pures), etc. Une égalité du type (IV-1) nous servira dans tous les cas à écrire la transformation correspondante du vecteur d’état |ψ(t)i ∈ E . La question qui se pose alors est : que faut-il imposer à la transformation F sur des critères physiques ? Nous allons discuter ce point au § A.

Remarque : Nous prenons donc ici le “point de vue passif” (§ A-3 du chapitre I) où l’on considère un système physique unique, mais décrit dans les axes de référentiels différents. Rappelons que, par opposition, le “point de vue actif” consisterait à garder un seul système d’axes, et à introduire un second système physique obtenu (dans l’exemple précédent) par une translation de +` : c’est le système qui “bouge”, pas les axes.

106

A. CONDITIONS IMPOSÉES AUX TRANSFORMATIONS DANS L’ESPACE DES ÉTATS

Figure 1 – Le même système physique S est étudié, soit à partir d’un premier référentiel Oxyz, soit à partir d’un second O0 x0 y 0 z 0 obtenu à partir du premier par une translation de vecteur −`. Vu du second référentiel, le système semble avoir subi une translation de vecteur +`. A.

Conditions imposées aux transformations dans l’espace des états

En premier lieu, il est clair que, si la transformation F existe, il faut qu’on puisse effectuer la transformation inverse : dans l’exemple de la translation, on peut évidemment revenir du référentiel O0 x0 y 0 z 0 à Oxyz. On aura donc : |ψ(t)i = F −1 |ψ 0 (t)i



(IV-2)

où la fonction F −1 est définie quel que soit |ψ 0 i ; dans le cas contraire, nous aurions introduit une dissymétrie fondamentale entre les systèmes décrits par les |ψi et ceux décrits par les |ψ 0 i. Il faut ensuite que les postulats de la mécanique quantique concernant la mesure ne nous conduisent pas à des résultats incohérents. Supposons en effet que B soit une observable du système (opérateur hermitique à spectre complet dans E ) et |bi i un ket propre normé de B de valeur propre bi : B|bi i = bi |bi i

(IV-3)

(nous supposons pour simplifier le spectre de B discret et non dégénéré). Si le système physique est dans l’état |bi i on est sûr, lors de la mesure, de trouver le résultat bi . Soit maintenant : |b0i i = F (|bi i)

(IV-4)

le ket normé décrivant le système après action de la transformation T . Nous allons appeler B 0 l’opérateur qui admet les kets |b0i i avec les mêmes valeurs 107

CHAPITRE IV

REPRÉSENTATIONS

propres bi : B 0 = bi |b0i i

∀ |bi i

(IV-5)

Quel sens physique donner à B 0 ? Il revient au même de dire qu’avant une mesure, le système est décrit dans le référentiel initial par |bi i ou, après action de T , par |b0i i. Or, à ces kets correspondent des résultats certains bi pour les mesures associées à B et B 0 respectivement 1 . B 0 décrit donc la même mesure que B (l’interaction du système avec les mêmes instruments de mesure), mais dans le point de vue associé au nouveau référentiel d’espace. De façon générale, le passage de B à B 0 revient à effectuer, sur ces appareils, la même opération T qui change le ket du système physique de |ψi en |ψ 0 i. Si maintenant le système est dans un état normé quelconque |ψi (superposition linéaire des |bi i), la probabilité de trouver bi dans le résultat de la mesure vaut, calculée dans le premier référentiel : P(bi ) = |hbi |ψi|2

(IV-6)

et, dans le second : P(bi ) = |hb0i |ψ 0 i|2

(IV-7)

On doit bien sûr avoir l’égalité de ces deux expressions, c’est-à-dire : |hbi |ψi| = |hb0i |ψ 0 i|

(IV-8)

Ce résultat peut être généralisé car, si |ϕi est un ket normé quelconque de E , il peut être considéré comme ket propre associé à une [ou plusieurs 2 ] observables B1 , B2 , . . . avec une (ou plusieurs) valeurs propres bi1 , bi2 , . . . Le même raisonnement impose alors que : |hϕ0 |ψ 0 i| = |hϕ|ψi|

(IV-9)

La transformation F doit donc conserver le module du produit scalaire des kets normés. Si c’est le cas, on dit souvent que F “conserve les propriétés physiques” du système. Un théorème important permet alors de restreindre considérablement l’ensemble des transformations F acceptables. 1. Le résultat donné par l’appareil de mesure est une quantité indépendante du référentiel. Par exemple, ce résultat peut être +} ou −} pour une expérience de Stern et Gerlach, et correspondre à deux positions différentes d’un pointeur (aiguille sur un cadran) faisant partie de l’appareil de mesure. S’il s’agit de la mesure de la position d’une particule dans une chambre à bulles, les bi correspondent aux coordonnées des points lumineux observés et repérés dans des axes propres à l’appareil de mesure (distance des points aux bords de la photo, par exemple). Pour une mesure de l’impulsion, on peut penser à une expérience de diffraction par rapport à un cristal ; bi correspond alors à la déviation angulaire de la particule, mesurée dans le référentiel où le cristal est au repos, et donc à son impulsion relative dans ce référentiel. 2. Par exemple un ECOC (Ensemble Complet d’Observables qui Commutent).

108

B. THÉORÈME DE WIGNER

B.

Théorème de Wigner

Nous allons montrer que le fait que la transformation F soit biunivoque et conserve le module des produits scalaires des kets normés entraîne que F est équivalente, soit à une opération linéaire et unitaire, soit à une opération antilinéaire et unitaire (c’est-à-dire “antiunitaire”). (i) Soit {|ui i} une base orthonormée de E (i = 1, 2, . . . N ). L’ensemble des : |u0i i = F (|ui i)

(IV-10)

constitue une autre base orthonormée de E . En effet : – l’ensemble des |u0i i est orthonormé puisque F conserve le module du produit scalaire : |hu0i |u0j i| = |hui |uj i| = δij

(IV-11)

et donc : hu0i |u0j i = δij

(IV-12)

(puisque hui |ui i est réel) ; – l’ensemble des |u0i i constitue une base. Dans le cas contraire, il existerait un ket |ψ 0 i non nul orthogonal à tous les |u0i i, et |ψi = F −1 (|ψ 0 i) serait orthogonal à tous les |ui i, ce qui est impossible si les {|ui i} forment une base orthonormée. (ii) Considérons maintenant les kets : 1 |ϕi i = √ [|u1 i + |ui i] i = 1, 2, . . . , N 2   1 |ϕ0i i = F √ [|u1 i + |ui i] 2

(IV-13)

√ Le produit scalaire de |ϕ0i i par |u0k i doit valoir 1/ 2 en module si k = 1 ou i, zéro sinon. Par suite : i 1 h |ϕ0i i = √ eiαi |u01 i + eiβi |u0i i 2

(αi , βi réels)

(IV-14)

Introduisons une nouvelle base de kets |vi0 i, proportionnels aux |u0i i :   |v10 i = |u01 i  |v 0 i = ei(βi −αi ) |u0 i i i

(IV-15) i = 2, . . . , N 109

CHAPITRE IV

REPRÉSENTATIONS

On a alors simplement : 

F

 1 eiαi  √ [|u1 i + |ui i] = √ |v10 i + |vi0 i 2 2 

(IV-16)

(iii) Soit |χi le ket normé défini par : |χi =

X

xi |ui i

(IV-17)

i

où les xi sont réels ; nous dirons que |χi est “un ket réel” 3 . Nous supposons : x1 6= 0

(IV-18)

On peut toujours écrire : |χ0 i = F (|χi) =

X

gi |vi0 i

(IV-19)

i

avec : |gi | = |hvi0 |χ0 i| = |hui |χi| = |xi | = ±xi

(IV-20)

Effectuons le produit scalaire de |χi par le ket |ϕi i défini plus haut : 1 1 |hϕi |χi| = √ |x1 + xi | = |hϕ0i |χ0 i| = √ |g1 + gi | 2 2

(IV-21)

Donc : |x1 + xi | = |g1 + gi |

(IV-22)

Comme par ailleurs |xi | = |gi |, cette égalité entraîne que gi /g1 est réel : gi xi = g1 x1

(IV-23)

En effet, si dans le plan complexe les vecteurs représentant g1 et g2 n’étaient pas parallèles (ou antiparallèles) comme ceux représentant x1 et x2 , on ne pourrait pas satisfaire l’égalité (IV-21), cf. figure 2. Ceci entraîne que : |χ0 i = eiβ

xi |vi0 i

(IV-24)

g1 g2 = = ... x1 x2

(IV-25)

X i

où : eiβ =

3. Il faut bien voir que cette notion de “ket réel” n’a rien d’absolu, mais dépend de la base à laquelle on se réfère.

110

B. THÉORÈME DE WIGNER

Figure 2 – Dans le plan complexe, les vecteurs représentant g1 et g2 ont des longueurs égales à celles des vecteurs représentant les nombres x1 et x2 . Ces derniers sont de plus parallèles puisque x1 et x2 sont réels. La longueur du vecteur associé à la somme g1 + g2 ne peut alors égaler celle de la somme x1 + x2 que si les vecteurs g1 et g2 sont, eux aussi, parallèles entre eux. Remarque : Pour arriver à (IV-24), nous avons utilisé le fait que |χi a été choisi avec x1 6= 0. Cette restriction n’est cependant pas essentielle. En effet, si x1 est nul, il suffit de reprendre le même raisonnement en changeant l’indice 1 en celui du premier ket de base pour lequel la composante n’est pas nulle.

Pour résumer, avec les bases {|ui i} et {|vi0 i} que nous avons choisies, le transformé de tout ket “réel” (à une phase près) normé a les mêmes propriétés. (iv) La dernière étape du raisonnement consiste maintenant à prendre un ket normé |ψi quelconque (“complexe”) : |ψi =

X

ci |ui i

i

|ψ 0 i =

X

di |vi0 i

(IV-26)

i

où, nécessairement : |di | = |ci |

(IV-27)

Effectuons le produit scalaire par un quelconque des kets |χi considérés plus haut : |hχ|ψi| = |

X

xi ci | = |hχ0 |ψ 0 i| = |

i

X

xi di |

(IV-28)

i

Choisissons en premier x1 = 1, x2 = 1, x3 = x4 = . . . = 0. On a alors : |d1 + d2 | = |c1 + c2 |

(IV-29) 111

CHAPITRE IV

REPRÉSENTATIONS

Figure 3 – Les nombres c1 et c2 sont représentés, dans le plan complexe, par des vecteurs d’extrémités M1 et M2 . Lors d’une transformation, ils deviennent les nombres complexes d1 et d2 , d’extrémités M10 et M20 . Les vecteurs représentant d1 et d2 ont des longueurs égales à celles des vecteurs associés à c1 et c2 , et la longueur du vecteur associé à la somme d1 + d2 doit être égale à celle de la somme c1 + c2 . Ceci n’est possible que dans deux cas : soit le passage des c aux d est obtenu par une simple rotation dans le plan complexe (on obtient alors le point M20 ), soit il faut y ajouter une symétrie par rapport à l’axe portant d1 (point M200 ). Dans le plan complexe, on peut représenter c1 et la somme c1 + c2 par les points M1 et M2 ; c01 et c01 + c02 par les points M10 et M20 . Les relations écrites plus haut entraînent |M1 M2 | = |M10 M20 | et on voit alors (figure 3) que deux cas sont possibles, soit : d2 c2 = d1 c1

(IV-30a)

soit : d2 = d1



c2 c1

∗

(IV-30b)

Dans le premier cas, le passage des c aux d est obtenu par une rotation dans le plan complexe ; dans le second, il faut ajouter une symétrie par rapport à l’axe portant d1 . Un autre choix possible des xi est x3 = 1 (les autres xi nuls), ou x2 = x3 = 1 (les autres nuls), ou encore x1 = x2 = x3 = 1 (les autres nuls). Il vient alors : |d3 | = |c3 | |d2 + d3 | = |c2 + c3 | |d1 + d2 + d3 | = |c1 + c2 + c3 |

(IV-31)

Si M3 est le point représentant la somme c1 + c2 + c3 , M30 celui représentant d1 + d2 + d3 , ce dernier point sera à des distances de l’origine, de M10 , M20 , 112

B. THÉORÈME DE WIGNER

qui sont égales à celles de M3 aux points correspondants. Dans l’hypothèse (IV-30a), on aura donc : d3 c3 = d1 c1

(IV-32a)

et, dans l’hypothèse (IV-30b) : d3 = d1



c3 c1

∗

(IV-32b)

Le raisonnement se prolonge de même pour d4 , d5 , . . . et l’on voit que : – ou bien les M10 se déduisent des M par une rotation autour de l’origine dans le plan complexe ; – ou bien ils s’en déduisent par une rotation suivie d’une symétrie par rapport à un axe du plan. Ceci entraîne que : |ψ 0 i =

    soit

eiδ

   soit

eiδ

X i X

ci |vi0 i (IV-33)

c∗i |vi0 i

i

où δ est une phase réelle dépendant de |ψi. Appelons T la transformation telle que : T |ψi = e−iδ |ψ 0 i

(IV-34)

T est physiquement équivalente à la transformation F initiale, dont elle ne diffère que par un facteur de phase globale. Les relations (IV-33) indiquent alors que T est, soit une transformation linéaire : T |ψi =

X

ci |vi0 i

(IV-35a)

i

soit antilinéaire 4 : T |ψi =

X

c∗i |vi0 i

(IV-35b)

i

Rappelons d’autre part que les |vi0 i constituent une base orthonormée. Si l’on compare (IV-35) et (IV-26), on voit que, dans les deux cas, l’opérateur T conserve la norme et le produit scalaire des kets, ce qui implique qu’il est unitaire (T −1 = T † ). 4. Une transformation T est antilinéaire si, quels que soient |ϕ1 i et |ϕ2 i : T (λ|ϕ1 i + µ|ϕ2 i) = λ∗ T |ϕ1 i + µ∗ T |ϕ2 i Les propriétés de telles transformations sont étudiées dans l’appendice I.

113

CHAPITRE IV

REPRÉSENTATIONS

Réciproquement, il est facile de vérifier que des transformations linéaires ou antilinéaires unitaires conservent le module du produit scalaire. Le théorème est donc établi (pour un espace de dimension N finie ; nous l’admettrons pour un espace des états de dimension infinie). C.

Transformations des observables

Supposons que l’on connaisse l’opérateur T linéaire (ou antilinéaire) qui, à partir de chaque ket |ψi du système physique considéré, donne le ket |ψ 0 i du système après transformation par T . |ψ 0 (t)i = T (t) |ψ(t)i

(IV-36)

On peut se demander comment se transforment les observables du système dans cette opération. Si B est l’opérateur (hermitique) décrivant une mesure réalisée par un dispositif expérimental donné (par exemple, aimant de Stern et Gerlach), quel est l’opérateur B 0 qui décrit la mesure associée au dispositif expérimental lorsqu’il a subi l’opération T (aimant de Stern et Gerlach ayant subi une rotation par exemple) ? Nous avons en fait déjà discuté cette question au § A, en introduisant les kets propres bi d’une observable B : B|bi i = bi |bi i

(IV-37)

et les kets : |b0i i = T |bi i

(IV-38)

Nous avons alors vu que : B 0 |b0i i = bi |b0i i

(IV-39)

(où la valeur propre bi est inchangée). Par suite 5 : B 0 T |bi i = bi T |bi i = T B|bi i

(IV-40)

et : 



T −1 B 0 T |bi i = B|bi i

(IV-41)

Les {|bi i} formant une base, on a : B = T −1 B 0 T

(IV-42a)

5. Comme bi est réel, T commute avec la multiplication par bi , même si T est antilinéaire [cf. note (4)].

114

D. REPRÉSENTATIONS LINÉAIRES DANS L’ESPACE DES ÉTATS

et, inversement : B 0 = T B T −1

(IV-42b)

Si T est unitaire, T −1 = T † , et ces égalités peuvent s’écrire : B = T †B0T B0 = T B T †

(IV-43)

Nous avons donc obtenu les relations cherchées qui lient B et B 0 . La démonstration se généralise au cas où le spectre de B est dégénéré et continu. Remarque :

Si B commute avec T : [B, T ] = 0

(IV-44)

on voit immédiatement que B 0 = B. L’observable correspondante est alors dite invariante dans l’opération T . Par exemple, l’observable Sz , composante du spin d’une particule sur un axe Oz, est invariante dans toute rotation autour de Oz. D.

Représentations linéaires dans l’espace des états

D-1.

Action d’un groupe de transformations

Considérons un ensemble de transformations T formant un groupe G . A chacune d’entre elles, nous associerons un opérateur unitaire T , linéaire ou antilinéaire d’après le théorème de Wigner, agissant dans l’espace des états : |ψ 0 i = T (T ) |ψi |ψi = T † (T ) |ψ 0 i

(IV-45)

Nous allons nous restreindre ici au cas où T est linéaire. Nous verrons en effet par la suite que, dans de nombreux cas, on n’a pas besoin d’introduire d’opérateurs antilinéaires en mécanique quantique ; nous ne les prendrons en compte que dans un cas particulier, celui du renversement du temps discuté dans l’appendice I, mais pas ici 6 . 6. Dans le cas d’un groupe continu de transformations T , l’opérateur T est nécessairement unitaire (et non antiunitaire) tant que T reste proche de la transformation identité. Pour le voir on peut (comme dans le § D-2 qui suit) introduire un paramètre a pour décrire les transformations T , donc les T , et développer T (δa) au premier ordre en δa [égalités (IV-52) à (IV-54)]. On obtient alors T (δa) = T (δa/2) T (δa/2), égalité qui est incompatible avec l’antiunitarité des opérateurs T (le produit de deux opérateurs antiunitaires est unitaire ; cf. chapitre I § 2-a). L’unitarité des opérateurs T n’est d’ailleurs pas limitée au voisinage de l’unité mais peut être étendue à toute la “nappe” (composante connexe) où se trouve cet élément unité.

115

CHAPITRE IV

REPRÉSENTATIONS

Effectuons maintenant deux opérations successives T1 et T2 , dans cet ordre. Le vecteur d’état devient : |ψ 00 i = T (T2 ) |ψ 0 i = T (T2 ) T (T1 ) |ψi

(IV-46)

Mais nous pouvons également directement effectuer la transformation produit : T3 = T2 T1

(IV-47)

et obtenir le vecteur d’état : |ψ˜00 i = T (T3 ) |ψi

(IV-48)

Les kets |ψ 00 i et |ψ˜00 i décrivent en réalité le même état physique du système (dans le même système de coordonnées). Nous allons donc imposer que |ψ 00 i et |ψ˜00 i ne diffèrent que par un facteur de phase globale 7 : |ψ˜00 i = eiξ(T2 ,T1 ) |ψ 00 i

(IV-49)

où ξ est une fonction réelle qui dépend de T2 et T1 8 . D’après (IV-46) et (IV-48), on devrait donc avoir (le ket |ψi étant quelconque) : T (T2 ) T (T1 ) = e−iξ(T2 ,T1 ) T (T2 T1 )

(IV-50)

Les T donnent donc en général une représentation projective (cf. chapitre II § B-1-c) du groupe G . Aux opérateurs T , on peut associer des matrices (finies ou infinies suivant la dimension de l’espace des états) d’éléments : Tij (T ) = hui |T (T )|uj i

(IV-51)

où les {|ui i} sont une base quelconque de E . Lorsque cette base est orthonormée, l’unitarité des T entraîne celle des matrices de la représentation. 7. Nous admettons ici que la structure de l’espace des états du système étudié est telle que, si deux kets |ψi et |ψ 0 i ne sont pas proportionnels, ils ne sont pas physiquement équivalents (il existe au moins une mesure physique qui permet de les distinguer). 8. Il est inutile de supposer que ξ dépend du ket |ψi. En effet, si c’était le cas, on aurait : ˜ = e−iξ(T2 ,T1 ,Ψ) T (T2 ) T (T1 ) |Ψi |ψ˜00 i = T (T3 ) |ψi soit, par multiplication à gauche par T −1 (T1 ) T −1 (T2 ) : T −1 (T1 ) T −1 (T2 ) T (T3 ) |Ψi = e−iξ(T2 ,T1 ,Ψ) |Ψi Donc, l’opérateur linéaire qui agit dans le membre de gauche sur |Ψi ne ferait que multiplier un ket quelconque |Ψi par un nombre (un facteur de phase), de sorte qu’il serait diagonal dans n’importe quelle base. Ce serait donc un opérateur scalaire dont tous les éléments de matrice diagonaux sont égaux ; ξ serait alors nécessairement indépendant de |Ψi.

116

D. REPRÉSENTATIONS LINÉAIRES DANS L’ESPACE DES ÉTATS

Supposons, sans justification pour le moment, qu’on puisse annuler la fonction ξ quels que soient T1 et T2 . On aura alors une représentation (au sens strict, non projective) du groupe G dans l’espace des états E du système considéré, de dimension N (dimension de E ). Un problème important que nous allons étudier dans les chapitres ultérieurs sera la réductibilité de ces représentations. D-2.

Cas d’un groupe continu

Lorsque le groupe G est continu, on peut repérer ses éléments par le paramètre a (à n composantes réelles) : T ≡ T (a)

(IV-52a)

l’opérateur unitaire T agissant dans E est alors également une fonction de a: T ≡ T (a)

(IV-52b)

Comme au chapitre III, dont nous utiliserons les notations, nous allons raisonner sur les a plutôt que sur les éléments T de G eux-mêmes. Nous supposerons que a = 0 correspond à l’opération T identité et que, par suite : T (0) = 1

(IV-53)

(opérateur identité agissant dans E ). Si les opérateurs T sont des fonctions continues, dérivables, etc. des a, on peut écrire 9 , lorsque δa est infinitésimal :

T (δa) = 1 −

iX j i δa Gj + . . . = 1 − δa · G + . . . ~ j ~

(IV-54)

Les Gj , résumés dans la notation G (qui symbolise un vecteur à n dimensions dont les composantes sont des opérateurs agissant dans E ) seront appelés “générateurs infinitésimaux”. Le facteur ~ a été introduit par simple commodité (nous verrons pourquoi par la suite), et le i dans le second membre de (IV-51) assure que les Gi sont des opérateurs hermitiques. En effet : T † (δa) = 1 +

iX j † δa Gj + . . . ~ j

(IV-55)

9. Selon un usage courant, nous simplifions la notation 1 en 1.

117

CHAPITRE IV

REPRÉSENTATIONS

et l’unitarité de T entraîne : T † (δa) T (δa) = 1 −

 iX j  δa Gj − G†j + . . . ~ j

(IV-56)

c’est-à-dire (les δaj étant quelconques) : Gj = G†j

(IV-57)

Cette hermiticité est essentielle pour pouvoir attribuer une signification physique aux opérateurs G (elle assure la réalité de leurs valeurs propres). Nous avons vu au chapitre III l’importance des constantes de structure d’un groupe de Lie. Ces constantes sont liées aux dérivées secondes de la fonction Φ2 , qui exprime la loi de groupe dans G , par : k k Cij = fijk − fji

(IV-58)

où les fijk sont les composantes des n2 vecteurs :

∂2 Fij = Φ (a, b) 2 i j ∂a ∂b a=b=0

(IV-59)

Nous allons calquer ici le raisonnement du § A-2-b du chapitre III pour trouver l’image, dans l’espace des états, de la transformation T (δc) (commutateur dans G ) définie par : T (δc) = T (δa) T (δb) T −1 (δa) T −1 (δb)

(IV-60)

Rappelons [égalité (III-34) du chapitre III] que la kième composante de δc vaut : δck =

X

k Cij δai δbj

(IV-61)

ij

D’autre part, à la transformation (IV-60) correspond dans l’espace des états E l’opérateur [nous supposons toujours l’absence de facteur de phase dans (IV-50)] : T (δa) T (δb) T † (δa) T † (δb) = T (δc)

(IV-62)

Dans (IV-54), reportons cette égalité, ainsi qu’une relation identique où δb remplace δa. Nous limitons le calcul au second ordre inclus en δa et δb, et procédons comme dans le § A-2-b du chapitre III. On voit immédiatement sur (IV-62) que T (δc) vaut identiquement 1 si, soit δa, soit δb, est nul ; ceci 118

D. REPRÉSENTATIONS LINÉAIRES DANS L’ESPACE DES ÉTATS

permet d’éliminer les termes “carrés” en δa et δb, et justifie l’utilisation de l’égalité (IV-54) limitée au premier ordre. Nous avons ainsi :

T (δa) T (δb) = 1 −

i i 1 (δa · G) − (δb · G) − 2 (δa · G) (δb · G) + . . . ~ ~ ~ (IV-63a)

et par suite : i i 1 (δa · G) − (δb · G) − 2 (δa · G) (δb · G) ~ ~ ~ i 1 + (δa · G) + 2 (δb · G) (δa · G) + . . . ~ ~ i 1 = 1 − (δb · G) − 2 [δa · G, δb · G] + . . . (IV-63b) ~ ~

T (δa) T (δb) T † (δa) = 1 −

où apparaît le commutateur de (δa · G) et (δb · G). Il ne nous reste maintenant plus qu’à multiplier à droite cette expression par T † (δb), en ne retenant toujours que les termes linéaires ou croisés en δa et δb. Utilisant à nouveau (IV-55), nous voyons que cela revient simplement à supprimer le terme en (δb · G) du second membre de (IV-63b). Reportons enfin cette expression dans le membre de gauche de (IV-62), tout en remplaçant T (δc) par 1 − i~ δc · G ; nous obtenons alors la relation : [δa · G, δb · G] = i~ δc · G

(IV-64)

Si maintenant l’on tient compte de (IV-61) et l’on identifie les termes en δai δbj (car δa et δb peuvent être choisis de façon quelconque), on aboutit à la relation importante : [Gi , Gj ] = i~

X

k Cij Gk

(IV-65)

k

Nous obtenons donc ainsi, de façon générale, des relations de commutation satisfaites par les observables Gk . Elles sont l’image directe des relations de commutation (III-36) satisfaites par les opérateurs X de l’algèbre de Lie associée au groupe des transformations T . Remarquons qu’aucune hypothèse n’est intervenue dans le raisonnement sur la nature du système physique étudié, et donc la structure précise de son espace des états : seules interviennent dans le résultat les propriétés du groupe G par l’intermédiaire de ses constantes de structure. 119

CHAPITRE IV

E.

REPRÉSENTATIONS

Facteurs de phase et représentations projectives

Revenons maintenant sur la question des facteurs de phase, que nous avons éludée jusqu’ici. Nous examinons donc maintenant ce qui doit être modifié dans les résultats précédents. En fonction des paramètres a et b associés à T1 et T2 , la relation (IV-50) devient alors : T (a) T (b) = e−iξ(a,b) T [Φ2 (a, b)] E-1.

(IV-66)

Propriétés locales

Commençons par étudier l’effet des phases sur les transformations infinitésimales, et en particulier ce que devient la relation (IV-65). E-1-a.

Propriétés générales des facteurs de phase

Si l’on fait a = 0 ou b = 0 dans (IV-66), on obtient : ξ(a, 0) = ξ(0, b) = 0

∀ a, b

(IV-67)

de sorte qu’au voisinage de l’origine, le développement de ξ au second ordre compris ne comprend que des termes “croisés” : ξ(δa, δb) =

X

γij δai δbj + . . .

(IV-68)

ij

D’autre part, la fonction ξ n’est pas complètement arbitraire. Considérons en effet trois opérations T successives, de paramètres respectifs a, b, c. Les paramètres associés aux produits T (a) T (b) et T (b) T (c) sont : d1 = Φ2 (a, b) d2 = Φ2 (b, c)

(IV-69)

et celui associé au produit T (a) T (b) T (c) est : f = Φ2 (d1 , c) = Φ2 (a, d2 )

(IV-70)

[associativité du produit dans G , relation (III-45) du chapitre III]. On a :   T (a) T (b) = e−iξ(a,b) T (d1 )  T (b) T (c) = e−iξ(b,c) T (d ) 2

(IV-71)

et donc : T (a) T (b) T (c) = e−iξ(a,b) e−iξ(d1 ,c) T (f ) = e−iξ(a,d2 ) e−iξ(b,c) T (f ) 120

(IV-72)

E. REPRÉSENTATIONS PROJECTIVES

L’associativité du produit entraîne que : ξ(a, b) + ξ(d1 , c) = ξ(a, d2 ) + ξ(b, c)

(IV-73)

où les vecteurs d1,2 sont ceux définis par la relation (IV-69). E-1-b.

Extension de l’algèbre de Lie

Reprenons maintenant le raisonnement du paragraphe D-1 précédent, compte tenu de la présence des facteurs de phase. Il faut alors remplacer (IV-62) par 10 : T (δa) T (δb) T † (δa) T † (δb) = e−iδξ T (δc)

(IV-74)

Un raisonnement analogue à celui qui nous a conduit à (IV-72) donne : δξ = ξ(δa, δb) + ξ(δd1 , δa0 ) + ξ(δd3 , δb0 ) + . . .

(IV-75)

avec : δd1 = Φ2 (δa, δb) δd3 = Φ2 (δd1 , δa0 )

(IV-76)

et : δa0 = Φ1 (δa) δb0 = Φ1 (δb)

(IV-77)

Calculons δξ, en nous limitant ici encore aux termes du deuxième ordre en δa et δb. En utilisant la relation (IV-68), on voit qu’on peut se limiter dans le calcul de δa0 , δb0 , δd1 et δd3 aux termes du premier ordre : δa0 = −δa + . . . δb0 = −δb + . . . δd1 = δa + δb + . . . δd3 = δd1 + δa0 = δb + . . .

(IV-78)

et que, par suite : δξ =

X

h



γij δai δbj + δai + δbi







−δaj + δbi



−δbj

i

+ ...

ij

=

X ij





γij δai δbj − δbi δaj −

X



γij δai δaj + δbi δbj



(IV-79)

ij

10. L’équation (IV-74) suppose implicitement que deux opérateurs inverses T et T −1 correspondent à des opérateurs inverses T et T −1 = T † . Le cas plus général où cette hypothèse n’est pas réalisée est traité dans la remarque qui suit l’équation (IV-83) ; les résultats essentiels ne changent pas.

121

CHAPITRE IV

REPRÉSENTATIONS

Remplaçons e−iδξ par 1 − iδξ au second membre de (IV-74), ce qui est possible puisqu’on fait ainsi une erreur du 4e ordre au moins. Il vient alors :

1−

1 i [δa · G, δb · G] = 1 − δc · G − iδξ 2 ~ ~

(IV-80)

En reportant (IV-79), on peut identifier les développements au second ordre des deux membres de cette égalité. Les termes en δai δbj donnent alors : [Gi , Gj ] = i~

X

k Cij Gk + i~2 (γij − γji )

(IV-81a)

k

et ceux en δai δaj ou δbi δbj : γij + γji = 0

(IV-81b)

La seconde de ces égalités montre que la matrice Γ des dérivées secondes à l’origine de la fonction ξ est antisymétrique. La première nous indique comment, dans le cas d’une représentation projective, il faut modifier les relations de commutation entre générateurs infinitésimaux. Aux termes donk , il suffit d’ajouter des nés par les constantes de structure du groupe, Cij constantes antisymétriques (proportionnelles à l’opérateur unité) :

[Gi , Gj ] = i~

X

k Cij Gk + i~2 βij

(IV-82)

k

avec : βij = γij − γji

(IV-83)

Les βij sont appelées “constantes d’extension”. L’opération qui consiste à modifier l’algèbre de Lie de cette façon en lui adjoignant l’opérateur unité porte le nom d’extension de l’algèbre de Lie. Remarque : Pour écrire (IV-74) nous avons supposé que deux transformations inverses T (δa) et T −1 (δa) sont représentées par deux opérateurs inverses T (δa) et T † (δa), sans facteur de phase. C’est en fait l’origine 11 des relations (IV-81b). Rien n’empêche cependant de supposer de façon plus générale que deux transformations inverses T −1 (a) et T (a00 ) sont associées à des opérateurs T tels que : T (a00 ) T (a) = e−iχ(a)

(IV-84)

11. On peut directement démontrer que γij = −γji en considérant l’opération inverse 00 de T (δa), notée T (δa00 ), en écrivant d’après (IV-65) que e−iξ(δa,δa ) = 1, et en développant au second ordre en δa.

122

E. REPRÉSENTATIONS PROJECTIVES

La fonction χ, comme ξ, ne peut varier qu’au second ordre au voisinage de l’origine : on sait que, si a a la valeur infinitésimale δa, a00 vaut −δa au premier ordre près [cf. équation (III-27) du chapitre III]. On vérifie alors sur (IV-54) que T (−δa) = T −1 (δa) + 0(δa2 ). Donc : χ(δa) =

X

θij δai δaj

(IV-85)

ij

avec : θij = θji Dans le premier membre de (IV-74), il faut alors remplacer T † (δa) selon : T † (δa) ⇒ e−iχ(δa) T † (δa)

(IV-86)

et de même pour T † (δb). Ceci revient à multiplier le second membre par ei[χ(δa)+χ(δb)] , et donc à y ajouter des termes du second ordre en δa2 et δb2 (mais pas de termes croisés). Par suite, (IV-81a) reste toujours valable, mais (IV-81b) devient : γij + γji = 2θij = 2θji E-1-c.

(IV-87)

Lien entre les constantes d’extension et les constantes de structure

Il ne faut pas croire que la fonction ξ, et par suite les βij qui sont reliés à ses dérivées secondes, sont quelconques. Nous avons déjà écrit en (IV-73) une relation nécessairement satisfaite par ξ. Examinons ce qu’elle implique concernant les constantes βij d’extension de l’algèbre de Lie. Pour cela, remplaçons a par δa, b par δb et c par δc pour écrire l’égalité des développements des deux membres de (IV-73) ; nous nous limitons au terme croisé du 3e ordre du type δa δb δc. On a [cf. relation (III-28)] : δd1 = Φ2 (δa, δb) = δa + δb +

X

Fij δai δbj + . . .

ij

δd2 = Φ2 (δb, δc) = δb + δc +

X

Fjk δbj δck + . . .

(IV-88)

ij

Comme ξ(δa, δb) et ξ(δb, δc) ne contiennent pas de terme en δa δb δc, nous pouvons ne garder de (IV-73) que : ξ(δd1 , δc) = ξ(δa, δd2 ) + . . .

(IV-89)

Il vient alors, compte tenu de (IV-68) : X k`

γ`k

X



fij` δai δbj δck =

ij

X

γi` δai

i`

X

` fjk δbj δck



(IV-90)

jk

et, par identification des termes en δai δbj δck : X `

γ`k fij` =

X

` γi` fjk

∀ i, j, k

(IV-91)

`

123

CHAPITRE IV

REPRÉSENTATIONS

On peut alors montrer que : Xn

o

` ` ` β`i Cjk + β`j Cki + β`k Cij =0

(IV-92)

`

Dans cette égalité, i, j et k sont quelconques, et les trois termes du premier membre sont obtenus par permutation circulaire. Démonstration : Calculons le double commutateur [[Gi , Gj ] Gk ] ; compte tenu de (IV-81a) et (IV-83), nous obtenons : X X  p ` ` [[Gi , Gj ] , Gk ] = i} Cij G` + }βij , Gk = −}2 Cij [C`k Gp + }β`k ] `

`p

(IV-93) Ajoutons à cette égalité les deux autres obtenues par permutation circulaire des trois indices i, j et k. La relation de Jacobi (III-43) nous indique alors que la somme des trois doubles commutateurs dans le membre de gauche est nulle. Dans celui de droite, le terme en Gp est proportionnel à : X p p p  ` ` ` Cij C`k + Cjk C`i + Cki Cvj (IV-94) l

qui est également nul selon la relation (III-44) du chapitre III. Pour finir il reste : X l l l Cij βlk + Cjk βli + Cki βlj = 0 (IV-95) l

ce qui démontre l’égalité (IV-92). E-2.

Représentations finies

Etudions l’effet du facteur e−iξ(a,b) dans le cas simple où la dimension N de l’espace de représentation est finie 12 . Les matrices de la représentation, dont les éléments sont donnés en (IV-51), sont alors des matrices carrées N × N . Dans ce cas, les facteurs de phase peuvent facilement étre simplifiés. Appelons en effet ∆ le déterminant des matrices : 



T1 1 (a) T1 2 (a) . . .    T2 1 (a)    ∆(a) = det  ..  .  

(IV-96)

TN 1 (a)

12. Nous pouvons également supposer, sans nécessairement que N soit fini, que la représentation du groupe G par les T a été décomposée en plusieurs représentations dont une au moins est finie (les T laissent globalement invariant un sous-espace E 0 de E , de dimension finie). C’est alors cette représentation finie (si elle existe) qui est étudiée au § E-2.

124

E. REPRÉSENTATIONS PROJECTIVES

Une matrice unitaire est diagonalisable, et toutes ses valeurs propres sont de module unité. Donc : |∆(a)| = 1

(IV-97)

La relation (IV-66) donne alors (le déterminant d’un produit est le produit des déterminants) : ∆(a) ∆(b) = e−iN ξ(a,b) ∆(d)

(IV-98)

où d est le paramètre associé au produit T (a) T (b) : d = Φ2 (a, b)

(IV-99)

On peut aisément faire en sorte que les déterminants ∆ de toutes les matrices valent 1. Il suffit pour cela de remplacer les opérateurs T par les T 0 définis par 13 : T 0 (a) = T (a)/ [∆(a)]1/N

(IV-100)

La relation (IV-98) montre alors que les facteurs de phase ξ ne peuvent prendre que les valeurs 0, 2π/N , 4π/N, . . . , (N − 1)2/N . Un simple changement de phase de chacun des opérateurs T suffit donc à ramener à un nombre fini les valeurs possibles des facteurs de phase. On peut remarquer de plus que, comme ξ(0, 0) = 0, la fonction ξ est donc soit discontinue, soit toujours nulle. Nous montrons dans le complément AIV que, si le groupe est simplement connexe, tous les ξ se ramènent à 0, de sorte que la représentation projective devient représentation au sens strict.

13. ∆(a)1/N désigne l’une quelconque des N racines N ième complexes de ∆(a).

125

• REPRÉSENTATIONS PROJECTIVES DES GROUPES DE LIE CONNEXES

Complément AIV Représentations projectives unitaires de dimension finie des groupes de Lie connexes 1 2

Cas où G est simplement connexe . . . . . . . . . 128 Cas où G est p-connexe . . . . . . . . . . . . . . . . 131

Etudions plus en détail les représentations unitaires de dimension finie d’un groupe continu G , considérées au § E-2 du chapitre IV. Nous considérons une représentation projective quelconque, donnée par les matrices N × N des opérateurs T (a) : 

T1 1 (a)..... T1N (a)   T2 1 (a)  ..  . 

TN 1 (a)..... TN N (a)

     

(1)

telles que la représentation d’un produit dans G : T (d) = T (a) T (b)

(2)

s’écrit : T (d) = e−iξ (a,b) T (a) T (b)

(3)

Le déterminant d’une matrice unitaire est un nombre complexe quelconque de module unité. Nous pouvons cependant supposer que le déterminant des matrices écrites en (1) est ramené à la valeur 1. Pour cela, appelons K(a) l’une des racines Nième complexe du déterminant ∆(a) de ces matrices : [K(a)]N = ∆(a)

(4)

Il suffit alors de substituer aux opérateurs T (a) les opérateurs : T (a)/K(a) pour que les matrices correspondantes soient de trace unité. Nous avons vu que, dans ce cas, le facteur de phase eiξ ne peut prendre qu’un ensemble discret de valeurs, les N racines Nième de l’unité : eiξ(a,b) = 1, e2iπ/N , e4iπ/N , . . . , e(N −1) 2iπ/N

(5) 127

COMPLÉMENT AIV



Comme ξ(0, 0) = 0, la fonction ξ est donc, soit discontinue, soit toujours nulle. La redéfinition des opérateurs T (a) n’est évidemment pas unique, puisqu’il existe N nombres complexes K(a) satisfaisant la relation (4). A priori, N opérateurs T (a) distincts, différant par un facteur de phase, peuvent être associés 1 à chaque transformation T (a) du groupe G . Le but de ce complément est de montrer comment, pour un groupe G connexe, on peut tirer parti de cet arbitraire de phase pour simplifier encore les facteurs de phase e−iξ dans (3). De plus, si le groupe G est simplement connexe, nous allons voir que l’on peut complètement supprimer tous les facteurs de phase e−iξ . Cas où G est simplement connexe

1.

La relation (4) donne N déterminations possibles pour la phase de K(a), et donc de l’opérateur T (a). Bien évidemment, si l’on fait un choix absolument quelconque de cette détermination pour les diverses valeurs de a, on peut compliquer à loisir les variations de T avec a ; par exemple, il est clair que la sélection de deux déterminations différentes pour deux valeurs de a très proches entraîne l’existence d’une discontinuité pour l’opérateur T (a) [les éléments Tij (a) sont alors des fonctions discontinues de a]. Nous allons ici chercher à faire le choix opposé, et à rendre les variations de T (a) aussi régulières que possibles. L’opérateur T (a = 0) associé à la transformation identité T (a = 0) est nécessairement un opérateur diagonal scalaire, puisque nous avons supposé que deux kets Ψ décrivant le même état physique sont nécessairement proportionnels (note 7 du chapitre III). Nous le prenons égal à l’unité. Au voisinage de l’origine a = 0, nous supposons que T (a) varie de façon continue, de sorte que nous pouvons écrire, comme en (IV-54) : i T (δa) = 1 − (δa · G) + . . . (6) ~ Dans un certain domaine entourant l’origine, le choix des phases a donc été fait de façon à préserver la continuité des opérateurs T . Dans ces conditions, il existe un certain domaine pour a et b, entourant l’origine, où la fonction ξ(a, b) est nécessairement nulle. Ceci se voit directement sur (3) qui peut s’écrire, pour des transformations infinitésimales : T † (δb) T † (δa) T (δd) = e−iξ(δa,δb)

(7)

1. On peut généraliser la notion de représentation d’un groupe G à celle d’une représentation multivaluée : à tout élément de G on associe un ensemble de N matrices ou opérateurs T1 (a), T2 (a), . . . , TN (a). Prenons deux opérations T (a) et T (b), de produit T (a). Si tous les couples Ti (a), Tj (b) sont égaux à l’une des matrices Tk (a), on dit qu’on a une “représentation multivaluée”. Nous reviendrons sur ce point au § A-5 du chapitre VII.

128

• REPRÉSENTATIONS PROJECTIVES DES GROUPES DE LIE CONNEXES

Figure 1 – Dans un domaine infinitésimal entourant la transformation unité T (0) et représenté en gris, les facteurs de phase de toute représentation projective peuvent être ramenés à zéro (ξ = 0). Pour atteindre une transformation finie T (a), on suit un chemin continu qui part de la transformation unité. Le premier membre de cette égalité étant un opérateur (en fait, un scalaire) très proche de 1, au second membre seule la première des valeurs (5) de e−iξ peut être retenue. La fonction ξ(a, b) est donc bien nulle. Lorsque a et b prennent maintement des valeurs finies, nous ne savons rien a priori de e−iξ . Nous allons procéder de façon analogue en choisissant la phase des T de façon à rendre leur dépendance en a aussi régulière que possible. Considérons pour cela un “chemin” dans G (figure 1) qui part de l’origine T (0) et dont l’extrémité est l’opérateur T (a). On définit donc un opérateur T [c(t)], fonction de t (0 ≤ t ≤ 1), tel que : T [c(0)] = T (0) T [c(1)] = T (a)

(8)

Pour passer de T [c(t)] à T [c(t + dt)], on peut appliquer un opérateur T infinitésimal (le chemin est continu dans G ) que nous noterons T [v(t) dt] : T [c(t + dt)] = T [v(t) dt] T [c(t)]

(9)

où v(t) est la “vitesse” le long du chemin. Cette relation peut servir à construire dans l’ensemble des T une “image” du chemin considéré. Dans le domaine entourant l’origine considéré plus haut, les T seront simplement les opérateurs déjà choisis pour représenter les T (ceux qui sont proches de 1). Puis, on écrit la relation image de (9) : i T [c(t + dt)] = 1 − v(t) · G dt T [c(t)] ~ 



(10) 129

COMPLÉMENT AIV



Figure 2 – Deux transformations T (a) et T (b) sont atteintes par deux chemins partant de la transformation unité. La transformation produit suit le chemin qui conduit à T (d). Le long des trois chemins, les variations des matrices de représentation sont continues. Les facteurs de phase ne peuvent sauter de la valeur initiale nulle à une autre valeur, et restent donc nuls. Cette relation conduit à sélectionner pour représenter T [c(t + dt)] l’un des N opérateurs T a priori possibles. On effectue aussi un choix de la phase des opérateurs T . Par construction même (continuité d’un produit de matrices), les opérateurs T varient continûment le long du chemin considéré (pas de saut de phase). Nous allons supposer que le groupe G est connexe, et que tout T peut être atteint par un chemin (continu) partant de l’origine. Pour chaque T (a), on choisit un chemin arbitraire dans G , et on définit ainsi par continuité la phase de T (a). Si le groupe G est simplement connexe, tous les chemins d’origine T (0) et d’extrémité T (a) sont homotopes (continûment déformables l’un dans l’autre). Lors d’une déformation continue qui sert à définir T (a), la phase de l’opérateur T (a) ne peut pas sauter discontinûment de 2π/N , ou d’un multiple de cette quantité. Donc, tous les chemins dans G partant de l’origine T (0) et aboutissant à T (a) conduisent à la même définition de T (a). En d’autres termes, il est superflu de préciser quel chemin a été pris pour définir la phase de chaque opérateur T . Dans ces conditions, tous les facteurs de phase ξ sont nécessairement nuls. Considérons en effet dans G deux chemins d’origine T (0) ; le premier de “mobile” Ta (t) aboutissant à T (a), le second de “mobile” Tb (t) aboutissant à T (b) (figure 2). La transformation produit Td (t) = Ta (t) Tb (t) des deux valeurs (au même instant t) des T sur chacun de ces chemins décrit un troisième chemin dans le groupe continu G , d’extrémité T (d). Dans l’ensemble des T , ces trois chemins ont pour image trois chemins continus (où la phase des opérateurs T n’effectue aucun saut), de “mobiles” Ta (t), Tb (t) et Td (t). A priori, on peut avoir : Td (t) = e−iξ Ta (t) Tb (t) 130

(11)

• REPRÉSENTATIONS PROJECTIVES DES GROUPES DE LIE CONNEXES où e−iξ prend l’une des valeurs quelconques (5) ; cependant, comme le produit de deux opérateurs est une fonction continue de ces opérateurs, e−iξ ne peut effectuer de saut discontinu et reste par suite constamment égal à un. Nous avons donc démontré que, pour un groupe G simplement connexe, on peut par une simple redéfinition de la phase des opérateurs T transformer toute représentation projective en “vraie” représentation. 2.

Cas où G est p-connexe

Un groupe connexe G a été défini comme p-connexe s’il existe un nombre maximal de p chemins fermés (lacets) distincts non homotopes partant d’un (et aboutissant à un) même point fixe (note 5 du chapitre III). En d’autres termes, le groupe d’homotopie Π1 du groupe G possède p éléments distincts (cf. chapitre III, § A-1-b). Si l’on considère des chemins non fermés d’origine et d’extrémités fixées, on peut regrouper en une même classe tous les chemins homotopes entre eux et obtenir ainsi p classes distinctes. Nous étudierons au chapitre VI un exemple important de groupe 2-connexe, le groupe R(3) des rotations. Le raisonnement qui a été effectué au § 1 précédent reste valide jusqu’au moment où nous avons examiné l’influence du choix du chemin qui fixe la phase des opérateurs T . Si le groupe est 2-connexe par exemple, la phase de T peut être fixée de deux façons différentes suivant le chemin choisi, (nous raisonnons pour simplifier sur le cas p = 2, mais les résultats se généralisent). Supposons donc que l’on a effectué un tel choix, arbitraire, pour chaque opérateur T (a) associé à T (a). Si l’on reprend le raisonnement du § 1 précédent schématisé sur la figure 2, on voit que deux cas peuvent se produire : • ou bien le “mobile” Td (t) décrit un chemin qui est équivalent à celui qui a défini T (d) ; alors, pour la même raison que précédemment : T (d) = T (a) T (b)

(pas de facteur de phase) ;

• ou bien le chemin décrit appartient à une autre classe (il n’y en a en fait qu’une seule autre puisque nous supposons p = 2) et : T (d) = e−iξ(a,b) T (a) T (b). Dans cette égalité, e−iξ n’est autre que la différence de phase que l’on obtient en choisissant l’une ou l’autre classe de chemin pour définir T (d). Montrons que ξ ne peut prendre que l’une des valeurs : ξ = a,

2π 4π 2π , , . . . , (p − 1) p p p

(12) 131

COMPLÉMENT AIV



c’est-à-dire, si p = 2 : e−iξ = ±1

(13)

Pour cela, considérons deux chemins dans G non équivalents partant de T (0) et aboutissant à T (d) (figure 3). On peut définir un lacet en décrivant le premier chemin puis le second en sens inverse, lacet qui n’est pas homotope à zéro (sinon les deux chemins initiaux seraient homotopes entre eux). On peut comme en (10) construire une image continue dans l’ensemble des T de ce lacet. En premier lieu, on décrit le chemin qui a servi à la définition de

Figure 3 – Deux chemins différents qui mènent de la transformation unité T (0) à T (d) ne sont pas nécessairement équivalents. S’ils le sont, le chemin obtenu en parcourant l’un en sens direct, puis l’autre en sens inverse, est un lacet équivalent à zéro. T (d), puis à rebours l’autre chemin qui connecte par continuité l’identité à e−iξ T (d). Donc, quand le “mobile” du lacet dans G revient à l’origine, celui de l’image continue dans l’ensemble des T revient à la valeur eiξ ×(1) [au lieu de (1)]. Cette image continue est donc en général, non pas un lacet, mais un chemin non fermé. Il est clair qu’une telle situation n’est possible que parce que, par hypothèse, le lacet considéré dans G n’est pas continûment déformable en un chemin nul. Effectuons maintenant dans G deux fois le parcours précédent : on obtient ainsi un nouveau lacet, non homotope du précédent, et donc homotope à zéro si p = 2. Cette fois, l’image dans l’ensemble des T est e2iξ (1) qui ne peut valoir que (1) puisque le nouveau lacet est continûment déformable en un chemin nul. Donc : ξ = 0, π

si

p=2

Le raisonnement se généralise à des valeurs plus élevées de p.

132

(14)



THÉORÈME DE UHLHORN-WIGNER

Complément BIV Théorème de Uhlhorn-Wigner 1

2

Espace réel . . . . . . . . . . . . . . . . . . . . . 1-a Composantes d’un vecteur et de son image . . 1-b La transformation F est linéaire et orthogonale Espace complexe . . . . . . . . . . . . . . . . . . 2-a Fonctions X et Y analytiques de x et y . . . . 2-b Fonctions X ∗ et Y ∗ analytiques de x et y . . .

. . . . . .

. . . . . .

133 134 135 137 137 138

Dans le § B du chapitre IV, nous avons énoncé le théorème de Wigner dans sa forme la plus fréquemment rencontrée, où l’on suppose la conservation de la norme du produit scalaire des vecteurs d’état lors d’une transformation de symétrie. La démonstration de ce théorème a été généralisée par plusieurs auteurs, dont Uhlhorn [22]. Ce dernier a proposé une forme plus générale et rigoureuse du théorème, où la conservation du produit scalaire n’est supposée que dans le cas particulier où il est nul. Ainsi, au lieu de postuler la conservation de toutes les probabilités, on impose seulement la conservation de celles qui sont nulles (indiquant des impossibilités de résultats de mesure). La référence [23] fournit une mise en perspective de la démonstration du théorème de Wigner, ainsi que de généralisations possibles (quaternions). Le but de ce complément est d’introduire la version de Uhlhorn du théorème de Wigner : nous supposerons que deux vecteurs d’état orthogonaux sont transformés en deux autres vecteurs orthogonaux, sans aucune hypothèse sur le cas “oblique” où le produit scalaire est quelconque. Reprenant le § B du chapitre IV, nous considérons donc les transformation des “rayons”, c’est-à-dire des vecteurs de l’espace des états définis modulo un facteur multiplicatif (complexe) près. Notre objectif est de montrer que, si une transformation conserve la nullité de tous les produits scalaires des rayons, alors dans l’espace des états elle est nécessairement équivalente à une transformation, soit unitaire, soit antiunitaire. Afin de rendre la démarche plus intuitive, nous commençons au § 1 par traiter le cas où la transformation agit dans un espace réel, plus facile à visualiser. La généralisation à un espace des états défini sur les complexes suit au § 2. 1.

Espace réel

Dans un espace E sur les réels de dimension N , nous choisissons N vecteurs e1 , e2 , . . . , eN formant une base orthonormée, et définissant un ensemble de N “rayons” orthogonaux (on peut arbitrairement changer le signe 133

COMPLÉMENT BIV



d’un ei quelconque sans modifier le rayon associé, puisque ce dernier reste alors invariant). L’application d’une transformation F conduit aux vecteurs : Fi = F(ei )

(1)

Si nous supposons que F conserve la nullité des produits scalaires, les vecteurs Fi sont également orthogonaux entre eux, et forment donc une autre base du même espace. De plus, tous les vecteurs v du plan engendré par ei et ej sont perpendiculaires à tous les autres vecteurs ek , de sorte que leurs images sont perpendiculaires aux Fk , et appartiennent donc nécessairement au plan engendré par Fi et Fj . Ainsi l’image du plan engendré par deux vecteurs de base est un autre plan, engendré par les images de ces deux vecteurs. De même, l’image de l’espace à 3 dimensions engendré par 3 vecteurs quelconques ei , ej et ek est l’espace à trois dimensions 1 engendré par les trois vecteurs Fi , Fj et Fk . Nous pouvons donc raisonner séparément dans tous les sous-espaces à 3 dimensions de l’espace E. 1-a.

Composantes d’un vecteur et de son image

Choisissant alors l’un de ces sous-espaces, nous appelons ex , ey et ez les vecteurs d’une base, et Ex , Ey et Ez leurs images par F. Le plan xOy, engendré par ex et ey a pour image par F le plan XOZ engendré par Fx et Fy ; de même, les plans yOz et zOx ont pour images respectives Y OZ et ZOX. Dans l’espace engendré par ex , ey et ez , nous convenons alors de repérer tout "rayon" par le vecteur v de composantes x et y telles que : v = xex + yey + ez

(2)

En d’autres termes, puisque v est a priori défini à un facteur près, nous lui attribuons par convention une composante unité sur la direction uz . Nous adoptons la même convention pour les vecteurs images, associés aux transformés des rayons correspondants. L’image v est donc le vecteur V que nous écrivons : V = X(x, y)Ex + Y (x, y)Ey + Fz

(3)

La transformation F est alors caractérisée par les fonctions X(x, y) et Y (x, y). Les propriétés de conservation par la transformation font que ces deux fonctions ne sont pas quelconques : nous allons voir que X ne peut dépendre

1. Si l’on appelle U la transformation unitaire telle que U Fi = ei , la transformation U F laisse invariants tous les sous-espaces engendrés par des sous-ensembles quelconques de vecteurs ei , par exemple les sous-espaces à 3 dimensions engendrés par 3 vecteurs ei .

134



THÉORÈME DE UHLHORN-WIGNER

que de x, et que Y ne peut dépendre que de y. Pour le montrer, considérons le vecteur du plan yOz : v0 = yey + ez

(4)

où nous supposons que y 6= 0, de sorte que ce vecteur ne coïncide pas avec ez . Le vecteur w0 perpendiculaire dans le plan yOz s’écrit : 1 w0 = − ey + ez y

(5)

Les images de ces deux vecteurs par F sont dans le plan yOz et perpendiculaires entre elles, de sorte que : V0 = Y1 (y, 0)Ey + Ez 1 W0 =− Ey + E z Y1 (y, 0)

(6)

D’autre part, le vecteur v écrit en (2) est perpendiculaire à w0 , de sorte que son image V doit rester perpendiculaire à W0 . Il s’ensuit que : Y (x, y) = Y1 (y, 0)

(7)

Ainsi Y (x, y) ne dépend pas de x, mais seulement de y. On montre de même que X(x, y) ne dépend pas de y. La relation (3) se simplifie donc en : V = X(x)Fx + Y (y)Fy + Fz 1-b.

(8)

La transformation F est linéaire et orthogonale

Considérons deux vecteurs v1 , de composantes x1 et y1 , et v2 de composantes x2 et y2 . La condition de conservation par F de la nullité du produit scalaire signifie que la relation d’orthogonalité de v1 et v2 : x1 x2 + y1 y2 + 1 = 0

(9)

entraîne nécessairement celle des images de ces vecteurs : X(x1 )X(x2 ) + Y (y1 )Y (y2 ) + 1 = 0

(10)

Lorsque les 4 variables x1 , x2 , y1 et y2 varient, tout en restant liées par la relation (9), un multiplicateur de Lagrange λ permet d’écrire la condition de stationnarité de ce produit scalaire : ˙ 1 )X(x2 ) + λx2 = 0 X(x ˙ 2 ) + λx1 = 0 X(x1 )X(x Y˙ (y1 )Y (y2 ) + λy2 = 0 ˙ 2 ) + λy1 = 0 Y (x1 )X((y

(11) 135

COMPLÉMENT BIV



où un point sur l’une des deux fonctions X ou Y indique une dérivation par rapport à sa variable. Si maintenant nous éliminons λ entre les deux premières équations, nous obtenons : ˙ 1 )X(x2 ) ˙ 2) X(x X(x1 )X(x = (12) x2 x1 soit : ˙ 1) ˙ 2) x1 X(x x2 X(x = (13) X(x1 ) X(x2 ) ˙ Nous voyons ainsi que la fonction xX(x)/X(x) est nécessairement indépendante de x, ce qui nous conduit à l’équation différentielle : ˙ X(x) n = (14) X(x) x où n est un coefficient constant. La solution de cette équation s’écrit : X(x) = µxn

(15)

où µ est une autre constante. On montre de même que : Y (y) = νxp

(16)

où p et ν sont deux autres constantes. Mais la relation (9) peut s’écrire : y1 y2 = −1 − x1 x2

(17)

qui doit conduire à la condition initiale de stationnarité : µ(x1 x2 )n + ν(−1 − x1 x2 )p = constante

(18)

On voit alors facilement que cette condition implique que n = p = 1 et µ = ν. Les fonctions X et Y ont donc les expressions simples : X(x) = x Y (y) = y

(19)

Les composantes du vecteur image V sur les vecteurs Ex et Ey sont donc égales à celles du vecteur v sur ex et ey . Réciproquement, il est trivial de vérifier que la relation (9) entraîne alors la relation (10). La transformation unique obtenue F est orthogonale ; elle ne change pas la direction des vecteurs si on les repère dans deux bases différentes, une première et son image. Remarques : (i) Nous avons exclu dans notre raisonnement les vecteurs du plan xOy. Pour les inclure, il suffit de reprendre le même raisonnement après avoir effectué une permutation circulaire des axes. (ii) La démonstration que nous avons effectuée est limitée à un sousespace de dimension 3. Il suffit cependant de la répéter dans tous les sousespaces pour la généraliser à l’ensemble de l’espace de départ. 136

• 2.

THÉORÈME DE UHLHORN-WIGNER

Espace complexe

Si l’espace étudié est défini sur les complexes, comme c’est bien sûr le cas pour l’espace des états en mécanique quantique, les composantes x et y ainsi que les fonctions X et Y deviennent des nombres complexes. Les raisonnements du § 1-a restent valables, à condition de remplacer (9) par : x∗1 x2 + y1∗ y2 + 1 = 0

(20)

Lorsque les parties réelles et imaginaires des 4 variables x1 , x2 , y1 et y2 varient, il s’agit maintenant de rendre stationnaire la fonction complexe : G = X ∗ (x1 )X(x2 ) + Y ∗ (y1 )Y (y2 ) + 1 + λ [x∗1 x2 + y1∗ y2 + 1]

(21)

où λ est un multiplicateur de Lagrange complexe. Ecrire cette stationnarité conduit à dériver cette expression, alors que des fonctions de variables complexes ne sont pas nécessairement dérivables. Elles le sont cependant si les fonctions complexes qui y apparaissent sont analytiques, c’est-à-dire si elles satisfont aux conditions de Cauchy-Riemann dans un certain domaine. Nous allons envisager deux possibilités. 2-a.

Fonctions X et Y analytiques de x et y

Dans un premier temps, nous supposons que les fonctions complexes X(x) et Y (y) sont des fonctions analytiques des variables x et y respectivement. La variation de la fonction (21) s’écrit alors : h

i

h

i

˙ 1 )dx1 ]∗ X(x2 ) + λx2 dx∗1 + [X(x1 )]∗ X(x ˙ 2 ) + λx∗ dx2 dG = [X(x 1 h

i

h

i

+ [Y˙ (y1 )dy1 ]∗ Y (y2 ) + λy2 dy1∗ + [Y (y1 )]∗ Y˙ (y2 ) + λy1∗ dy2

(22)

La nullité de cette variation lorsque dx1 et dx2 sont des complexes infinitésimaux quelconques conduit aux relations : ˙ 1 )]∗ X(x2 ) + λx2 = 0 [X(x ˙ 2 ) + λx∗ = 0 [X(x1 )]∗ X(x 1

(23)

qui remplacent les deux premières équations (11). Par élimination de λ, il vient : ˙ 1 )]∗ X(x2 ) ˙ 2) [X(x [X(x1 )]∗ X(x = ∗ x2 x1

(24)

soit : ˙ 1 )]∗ ˙ 2) x∗1 [X(x x2 X(x = [X(x1 )]∗ X(x2 )

(25) 137

COMPLÉMENT BIV



˙ Le rapport xX(x)/X(x) doit être indépendant de x, et de plus réel. Il en découle que : ˙ xX(x) = nX(x)

(26)

où n est une constante réelle. On peut alors développer la fonction X(x) en série de Laurent (série dont chaque terme contient une puissance entière de x, positive ou négative). Le report dans (23) montre alors qu’une seule puissance de x permet de satisfaire l’équation (26) ; la série de Laurent comprend alors un seul terme, de puissance n (ce qui montre au passage que n doit être entier dans (26)) : X(x) = µxn

(27)

La relation (15) reste donc valable dans le domaine complexe, ainsi bien sûr que (16). La suite du raisonnement est la même, et l’on obtient à nouveau les relations (19), étendues aux variables complexes x et y. La conclusion est alors que la transformation F est équivalente à une transformation unitaire. 2-b.

Fonctions X ∗ et Y ∗ analytiques de x et y

Inversement, nous pouvons également supposer que X ∗ (x) est une fonction analytique de x, ce qui est d’ailleurs équivalent à supposer que X(x∗ ) est une fonction analytique de x∗ (mais pas à l’hypothèse du § 2-a puisque des signes sont changés dans les relations de Cauchy-Riemann). Nous pourrions recommencer le même raisonnement, en dérivant cette fois la fonction X ∗ (x) au lieu de X(x). Mais il est plus simple de changer de fonctions en posant A(x) = X ∗ (x) et B(x) = Y ∗ (x). Comme la relation d’orthogonalité entre les images par F de deux vecteurs s’exprime de la même façon avec les deux ensembles de fonctions, le problème se ramène alors à celui du § 2-a, après remplacement de X(x) par A(x) et de Y (x) par B(x). Nous avons donc : A(x) = x = X ∗ (x)

(28)

ainsi qu’une relation semblable pour B(y) = Y ∗ (y). Nous arrivons cette fois à la conclusion que : X(x) = x∗ Y (y) = y ∗

(29)

Il suffit donc de remplacer les variables x et y par leurs complexes conjuguées pour retrouver des résultats précédents. Dans ce cas, F est équivalent à une transformation antiunitaire. En résumé de ce complément, il est possible de retrouver les conclusions du théorème de Wigner en se contentant de supposer la conservation des modules des produits scalaires lorsqu’ils sont nuls. 138

Chapitre V

Représentations des groupes de Galilée et de Poincaré : masse, spin et énergie A

B

Groupe de Galilée . . . . . . . . . . . . . . . . . . . A-1 Généralités . . . . . . . . . . . . . . . . . . . . . . A-2 Groupe euclidien (déplacements) . . . . . . . . . . A-3 Simplification maximale des relations de commutation . . . . . . . . . . . . . . . . . . . . . . . . . A-4 Algèbre de Lie étendue après simplification ; masse, énergie interne et spin . . . . . . . . . . . . . . . . Groupe de Poincaré . . . . . . . . . . . . . . . . . . B-1 Elimination des opérateurs diagonaux . . . . . . . B-2 La masse, l’énergie et le spin . . . . . . . . . . . . B-3 Particule de masse nulle . . . . . . . . . . . . . . . B-4 Transformations finies . . . . . . . . . . . . . . . .

141 141 142 144 146 154 154 156 165 169

Dans ce chapitre, nous appliquons les résultats du chapitre précédent à l’étude des représentations projectives des groupes de Galilée et de Poincaré, déjà introduits au § C du chapitre III. Ce sont les groupes fondamentaux qui définissent la structure de l’espace-temps, soit pour le premier en point de vue (isochrone) de Galilée, soit pour le second dans le point de vue relativiste d’Einstein. A partir d’hypothèses très générales, nous verrons que la structure même de ces groupes permet de montrer qu’un système physique élémentaire possède un certain nombre de caractéristiques universelles : une masse, un spin, et une énergie, ainsi que d’autres grandeurs physiques dont les relations entre elles découlent de la nature du goupe relativiste retenu, que ce soit Galilée ou Poincaré.

CHAPITRE V

REPRÉSENTATIONS DES GROUPES DE GALILÉE ET DE POINCARÉ

Ceci donne à la mécanique quantique une cohérence interne liée à celle de l’espace-temps, et non pas à des analogies plus ou moins précises avec la mécanique classique (comme l’analogie entre le spin et la rotation d’un objet classique non ponctuel qui tourne sur lui-même) ou des “règles de quantification”. Les hypothèses qui sont faites portent sur les transformations de repères d’observation, qui sont macroscopiques. Elles ne supposent donc rien a priori des propriétés de l’objet quantique étudié (que ce soit une ou plusieurs particules, un champ, etc., un système microscopique ou non), et pourtant conduisent à des résultats importants et universels concernant la structure de son espace des états quantiques. Nous avons obtenu au § C du chapitre III les relations de commutation entre opérateurs des algèbres de Lie des groupes de Galilée et de Poincaré. Au chapitre IV nous avons établi les égalités (IV-65), à partir desquelles il est simple de déduire les relations de commutation entre générateurs infinitésimaux G agissant dans l’espace des états. Cependant, la relation (IV-65) n’est valable que pour une représentation “vraie” (non projective). Or nous avons vu que les représentations projectives sont physiquement parfaitement acceptables, du fait de l’absence d’influence d’un facteur de phase globale du vecteur d’état sur les propriétés physiques du système. Il faut donc utiliser la relation (IV-82) plus générale : [Gi , Gj ] = i~

X

k Cij Gk + i~2 βij

(V-1)

k

où, en plus du terme faisant intervenir au second membre les constantes de k , il faut tenir compte de la présence des coefficients : structure du groupe Cij βij = γij − γji

(V-2)

L’effet de ces coefficients est, en quelque sorte, d’étendre l’algèbre de Lie du groupe en lui adjoignant l’opérateur identité 1. Nous avons cependant noté que les βij ne sont pas quelconques, mais qu’ils doivent satisfaire à la relation (IV-92) : Xn

o

` ` ` β`i Cjk + β`j Cki + β`k Cij =0

∀ i, j, k

(V-3)

`

Dans ce chapitre, nous allons montrer qu’une telle relation permet d’éliminer la plupart des coefficients β pour le groupe de Galilée (§ A), et même l’ensemble pour le groupe de Poincaré (§ B). Dans le premier cas, les coefficients β qui subsistent jouent cependant un rôle particulièrement important, puisqu’ils permettent de satisfaire les relations de commutation canoniques entre position et impulsion. Dans les deux cas, nous verrons également comment introduire de façon très générale la notion d’opérateur de spin. 140

A. GROUPE DE GALILÉE

A.

Groupe de Galilée

A-1.

Généralités

Combinant les relations de commutation (III-100), qui donnent les k , avec la relation (V-1) qui indique comment les constantes de structure Cij étendre à une représentation projective, nous obtenons : i h  J , J = i~ εijk Jxk + i~ Aij  x x i j     h i

J ,P

(V-4a)

= i~ εijk Pxk + i~ Bij

(V-4b)

i~ Dij

(V-4c)

i h  J , K  xi xj = i~ εijk Kxk + i~ Nij     h i

(V-5a)

xi xj     h i    P ,P xi xj =

P ,K

=

xi xj     h i    K ,K xi xj =

 [J , H] =    

[P , H] =

   

[K, H] = −i~ P

i~ Mij

(V-5b)

i~ Qij

(V-5c)

i~ V

(V-6a)

i~ W

(V-6b)

+ i~ Z

(V-6c)

Dans ces égalités, les opérateurs J , P , K et H correspondent 1 aux opérateurs infinitésimaux XJ , XP , XK et XH . Par exemple : i XJ ⇒ − J ~

(V-7)

Selon la notation habituelle, εijk = ±1 selon que les indices i, j et k sont une permutation paire ou impaire de 1,2,3, et εijk = 0 si deux (au moins) de ces indices sont égaux. Les relations (V-4) et (V-5) sont écrites en sous-entendant au second membre une sommation sur k des termes en εijk (sommation sur l’indice muet répété k) ; cette omission est naturelle du fait que la sommation comprend en réalité, soit un seul terme non nul (si i 6= j), soit aucun (si i = j). Quant aux nombres Aij , Bij , . . . et aux vecteurs V , W et Z, ce sont simplement des notations plus commodes pour les coefficients βij qui figurent dans (IV-82), et qui traduisent la présence d’opérateurs scalaires introduits par le caractère projectif de la représentation. 1. Dans la remarque de la page 90 nous avons commenté l’origine du signe moins dans le second membre de (V-6). Voir également la note 2 du chapitre VI.

141

CHAPITRE V

REPRÉSENTATIONS DES GROUPES DE GALILÉE ET DE POINCARÉ

Le fait que [Jx , Jy ] = −[Jy , Jx ] entraîne que A1 2 = −A2 1 ; de façon générale, on voit facilement que les coefficients Aij possèdent la propriété d’antisymétrie : Aij = −Aji

(V-8)

(en particulier, les Aii sont nuls). Si nous définissons un vecteur A par 2 : Ax = A2 3 = −A3 2 Ay = A3 1 = −A1 3 Az = A1 2 = −A2 1

(V-9)

nous pouvons mettre les égalités (V-4a) sous la forme : h

i

Jxi , Jxj = i~ εijk (Jxk + Axk )

(V-10)

On peut alors substituer à J l’opérateur J 0 défini par : J0 = J + A

(V-11)

ce qui revient à redéfinir J en lui ajoutant un opérateur diagonal (proportionnel à l’opérateur unité). Une telle opération ne change évidemment pas les commutateurs des relations (V-4) à (V-6), où l’on peut simplement remplacer J par J 0 ; elle fait cependant disparaître la constante A du second membre de (V-4a). Dans la suite, nous supposerons que cette redéfinition de J a été déjà effectuée, ce qui évite d’introduire une nouvelle notation J 0 . Le même raisonnement ne s’applique pas à la relation (V-4c) pour éliminer les constantes D, puisque Pxk ne figure pas au second membre. De même, on pourrait tenter d’éliminer de façon analogue les coefficients B ou N par une simple redéfinition de P ou K, mais le raisonnement précédent ne s’applique pas : rien ne garantit une propriété d’antisymétrie des constantes d’extension, comme en (V-8). Il nous faut donc recourir à une autre méthode, fondée sur l’utilisation de la contrainte (V-3) qui relie constantes de structure et d’extension de l’algèbre. Nous commençons par le sous-groupe des déplacements. A-2.

Groupe euclidien (déplacements)

Les trois relations (V-4) concernent les relations de commutation d’une représentation projective du groupe des déplacements géométriques. Dans la contrainte (V-3), nous sommes libres de fixer les valeurs de i, j et k. Pour y faire apparaître un coefficient donné βqs il faut (par exemple) prendre i = s, 2. A trois dimensions, un tenseur antisymétrique du second ordre est équivalent à un vecteur ; cf. Complément AVIII .

142

A. GROUPE DE GALILÉE

et pour j et k deux indices tels que le commutateur des opérateurs Gj et Gk ait une composante sur Gq . Dans la sommation sur `, le coefficient β`i prend q ainsi la valeur cherchée avec un coefficient Cjk non nul. Les calculs qui suivent ne sont pas difficiles, mais quelque peu répétitifs. Le lecteur est donc invité à ne pas hésiter à sauter les passages en plus petits caractères, au moins pour une première lecture. • Pour obtenir une relation où intervienne βPx Py , nous choisissons : i

Py

(V-12a)

Nous désirons que l’indice ` de β`i corresponde à une autre composante de P . Pour ` que la constante de structure Cjk ne soit pas nulle, il faut utiliser la seule relation de commutation où P apparaisse au second membre, soit (V-4b). Nous posons donc : j

Pz

k

Jy

(V-12b)

ce qui revient à utiliser le fait que :  −1 si G` = Px CPGz` Jy = 0 sinon

(V-13)

De plus, seul le premier des trois termes dans (V-3) n’est pas nul car, parmi les trois opérateurs sélectionnés en (V-12), seuls Pz et Jy ne commutent pas ; les autres constantes de structure sont donc nulles. Il nous reste donc : βPx Py = D1 2 = 0

(V-14)

Par permutation circulaire des indices x, y et z, les Dii étant nuls par définition, on constate que tous les D sont nuls. • Pour éliminer les constantes Bij , commençons par celles pour lesquelles i 6= j en choisissant : i

Py

j

Jy

k

Jz

Comme : CJGy`Jz = CJGz`Py =



1 0



−1 si G` = Px 0 sinon

si G` = Jx sinon

CPGy` Jy = 0 il vient : βJx Py − βPx Jy = 0

(V-15a)

c’est-à-dire : B1 2 = −B2 1

(V-15b)

143

CHAPITRE V

REPRÉSENTATIONS DES GROUPES DE GALILÉE ET DE POINCARÉ

On montre de même que tous les éléments non-diagonaux B sont antisymétriques. • Montrons maintenant que les éléments diagonaux Bii sont nuls. Pour cela, choisissons la correspondance : i

Jx

j

Jy

k

Pz

Comme : ( CJGy`Pz = CPGz` Jx = CJGx` Jy =

1

si G` = Px

0

sinon



1 0

si G` = Py sinon



1 0

si G` = Jz sinon

il vient : βPx Jx + βPy Jy + βJz Pz = βPx Jx + βPy Jy − βPz Jz = 0

(V-16a)

Par permutation circulaire des indices x, y et z, on obtient de même : βPy Jy + βPz Jz − βPx Jx = 0

(V-16b)

βPz Jz + βPx Jx − βPy Jy = 0

(V-16c)

Les trois équations linéaires (V-16) imposent ainsi aux βPi Ji d’être nuls.

Ainsi, pour le groupe des déplacements géométriques, toute représentation projective se ramène à une “vraie” représentation, moyennant une redéfinition éventuelle des opérateurs par addition de constantes. A-3.

Simplification maximale des relations de commutation

Continuons le même type de calcul pour les autres relations de commutation. • Nous remarquons que le groupe des trois équations (V-4a), (V-5a) et (V-5c) a la même structure que le groupe des trois équations (V-4), l’opérateur K remplaçant P . Il est donc possible d’utiliser le même raisonnement dans les deux cas, et d’annuler les constantes d’extension N et Q dans les relations de commutation entre J et K. • Examinons maintenant la relation (V-6a) en choisissant : i

H

j

Jx

k

Jy

La seule constante de structure correspondant à la commutation de deux de ces opérateurs est CJJyz Jx de sorte que la relation (V-3) devient simplement : βJ z H = V z = 0

144

(V-17)

A. GROUPE DE GALILÉE

Donc V est nécessairement nul. Intuitivement, ceci se comprend bien car l’invariance par rotation serait violée par un choix de la direction de V , nécessairement arbitraire. • De façon analogue pour la relation (V-6b), le choix : i

H

j

Jx

k

Py

conduit à : βPz H = Wz = 0

(V-18)

et W disparaît donc pour les mêmes raisons que V . • Pour la relation (V-6c), si l’on pose : i

H

j

Jx

k

Ky

on obtient : P

βKz H CJKxzKy + βPy Jx CKyy H = βKz H + βPy Jx = 0

(V-19)

Mais comme nous avons vu que βPy Jx est nul, il s’ensuit que : βKz H = Zz = 0

(V-20)

Nous avons gardé la relation (V-5b) pour la fin car, comme nous allons le voir, il s’agit d’un cas particulièrement intéressant où toutes les constantes M ne disparaissent pas. Celles d’entre elles qui concernent deux indices différents sont bien nulles ; par exemple, le choix : i

Px

j

Jx

k

Kz

conduit à : βKy Px = −M2 1 = 0

(V-21)

Mais si nous essayons d’appliquer la même méthode en prenant : i

Px

j

Jy

k

Kz

nous obtenons (comme, ni le commutateur de XJy et XKz , ni celui de XPx et XJy ne sont nuls) : βKx Px + βPz Kz = 0

soit :

βKx Px = βKz Pz

(V-22)

Donc (par permutation circulaire) : Mxx = Myy = Mzz = M

(V-23)

Les axes x, y et z étant équivalents, il est normal que ces trois valeurs soient égales. Par contre, il n’est pas possible de démontrer la nullité de M dans le cas général. 145

CHAPITRE V

REPRÉSENTATIONS DES GROUPES DE GALILÉE ET DE POINCARÉ

Remarques : (i) Cette impossibilité n’est pas surprenante : nous avons déjà vu [cf. par exemple relation (I-51) ou la remarque à la fin du § C-1 du chapitre III] que K est lié à la position du centre de masse du système quantique étudié. Or nous savons que, pour une particule sans spin par exemple : [Xi , Pj ] = i~ δij qui correspond bien à Mij ∝ δij . (ii) Si M est négatif, on peut le ramener à une valeur positive par un changement du signe des opérateurs K etH. A-4.

Algèbre de Lie étendue après simplification ; masse, énergie interne et spin

Résumons les relations de commutation obtenues : i h  J , J = i~ εijk Jxk  x x i j     h i

J ,P

= i~ εijk Pxk

xi xj     h i    P ,P xi xj = 0

i h  Jxi , Kxj = i~ εijk Kxk      h i

P ,K

= i~ M δij

(V-24a) (V-24b) (V-24c)

(V-25a)

xi xj     h i    K ,K xi xj = 0

(V-25b)

 [H, J ] = 0    

(V-26a)

   

(V-25c)

[H, P ] = 0

(V-26b)

[H, K] = i~ P

(V-26c)

Ce sont, après extension (et simplification maximale), les relations de commutation de l’algèbre de Lie du groupe de Galilée. Les égalités (V-24a), (V-24b) et (V-25a) expriment que J , P et K sont des opérateurs vectoriels (cf. chapitre VIII) ; H est scalaire (invariant par rotation) d’après (V-26a), et (V-26b) indique que c’est un opérateur invariant par translation. A-4-a.

Masse, énergie interne

Cherchons à construire des opérateurs qui commutent avec tous les opérateurs J , P , K et H. En premier lieu, nous avons bien sûr l’opérateur 146

A. GROUPE DE GALILÉE

M = m × 1, que nous identifions avec la masse totale du système. Introduisons ensuite l’opérateur : P 2 = Px2 + Py2 + Pz2

(V-27)

Il commute avec P [cf. (V-24c)] et avec J puisque le commutateur de Py2 avec Jx s’écrit : h

i

Py2 , Jx = Py [Py , Jx ] + [Py , Jx ] Py = −i~ (Py Pz + Pz Py )

(V-28)

alors que le commutateur de Pz2 avec Jx prend la valeur opposée : h

i

Pz2 , Jx = Pz [Pz , Jx ] + [Pz , Jx ] Pz = i~ (Pz Py + Py Pz )

(V-29)

Son commutateur avec H est également nul d’après (V-26b). Enfin, compte tenu de (V-25b) : h

i

Px2 , Kx = Px [Px , Kx ] + [Px , Kx ] Px = 2M i~ Px

(V-30)

L’opérateur H possède des propriétés similaires, puisqu’il commute aussi avec J , P , bien sûr avec lui-même, mais pas avec K. Comparant (V-26c) et (V-30) nous voyons que, pour construire un opérateur commutant avec tous les autres, il suffit de poser : Ui = H −

P2 2M

(V-31a)

La signification physique de l’équation : H=

P2 + Ui 2M

(V-31b)

est simple : la constante M étant la masse totale du système, P 2 /2M s’identifie à son énergie cinétique de translation globale, et Ui à son énergie interne. Il est satisfaisant de constater que, ni H, ni l’énergie cinétique P 2 /2M ne sont les mêmes dans deux référentiels galiléens différents, mais que leur différence est un invariant (énergie de rotation d’un solide sur lui-même pour prendre un exemple en mécanique classique). Le repère dans lequel l’énergie du système est minimale est celui où l’impulsion P est nulle. A-4-b.

Moment cinétique orbital

Pour trouver un autre invariant, introduisons l’opérateur L (opérateur à trois composantes) par : L = (P × K) /M

(V-32) 147

CHAPITRE V

REPRÉSENTATIONS DES GROUPES DE GALILÉE ET DE POINCARÉ

Nous obtiendrons en (V-49) une relation entre l’opérateur K et l’opérateur position R qui permet de s’assurer que cette définition coïncide avec la définition habituelle du moment cinétique orbital. Les relations de commutation entre composantes de L sont données par : [Lx , Ly ] = M −2 [Ky Pz − Kz Py , Kz Px − Kx Pz ] = M −2 [Ky Pz , Kz Px ] + M −2 [Kz Py , Kx Pz ] i~ i~ = Ky Px − Py Kx = i~ Lz (V-33) M M [On a utilisé (V-25b), (V-24c) et (V-25c)]. L’opérateur L possède donc des relations d’autocommutation qui ont les mêmes propriétés que celles de J . Le même type de calcul donne : [Lx , Jx ] ∝ Py [Kz , Jx ] + [Py , Jx ] Kz − Pz [Ky , Jx ] − [Pz , Jx ] Ky = 0 (V-34a) et : 1 1 1 1 Py [Kz , Jy ] + [Py , Jy ] Kz − Pz [Ky , Jy ] − [Pz , Jy ] Ky M M M M i~ = (Px Ky − Py Kx ) (V-34b) M Donc, nous obtenons : [Lx , Jy ] =

h

i

Jxi , Lxj = i~ εijk Lxk

(V-34c)

qui est analogue à (V-24a), et exprime que L se transforme par rotation comme un vecteur. Il vient également : 1 [Lx , Kx ] = [Py Kz − Pz Ky , Kx ] = 0 M 1 [Lx , Ky ] = [Py Kz , Ky ] = i~ Kz M de sorte que :   Kxi , Lxj = i~ εijk Kxk qui est l’analogue de (V-25a). De la même façon, on trouve :   Lxi , Pxj = i~ εijk Pxk

(V-35)

(V-36)

(V-37)

qui est semblable à (V-24b). Enfin : [Lx , H] =

1 1 1 1 [Py , H] Kz + Py [Kz , H] − [Pz , H] Ky − Pz [Ky , H] M M M M (V-38)

=

i~ (Pz Py − Py Pz ) = 0 M

(V-39)

Les opérateurs L et J sont donc de natures semblables ; leurs composantes ne commutent pas entre elles, ni avec P et K, mais commutent avec H. 148

A. GROUPE DE GALILÉE

A-4-c.

Spin

A partir de L et J , il est facile de construire un opérateur S qui commute avec P , K et H ; on utilise le fait que les seconds membres des équations (V-24b) et (V-37) d’une part, de (V-25a) et (V-36) d’autre part, sont identiques, pour poser : S =J −L

(V-40)

de sorte que : [S, P ] = [S, K] = 0

(V-41)

De plus : h

i

h

i

Sxi , Jxj = Jxi − Lxi , Jxj = i~ εijk (Jxk − Lxk ) = i~ εijk Sxk

(V-42)

et, de même : h

i

h

i

Sxi , Sxj = Jxi − Lxi , Jxj − Lxj = i~ εijk (Jxk − Lxk − Lxk + Lxk ) = i~ εijk Sxk

(V-43)

Par ses relations d’autocommutation, S est donc un opérateur de même nature que J ou L (moment cinétique). Enfin, puisque L ∝ P × K et que S commute avec K et P , on a : [S, L] = 0

(V-44)

et, puisque H commute avec J et L : [S, H] = 0

(V-45)

Excepté J , l’opérateur S commute donc avec tous les autres opérateurs de l’algèbre de Lie, mais les différentes composantes de S ne commutent pas entre elles. Le moment cinétique J du système apparaît donc comme la somme L + S de deux contributions dont la seconde n’est affectée, ni par une translation, ni par un changement de repère galiléen (transformation de Galilée pure). On identifie donc S au moment cinétique interne, ou spin du système physique ; l’opérateur L correspond alors au moment cinétique orbital associé au mouvement du centre de masse. A ce stade, on peut construire l’opérateur de moment cinétique de spin S2 : S 2 = Sx2 + Sy2 + Sz2

(V-46)

Un calcul élémentaire montre que S 2 commute également avec J et S, et donc tous les opérateurs introduits jusqu’ici (P , J , K, L, S et H). 149

CHAPITRE V

A-4-d.

REPRÉSENTATIONS DES GROUPES DE GALILÉE ET DE POINCARÉ

Représentations irréductibles des systèmes physiques élémentaires

En tout, nous avons ainsi introduit trois opérateurs : M,

S2

Ui ,

(V-47)

Pour toute représentation (projective) irréductible du groupe de Galilée, ces opérateurs sont des opérateurs diagonaux dont tous les éléments de matrice sont égaux : dans le cas contraire, l’espace de représentation serait la somme directe de sous-espaces associés à des valeurs propres différentes, alors qu’aucune transformation du groupe de Galilée n’aurait d’élément de matrice entre sous-espaces distincts ; la représentation serait donc réductible. Il est naturel de postuler (Wigner) que, si le système considéré est un système élémentaire, la structure de sous-espace des états est aussi simple que possible et fournit une représentation irréductible du groupe de symétries considérées (sinon, l’espace des états serait la somme directe de deux sousespaces plus simples). Ainsi, nous voyons que la masse, l’énergie interne et le spin d’une particule élémentaire constituent des propriétés fondamentales de la particule (elles ne dépendent pas du référentiel d’observation). Dans l’espace des états, les trois composantes de P , l’énergie H et une composante Sz de S forment un ensemble d’opérateurs qui commutent et possèdent donc une base commune de vecteurs propres. Le raisonnement qui nous a conduits à ces conclusions est très général : à aucun instant nous ne sommes partis d’une description classique du système étudié (point matériel, lagrangien ou hamiltonien classiques, règles de quantification canoniques, etc.) pour ensuite les quantifier par telle ou telle méthode particulière. D’ailleurs, une approche classique ne nous aurait probablement pas conduits à attribuer un spin à une particule élémentaire : en mécanique classique, le moment cinétique interne n’existe que pour un système étendu comprenant plusieurs points matériels, c’est-à-dire un système composé d’autres systèmes plus élémentaires ; de plus, on sait que le spin demi-entier de l’électron n’a pas d’analogue classique. En plus d’hypothèses générales sur l’existence d’un espace vectoriel des états (principe de superposition, etc.), nous n’avons postulé que des propriétés concernant l’espace-temps. La structure du groupe de transformations introduites reflète en réalité, non pas des propriétés de transformation du système étudié luimême (supposé “passif” dans un changement de repère), mais la façon dont nous concevons des changements macroscopiques de repère et d’horloge. A-4-e.

Opérateur position

Jusqu’ici, nous n’avons pas introduit d’opérateur position R pour le système physique. Nous remarquons cependant que les relations (V-25b) rappellent fortement les relations de commutation canoniques : h

i

Rxi , Pxj = i~ δij

150

(V-48)

A. GROUPE DE GALILÉE

Comme nous le verrons plus en détail dans le § A-1-a du chapitre VI ces relations sont, elles aussi, fondamentales : elles traduisent la façon dont la position d’un objet est déplacée par une translation, ce qui est intimement relié à la définition même d’une translation. Il est donc naturel de rendre identiques ces deux relations fondamentales en posant : R=−

K M

(V-49)

(nous revenons plus en détail sur l’origine de cette relation au § A-1-a-β du chapitre VI). Cette égalité constitue donc la définition de l’opérateur position dans le cadre du groupe de Galilée. Remarques : (i) La présence du signe moins dans la définition (V-49) de la position, alors qu’aucun signe n’intervient dans la définition de l’impulsion, n’est en fait pas surprenante. Le signe de K est fixé par la définition générale (IV-54), qui contient un facteur −i/~ pour tous les opérateurs de représentation du groupe. Ainsi, pour une particule unique sans spin, l’opération de translation de +a transforme-t-elle la fonction d’onde initiale Ψ(r) en : Ψ0 (r) = Ψ(r − a) = hr|e−ia·P /~ |Ψi

(V-50)

Quant à l’opération qui augmente la vitesse d’une valeur v0 , elle multiplie la fonction d’onde par une exponentielle e+ik0 ·r avec k0 = M v0 /~, de sorte que la fonction d’onde devient Ψ00 (r) : Ψ00 (r) = e+iM v0 ·r/~ Ψ(r)

(V-51)

Des exponentielles de signe opposé figurent dans (V-50) et (V-51), et nous retrouvons ainsi l’origine du signe et du coefficient de (V-49). (ii) Si nous appliquons les raisonnements précédents à la recherche des représentations non projectives du groupe de Galilée, il suffit de faire M = 0 dans toutes les égalités obtenues. Dans ces conditions, l’opérateur R de (V49) n’est plus défini et les relations canoniques (V-48) ne peuvent plus être écrites 3 . On voit combien il est important de ne pas éliminer les représentations projectives du groupe de Galilée si l’on veut arriver à des résultats physiquement satisfaisants. 3. Si M = 0, il vient [P , K] = 0, les relations [P , H] = 0 et [K, H] = i~ P restant inchangées. Considérons un vecteur propre commun à P et H, de valeurs propres p et E : P |ϕi = p|ϕi

H|ϕi = E|ϕi i ~



Le ket |χi = 1 − δv0 · K |ϕi est un vecteur propre de même valeur propre p pour P , mais de valeur propre E − δv0 · p pour H. Donc, pour les représentations de M = 0 du groupe de Galilée, le spectre de H n’est borné, ni inférieurement, ni supérieurement, ce qui n’est pas non plus physiquement satisfaisant.

151

CHAPITRE V

A-4-f.

REPRÉSENTATIONS DES GROUPES DE GALILÉE ET DE POINCARÉ

Absence d’autres invariants

Nous avons vu qu’une représentation (projective) unitaire irréductible du groupe de Galilée est associée à des valeurs données de M , U et S, qui sont interprétées comme des propriétés fondamentales d’une particule élémentaire. Nous n’avons cependant pas cherché à savoir si cette liste est complète : M , U et S suffisent-ils à caractériser toutes les représentations (projectives) unitaires irréductibles du groupe de Galilée, ou faut-il leur adjoindre d’autres opérateurs qui commutent également avec tous les éléments de son algèbre de Lie ? Nous allons montrer ici que la donnée de M , U et S est effectivement suffisante. Soit E l’espace vectoriel de représentation (espace des états de la particule). Les composantes de l’opérateur P commutant entre elles, on peut introduire les sous-espaces Ep , engendrés par les vecteurs propres communs aux trois composantes de P de valeurs propres px , py et pz (composantes de p). L’un de ces sous-espaces, Ep=0 , est associé à la valeur propre p = 0. D’autre part, nous avons vu en (V-32) et (V-40) que : J =−

1 K ×P +S M

[d’après (V-25b), on a bien K ×P = −P ×K]. Par suite, dans le sous-espace Ep=0 , l’opérateur J se réduit à S. Ce dernier opérateur commutant avec P , il est clair que Ep=0 reste stable sous l’action de toute composante de J . Il s’ensuit que, dans ce sous-espace, l’action de l’opérateur J ou S fournit une représentation (éventuellement projective) du groupe des rotations R(3) . Il n’est pas évident a priori que cette représentation soit irréductible, le groupe R(3) n’étant qu’un sous-groupe du groupe de Galilée. A priori nous savons seulement que Ep=0 peut être décomposé comme une somme directe de sousespaces Ep=0 associés chacun à une représentation irréductible : β µ α Ep=0 = Ep=0 ⊗ Ep=0 ⊗ . . . ⊗ Ep=0 ⊗ ...

Nous allons montrer que, si la représentation du groupe de Galilée est irréductible, cette somme se limite à un seul terme ; la représentation de R(3) dans Ep=0 est, elle aussi, irréductible. µ Avant d’aller plus loin, mentionnons certaines propriétés des Ep=0 , qui sont démontrées dans le chapitre VII. L’opérateur S ayant toutes les propriétés d’un µ moment cinétique, chaque sous-espace Ep=0 est de dimension (2S + 1), où S est un nombre entier ou demi-entier, et peut être engendré par les vecteurs propres communs à S 2 , de valeur propre S(S + 1)~2 , et Sz , de valeur propre mS ~ :

|µ, p = 0, mS i

mS = S, S − 1, S − 2, . . . , −S + 1, −S

Introduisons maintenant l’opérateur unitaire : S(λ) = e−iλ·K/M ~

152

A. GROUPE DE GALILÉE

où la notation λ symbolise l’ensemble de trois paramètres, les composantes du vecteur λ. On montre alors facilement (nous ne donnons pas le détail des démonstrations, qui sont analogues à celles du Complément EII de [10]) que : [P , S(λ)] = λ S(λ) relation qui entraîne que l’action de S(λ) sur tout vecteur propre de P de valeur propre p donne un autre vecteur propre de valeur propre p + λ. Considérons donc l’ensemble des vecteurs |α, p, mS i définis par : |α, p, mS i = S (λ = p) |α, p = 0, mS i Il est clair que |α, p, mS i est vecteur propre commun à P et Sz , de valeurs propres respectives p et mS ~. L’ensemble des vecteurs |α, p, mS i engendre un sous-espace E α de E , dont nous allons montrer qu’il n’est autre que E lui-même si la représentation du groupe de Galilée est irréductible. En premier lieu, on voit que E α est invariant sous l’action de P , avec des éléments de matrice qui ne dépendent d’ailleurs pas de l’indice α : hα, p, mS |P |α, p0 , m0S i = δmS m0S δ (p − p0 ) p Utilisant à nouveau les résultats du Complément EII de [10], nous voyons que tout ket |ψi de E α s’écrivant : Z X |ψi = d3 p ψ mS (p)|α, p, mS i mS

devient, par action de K :  Z X ~ 3 K |ψi = d p ∇p ψ mS (p) |α, p, mS i i m S

Le sous-espace E α est donc globalement invariant sous l’action de K, où l’indice α ne joue aucun rôle. Par suite, E α est également invariant sous l’action de : 1 L=− K ×P M En ce qui concerne S, il commute avec P et son action sur les |α, p, mS i ne dépend que de mS . L’espace E α est donc invariant globalement sous l’action de : J =L+S Le dernier générateur infinitésimal que nous n’avons pas considéré est H. Comme : P2 2M (où Ui est une constante, l’énergie interne), on vérifie que E α est stable sous l’action de tous les générateurs infinitésimaux. De façon analogue, l’action des opérateurs unitaires S(λ) sur les sous-espaces β µ E(p=0) , . . . , E(p=0) conduira à des sous-espaces E β , . . . , E µ , globalement invariants sous l’action des opérateurs associés au groupe de Galilée. La représentation ne sera donc irréductible (et la particule réellement élémentaire) que si µ ne peut prendre qu’une seule valeur α. Mais comme l’indice α ne joue aucun rôle pour donner l’action des opérateurs P , J , K et H, il peut être totalement supprimé. La représentation est alors entièrement définie par la donnée de M , S et U , comme annoncé. H = Ui +

153

CHAPITRE V

B.

REPRÉSENTATIONS DES GROUPES DE GALILÉE ET DE POINCARÉ

Groupe de Poincaré

Pour étudier les représentations projectives du groupe de Poincaré (groupe des transformations d’espace-temps en relativité d’Einstein), il nous faut partir des relations de commutation écrites en (III-107) et (III-110) entre opérateurs XG . La relation (IV-82) fournit leur image dans l’algèbre étendue (représentation projective) des opérateurs infinitésimaux agissant dans l’espace des états sous la forme : i h  J , J = i~ εijk Jxk + i~ Aij  x x i j     h i

J ,P

(V-52a)

= i~ εijk Pxk + i~ Bij

(V-52b)

i~ Dij

(V-52c)

i h  J , K = i~ εijk Kxk + i~ Nij x x  i j      i h i~ Kxi , Pxj = − 2 δij H + i~ Mij c      h i  i~   K ,K = − ε J + i~ Q

(V-53a)

xi xj     h i    P ,P xi xj =

xi

xj

c2

ijk

 [J , H] =    

[P , H] =

   

xk

(V-53b) ij

(V-53c)

i~ V

(V-54a)

i~ W

(V-54b)

[K, H] = −i~ P + i~ Z

(V-54c)

Ces relations sont les mêmes que celles déjà écrites en (V-4), (V-5) et (V-6) pour le groupe de Galilée, sauf (V-53b) et (V-53c) qui concernent les commutateurs de K et P ou de K avec lui-même. Les termes nouveaux sont aisément reconnaissables au coefficient 1/c2 qu’ils contiennent (ils tendent vers zéro si c → ∞). Par exemple, le terme en Jxk dans le second membre de (V-53c) indique, comme dans la relation (III-110c) du chapitre III, la présence de la précession de Thomas. B-1.

Elimination des opérateurs diagonaux

Comme pour le groupe de Galilée, nous allons chercher à éliminer au maximum les opérateurs diagonaux des seconds membres de (V-52), (V-53) et (V-54), de façon à ramener la projection à être “aussi peu projective que possible”. De fait, dans le cas du groupe de Poincaré, nous allons voir qu’on peut faire disparaître tous les opérateurs diagonaux, sans exception. 154

B. GROUPE DE POINCARÉ

Les relations (V-52), qui concernent le groupe euclidien des déplacements, étant identiques à (V-4), on peut faire disparaître les A, B et D exactement comme au § A. D’ailleurs, chaque fois que le choix des opérateurs associés à i, j et k dans le § A ne fait apparaître, ni 2 opérateurs K, ni un opérateur K et un opérateur P , le résultat du raisonnement est le même pour le groupe de Poincaré et celui de Galilée. On voit ainsi que V , W , Z et les Nij sont nécessairement nuls. Pour les relations de commutations entre composantes de K, nous choisissons : i

Kx

j

Jx

k

Kz

Nous obtenons ici, puisque XKx et XKz ne commutent plus : K

J

βKy Kx CJxyKz + βJy Jx CKyz Kx = −βKy Kx −

1 βJ J = 0 c2 y x

(V-55)

Mais, comme nous avons annulé βJy Jx par une redéfinition de J , nous obtenons ici aussi : βKy Kx = Q2 1 = 0

(V-56)

de sorte que les coefficients Q sont nuls. Restent enfin les relations de commutation entre K et P . En fait, les raisonnements qui nous ont conduits à (V-21) et (V-22) restent les mêmes. Pour obtenir ces relations, nous avons bien pris pour les opérateurs associés à i et k un opérateur Px et un opérateur Kz , mais ce sont deux composantes G différentes, associées à des constantes de structure CK nulles. Rien n’est z Px changé, et le raisonnement du groupe de Galilée reste valable. A ce stade, tous les opérateurs d’extension ont été éliminés, sauf 4 : ˜ Mxx = Myy = Mzz = M C’est ici qu’apparaît une grande différence entre le groupe de Galilée et celui de Poincaré ; la présence de l’opérateur H au second membre de (V-53b) ˜ en posant : permet de faire disparaître l’opérateur M ˜ c2 H0 = H − M

(V-57)

Grâce à cette redéfinition de l’opérateur énergie associé aux translations dans le temps, la représentation projective a ainsi été ramenée à une “vraie” représentation, sans aucun facteur de phase. La relation (V-57) exprime le lien profond qui existe entre la notion de masse en relativité de Galilée et ˜ pour éviter toute confusion avec l’opérateur de masse 4. Nous prenons la notation M M qui sera défini plus bas, cf. relation (V-65).

155

CHAPITRE V

REPRÉSENTATIONS DES GROUPES DE GALILÉE ET DE POINCARÉ

celle d’énergie en relativité d’Einstein. Dans la suite, nous ne distinguerons plus H 0 de H. Pour finir, les relations de commutation ainsi obtenues sont : i h  J , J = i~ εijk Jxk  x x i j   h i

J ,P

= i~ εijk Pxk

xi xj   h i    Px , Px = 0 i j

i h  K , J = i~ εijk Kxk  x x i j    i h i~ Kxi , Pxj = − 2 δij H  c   h i  i~  

Kxi , Kxj = −

(

c2

(V-59)

εijk Jxk

[H, J ] = [H, P ] = 0 [H, K] = i~ P

B-2.

(V-58)

(V-60)

La masse, l’énergie et le spin

Dans le cadre du groupe de Poincaré, masse, spin et énergie apparaissent de façon très différente de ce que nous avons vu pour le groupe de Galilée. B-2-a.

Opérateur de masse M

Aucun opérateur M n’apparaît au second membre des relations de commutation (V-58), (V-59), (V-60). Il ne faut pas en conclure que le passage du groupe de Galilée à celui de Poincaré fait disparaître la notion de masse ! Pour l’introduire, définissons, comme pour le groupe de Galilée, l’opérateur :

P 2 = Px2 + Py2 + Pz2

(V-61)

La structure du sous-groupe des déplacements étant la même pour les deux groupes, nous avons encore : h

i

h

i

P 2, J = P 2, P = 0

De même, on voit facilement sur (V-60) que : h

i

P 2, H = 0

156

(V-62)

B. GROUPE DE POINCARÉ

Toutefois, la relation de commutation (V-30) entre Px2 et Kx n’est plus valable ; ici nous trouvons : h

i

Px2 , Kx = Px [Px , Kx ] + [Px , Kx ] Px =

i~ 2i~ (Px H + HPx ) = 2 H Px 2 c c

(V-63)

A cause du facteur H, ce commutateur n’est plus égal à celui de 2M H avec K, de sorte que l’opérateur U introduit en (V-31a) ne commute plus avec K. La présence de ce facteur supplémentaire H nous incite à calculer : h

i

H 2 , Kx = H [H, Kx ] + [H, Kx ] H =

2i~ H Px c2

(V-64)

ce qui nous permet de voir que l’opérateur H 2 − c2 P 2 commute avec K ; comme il commute également avec J , P et H, nous avons ainsi trouvé un opérateur qui commute avec tous les éléments de l’algèbre de Lie. Nous poserons donc : 



M 2 = H 2 − c2 P 2 /c4

(V-65)

et appellerons masse du système l’opérateur diagonal M ainsi défini 5 . Nous avons ainsi : H 2 = P 2 c2 + M 2 c4

(V-66a)

qui est l’analogue de la relation classique bien connue : E 2 = p2 c2 + m2 c4

(V-66b)

La masse apparaît donc de façon très différente dans le groupe de Galilée (où elle n’est présente dans les relations de commutation de l’algèbre de Lie qu’après extension) et le groupe de Poincaré. Le fait que H s’exprime maintenant comme une racine carrée d’un opérateur est responsable de certaines complications qui apparaissent lorsqu’on cherche à généraliser une théorie relativiste de Galilée à une théorie relativiste de Lorentz, sur lesquelles nous reviendrons au § B du chapitre VI.

5. Nous supposons que M 2 est positif, ou éventuellement nul. S’il était négatif, la masse de la particule serait imaginaire pure, la vitesse de la particule serait toujours supérieure à c, etc. Une théorie de tels systèmes physiques (“tachyons”) peut être développée (voir par exemple [31]), mais nous ne l’aborderons pas ici.

157

CHAPITRE V

B-2-b.

REPRÉSENTATIONS DES GROUPES DE GALILÉE ET DE POINCARÉ

Opérateur L

Commençons par introduire comme en (V-32) l’opérateur 6 : L = (P × K)/M

(V-67)

et calculons quelles sont ses relations de commutation avec J , P , H et K. (i) Le calcul qui donne (V-34c) reste valable (L est vectoriel) : h

i

Jxi , Lxj = i~ εijk Lxk

(V-68)

P

(où la sommation k est sous-entendue). Par contre, le fait que les relations de commutation entre P et K soient différentes de celles du groupe de Galilée entraîne que (V-37) n’est plus satisfaite. On a maintenant : 1 [Py Kz − Pz Ky , Px ] = 0 M 1 1 [Lx , Py ] = [Py Kz − Pz Ky , Py ] = − Pz [Ky , Py ] M M i~ = Pz H M c2

[Lx , Px ] =

(V-69a)

(V-69b)

c’est-à-dire : h

i

Lxi , Pxj =

i~ εijk Pxk H M c2

(V-69c)

(ii) Nous avons également : [Lx , H] =

1 i~ [Py Kz − Pz Ky , H] = (−Py Pz + Pz Py ) = 0 M M

(V-70a)

donc : [L, H] = 0

(V-70b)

(iii) Reste à évaluer le commutateur des composantes de L avec celles de K : h

i

Lxi , Kxj =

h i 1 X εik` Pxk Kx` , Kxj M k` (

i~ X 1 X 1 = εik` − 2 ε`jm Pxk Jxm + 2 δjk H Kx` M k` c m c 6. Nous supposons ici que M 6= 0 ; le cas M = 0 est discuté au § B-3.

158

)

(V-71)

B. GROUPE DE POINCARÉ

Utilisons la relation : X

εik` ε`jm =

`

X

εik` εjm` = δij δkm − δim δjk

(V-72)

`

Nous obtenons : h

Lxi , Kxj

B-2-c.

i

i~ = M c2

(

i~ = M c2

(

−δij

) X

Pxk Jxk + Pxj Jxi +

k

Pxj Jxi − δij (P · J ) +

X

εij` H Kx`

`

) X

εijk H Kxk

(V-73)

k

Opérateur de spin S

Comment maintenant définir le spin S ? Si nous le prenons égal à J −L comme pour le groupe de Galilée, la présence du H du second membre de (V-69b) conduirait à une non-commutation entre S et P , physiquement peu satisfaisante (on s’attend à ce que le spin, variable interne, soit invariant par translation du système physique). En revanche, si nous posons : S=

H J −L M c2

(V-74)

la relation : 

H H H Jx , Py = [Jx , Py ] = i~ Pz M c2 M c2 M c2 

entraîne que : [Sx , Py ] = 0 et, de façon générale : [S, P ] = 0

(V-75)

Le moment cinétique intrinsèque du système est alors invariant par translation. On calcule ensuite facilement le commutateur : h

i

HJxi , Jxj = i~ εijk HJxk

de sorte que la définition (V-74) et la relation (V-68) nous permettent de vérifier que l’opérateur S est vectoriel : [Jxi , Sxi ] = i~ εijk Sxk

(V-76) 159

CHAPITRE V

REPRÉSENTATIONS DES GROUPES DE GALILÉE ET DE POINCARÉ

De plus, la relation : [S, H] = 0

(V-77)

se démontre facilement à partir de (V-70b) et (V-60). Examinons maintenant les relations de commutation de S avec les composantes de K. Compte tenu de (V-73) et des relations (V-59), il vient :   i~ Sxi , Kxj = M c2

Pxj Jxi +

X

εijk HKxk

k

! −Pxj Jxi + δij P · J −

X

εijk HKxk

k

=

i~ δij P · J M c2

(V-78)

De cette relation découle que, si : S 2 = Sx2 + Sy2 + Sz2 nous obtenons :  2  i~ S , Kx = {Sx (P · J ) + (P · J ) Sx } M c2

(V-79)

L’opérateur S 2 ne commute donc pas avec K, et l’on voit apparaître l’opérateur (P ·J ). Il sera utile pour la suite de calculer le commutateur de ce dernier opérateur avec K : [(P · J ) , Kx ] = [Px Jx + Py Jy + Pz Jz , Kx ] = [Px , Kx ] Jx + Py [Jy , Kx ] + Pz [Jz , Kx ] i~ = 2 HJx − i~ Py Kz + i~ Pz Ky c = i~ M Sx

(V-80)

Les relations de commutation entre composantes de l’opérateur S sont calculées dans le § 1 du complément AV . B-2-d.

Opérateur invariant W 2

Cherchons un opérateur W 2 qui commute avec tous les générateurs infinitésimaux associés au groupe de Poincaré. Comparant (V-79) et (V-80), nous voyons que, si nous posons : W 2 = S2 − 160

(P · J )2 (J · P )2 2 = S − M 2 c2 M 2 c2

(V-81)

B. GROUPE DE POINCARÉ

(P · J = J · P puisque chaque composante de J commute avec la même composante de P ), nous obtenons : h

i

W 2 , Kx =

i~ {Sx (P · J ) + (P · J ) Sx } M c2 i~ − {Sx (P · J ) + (P · J ) Sx } = 0 (V-82) M c2

et donc : h

i

W 2, K = 0

(V-83)

D’autre part, on montre facilement que S 2 et (P · J ) commutent avec J (le produit scalaire de deux opérateurs vectoriels est scalaire), ce qui entraîne que : h

i

W 2, J = 0

(V-84)

Nous avons vu que S commute avec H et P ; il en est donc de même de son carré S 2 . Comme : [(P · J ) , H] = 0 [(P · J ) , Px ] = [Px Jx + Py Jy + Pz Jz , Px ] = Py [Jy , Px ] + Pz [Jz , Px ] = Py (−i~ Pz ) + Pz (i~ Py ) = 0 il est clair que : h

i

h

i

W 2, H = W 2, P = 0

(V-85)

L’opérateur W 2 est donc un opérateur qui commute avec tous les générateurs du groupe de Poincaré ; il joue un rôle analogue à celui de S 2 pour le groupe de Galilée. Nous allons voir que ses valeurs propres sont également de la forme S(S + 1)~2 où S est entier ou demi-entier. L’opérateur W 2 commutant avec tous les générateurs du groupe de Poincaré, il ne peut avoir qu’une seule valeur propre si l’espace des états considéré fournit une représentation irréductible du groupe (système constitué d’une particule élémentaire). En effet, s’il avait deux valeurs propres distinctes, l’espace de représentation serait la somme directe de deux sousespaces orthogonaux associés aux valeurs propres différentes, entre lesquelles aucun générateur infinitésimal ne pourrait avoir d’élément de matrice non nul ; la réprésentation serait donc réductible. 161

CHAPITRE V

REPRÉSENTATIONS DES GROUPES DE GALILÉE ET DE POINCARÉ

Valeurs propres de S 2 et W 2

B-2-e.

(i) Nous avons construit l’opérateur S pour qu’il commute avec l’impulsion P ; son carré S 2 possède évidemment la même propriété. Les sousespaces propres de l’impulsion sont donc stables sous l’effet de S 2 , et nous pouvons rechercher les valeurs propres de cet opérateur dans le sous-espace propre de P de valeur propre nulle p = 0. Nous admettons pour le moment que cette valeur propre existe ; nous verrons plus loin que c’est effectivement toujours le cas si la masse M de la particule n’est pas nulle (le cas où M = 0 est discuté au § B-3 suivant). D’autre part nous avons : S=J

H 1 + K ×P 2 Mc M

(V-86)

puisque J et H commutent, ainsi que les composantes différentes de K et P qui apparaissent dans leur produit vectoriel. Compte tenu de (V-66a), on voit que l’opérateur S0 qui donne l’action de S à l’intérieur du sous-espace de valeur propre p = 0 se réduit à 7 : S0 = J

(V-87)

Cette égalité (V-87) montre que les relations de commutation dans ce sousespace sont celles d’un moment cinétique ; les valeurs propres de S02 dans le sous-espace p = 0 ne peuvent donc être égales qu’à S(S + 1)~2 , où S est un nombre entier ou demi-entier. (ii) Intéressons-nous maintenant aux valeurs propres de l’opérateur 2 W . Contrairement à S 2 , il commute avec tous les générateurs du groupe de Poincaré, de sorte que ses valeurs propres sont les mêmes dans tous les sous-espaces propres de l’impulsion. On note sur (V-81) (où P · J est égal à J · P ) que, si W02 est la restriction de W 2 dans le sous-espace p = 0, on a : W02 = S02

(V-88)

La valeur propre (unique) de W 2 est donc celle de S02 dans le sous-espace p = 0. Par suite : W 2 = S(S + 1)~2

(V-89)

Ainsi, en relativité d’Einstein, quand on dit que le système physique a un spin S, cela ne signifie pas que l’opérateur S 2 prend une valeur constante S(S + 1)~2 , puisque S 2 n’est pas invariant dans un changement de repère. C’est l’opérateur W 2 qui prend cette valeur unique dans tous les états quantiques du système. 7. J commutant avec P 2 , ce sous-espace est effectivement stable sous l’action de J .

162

B. GROUPE DE POINCARÉ

Dans le complément AV , nous généralisons le raisonnement qui nous a conduits à (V-89) par une autre méthode, qui ne demande pas d’utiliser un référentiel où l’impulsion de la particule est nulle. Remarques :

(i) Dans l’algèbre de Lie du groupe de Galilée, nous avons trouvé au § A un opérateur de position : R = −K/M et les relations de commutation canoniques (V-48) entraînaient que : [R , δa · P ] = i~ δa Par suite, dans une translation du système d’une quantité δa, sa position est changée de δa, ce qui peut être considéré comme une contrainte à imposer à tout opérateur de position. Or, dans l’algèbre de Lie du groupe de Poincaré, il n’existe pas d’opérateur dont les relations de commutation soient des relations canoniques classiques ; la deuxième des égalités (V-59) ne redonne ces relations canoniques que si l’on remplace H par M c2 (“limite nonrelativiste”). On voit que la définition générale d’un opérateur de position n’est pas un problème simple en relativité d’Einstein. (ii) Examinons si la valeur propre p = 0 de P existe nécessairement, en d’autres termes s’il existe toujours un référentiel où la particule soit au repos. Considérons donc un vecteur propre |E, p, αi commun à H et aux trois composantes de P (c’est possible puisque H et P commutent), de valeurs propres E, px , py , pz (composantes de P ) ; le nombre quantique α repère les valeurs propres des autres opérateurs éventuellement nécessaires pour former, avec H et p un ECOC (Ensemble complet d’observables qui commutent) dans l’espace des états. E et p sont reliés par l’égalité (V66b). Considérons pour commencer une rotation infinitésimale associée à l’opérateur : 1−

i δa · J ~

D’après la seconde des relations (V-58), on a :   i P 1 − δa · J |E, p, αi ~    i = 1 − δa · J P + δa × P |E, p, αi ~    i = (p + δa × p) 1 − δa · J |E, p, αi + 0 δa2 ~

(V-90)

163

CHAPITRE V

REPRÉSENTATIONS DES GROUPES DE GALILÉE ET DE POINCARÉ

puisque, par exemple : [Px , δax Jx + δay Jy + δaz Jz )] = i~ (δay Pz − δaz Py )

(V-91)

Donc le ket :   i 1 − δa · J |E, p, αi ~ est un autre vecteur propre de P , de valeur propre p + δa × p. Nous retrouvons ainsi que les opérateurs de rotation modifient les composantes de p comme celles d’un vecteur de l’espace ordinaire ; on voit facilement que l’énergie E est par contre inchangée (P est vectoriel, H scalaire). Le raisonnement qui vient d’être fait est valable aussi bien dans le cadre du groupe de Galilée que de Poincaré. Prenons maintenant un changement de repère de Lorentz et l’opérateur : 1−

i δv0 · K ~

La seconde des relations (V-59) donne alors :   i P 1 − δv0 · K |E, p, αi ~    i H = 1 − δv0 · K P + δv0 2 |E, p, αi ~ c     E i = p + 2 δv0 1 − δv0 · K |E, p, αi + 0 δv02 c ~ De même, (V-60) conduit à :   i H 1 − δv0 · K |E, p, αi ~    i = 1 − δv0 · K H + δv0 · P |E, p, αi ~   i = (E + δv0 · P ) 1 − δv0 · K |E, p, αi ~

(V-92a)

(V-92b)

Le ket :   i 1 − δv0 · K |E, p, αi ~ est donc un autre vecteur propre commun à H et P , de valeurs propres respectives : E δv0 c2 E 0 = E + δv0 · p p0 = p +

(V-93)

Nous retrouvons au premier ordre en δv0 les formules de transformation de Lorentz (III-103) (où le facteur γ vaut 1 au premier ordre) pour

164

B. GROUPE DE POINCARÉ

le quadrivecteur impulsion-énergie {p, E/c2 }. On vérifie au passage que E 2 − c2 p2 est un invariant puisque, au premier ordre en δv0 : E 02 − c2 p02 = E − c2 p2 + 2E δv0 · p − c2 2

E δv0 · p c2

= E 2 − c2 p2 Par intégration des égalités (V-93) on obtient alors, pour une valeur finie de v0 :    E  0 p = γ p + 2 v0 (V-94) c  0 E = γ (E + v0 · p) avec :  −1/2 γ = 1 − v02 /c2

(V-95)

Ces relations vérifient que le couple {p, E/c2 } se transforme comme un quadrivecteur relativiste. Or on sait à quelle condition un quadrivecteur peut être ramené par un changement de repère de Lorentz à avoir des composantes d’espace nulles (ici p = 0) : il faut que ce soit un quadrivecteur du “genre temps”, de norme positive. Il faut donc ici que : 2

c



E c2

2

− p2 =

 1 E 2 − c2 p2 = M 2 c2 2 c

(V-96)

soit positif. Si donc la particule a une masse non nulle, la valeur propre p = 0 existe et le raisonnement fait plus haut pour établir (V-89) est valide. Mais, si M = 0, il n’existe pas de référentiel où la particule soit au repos, de sorte que le raisonnement doit être repris. B-3.

Particule de masse nulle

Nous avons vu que, dans le cadre du groupe de Galilée, il est important d’attribuer une masse finie (non nulle) à la particule ; dans le cas contraire, la représentation est profondément modifiée (elle devient vraie au lieu de projective) et le spectre de H n’a plus de valeur minimale (il est non borné inférieurement). Pour le groupe de Poincaré, il n’y a aucune raison particulière d’imposer que M soit non nul. On sait d’ailleurs qu’il existe des particules de masse nulle, par exemple le photon. Il est donc nécessaire de reprendre les raisonnements précédents car, dans la définition même de S, nous avons supposé que M 6= 0. Au lieu de S, introduisons un opérateur Ξ qui vaut simplement M S si M n’est pas nul, et qui reste défini si M est nul : Ξ=

H J +K ×P c2

(V-97) 165

CHAPITRE V

REPRÉSENTATIONS DES GROUPES DE GALILÉE ET DE POINCARÉ

Les raisonnements effectués plus haut sur S lorsque M 6= 0 se transposent immédiatement à Ξ, et l’on obtient [cf. relations (V-75) à (V-79)] : [Ξ, P ] = [Ξ, H] = 0 h

(V-98a)

i

(V-98b)

i

(V-98c)

Ξxi , Jxj = i~ εijk Ξxk h

Ξ2 , J = 0

On peut en déduire que la quantité : 1 (P · J )2 (V-99) c2 commute avec tous les générateurs du groupe de Poincaré. En effet, si M 6= 0 on a Z 2 = M 2 W 2 , et il suffit de répéter le raisonnement du § B-2-d (en multipliant par M toutes les égalités d’annulation des commutateurs) pour obtenir ce résultat. Quant aux relations de commutation entre composantes du spin (complément AV , § 1), elles deviennent après insertion des facteurs M :   h i H 1 Ξxi , Ξxj = i~ 2 εijk Ξxk − 2 (J · P ) εijk Pxk (V-100) c c Z 2 = Ξ2 −

La définition (V-97) de Ξ entraîne également que : H J ·P (V-101) c2 qui contient l’opérateur J · P , donc la projection du moment cinétique sur l’impulsion. Cette dernière est souvent appelée “hélicité”. Considérons maintenant un sous-espace propre commun à H et P de valeurs propres respectives E et pez , où les valeurs propres px et py sont donc nulles. Dans ce sous-espace, Ξ devient un opérateur restreint Ξp et, compte tenu de (V-101) pour calculer J · P , les relations (V-100) deviennent : Ξ·P =

h

Ξpx , Ξpy

i

E p = i~ 2 Ξpz − 2 J · P c c 

(



= i~

E p p2 p Ξ − Ξ c2 z E z

)

=0

(V-102)

(on a utilisé le fait que, si M = 0, on a simplement E = pc). Pour les autres commutateurs entre composantes de Ξ, le terme en J · P s’annule dans le second membre de (V-100) ; en effet, seule la composante sur Oz de P ne donne pas zéro, ce qui annule immédiatement le coefficient εijk . Ainsi, les relations de commutation entre les composantes de Ξp s’écrivent-elles : h

i

Ξpx , Ξpy = 0

E p Ξ c2 x E [Ξpz , Ξpx ] = i~ 2 Ξpy c

h

166

i

Ξpy , Ξpz = i~

(V-103)

B. GROUPE DE POINCARÉ

Les trois composantes de Ξ engendrent donc une algèbre de Lie dégénérée par rapport à celle de S lorsque M 6= 0 [qui engendrait l’algèbre de SO(3) ou SU (2)], puisqu’une constante de structure supplémentaire est nulle. Introduisons alors les opérateurs : Ξp± = Ξpx ± i Ξpy

(V-104)

Nous avons :  p

Ξ+ , Ξp− = 0

(V-105a)

Ξp+ Ξp− = Ξp− Ξp+ = (Ξpx )2 + (Ξpy )2 = (Ξp )2 − (Ξpz )2  p p E Ξz , Ξ± = ±~ 2 Ξp± c

(V-105b)



(V-105c)

Ces relations peuvent être comparées avec celles d’un moment cinétique, voir les égalités (VII-5). Dans le sous-espace propre commun à H et P , considérons une base |E, p, j, m, αi de vecteurs propres communs à Ξ2 et Ξz (rappelons que l’axe Oz est parallèle à p) ; les valeurs propres respectives de ces deux opérateurs sont notées par convention : σ 2 ~2

E2 c4

et

µ~

E c2

Le fait que la norme du ket Ξp+ |E, p, σ, µ, αi soit positive entraîne, compte tenu de (V-105b) : σ 2 − µ2 ≥ 0

(V-106a)

donc, si l’on convient de prendre σ > 0 : −σ ≤ µ ≤ +σ

(V-106b)

On voit également en utilisant encore (V-105b) que l’action de Ξp+ sur un ket non nul |E, p, σ, µ, αi donne : • soit un ket nul si µ = ±σ (et pas seulement si µ = +σ, contrairement à ce qui se produit pour un moment cinétique) ; • soit, si µ 6= σ, un ket non nul, vecteur propre de Ξ2 avec la même valeur propre σ 2 ~2 E 2 /c4 , et de Ξpz avec la valeur propre augmentée (µ + 1)~ E/c2 . Des propriétés analogues existent pour Ξ− (il faut alors remplacer µ + 1 par µ − 1). Supposons maintenant qu’il existe un ket non nul |E, p, σ, µ, αi où µ 6= ±σ. Par action répétée de Ξp+ on peut amener m à sa valeur maximale µ = +σ et obtenir un autre ket non nul. Cependant, l’action de Ξp− sur ce 167

CHAPITRE V

REPRÉSENTATIONS DES GROUPES DE GALILÉE ET DE POINCARÉ

ket doit l’annuler (puisqu’elle annule tout ket où µ = ±σ). Or, Ξp+ et Ξp− commutant, il revient au même de faire agir Ξp− plus tôt dans la séquence, donc sur l’un quelconque des kets intermédiaires obtenus entre la valeur µ et µ = σ. Mais, dans ce cas, l’annulation ne peut jamais être obtenue ; nous arrivons ainsi à une contradiction. Le ket µ 6= ±σ dont nous avons initialement supposé l’existence est donc nul. En conséquence, les seules valeurs possibles (hélicité) de Ξz sont : µ = ±σ

(V-107)

L’action de Ξ± sur ces kets donne toujours un ket de norme nulle, de sorte que : Ξp± = 0

(V-108a)

soit : Ξpx = Ξpy = 0

(V-108b)

Par contre, la composante de Ξ sur l’axe parallèle à p peut a priori prendre deux valeurs d’hélicité : Ξpz = ±σ~

E c2

(V-109)

Montrons enfin que σ est entier ou demi-entier. Pour cela, on peut utiliser (V-101) qui indique que les valeurs propres : ±σ~

E p c2

de Ξ · P sont aussi celles de H (J · P )/c2 . Dans une base de vecteurs propres communs à H, Pz , et Jz (valeur propre mJ , où mJ est entier ou demi-entier), ces valeurs propres prennent la forme : mJ ~

E p c2

Donc : mJ = ±σ

(V-110)

de sorte que σ est nécessairement, soit entier, soit demi-entier. Ce nombre est appelé spin de la particule. 168

B. GROUPE DE POINCARÉ

Remarques :

(i) Pour une particule de masse nulle, les relations (V-108b) de nullité des composantes transverses de Ξ indiquent que : (Ξ · P )2 = ~2 (Ξ)2 p2 Compte tenu de la définition (V-99) de l’opérateur Z 2 et de la relation (V-101), on montre facilement que : Z2 = 0 ce qui est bien ce que l’on obtient en considérant une particule de masse non nulle, pour laquelle Z 2 = S(S + 1)~2 M 2 , et en faisant tendre M vers zéro. (ii) La valeur de µ est nécessairement unique si l’on considère une représentation irréductible de la partie connexe du groupe de Poincaré qui entoure l’identité (groupe de Poincaré sans renversement ni d’espace, ni du temps) ; elle ne peut en effet varier de façon discontinue par application de transformations de Lorentz infinitésimales. Si l’on veut inclure dans l’espace des états de la particule l’opération de parité d’espace, il faut tenir compte du fait que Ξ (ou S) sont, comme J , des vecteurs axiaux (invariants par parité), contrairement à P qui est polaire (changement de signe par parité). La quantité Ξ · P apparaît comme un opérateur qui change de signe dans une symétrie d’espace (elle est un pseudoscalaire). Pour inclure la parité dans l’espace des états, deux valeurs opposées de σ doivent être réalisées dans cet espace. Par exemple, pour le photon, deux états d’hélicité µ = ±1 sont possibles. La symétrie d’espace par rapport à un point n’est cependant pas, à l’heure actuelle, considérée comme une symétrie fondamentale de la nature. Rien n’interdit donc, pour certaines particules, de supposer qu’une seule valeur de µ est réalisée, et pas la valeur opposée (théorie des neutrinos-antineutrinos à deux composantes), ce qui induit des violations de la parité. B-4.

Transformations finies

Dans tout ce qui précède, nous avons mis l’accent sur les transformations infinitésimales et les générateurs qui leur sont associés dans l’algèbre de Lie. Ce sont les éléments dont nous aurons besoin pour la suite, en particulier pour construire des espaces des états ou des équations d’onde. Dans le complément BV nous montrons dans le cas particulier du groupe des déplacements (commun au groupe de Galilée

169

CHAPITRE V

REPRÉSENTATIONS DES GROUPES DE GALILÉE ET DE POINCARÉ

et de Poincaré) comment, par exponentiation et produits d’opérateurs, on peut construire les transformations finies. Il en est bien sûr de même dans les groupes de Galilée et de Poincaré dans leur ensemble. Ecrivons par exemple le produit d’opérateurs unitaires : U (t0 , v, `, a) = e−iHt0 /~ e−iv·K/~ e−i`·P /~ e−ia·J/~

(V-111)

qui traduit l’effet d’une rotation de vecteur a, suivie d’une translation de vecteur `, puis d’un changement de repère galiléen de vitesse v, et enfin d’une translation dans le temps d’une quantité t0 . Toutes ces opérations ne commutent pas entre elles : même dans le groupe relativement simple de Galilée, il n’est par exemple pas équivalent d’appliquer un changement de repère galiléen, puis une translation de temps, ou d’effectuer ces opérations dans l’ordre inverse – cf. relations de commutation (V-26c) du chapitre V. Dans le groupe de Poincaré, non seulement cette absence de commutation subsiste, mais s’y ajoutent par exemple celles entre composantes de K qui introduisent des rotations (précession de Thomas). Les calculs de combinaison entre transformations du groupe sont donc plus compliqués. Pour plus de détails, nous renvoyons aux §§ 19.1 et 19.2 de la référence [14] ainsi qu’au chapitre 4 de [20] qui abordent explicitement ces calculs.

170

• PROPRIÉTÉS DES OPÉRATEURS S ET W 2

Complément AV Quelques propriétés des opérateurs S et W 2 1 2

1.

Opérateur S . . . . . . . . . . . . . . . . . . . . . . . 171 Valeurs propres de l’opérateur W 2 . . . . . . . . . 173

Opérateur S

Dans le cadre du groupe de Poincaré, examinons quelles sont les relations de commutation des composantes de S entre elles. L’égalité (V-43), qui confère à S toutes les caractéristiques d’un moment cinétique dans le cadre du groupe de Galilée, devient pour le groupe de Poincaré : h

Sxi , Sxj

i

"

X εinp X εj`m H H = J − P K , J − Px` Kxm x x x x n p i j M c2 M c2 M np M lm

=α+β+γ+δ

#

(1)

où : 

α=

H M c2

2 X

εijk Jxk

k

  1 X H β=− εinp Pxn Kxp , Jx M np M c2 j

δ=

  1 X εinp εj`m Pxn Kxp , Px` Kxm 2 M np`m

(γ est obtenu en permutant i et j dans β et en changeant le signe). La relation : [AB, CD] = A[B, C]D + AC[B, D] + [A, C]DB + C[A, D]B

(2)

donne ici : (

−M β =

X np



εinp Pxn −

 i~ H X P εpjq Kxq xp Jxj + Pxn 2 Mc M c2 q

H X + εnjq Pxq Kxp M c2 q

)

(3)

171

COMPLÉMENT AV



Dans le second membre, le terme en εinp Pxn Pxp Jxj , impair par échange des indices n et p, disparaît par sommation sur ces indices. Pour calculer les autres termes, on utilise les égalités : X

εinp εjqp = δij δnq − δiq δnj

p

X

εinp εqnj = δiq δpj − δij δpq

n

et il vient : −M β =

o i~ n δ H (P · K) − P H K + H P K − δ H (P · K) ij x x x x ij j i i j M c2 (4)

soit : o H n P K − P K (5) x x x x j i i j M 2 c2 La règle énoncée plus haut pour le calcul de γ donne β = γ, et il ne reste à calculer que δ :

β = i~

( 2

M δ=

X

X i~ i~ H δp` Pxm + εn`q − 2 Jxq Pxm Pxp 2 c c q 

εinp εj`m Kxn

np`m

i~ − 2 Hxp c



+Kx` δnm



o i~ n K H P − δ (K · P ) H − K H P x x ij x x j i i j c2 X X + δij (K · P ) H − εijp Jxm Pxm Pxp + εimp Jxj Pxm Pxp





=

pm

(6)

pm

(le dernier terme du second membre, impair par échange de m et de p, disparaît par sommation). Pour finir, reportant dans (V-86) les valeurs de α, β, γ et δ, nous obtenons : h

(

i

Sxi , Sxj = i~

P2 1+ 2 2 M c

! X

εijk Jxk

k

H X J ·P X − ε L − εijk Pxk x ijk k M c2 k M 2 c2 k (

= i~

H X J ·P X ε S − εijk Pxk x ijk k M c2 k M 2 c2 k

)

)

(7)

Ces relations montrent que, dans un sous-espace propre commun à H et P (le spin commute avec ces observables), l’opérateur S obéit aux relations de commutation habituelles du moment cinétique. Les valeurs propres de S 2 sont donc de la forme S(S + 1)~2 . 172

• PROPRIÉTÉS DES OPÉRATEURS S ET W 2 Valeurs propres de l’opérateur W 2

2.

Pour simplifier, nous nous sommes placés au § B-2-e du chapitre V dans un repère galiléen où l’impulsion est nulle, ce qui permet d’arriver rapidement à la relation (V-87) et de trouver les valeurs propres de S 2 , puis de les égaler à celles de W 2 . Mais nous avons vu qu’un tel repère galiléen n’existe pas toujours ; il faut pour cela que la masse M ne soit pas nulle, alors que le cas M = 0 est physiquement important. Il est donc utile d’effectuer un raisonnement plus général qui ne suppose pas la nullité de l’impulsion. L’opérateur S commute avec H et P ; de plus, il commute avec J , mais pas avec K [cf. (V-79)]. Les égalités (7) nous montrent bien que les relations de commutation entre composantes de S ne sont pas les relations “classiques” (galiléennes) dès qu’on ne peut plus remplacer H par M c2 et P par 0. Cependant, la relation (V-78) indique que seules des composantes sur les mêmes axes de S et K ne commutent pas ; en d’autres termes, une transformation de Lorentz n’affecte pas les composantes de S perpendiculaires à δv0 . Par suite, tant que v0 reste parallèle à Oz, les opérateurs : S± = Sx ± iSy

(8)

sont invariants. Ceci nous suggère comment raisonner dans un espace propre de P de valeur propre p non nulle : il faut choisir des axes Oxyz tels que Oz soit parallèle à p. Supposons donc que ce changement d’axes ait été effectué et appelons S p l’opérateur qui donne l’action de S à l’intérieur d’un sousespace propre commun à H et P , de valeurs propres E et p = p ez (où ez est le vecteur unitaire parallèle à Oz). La relation (7) donne alors : h

Sxp , Syp

i

(

= i~

E p2 p S − Jz M c2 z M 2 c2

)

(9)

D’autre part, comme des composantes de K et P sur des axes orthogonaux commutent, on a : L = (P × K)/M = −(1/M ) K × P

(10)

Dans un sous-espace propre de valeur nulle pour les composantes de l’impulsion Px et Py , l’effet de l’opérateur Lpz est donc une simple multiplication par zéro. La relation (V-74) de définition de S montre alors que l’action de Jz dans le sous-espace (E = M c2 , p = pez ) se réduit à celle de Szp , suivie d’une multiplication par la constante M c2 /E. Le deuxième membre de (9) vaut donc : (

i~

E p2 p p S − S M c2 z M E z

)

= i~

E 2 − p2 c2 p M c2 p S = i~ Sz z M c2 E E

(11) 173

COMPLÉMENT AV



Nous obtenons donc, en adjoignant à (9) des relations directement obtenues à partir de (7), et compte tenu du fait que px = py = 0 : h 2 i   S p , S p = i~ M c S p  x y z   E   h i E

Syp , Szp = i~ Sp   M c2 x      [S p , S p ] = i~ E S p z

x

M c2

(12)

y

Introduisons maintenant l’opérateur T p par :  p Tx = Sxp      p p

Ty = Sy

(13)

  2    T p = M c Sp z z

H

Il vient alors les relations plus simples : i h p , T p = i~ T p  T  x y z  h i

(14)

Typ , Tzp = i~ Txp     p [T , T p ] = i~ T p z

x

y

qui sont exactement celles de commutation d’un moment cinétique. Le raisonnement habituel montre donc que l’opérateur (T p )2 possède des valeurs propres de la forme : S(S + 1)~2 où S est un nombre entier ou demi-entier. Enfin, les égalités (13) donnent : 

(T p )2 = (S p )2 − (Szp )2 1 −

M c2 H

!2   = (S p )2 − (S p )2 z

p2 c2 E2

(15)

On a donc : (S p )2 −

c2 (S p · P )2 = S(S + 1)~2 E2

(16)

Mais le carré du spin est la somme des carrés de ses composantes dans un repère orthonormé quelconque, de sorte que : (S p )2 = (S)2 174

(17)

• PROPRIÉTÉS DES OPÉRATEURS S ET W 2 De plus, puisque nous avons vu que les actions des deux opérateurs Jz et (M c2 /E)Sz sont équivalentes, nous obtenons : (S)2 −

1 (J · P )2 = W 2 = S(S + 1)~2 M 2 c2

(18)

Nous retrouvons ainsi que l’opérateur W 2 , défini en (V-81) a des valeurs propres de la forme S(S + 1)~2 , mais cette fois sans supposer que la particule peut être étudiée dans un sous-espace propre de P où elle est au repos.

175

• DÉPLACEMENTS GÉOMÉTRIQUES

Complément BV Groupe des déplacements géométriques 1

2

Rappels : propriétés classiques des déplacements 1-a Les translations . . . . . . . . . . . . . . . . . . . . 1-b Les rotations, topologie du groupe . . . . . . . . . 1-c Déplacement quelconque . . . . . . . . . . . . . . . Opérateurs associés dans l’espace des états . . . . 2-a Générateurs infinitésimaux. Relations de commutation . . . . . . . . . . . . . . . . . . . . . . . . . 2-b Opérateurs de déplacement fini . . . . . . . . . . . 2-c Ensemble de deux sous-systèmes, additivité des impulsions et moments cinétiques . . . . . . . . . . 2-d Invariance par translation ou rotation . . . . . . .

178 178 180 188 190 190 191 195 198

Les relations de commutation (V-24) à (V-26) du groupe de Galilée sont exactement les mêmes que celles, (V-58) à (V-60), du groupe de Poincaré : le sous-groupe des déplacements géométriques est commun au groupe de Galilée et de Poincaré. En fait, les différences entre ces groupes concernent uniquement les transformations faisant intervenir le temps, ce qui n’est pas le cas des déplacements. Nous consacrons donc ce complément à l’étude plus détaillée des opérateurs associés à l’ensemble des déplacements dans l’espace, en prenant un point de vue plus géométrique que celui du chapitre V. Cela nous donnera l’occasion de discuter la topologie particulière du groupe des rotations, qui a d’importantes conséquences en mécanique quantique. Nous démontrerons également la propriété d’additivité des impulsions de deux sous-systèmes physiques, ainsi que de leurs moments cinétiques. Le groupe G des isométries est défini comme l’ensemble des transformations munies des propriétés suivantes. Dans l’espace ponctuel euclidien réel, à trois dimensions, faisons correspondre à tout point M un point M 0 (image de M ) de façon que : • les longueurs des vecteurs soient conservées ; si M10 et M20 sont les images de M1 et M2 , on doit toujours avoir : −−−−→ −−−−→ |M10 M20 | = |M1 M2 |

(1)

• les produits scalaires, donc les angles (non orientés), soient conservés ; si M30 et M40 sont les images de M3 et M4 : −−− −→ −−−−→ −−−−→ −−−−→ M10 M20 · M30 M40 = M1 M2 · M3 M4

(2) 177

COMPLÉMENT BV



On obtient ainsi un ensemble de transformations comprenant les rotations, translations et réflexions d’espace (symétrie par rapport à un point quelconque), ainsi que les produits de ces opérations 1 . Plusieurs sous-groupes de G peuvent être construits. Par exemple : α . Groupe T(3) des translations en dimension 3 ; β . Groupe R(3) des rotations autour d’un point arbitraire donné en dimension 3 ; γ . Symétrie par rapport à un point arbitraire donné (parité) et opération identité. Le groupe euclidien E(3) des déplacements est obtenu en combinant α et β. On peut aussi combiner β et γ, ce qui donne le groupe O(3) . D’autres sous-groupes sont les groupes “ponctuels” de symétrie cristallographiques, dont nous ne parlerons pas ici. On trouvera dans le complément DV une étude succincte de l’opérateur parité et de ses propriétés. 1.

Rappels : propriétés classiques des déplacements

1-a.

Les translations

Au point M , repéré par rapport à un référentiel donné par un vecteur position r, on fait correspondre un point M 0 de vecteur position r 0 = r + `. Les translations T sont repérées par les 3 composantes du vecteur `, qui joue le rôle du vecteur noté a dans les chapitres précédents : T (`) r = r + `

(3)

Elles seront en fait écrites, soit sous la forme T (`), soit Tu (`), où u est le vecteur unitaire parallèle à `. La loi de groupe est simplement : T (`0 ) T (`) = T (`) T (`0 ) = T (`0 + `)

(4)

égalité qui montre que le groupe des translations est abélien : la translation produit a pour vecteur la somme des deux vecteurs, et l’addition de vecteurs est commutative. Le groupe est non compact (le domaine accessible à ` a un volume infini). Nous avons déjà écrit au § C-1 du chapitre III des matrices décrivant les effets des translations sur les coordonnées. Nous rappelons ici ces résultats, 1. Si la transformation considérée laisse un point O invariant, il est facile de voir qu’elle s’exprime par une transformation linéaire des coordonnées, à laquelle on associe une matrice 3 × 3. Si le déterminant de cette matrice vaut +1, la transformation est une rotation ; s’il vaut −1, le produit d’une rotation et d’une symétrie par rapport au point O. Pour une transformation quelconque, où O0 est l’image quelconque de O, on se ramène au −−→ cas précédent en appliquant une translation de vecteur O0 O.

178

• DÉPLACEMENTS GÉOMÉTRIQUES sous une forme légèrement plus simple puisque le temps n’intervient plus, de sorte que les matrices sont 4 × 4 au lieu de 5 × 5. Les coordonnées x0 , y 0 et z 0 de r 0 sont données en fonction de celles, x, y et z, de r, par :  0   x x  y0  y      0  = M (`)   z  z

1 avec :

(5)

1 

1 0  M (`) =  0 0

0 1 0 0

0 0 1 0



`x `y    `z  1

(6)

On voit sur cette expression que l’opération infinitésimale M (d`) s’écrit : M (d`) = (1) + d`x Πx + d`y Πy + d`z Πz = (1) + d` · Π

(7)

où les trois composantes du vecteur Π sont les matrices : 

0 0  Πx =  0 0

0 0 0 0

0 0 0 0



1 0   0 0



0 0  Πy =  0 0

0 0 0 0

0 0 0 0



0 1   0 0



0 0  Πz =  0 0

0 0 0 0

0 0 0 0



0 0   1 0

(8)

On vérifie facilement que : Πxi Πxj = 0

∀ i, j

(9)

Par suite, les matrices Π commutent toutes entre elles : h

i

Πxi , Πxj = 0

∀ i, j

(10a)

ou encore : [Π , Π] = 0

(10b)

Comme au § C du chapitre III, nous voyons que les constantes de structure du groupe des translations sont toutes nulles (groupe abélien). D’autre part, la relation (9) entraîne également que : 1 e(`·Π) = 1 + (` · Π) + (` · Π)2 + . . . = 1 + ` · Π 2 qui nous redonne immédiatement la matrice (6). Donc : M (`) = e(`·Π)

(11a)

(11b)

Cette relation permet donc d’exprimer toute matrice de translation en fonction des matrices composantes de Π. 179

COMPLÉMENT BV

1-b.



Les rotations, topologie du groupe

Une rotation peut être définie comme une transformation R biunivoque entre les points de l’espace réel à 3 dimensions et lui-même, transformation qui conserve un point de l’espace (choisi comme origine O), les distances (donc les angles) et le sens des trièdres (ce qui élimine les symétries par rapport à O ou un plan contenant O). α.

Paramètres du groupe

Les rotations R dépendent de 3 paramètres (la dimension du groupe est n = 3). Nous avons déjà introduit au § C-1 du chapitre III une paramétrisation du groupe des rotations par un vecteur : a = uϕ

(12)

où u est le vecteur unitaire de l’axe de rotation autour duquel l’angle de rotation ϕ est compté de façon positive. Une autre façon d’associer 3 paramètres à chaque rotation est de la caractériser par ses trois “angles d’Euler” α, β et γ. Ces angles sont représentés sur la figure 1. Soit Oxyz le trièdre de référence. Sous l’effet de la rotation R, les points qui coïncident avec les axes Oxyz viennent coïncider avec ceux d’un nouveau trièdre OXY Z ; α et β sont par définition les angles azimutal et polaire de OZ par rapport au trièdre initial Oxyz. La façon de définir les trois rotations d’angles α, β et γ est la suivante. On appelle Ou l’intersection du plan contenant Oz et OZ avec le plan xOy, et Ov l’axe qui complète le trièdre trirectangle Ouvz (Ov est donc l’intersection du plan perpendiculaire à OZ avec le plan xOy). Pour amener Oxyz sur OXY Z, on va successivement : • effectuer une rotation autour de Oz d’angle α (cette rotation amène Ox sur Ou et Oy sur Ov) ; • effectuer une rotation autour de Ov d’angle β (on amène ainsi Oz sur sa position finale OZ, tandis que Oy reste confondu avec Ov) ; • effectuer enfin une rotation autour de OZ d’angle γ, afin d’amener Ov sur OY . Deux des trois axes du trièdre trirectangle déplacé coïncident alors avec OY et OZ, de sorte que le troisième est aussi dans sa position finale. Les 3 angles α, β, γ sont comptés algébriquement (sur la figure 1, α est négatif). Nous avons donc : R (α, β, γ) = RZ (γ) Rv (β) Rz (α)

(13)

Dans cette expression interviennent des rotations autour de OZ et de Ov, qui sont des axes dépendant de la rotation considérée. 180

• DÉPLACEMENTS GÉOMÉTRIQUES

Figure 1 – Angles d’Euler d’une rotation. Une première rotation autour de l’axe Oz d’un angle α amène l’axe Ox sur Ou dans le plan zOZ, ainsi que l’axe Oy sur l’axe Ov perpendiculaire à OZ. Une seconde rotation autour de Ov d’angle β amène l’axe Oz sur sa position finale OZ. Enfin, une rotation autour de OZ et d’angle γ place les deux axes perpendiculaires à OZ dans leurs positions finales OX (non visible sur la figure) et OY . Il est cependant possible de la modifier pour que n’apparaissent que des rotations autour des axes des coordonnées. En effet, dans (13) on peut remplacer Rv (β) par : Rv (β) = Rz (α) Ry (β) Rz (−α)

(14)

Pour comprendre cette égalité, considérons un objet (ensemble de points) sur lequel est appliquée la suite des 3 rotations écrites au second membre. On commence par amener l’axe de l’objet qui coïncide avec Ou sur Oy, on effectue ensuite autour de Oy une rotation d’angle β, puis on ramène l’axe de l’objet sur Ou. Il est clair que cet axe reste invariant dans l’opération globale envisagée. Autre point de vue : la formule (14), écrite sous forme matricielle, peut être considérée comme une formule de changement d’axes de coordonnées pour les matrices associées à un même opérateur. En effet, dans un changement d’axes repéré par une matrice S (dont les colonnes contiennent les composantes des nouveaux vecteurs de base sur les anciens), on sait que la matrice M qui représente un opérateur linéaire quelconque devient M 0 = S −1 M S. De ce point de vue, le second membre de (14) s’interprète comme l’opération qui, dans des axes tournés de −α autour de Oz, décrit une rotation de β autour de Oy. La même matrice, dans les axes Oxyz, décrira donc une rotation d’un angle β autour de l’axe du plan xOy

181

COMPLÉMENT BV



obtenu à partir de Oy par rotation de +α autour de Oz, c’est-à-dire autour de Ov : c’est bien Rv (β).

De même, on verrait que : RZ (γ) = Rv (β) Rz (γ) Rv (−β) = Rz (α) Ry (β) Rz (−α) Rz (γ) Rz (α) Ry (−β) Rz (−α) = Rz (α) Ry (β) Rz (γ) Ry (−β) Rz (−α)

(15)

(dans un produit de rotations de même axe, les angles s’ajoutent). On a donc : RZ (γ) Rv (β) = Rz (α) Ry (β) Rz (γ) Ry (−β) Rz (−α)Rz (α) Ry (β) Rz (−α) = Rz (α) Ry (β) Rz (γ − α)

(16)

soit, si l’on reporte ce résultat dans (13) : R(α, β, γ) = Rz (α) Ry (β) Rz (γ) β.

(17)

Matrices de rotation Soient e1 , e2 et e3 les vecteurs unitaires des trois axes de coordonnées

et : e0i = R ei

i = 1, 2, 3

(18)

leurs transformés par R. Par définition, la matrice (R), d’éléments Rji , est telle que : R1 1 R1 2 R1 3    e01 , e02 , e03 = (e1 , e2 , e3 )  R2 1 R2 2 R2 3  R3 1 R3 2 R3 3 



(19)

Dans les colonnes de la matrice (R) se trouvent les coordonnées des transformés e01 des vecteurs de base. On a : e0i =

X

Rji ej

i, j = 1, 2, 3

(20)

j

−−→ Si OM s’écrit : 3 −−→ X OM = xi ei

(21)

i=1

le transformé M 0 de M par la rotation est donné par : X −−→0 X OM = xi e0i = xi Rji ej i

182

ij

(22)

• DÉPLACEMENTS GÉOMÉTRIQUES c’est-à-dire : x0j =

X

Rji xi

(23a)

i

ou encore : 







x0 x  0    y  = (R)  y  z0 z

(23b)

Les matrices (R) sont les matrices 3 × 3 orthogonales (réelles et unitaires) unimodulaires (de déterminant unité), c’est-à-dire celles du groupe SO(3). On a :  (R)−1 = (R)t   

det(R) = 1

  

(24)

Tr(R) = 1 + 2 cos ϕ

où (R)t désigne la matrice transposée de (R). Que l’on prenne les paramètres a, ou plutôt α, β, γ, l’égalité (17) peut être utilisée pour donner l’expression explicite de (R). Par exemple : R(α, β, γ) = 

cos α cos β cos γ − sin α sin γ   sin α cos β cos γ + cos α sin γ − sin β cos γ

− cos α cos β sin γ − sin α cos γ − sin α cos β sin γ + cos α cos γ sin β sin γ



cos α sin β  sin α sin β  cos β (25)

La rotation identité n’est obtenue que pour la valeur nulle du paramètre a, alors qu’elle est associée à une infinité de valeurs des paramètres α, β et γ (toutes les valeurs telles que β = 0, α + γ = 0) ; cette redondance est un inconvénient des angles d’Euler. γ.

Rotations infinitésimales

Nous avons déjà étudié les rotations infinitésimales et leurs relations de commutation au § C-1 du chapitre III. Nous montrons ici leur lien géométrique avec le produit vectoriel. Dans une rotation infinitésimale de vecteur : δa = u δϕ

(26)

le transformé M 0 de M (figure 2) est tel que, au premier ordre en δϕ : −−−→0 −−→ M M = δϕ u × OM + . . .

(27) 183

COMPLÉMENT BV



Figure 2 – Lors d’une rotation infinitésimale d’angle δϕ autour de u, le point courant M se déplace en M 0 selon la relation (27) de produit vectoriel. donc : −−−→0 −−→ −−→ −−→ −−→ OM = OM + δϕ u × OM + . . . = OM + δa × OM + . . .

(28)

et on peut écrire : R (uδϕ) = 1 + δϕ u × + . . .

(29)

Par suite, la matrice associée à R est : R (uδϕ) = 1 + δϕ Mu + . . . 

(30)

où Mu est donné en fonction des composantes ux , uy et uz de u par : Mu = ux Mx + uy My + uz Mz

(31)

et nous retrouvons les relations (III-88) et (III-90) du chapitre III : 



00 0   Mx =  0 0 −1  01 0





0 01   My =  0 0 0  −1 0 0





0 −1 0   Mz =  1 0 0  0 0 0

(32)

Les Mxi (xi = x, y ou z) engendrent l’algèbre de Lie du groupe des matrices de rotation (R). On retrouve alors immédiatement les relations de commutation (III-92) : h

i

Mxi , Mxj = εijk Mxk

(33)

Ces relations montrent que R(3) n’est pas un groupe abélien, et nous donnent les constantes de structure : k Cij = εijk

184

(34)

• DÉPLACEMENTS GÉOMÉTRIQUES Calculons, au deuxième ordre en δϕ et δϕ0 , la rotation produit [commutateur de Ru (δϕ) et de Rv (δϕ0 )] : Ru (δϕ) Rv (δϕ0 ) Ru (−δϕ) Rv (−δϕ0 )

(35)

Le raisonnement général du § A-2-b du chapitre III s’applique ici ; les termes carrés en δϕ2 ou δϕ02 sont nuls (la rotation produit étant l’identité si δϕ ou δϕ0 est nul), ce qui permet facilement d’inverser (29), et : r1 = Rv (−δϕ0 )r = r − δϕ0 v × r + . . . r2 = Ru (−δϕ)r1 = r1 − δϕ u × r1 + . . . = r − δϕ0 v × r − δϕ u × r − δϕ0 v × r + . . . 



r3 = Rv (δϕ0 )r2 = r2 + δϕ0 v × r2 = r − δϕ u × r − δϕ0 v × r − δϕδϕ0 v × [u × r] + . . . 



r4 = Ru (δϕ) r3 = r3 + δϕ u × r3 = r + δϕδϕ0 [u × (v × r) − v × (u × r)] = r + δϕδϕ0 (u × v) × r

(36)

Pour finir, au second ordre en δϕ et δϕ0 : Ru (δϕ) Rv (δϕ0 ) Ru (−δϕ) Rv (−δϕ0 ) = Ru×v (δϕδϕ0 ) + . . .

(37a)

Donc, avec les notations de la relation (III-19) : δc = [u × v] δϕ δϕ0

δ.

(37b)

Topologie du groupe des rotations

Le domaine D accessible au vecteur a (qui a 3 composantes) est l’intérieur d’une sphère de diamètre 2π (figure 3). Deux rotations sont toujours différentes si les vecteurs a sont différents, sauf si leurs extrémités se trouvent sur la surface de la sphère (deux rotations de même axe et d’angles +π et −π donnent le même résultat). On voit de plus que deux vecteurs a opposés tels que |a| = 2π − ε, où ε → 0, correspondent à des rotations infiniment voisines. Pour préserver la topologie du groupe des rotations, il faut donc identifier deux à deux tous les points diamétralement opposés de la surface de la sphère. On notera ici une différence importante avec SU (2), où il fallait identifier entre eux tous les points de la sphère frontière ; cf. chapitre III § B-3. Le groupe des rotations est compact, il est connexe. Il n’est pas simplement connexe, mais 2-connexe : son groupe Π1 d’homotopie est homomorphe 185

COMPLÉMENT BV



0

Figure 3 – Les rotations sont repérées par un paramètre a dont l’extrémité se trouve à l’intérieur d’une sphère de diamètre 2π. La rotation nulle correspond à un vecteur nul a = 0. Les points diamétralement opposés sur la surface de la sphère donnent la même rotation.

au groupe cyclique abélien Z2 . En effet, un chemin comme celui de la figure 4, aboutissant à deux points diamétralement opposés A et A0 de la surface de la sphère, doit être considéré comme fermé (A et A0 correspondent au même élément de R(3) ). Il est clair qu’il n’est pas possible de déformer continûment ce chemin en un chemin infinitésimal puisque A et A0 sont toujours astreints à rester diamétralement opposés. Toutefois, si le chemin considéré passe par deux couples de points diamétralement opposés, A et A0 , B et B 0 , on peut le déformer continûment en un chemin nul : ce chemin fermé est donc homotope à zéro. Pour le voir, considérons dans R(3) un chemin fermé dont l’image est représentée sur la partie de gauche de la figure 5 : le chemin coupe la surface de la sphère en deux couples de points diamétralement opposés, A et A0 d’une part, B et B 0

0

Figure 4 – Un chemin qui aboutit à deux points opposés sur la sphère de rayon π est en fait un chemin fermé (un lacet). 186

• DÉPLACEMENTS GÉOMÉTRIQUES

0

0

0

Figure 5 – Un chemin qui perce la sphère en deux couples de points opposés, A et A0 , B et B 0 , est équivalent à un chemin fermé : par déplacement continu des points sur la sphère, on peut annuler deux à deux les passages du chemin dans la sphère.

de l’autre. On peut incliner les axes AA0 et BB 0 de façon que B 0 se rapproche de A, et B de A0 (figure du centre). Lorsque ces points sont confondus, le chemin initial est formé de deux lacets fermés passant, l’un par A, l’autre par B : un mobile qui suit le chemin fermé décrit successivement un lacet partant et aboutissant à A, puis un autre partant et aboutissant à B. On peut alors contracter l’un de ces lacets en un point (chemin nul), le point B par exemple. Dans ces conditions, le mobile, après avoir décrit le premier lacet non nul, reste ensuite immobile en B (figure de droite). Il revient au même de dire qu’il reste immobile en A, ce qui permet de complètement ignorer le second lacet. Il est alors visible que le chemin restant est homotope à zéro. De façon générale, on voit que l’on peut par ce procédé supprimer par paires les couples de points où le chemin perce la surface de la sphère (il passe par une rotation d’angle π), mais pas un couple isolé. Les chemins fermés ayant un nombre pair de ces couples sont donc homotopes à zéro, ceux ayant un nombre impair homotopes au lacet de la figure 4. En particulier, si l’on considère seulement des rotations autour d’un axe donné, un chemin où l’objet fera un tour (rotation de 2π) sera non homotope à zéro dans R(3) , deux tours (4π) homotope à zéro, etc. Il apparaît ici une propriété importante de R(3) [ou SO(3) ] qui possède une structure topologique plus compliquée que celle d’un groupe simplement connexe. Comparons par exemple R(3) à SU (2), groupe dont la dimension est également n = 3 [chapitre III, § B-3] et dont les constantes de structure sont les mêmes que celles de R(3) [égalités (III-80) du chapitre III]. Les groupes R(3) et SU (2) sont donc localement isomorphes mais ne le sont pas globalement. 187

COMPLÉMENT BV



On peut en fait définir un homomorphisme entre SU (2) et R(3) (ce point est plus détaillé dans le complément AVII ) ; cet homomorphisme fait correspondre à toute matrice de SU (2), repérée par le paramètre a comme au § B-3 du chapitre III, la rotation R associée à la même valeur du paramètre si |a| < π ; sinon, on prend la valeur de a définissant la matrice opposée de SU (2). De cette façon, deux matrices opposées de SU (2) (figure 11) correspondent à la même rotation R. Le fait que SU (2) apparaît alors comme “deux fois plus grand” que R(3) se voit également si l’on compare 2 la figure 3 avec la figure 13 du chapitre III. Contrairement à R(3) , le groupe SU (2) est d’ailleurs simplement connexe comme nous l’avons vu au § B-3 du chapitre III. Le groupe SU (2) est donc le “groupe de revêtement universel” de R(3) [cf. note (9) du chapitre III]. La propriété générale de l’espace qui veut que le groupe des rotations est 2-connexe a d’importantes conséquences : c’est elle qui entraîne en mécanique quantique la possibilité d’existence de particules de spin demi-entier. Nous reviendrons sur ce point au chapitre VII. 1-c.

Déplacement quelconque

Un déplacement quelconque peut être obtenu par l’application successive d’une rotation de vecteur a et d’une translation de vecteur `, dans cet ordre (mais on pourrait avoir choisi l’ordre inverse). Les coordonnées xyz d’un point se transforment suivant :  0   x x  y0  y      0  = D (a, `)   z  z

1

(38a)

1

où D est une matrice 4 × 4 qui s’écrit en fonction des composantes ax , ay , az de a et `x , `y , `z de ` sous la forme : 

`x  R(a) `  y D (a, `) =  `z  000 1

    

(38b)

Dans cette expression R(a) est une des matrices 3 × 3 de rotation écrites au paragraphe 1-b précédent. Les égalités (38) sont équivalentes à : r 0 = R(a) r + `

(39a)

2. Le centre de SU (2) [sous-groupe invariant commutant avec tous les éléments de SU (2)] est constitué de la matrice identité 2 × 2 et de son opposée ; c’est un groupe à 2 éléments isomorphes à Z2 . Le groupe des rotations est isomorphe au groupe quotient SU (2)/Z2 (cf. complément AII ).

188

• DÉPLACEMENTS GÉOMÉTRIQUES ou, inversement : r = R −1 (a) r 0 − ` 



(39b)

Comme au chapitre III, on obtient par dérivation de (38b) les matrices de l’algèbre de Lie. On trouve ainsi les trois matrices Πx , Πy , Πz déjà écrites en (8), auxquelles s’ajoutent 3 matrices obtenues en adjoignant une ligne et une colonne de zéros aux M données en (32). Nous ne redonnons pas ici le calcul des relations de commutation entre ces 6 matrices, qui a en fait déjà été effectué au § C du chapitre III (dans le cas de matrices 5 × 5, mais le résultat est le même). Effectuons plutôt un calcul élémentaire d’analyse vectorielle, ce qui nous permettra en plus d’obtenir à nouveau les relations de commutation entre opérateurs infinitésimaux de translation et de rotation. L’opération de déplacement infinitésimal la plus générale transforme r en r 0 donné par [cf. (3) et (28)] : r 0 = 1 + (δa × r) + δ`

(40)

Calculons au second ordre en δϕ et δ` l’effet du commutateur : Ru (δϕ) Tv (δ`) Ru (−δϕ) Tv (−δ`)

(41)

Il vient, par le même raisonnement qu’au § 1-b-γ : r1 = Tv (−δ`) r = r − vδ` r2 = Ru (−δϕ) r1 = r1 − δϕ u × r1 + . . . = r − vδ` − δϕ u × [r − vδ`] r3 = Tv (δ`) r2 = r2 + vδ` = r − δϕ u × r + δϕδ` u × v + . . . 0

r = Ru (δϕ) r3 = r3 + δϕ u × r3 + . . . = r + δϕδ` u × v + . . .

(42)

Donc, au second ordre en δϕ et δ` : Ru (δϕ) Tv (δ`) Ru (−δϕ) Tv (−δ`) = Tu×v (δϕδ`)

(43)

relation qui nous montre que le commutateur infinitésimal est une translation de vecteur δϕδ`(u × v). Adoptons la correspondance suivante : i= 1 2 3 Mx My Mz

4 5 6 Πx Πy Πz

(44) 189

COMPLÉMENT BV



Alors, si l’on convient de choisir i, j, k ≤ 3 : k+3 Cij =0

k Cij = εijk

(45a)

(non-commutation des rotations entre elles) on a :   C k+3

=0

 Ck

=0

i+3, j+3 i+3, j+3

(45b)

(les translations commutent entre elles) et :   Ci,k j+3 = 0

(45c)

 C k+3 = ε ijk i, j+3

[non-commutation des translations et des rotations, écrite en (43)]. Ces égalités sont équivalentes aux relations (III-100a), (III-100b) et (III-100e) du chapitre III. 2.

Opérateurs associés dans l’espace des états

Suivant le schéma du § D du chapitre IV, nous allons maintenant chercher l’image, dans l’espace des états E du système étudié, du groupe E(3) des déplacements. 2-a.

Générateurs infinitésimaux. Relations de commutation

Soit |ψi le vecteur d’état du système initial, |ψ 0 i celui du système après un déplacement de paramètres a et `. L’opérateur unitaire T permet de passer de |ψi à |ψ 0 i : |ψ 0 i = T (a, `) |ψi

(46)

Lorsque a et ` sont infinitésimaux, on a : T (δa, δ`) = 1 −

i (δa · J + δ` · P ) + . . . ~

(47)

Cette égalité doit être considérée comme la définition des opérateurs J (c’està-dire des 3 composantes Jx , Jy et Jz , qui sont chacune un opérateur) et P (qui, de même, symbolise 3 opérateurs Px , Py , Pz ). Si maintenant nous écrivons comme en (IV-55) et (IV-56) que T † T = 1 (T est unitaire), nous obtenons : (

Pxi = Px†i Jxi = Jx†i

190

xi = x, y, z 00

00

(48)

• DÉPLACEMENTS GÉOMÉTRIQUES Les opérateurs P et J sont donc hermitiques. Le premier d’entre eux sera, par définition, l’impulsion totale du système physique étudié ; le second sera son moment cinétique total. Il nous reste maintenant à appliquer le raisonnement général du § D-2 du chapitre IV pour trouver les relations de commutation entre composantes de P et J . Nous avons la correspondance suivante entre opérateurs, Π et M agissant dans l’espace ordinaire R(3) et P et J agissant dans l’espace des états E : i Π⇔− P ~ i M ⇔− J ~

(49)

Nous avons vu dans le chapitre IV que, pour les transformations infinitésimales dans le groupe des déplacements, nous n’avions pas à nous préoccuper d’un caractère éventuellement projectif de la représentation, qui peut toujours être éliminé par une redéfinition adéquate des opérateurs. Si donc k données nous écrivons des relations du type (IV-65) avec les constantes Cij en (45), il vient : i h  P , P =0  x x i j   h i

J ,J

= i~ ε

J

xi xj ijk xk   h i    Jx , Px = i~ ε Px ijk i j k

(50)

L’origine profonde de ces relations est purement géométrique, et ne dépend en aucune façon du système physique étudié. 2-b.

Opérateurs de déplacement fini

Si les facteurs de phase peuvent être éliminés pour les transformations infinitésimales, il n’est pas évident qu’ils puissent l’être également pour toutes les transformations finies. Nous verrons que c’est en fait le cas pour les translations, mais pas toujours pour les rotations. α.

Translations

Nous désirons calculer l’opérateur T (0, `) associé à une translation pure (sans rotation) dans une direction fixe u donnée : ` = `u. Nous connaissons l’opérateur infinitésimal T (0, δ`u) où δ` → 0. D’après (47) : i i T (0, δ`u) = 1 − δ` u · P + . . . = 1 − δ` Pu + . . . ~ ~

(51) 191



COMPLÉMENT BV

où : Pu = u · P

(52)

Calculons ensuite l’opérateur T (0, `u) associé à une translation finie `u. Une translation de (` + δ`)u est le produit d’une translation de `u par une autre de δ`u, de sorte que : T (0, (` + δ`)u) = e−iξ(`,δ`) T (0, δ`u) T (0, `u)

(53)

Nous avons introduit un facteur de phase e−iξ(`,δ`) , mais nous montrons plus bas qu’il est inutile dans le cas du groupe des translations ; nous l’ignorerons donc pour le moment. Dans ces conditions, nous obtenons : i T 0, (` + δ`)u − T (0, `u) = − δ` Pu ~ 





T (0, `u)

(54)

ou encore : d i T (0, `u) = Pu T (0, `u) d` ~

(55)

Cette équation différentielle du premier ordre peut être résolue, compte tenu de la condition initiale : T (0, ` = 0) = 1

(56)

et l’on obtient : i T (0, `u) = T (0, `) = exp − ` Pu ~ 



(57)

On vérifie par dérivation de cette égalité, qui ne présente aucune difficulté puisqu’un seul opérateur (Pu ) y apparaît, qu’on obtient immédiatement (55). Nous avons ainsi obtenu une valeur de l’opérateur de translation “allant en ligne droite” depuis l’origine vers la valeur finale ` du paramètre. Elle peut s’écrire sous la forme : i T (0, `) = exp − ` · P ~ 



(58)

La question qui se pose maintenant est de voir dans quelle mesure l’opérateur T , que nous avons obtenu par un chemin (le plus direct) à partir de l’origine (opérateur unité), varie si l’on choisit un autre chemin. Supposons par exemple que, au lieu d’aller en ligne droite, nous choisissions un chemin qui fait un détour, comme celui de la figure 6. L’intégrale qui donne la valeur finale de T (0, `) comprend maintenant 5 morceaux, dont 3 où la 192

• DÉPLACEMENTS GÉOMÉTRIQUES

Figure 6 – Dans l’espace des paramètres ` qui définissent les opérateurs de translation, on prend deux chemins qui partent de l’origine (transformation identité) pour arriver à une même valeur de `. On montre que les intégrations le long de ces deux chemins mènent à la même valeur finale T (0, `). Pour simplifier, la figure est plane et ne montre que les deux composantes `x et `y , ignorant la troisième composante `z . variable d’intégration varie parallèlement à la direction u de la valeur finale de `, et 2 où elle varie dans une direction perpendiculaire v. Appelons `1 , `2 , `3 , `2 et `4 la longueur des chemins associés à chacun des morceaux. Chacun d’entre eux multiplie l’opérateur de la transformation par une contribution de la forme (58), de sorte que la valeur finale obtenue au bout du chemin est maintenant : i T (0, `u) = exp − `1 Pu ~ 



i i exp − `2 Pv exp − `3 Pu ~ ~     i i × exp − `2 P−v exp − `4 Pu ~ ~ 







(59)

Mais, comme les opérateurs Pu et Pv commutent, on peut changer à volonté l’ordre des exponentielles. Comme, de plus, P−v = −Pv , les deux exponentielles contenant Pv se compensent et, regroupant celles en Pu , on obtient à nouveau (57). Ainsi, les deux chemins différents pour construire l’opérateur T (0, `u) conduisent-ils à la même valeur. Le raisonnement se généralise à un chemin comportant un nombre quelconque de composantes dans les deux directions perpendiculaires à u, et approchant de mieux en mieux un chemin courbe. Tout chemin aboutissant à la même translation T (`) va mener au même opérateur T , sans facteur de phase dépendant du chemin. L’expression (58) sera donc prise comme définition des opérateurs de translation. Toutes les composantes de P commutant entre elles, on voit sur (58) que : T (0, `) T 0, `0 = T 0, `0 T (0, `) = T 0, ` + `0 





(60) 193

COMPLÉMENT BV



Les opérateurs T donnent une représentation du groupe des translations dont les facteurs de phase sont absents. Nous verrons que la situation n’est pas toujours aussi simple dans le cas du groupe des rotations. Autre démonstration de l’absence de facteur de phase. Si l’on tient compte du facteur de phase dans (53), on doit écrire : T (0, ` + d`) = e−iξ(`,`+d`) T (0, d`) T (0, `)

(61)

La fonction ξ(`, `) étant nulle par définition, nous avons au premier ordre : ξ(`, ` + d`) = d` · ∇ξ(`)

(62)

ce qui nous conduit à :  i  T (0, ` + d`) − T (0, `) = − d` · P − id` · ∇ξ(`) T(0, `) ~

(63)

Lorsque l’on intègre cette équation pour passer de la translation ` = 0 à une translation de ` fini, comme nous l’avons fait plus haut, le terme en ∇ξ introduit un facteur de phase supplémentaire : Z   exp − i d` · ∇ξ(`) (64) Ce facteur contient une intégrale de chemin dans l’espace du paramètre des translations, celui menant de l’origine ` = 0 à la valeur finale `. Comme le groupe des translations est simplement connexe, cette intégrale du gradient prend une valeur indépendante du chemin. Ainsi chaque opérateur de translation acquiert une phase supplémentaire définie de façon unique. Mais ce facteur de phase est sans aucune conséquence physique, et peut être ignoré. On remarque au passage que la relation (63) montre que la suppression de ce facteur de phase est obtenue en retirant à l’opérateur P un terme proportionnel à ∇ξ ; nous retrouvons ainsi la redéfinition de P par soustraction d’un opérateur diagonal qui nous a permis, au § A-2 du chapitre V, de simplifier les relations de commutations du groupe de Galilée.

β.

Rotations

Nous allons faire pour les rotations un raisonnement du même type que pour les translations. Une rotation infinitésimale de vecteur δa correspond d’après (47) à l’opérateur : i i T (δa, 0) = 1 − δa · J + . . . = 1 − δa Ju + . . . ~ ~

(65)

où : u= 194

δa |δa|

Ju = u · J

(66)

• DÉPLACEMENTS GÉOMÉTRIQUES Toutes les équations (51) à (57) peuvent alors être réécrites en remplaçant T (0, `u) par T (au, 0) et Pu par Ju . Il vient ainsi : 

T (a, 0) = exp −

i a·J ~



(67)

expression que nous adoptons pour celle d’un opérateur de rotation. Une différence importante avec les translations apparaît cependant à ce stade : les composantes de J ne commutent pas entre elles. De plus, nous avons vu au § 1-b-δ que le groupe des rotations n’est pas simplement connexe, et que plusieurs classes de chemins non équivalents peuvent y mener d’un point à un autre. L’unicité de l’opérateur obtenu par intégration à partir de l’origine n’est donc plus garantie. Dans la suite, nous verrons effectivement que, suivant la structure de l’espace des états E du système étudié, la représentation est, soit une vraie représentation, soit une représentation projective telle que 3 : T (R2 ) T (R1 ) = ±T (R2 R1 )

(68)

Nous verrons également le lien qui existe entre les représentations bivaluées et la structure 2-connexe du groupe des rotations. γ.

Déplacement quelconque

Pour un déplacement repéré comme en (38) ou (40) par les paramètres a et `, l’opérateur T associé agissant dans l’espace des états E sera par définition : T (a, `) = T (0,n`) T (a, 0) o n o = exp − ~i ` · P exp − ~i a · J

(69)

Comme dans le cas des rotations, il n’est pas évident a priori que la représentation du groupe des déplacements E(3) ainsi obtenue dans l’espace des états soit vraie (non projective), et ce n’est effectivement pas toujours le cas. 2-c.

Ensemble de deux sous-systèmes, additivité des impulsions et moments cinétiques

Considérons maintenant un système physique obtenu par la réunion de plusieurs sous-systèmes. Il peut s’agir par exemple d’un système constitué de plusieurs particules, de particules et de champs, etc. Raisonnons pour

3. Dans le complément AIV on montre que, le groupe des rotations étant 2-connexe, deux valeurs de la phase sont possibles.

195

COMPLÉMENT BV



simplifier dans le cas où le nombre de sous-systèmes est deux. L’espace des états E du système physique global est le produit tensoriel : E = E1 ⊗ E2

(70)

des espaces des états E1 et E2 associés respectivement aux sous-systèmes (1) et (2). Dans chacun de ces espaces, on peut définir des opérateurs impulsion P1 et P2 ainsi que des opérateurs de moment cinétique J1 et J2 . De même, dans E1 comme dans E2 , nous pouvons introduire des opérateurs T de déplacement. Par exemple, pour une translation de vecteur ` : i ` · P1 ~   i T2 (0, `) = exp − ` · P2 ~ 



T1 (0, `) = exp −

(71)

On sait qu’à tout opérateur A1 agissant dans E , on peut associer un opérateur (opérateur “prolongé”) agissant dans E = E1 ⊗ E2 . Par définition, on pose, si |ϕ1 i est un ket de E1 et |ϕ2 i un ket de E2 : A1 (|ϕ1 i ⊗ |ϕ2 i) = (A1 |ϕ1 ) ⊗ |ϕ2 i

(72)

Bien sûr, il en est de même pour un opérateur agissant initialement dans E2 . On vérifie facilement que tout opérateur affecté d’un indice 1 commute avec tout opérateur ayant un indice 2. Par exemple : [J1 , J2 ] = 0 [J1 , P2 ] = 0 [T1 , T2 ] = 0

etc.

(73)

Considérons un état du système total de la forme : |ψi = |ϕ1 i ⊗ |ϕ2 i

(74)

Il est clair que, pour effectuer une translation sur ce système, il faut effectuer une translation de chacun des deux sous-systèmes. L’état |ψ 0 i ainsi obtenu est : |ψ 0 i = |ϕ01 i ⊗ |ϕ02 i

(75)

avec : |ϕ01 i = T1 (0, `) |ϕ1 i |ϕ02 i = T2 (0, `) |ϕ2 i 196

(76)

• DÉPLACEMENTS GÉOMÉTRIQUES Par suite, |ψ 0 i s’obtient à partir de |ψi par la relation : |ψ 0 i = T1 (0, `) T2 (0, `) |ψi

(77)

Si maintenant |ψi est un ket quelconque de E (pas nécessairement un produit tensoriel), il peut être décomposé linéairement en une somme de produits tensoriels de la forme |ϕ1 i ⊗ |ϕ2 i, et on voit facilement que la formule (77) reste encore valable. Ceci nous montre donc que les opérateurs de translation (ou, plus généralement, de déplacement) sont simplement obtenus par produits des opérateurs traduisant le même déplacement dans chacun des espaces des états individuels E1 et E2 . La généralisation à un nombre plus grand de sous-systèmes est évidente. De cette propriété découle que l’impulsion totale P du système et son moment cinétique total J sont simplement les sommes : (

P = P1 + P2 J = J1 + J2

(78)

Considérons en effet une translation de vecteur infinitésimal d`. On a : T (0, d`) = T1 (0, d`) T2 (0, d`)     i i = 1 − d` · P1 + . . . 1 − d` · P2 + . . . ~ ~ i = 1 − d` · (P1 + P2 ) + . . . ~

(79)

La première des égalités (78) découle donc simplement de la définition de l’impulsion totale du système (opérateur hermitique engendrant les translations infinitésimales). Pour les rotations, le raisonnement est identique à celui des translations. Les égalités (78) sont donc démontrées : l’impulsion totale et le moment cinétique total du système sont simplement obtenus par addition des impulsions et moments cinétiques des sous-systèmes. D’autre part, les relations de commutation entre composantes de P ou de J sont les mêmes pour le système total que pour chacun des soussystèmes ; ceci découle immédiatement de (73) et (78). Remarques :

(i) Les égalités (78) restent valables dans tous les cas, que les soussystèmes interagissent ou non. (ii) Les espaces E1 et E2 peuvent être relatifs à des variables différentes d’un même système (variables orbitales et de spin d’une même particule par exemple). 197

COMPLÉMENT BV



(iii) Si le système (1) est une particule, (2) un champ, les structures des espaces des états E1 et E2 sont très différentes. Un champ a un nombre infini de degrés de liberté et un espace des états est “bien plus grand” que celui d’une particule unique. Les égalités (78) sont cependant toujours valides dans ce cas. 2-d.

Invariance par translation ou rotation

Lors d’une translation de vecteur `, une observable B devient (cf. chap. IV, § C) : B 0 = T (0, `) B T † (0, `)     i i = exp − ` · P B exp `·P ~ ~

(80)

et dans une rotation de vecteur a : B 00 = T (a, 0) B T † (a, 0)     i i = exp − a · J B exp a·J ~ ~

(81)

Une observable B est dite invariante par translation si B 0 = B, invariante par rotation si B 00 = B. L’égalité B 0 = B est équivalente à : [B, T (0, `)] = 0

(82)

ou encore : [B, P ] = 0

(83)

Cette dernière égalité peut donc être prise comme définition : une observable invariante par translation est une observable qui commute avec l’impulsion totale P du système. Exemple : Dans le chapitre I, nous avons vu que, pour un système d’hamiltonien H indépendant du temps (système conservatif), les opérations de translation sont transformations de symétrie du mouvement, à condition que : [H, T (0, `)] = 0

∀`

(84)

c’est-à-dire : [H, P ] = 0

(85)

L’hamiltonien est donc invariant par translation, ce qui revient à dire que l’impulsion P est constante du mouvement. 198

• DÉPLACEMENTS GÉOMÉTRIQUES Remarque :

Pour un système composé de plusieurs sous-systèmes en interaction, il faut bien distinguer les relations de commutation avec les impulsions individuelles P1 , P2 , . . . des sous-systèmes, de celles avec l’impulsion totale : P =

X

Pi

(86)

i

Si le système global est libre (pas de potentiel extérieur), alors son hamiltonien H commute nécessairement avec P : [H, P ] = 0

(87)

mais les commutateurs [H, Pi ] ne sont pas nécessairement nuls (bien que leur somme le soit). Tout ce qui précède se transpose immédiatement, et sans changement autre que de remplacer P par J , à l’invariance par rotation. L’observable B est invariante par rotation si : [B, J ] = 0

(88)

Pour un système d’hamiltonien H indépendant du temps, une rotation quelconque autour d’un point donné O est une opération de symétrie si le moment cinétique J autour de ce point est une constante du mouvement : [H, J ] = 0

(89)

Exemple : Considérons une particule (ou un système physique) libre dans l’espace. Le moment cinétique J de ce système par rapport à un point quelconque est une constante du mouvement.

199



GROUPE DE LORENTZ PROPRE

Complément CV Groupe de Lorentz propre 1

2

3

Lien avec le groupe SL(2, C) . . . . . . . . . . . . . 1-a Transformation d’un quadrivecteur . . . . . . . . . 1-b Transformations de Lorentz pures . . . . . . . . . 1-c Rotations pures . . . . . . . . . . . . . . . . . . . . 1-d Transformations de Lorentz générales . . . . . . . 1-e Précession de Thomas . . . . . . . . . . . . . . . . Petit groupe associé à un quadrivecteur . . . . . 2-a Conditions à satisfaire pour une transformation infinitésimale . . . . . . . . . . . . . . . . . . . . . . 2-b Matrice de transformation . . . . . . . . . . . . . . 2-c Transformation d’une énergie-impulsion à composante spatiale nulle . . . . . . . . . . . . . . . . . . Opérateur W 2 . . . . . . . . . . . . . . . . . . . . . .

201 202 203 204 205 206 207 207 208 209 211

Le groupe de Lorentz dit “propre” est le groupe des transformations d’un quadrivecteur d’espace-temps que l’on peut obtenir par produits de rotations et transformations de Lorentz pures. Un quadrivecteur est caractérisé par ses 4 coordonnées de temps et d’espace ct, x, y, z, où les 3 dernières coordonnées sont celles d’un vecteur r de l’espace ordinaire à 3 dimensions. Les transformations du groupe de Lorentz propre laissent invariante la norme c2 t2 − x2 − y 2 − z 2 du quadrivecteur, et sont toutes connectées à la transformation identité par un chemin continu (leur groupe est connexe). 1.

Lien avec le groupe SL(2, C)

Le groupe SL(2, C) est le groupe des matrices 2 × 2 à éléments complexes dont le déterminant est égal à l’unité. Il contient le sous-groupe SU (2) des matrices 2 × 2 unitaires, sur lequel nous reviendrons lors de l’étude des rotations (cf. complément AVII ). Le but de ce § 1 est de montrer qu’il existe une correspondance entre toute matrice de SL(2, C) et une transformation de Lorentz propre, telle qu’au produit des matrices associées à deux matrices corresponde le produit des transformations. Cette correspondance n’est pas biunivoque, et fournit donc un homomorphisme plutôt qu’un isomorphisme. Nous revenons sur cette correspondance au complément AVII , dans le cas particulier de la correspondance entre rotations et matrices de SU (2). Nous y montrons que deux matrices opposées de SU (2) correspondent à la même rotation de SO(3), et donc que la représentation des rotations est bivaluée (§ A-5 du chapitre VII).

201

COMPLÉMENT CV



Ceci est lié au fait que SU (2) est simplement connexe, alors que le groupe des rotations ne l’est pas. SU (2) constitue le groupe de revêtement universel de celui des rotations, et SL(2, c) celui du groupe de Lorentz propre. 1-a.

Transformation d’un quadrivecteur

A tout quadrivecteur nous associons la matrice hermitique (M ) définie par : (M ) = (ct)1 + xσx + yσy + zσz =

ct + z x + iy

x − iy ct − z

!

(1)

La norme du quadrivecteur est simplement égale au déterminant de (M ) : det(M ) = c2 t2 − x2 − y 2 − z 2

(2)

Introduisons maintenant une matrice 2 × 2 complexe (L) soumise à la seule contrainte d’avoir un déterminant unité (en particulier, nous ne lui imposons pas d’être hermitique) : det(L) = 1

(3)

Comme (M ), nous pouvons la développer sur les matrices de Pauli : (L) = λ0 1 + λ1 σx + λ2 σy + λ3 σz =

λ0 + λ3 λ1 + iλ2

λ1 − iλ2 λ0 − λ3

!

(4)

Les composantes λ0 , λ1 , λ2 et λ3 sont cette fois complexes, et soumises à la condition : det(L) = (λ0 )2 − (λ1 )2 − (λ2 )2 − (λ3 )2 = 1

(5)

soit deux conditions en termes de nombres réels. En tout, la matrice (L) dépend donc de 6 paramètres réels. Calculons maintenant la matrice (M 0 ) obtenue par la relation : (M 0 ) = (L)(M )(L)† = (ct0 )1 + x0 σx + y 0 σy + z 0 σz

(6)

où (L)† est la matrice adjointe de (L) ; son déterminant est le complexe conjugué de celui de (L), donc lui aussi égal à l’unité. Le déterminant d’un produit de matrices carrées étant égal au produit des déterminants, nous voyons que : det(M 0 ) = c2 t02 − x02 − y 02 − z 02 = det(M ) = c2 t2 − x2 − y 2 − z 2 (M 0 )

(7)

Le passage de (M ) à conserve donc la norme du quadrivecteur, comme le fait une transformation de Lorentz. On peut donc s’attendre à ce que (L) définisse effectivement une telle transformation. Remarque : Un changement de signe de la matrice (L) ne modifie, ni son déterminant, ni la matrice (M 0 ) : deux matrices opposées (L) et −(L) sont donc associées à la même transformation des quadrivecteurs (représentation bivaluée de ces transformations). 202

• 1-b.

GROUPE DE LORENTZ PROPRE

Transformations de Lorentz pures

Pour voir la correspondance entre matrices (L) et transformations de Lorentz, commençons par supposer que (L) n’ait que des composantes sur la matrice unité et σz : λ0 + λ3 0 0 λ0 − λ3

(L) = λ0 1 + λ3 σz =

!

(8)

Un calcul simple fournit alors : (M 0 ) =

(λ0 + λ3 )(λ∗0 + λ∗3 )(ct + z) (λ0 + λ3 )(λ∗0 − λ∗3 )(x − iy) (λ0 − λ3 )(λ∗0 + λ∗3 )(x + iy) (λ0 − λ3 )(λ∗0 − λ∗3 )(ct − z)

!

(9)

soit : ct0 = (|λ0 |2 + |λ3 |2 )(ct) + (λ0 λ∗3 + λ3 λ∗0 )z z 0 = (λ0 λ∗3 + λ3 λ∗0 )(ct) + (|λ0 |2 + |λ3 |2 )z x0 + iy 0 = (λ0 − λ3 )(λ∗0 + λ∗3 )(x + iy)

(10)

La relation (III-103) du chapitre III rappelle les relations standard d’une transformation de Lorentz pure de vitesse v le long de l’axe Oz : ct0 = γ [ct + βz] z 0 = γ [β(ct) + z] x0 + iy 0 = x + iy

(11)

avec : β=

v c

1 γ=p 1 − β2

(12)

Supposons alors la matrice (L) réelle. Ses deux éléments diagonaux sont alors de même signe, puisque le déterminant vaut l’unité, et on peut les prendre positifs puisque le signe de (L) est arbitraire. Nous pouvons donc poser : λ0 + λ3 = eq/2

et :

λ0 − λ3 = e−q/2

(13)

où q est un nombre réel. Il vient alors : q λ0 = ch( ) 2

et :

q λ3 = sh( ) 2

(14)

Les relations (10) s’identifient alors à (11) si : γ = chq β = th q

(15) 203

COMPLÉMENT CV



Le paramètre q, appelé “rapidité”, prend donc la valeur : s

q = Argt thβ = ln

1+β 1−β

(16)

Si donc nous définissons q par cette relation, puis λ0 et λ3 par (14), et enfin reportons ces valeurs (réelles) dans (8), la relation (6) définit effectivement une transformation de Lorentz pure parallèle à l’axe Oz. La matrice (L) correspondante s’écrit : q q (L) = ch( ) 1 + sh( ) σz 2 2

(17)

Les trois axes d’espace jouant un rôle symétrique, nous pouvons remplacer dans cette relation la composante σz par σx ou σy , ou même la composante σu de σ sur une direction u quelconque. Une transformation de Lorentz pure de rapidité q selon la direction u est donc décrite par la matrice : q q (L) = ch( ) 1 + sh( ) u · σ 2 2 1-c.

(18)

Rotations pures

Changeons maintenant q en −iθ avec θ réel. Les relations (14) deviennent alors : λ0 = cos θ/2 λ3 = −i sin θ/2

(19)

et les relations (10) se simplifient en : ct0 = ct z=z x0 + iy 0 = eiθ (x + iy)

(20)

soit : x0 = x cos θ − y sin θ y 0 = x sin θ + y cos θ

(21)

La matrice (L) engendre donc une rotation du vecteur r d’angle θ autour de Oz, sans aucun effet sur le temps (rotation d’espace pure). L’expression explicite de (L) est la matrice unitaire : (L) = 204

e−iθ/2 0 0 eiθ/2

!

= e−iσz θ/2 = cos

θ θ − i sin σz 2 2

(22)



GROUPE DE LORENTZ PROPRE

En remplaçant dans cette égalité σz par la composante σu de σ sur un vecteur unitaire u de direction quelconque, on peut engendrer des rotations autour d’un axe u arbitraire, et donc tout le groupe des rotations. Toutes les matrices (L) appartiennent alors au sous-groupe unitaire SU (2) du groupe SL(2, C). Comme mentionné plus haut, nous revenons plus en détail dans le complément AVII sur la relation d’homomorphisme entre le groupe SU (2) et celui des rotations SO(3). Le premier est simplement connnexe et fournit le groupe de revêtement universel du second, qui ne l’est pas. 1-d.

Transformations de Lorentz générales

En combinant transformations de Lorentz pures et rotations d’espace, nous pouvons obtenir une transformation quelconque, pure ou non, du groupe de Lorentz propre. La relation (6) permet de voir que les matrices (L) associées au produit des transformations sont obtenues par produit des matrices (L) de chacune des transformations. Ce sont donc elles aussi des matrices 2 × 2 de déterminant unité, qui appartiennent à SL(2, C) ; ce groupe matriciel fournit donc une représentation de l’ensemble du groupe de Lorentz. Comme attendu, cette transformation dépend de 6 paramètres réels : 3 pour les transformations de Lorentz pures, 3 pour les rotations pures. Dans le cas des transformations infinitésimales, dans (4) on remplace λ1,2,3 par δλ1,2,3 . Les parties réelles de ces coefficients déterminent alors une transformation de Lorentz infinitésimale, les parties imaginaires une rotation infinitésimale. Pour des transformations finies, une matrice (L) hermitique engendre une transformation de Lorentz pure, une matrice (L) unitaire une rotation pure. Comme, de plus, toute matrice (L) peut être écrite 1 comme le produit (B)(A) d’une matrice hermitique (A) par une matrice unitaire (B), on voit que toute transformation du groupe de Lorentz peut s’obtenir par le produit de deux transformations pures. La matrice (L)−1 associée à la transformation inverse de L = 1 + λ · σ est simplement obtenue en changeant le signe de λ. En effet, compte tenu des propriétés de multiplication et d’anticommutation des matrices de Pauli, nous avons : (λ0 1 + λ · σ) (λ0 1 − λ · σ) = (λ0 )2 1 − (λ · σ)(λ · σ) = (λ0 )2 − λ2

(23)

où le second membre est le déterminant de (L), donc l’unité. 1. La matrice (L)† (L) est hermitique, donc diagonalisable. Son déterminant vaut l’unité, de sorte qu’aucune de ses valeurs propres n’est nulle. Elles sont de plus positives puisque (L)† (L), pris entre un bra et un ket, donne la norme d’un ket. On peut alors introduire une matrice hermitique inversible (A) telle que (A)2 = (L)† (L) et définir une matrice (B) par (B) = (L)(A)−1 ; la matrice (A)−1 est hermitique. Comme (B)† (B) = (A)−1 (L)† (L)(A)−1 = (A)−1 (A)2 (A)−1 = (1), cette matrice (B) est unitaire. La relation de définition de (B) montre alors que (L) = (B)(A), ce qui démontre la proposition.

205

COMPLÉMENT CV

1-e.



Précession de Thomas

Un exemple d’application directe de ce qui précède est fourni par le calcul de la précession de Thomas. Considérons l’effet de l’application successive de deux transformations de Lorentz pures, associées respectivement aux matrices (L) et (L0 ) : q q (L) = ch( ) 1 + sh( ) u · σ 2 2 0 q q0 (L0 ) = ch( ) 1 + sh( ) u0 · σ 2 2

(24)

La matrice de SL(2, C) associée au produit des deux transformations est : h q q0 q q0 q0 q i (L)(L0 ) = ch( )ch( )1 + ch( )sh( )u0 + ch( )sh( )u · σ 2 2 2 2 2 2 q q0 + sh( )sh( )(u0 · σ)(u · σ) (25a) 2 2

soit, compte tenu des relations standard de multiplication des matrices de Pauli : h i q q0 q q0 (L)(L0 ) = ch( )ch( ) + sh( )sh( ) u · u0 1 2 2 2 2 h q q0 q0 q i + ch( )sh( )u0 + ch( )sh( )u · σ 2 2 2 2 q q0 + i sh( )sh( )(u × u0 ) · σ 2 2

(25b) Le terme de la seconde ligne de cette relation, réel, fournit le paramètre de la transformation de Lorentz pure contenue dans la transformation produit. Le terme de la troisième ligne est imaginaire ; il montre que, de surcroît, ce produit contient une rotation autour de la direction définie par le produit vectoriel u × u0 (sauf bien sûr si u et u0 sont parallèles). L’origine de cette rotation, appelée précession de Thomas, est la relation de commutation (V-58) entre diverses composantes du vecteur K. Remarque : Dans le cas particulier u = u0 (transformations de Lorentz selon des directions parallèles), la relation (25b) se simplifie en : (L)(L0 ) = ch(

q + q0 q + q0 )1 + sh( )u · σ 2 2

(25c)

dont le paramètre q + q 0 est simplement la somme de ceux des transformations individuelles. Nous retrouvons ainsi une propriété mentionnée dans la dernière remarque du chapitre III : si l’on utilise la rapidité pour paramétrer les transformations de Lorentz pures, le produit de deux transformations de même direction est simplement paramétré par la somme des deux rapidités. 206

• 2.

GROUPE DE LORENTZ PROPRE

Petit groupe associé à un quadrivecteur

Considérons un quadrivecteur dont les composantes ct, x, y, z sont données. L’ensemble des transformations de Lorentz qui laissent ce quadrivecteur invariant constitue un sous-groupe du groupe des transformations de Lorentz propres, qui porte le nom de “petit groupe”. Il est par exemple évident que toutes les rotations autour d’un axe parallèle au vecteur r (x, y, z) font partie du petit groupe ; de plus, comme nous allons le voir, y figurent également certaines combinaisons des transformations de Lorentz pures et des rotations. Les transformations de Lorentz propres dépendent de 6 paramètres réels, 3 pour les rotations et 3 pour les changements de repère définis par une vitesse d’entraînement. L’invariance d’un quadrivecteur impose a priori 4 conditions, mais seulement 3 dans ce cas, puisque les transformations de Lorentz conservent toutes la norme des quadrivecteurs : conserver le module de r conserve automatiquement celui du temps, et également le signe puisque les transformations sont orthochrones (pas de renversement du temps). Nous nous attendons donc à ce que les transformations du petit groupe dépendent de 3 paramètres réels. 2-a.

Conditions à satisfaire pour une transformation infinitésimale

Cherchons maintenant à construire une transformation infinitésimale du petit groupe, de paramètres (réels) δv et δa, en posant : (L) = 1 +

δv δa ·σ−i ·σ 2c 2

(26)

On a alors : δv δa (M ) = (A)(M )(A) = 1 + ·σ−i ·σ 2c 2 0







δv δa [(ct)1 + xσx + yσy + zσz ] 1 + ·σ+i ·σ (27) 2c 2 Au premier ordre, les termes en δv introduisent dans cette équation des anticommutateurs entre matrices de Pauli, les termes en δa des commutateurs. Compte tenu des propriétés d’anticommutation et de commutation de ces matrices, et du fait que leur carré donne la matrice unité, on obtient au premier ordre : δv δv (M 0 ) = (M ) + (ct) · σ + (ct) · r (1) + (δa × r) · σ (28) c c La nullité des termes du premier ordre impose alors que : 

  

δv · r = 0 δv  = −δa × r  (ct) c



(29a) (29b) 207

COMPLÉMENT CV



L’égalité (29a) exprime que δv doit être perpendiculaire à r ; c’est naturel, puisqu’une transformation de Lorentz pure ne modifie pas les composantes d’espace du quadrivecteur qui sont perpendiculaires à la vitesse du changement de repère. La relation (29b) impose également cette perpendicularité ; elle contient donc (29a), qui peut être ignorée. Seules interviennent les composantes ax et ay de a perpendiculaires à r ; la troisième composante az reste donc libre, ce qui se comprend puisqu’une rotation autour de r ne modifie pas le quadrivecteur. En tout, et comme attendu, nous avons donc trois paramètres réels, dont les deux premiers ax et ay fixent le changement de repère de Lorentz via (29b), et le troisième az est en fait indifférent. 2-b.

Matrice de transformation

Notons δa⊥ la composante de δa perpendiculaire à r, et δa sa composante parallèle. La variation infinitésimale de la matrice (L) de transformation s’écrit alors : 1 i i (δa⊥ × r) · σ − δa⊥ · σ − δa σz 2ct 2 2 h i δa 1 =− δa⊥ · r × σ + i(ct)σ − i r·σ 2ct 2r

δ(L) = −

(30)

Si nous posons : δa0 =

δa 2ct

δε =

δa 2r

(31)

nous obtenons : h

i

δ(L) = δa0 · r × σ − i(ct)σ − iδε r · σ

(32)

Dans cette équation, nous avons supprimé la contrainte selon laquelle c’est seulement la composante perpendiculaire à r de δa0 qui multiplie le premier terme du second membre. Cela ajoute un terme en r · σ dans ce second membre, mais cet ajout n’introduit qu’une rotation autour de r qui ne modifie pas le quadrivecteur ; il ne fait donc pas sortir de l’ensemble des transformations du petit groupe. Cette opération quelque peu artificielle de découpage du même paramètre en deux morceaux indépendants, un dans la composante parallèle de δa0 et un autre dans δε, est commode pour le calcul qui suit. Si maintenant le quadrivecteur qui reste invariant sous l’effet des transformations du petit groupe est un quadrivecteur énergie-impulsion (E, cp), la variation δ(L) s’écrit : δ(L) = δa0 · (cp × σ − iEσ) − iδε cp · σ 208

(33)



GROUPE DE LORENTZ PROPRE

Nous avons vu que les parties hermitiques de cet opérateur engendrent des transformations de Lorentz pures, les parties antihermitiques des rotations d’espace pures. L’expression de δ(L) indique donc que toute transformation qui laisse invariant le quadrivecteur (E, cp) comprend une transformation de Lorentz infinitésimale de direction quelconque perpendiculaire à p, une rotation autour de la même direction (dont l’angle infinitésimal est proportionnel au paramètre de la transformation de Lorentz, avec un facteur E/cp), et enfin une rotation infinitésimale quelconque autour de la direction de p. 2-c.

Transformation d’une énergie-impulsion à composante spatiale nulle

Un exemple similaire d’application du groupe SL(2, C) est l’étude de la façon dont l’ensemble des transformations de Lorentz propres peuvent modifier le quadrivecteur d’une particule de masse non nulle au repos (la composante spatiale de son impulsion est nulle). La matrice (M ) introduite dans (1) se réduit alors simplement à la matrice unité multipliée par E, de sorte que la matrice (M 0 ) s’écrit (M 0 ) = E(L)(L)† , c’est-à-dire : (M 0 ) = E (λ0 1 + λ · σ)(λ?0 1 + λ? · σ) h i = E (|λ0 |2 + λ · λ? )1 + (λo λ? + λ?0 λ) · σ + i(λ × λ? ) · σ

(34)

I Notons λR 0 et λ0 les parties réelle et imaginaire de la constante λ0 , ainsi que :

λ=b−i

a 2

(35)

où b et a sont réels. L’impulsion tridimensionnelle p0 après la transformation de Lorentz L n’est autre que le coefficient vectoriel de σ de cette matrice : p0 =

E I (2λR 0 b + λ0 a + a × b) c

(36)

Les paramètres λ0 , b et a définissent une transformation de Lorentz L à condition que le déterminant de (L) soit égal à l’unité :  2 I 2 2 2 R I (λ0 )2 − λ · λ = (λR (37) 0 ) − (λ0 ) − (b) + (a) + i 2λ0 λ0 − b · a = 1 Recherchons maintenant quelles sont les transformations de Lorentz qui permettent d’obtenir une valeur donnée de p0 . Il s’agit donc de trouver des valeurs des paramètres λ0 , b et a qui satisfassent les deux équations précédentes, avec une valeur imposée de p0 . Un choix évident est de prendre une transformation de Lorentz pure, donc un paramètre a nul. La partie imaginaire de la relation (37) montre alors I R que, soit λR 0 , soit λ0 est nul, mais nous excluons la nullité de λ0 qui impliquerait 0 R 2 selon (36) que p soit nul. La relation (37) se réduit alors à (λ0 ) = 1 + (b)2 , qui a toujours une solution 2 en λR 0 . L’équation (36) se simplifie en : p0 =

2E p 1 + (b)2 b c

(38)

2. Au signe près, bien sûr, puisque deux matrices (L) opposées déterminent la même transformation de Lorentz.

209

COMPLÉMENT CV



Cette relation détermine la valeur du paramètre b permettant d’obtenir une impulsion cible quelconque p0 à partir d’une particule au repos. Nous obtenons ainsi la solution triviale d’une transformation de Lorentz pure, dans une direction parallèle à la valeur cible de l’impulsion. Examinons maintenant si nous pouvons ajouter une partie imaginaire au vecteur λ, c’est-à-dire une rotation, sans changer la valeur de l’impulsion cible p0 . Nous pourrions pour cela utiliser à nouveau la relation (36) afin de calculer les variations couplées de a, b et λ0 qui laissent p0 invariant. Imposer ainsi 3 conditions dans un groupe dépendant de 6 paramètres conduirait à des solutions ne dépendant plus que de 3 paramètres réels. Mais il est plus simple d’éviter ces calculs et de remarquer que toute rotation agissant sur l’impulsion initiale, de composante spatiale nulle, laisse évidemment le quatrivecteur correspondant invariant. Ainsi, quels que soient le vecteur unitaire u et l’angle θ, et lorsque b a la valeur découlant de (38), toute matrice (L) s’écrivant : (L) = λR 01+b·σ



 θ θ cos 1 − i sin u · σ 2 2

(39)

conduit à la valeur recherchée de l’impulsion. Il nous suffit alors d’utiliser les propriétés standard des matrices de Pauli pour obtenir :  θ θ θ θ  θ (L) = cos λR u · b 1 + cos b − iλR 0 − i sin 0 sin u · σ − sin (u × b) · σ (40) 2 2 2 2 2 Comme attendu, cette transformation dépend de trois paramètres réels, deux pour déterminer l’axe de rotation u, et un pour l’angle de rotation θ.

Remarques : (i) Multiplions à droite cette expression de (L) par (λR 0 1 + b · σ). Le produit décrit alors une transformation qui, partant de l’impulsion spatiale p0 , l’amène à zéro, effectue une rotation, et enfin ramène l’impulsion à sa valeur initiale. Nous obtenons ainsi par une méthode différente les transformations du petit groupe étudiées aux §§ 2-a et 2-b ci-dessus. (ii) Il n’est possible d’annuler la composante spatiale de l’impulsion d’une particule que si sa masse m est non nulle, comme nous l’avons effectivement supposé. On peut alors, non seulement annuler, mais aussi renverser une impulsion spatiale. Si la particule a un spin, cette opération change le signe de son hélicité – cf. relation (V-101) du chapitre V ; c’est en revanche impossible si la masse est nulle. Cette remarque indique pourquoi, lorsque l’on cherche à écrire une équation d’onde relativiste pour une particule de masse non nulle et de spin 1/2 (équation de Dirac, § B-2 du chapitre VI), on ne peut se contenter de deux composantes de spin : il faut recourir à un spineur contenant 4 composantes.

210

• 3.

GROUPE DE LORENTZ PROPRE

Opérateur W 2

Revenons maintenant à la mécanique quantique, et transposons le raisonnement précédent en termes d’opérateurs agissant dans l’espace des états. Nous allons nous intéresser aux sous-espaces de cet espace qui sont vecteurs propres communs à l’hamiltonien H et l’impulsion P . Transformons la relation (33) en une relation opératorielle portant sur un opérateur δT agissant dans l’espace des états. Appliquant la correspondance générale entre opérateurs infinitésimaux et générateurs de l’algèbre de symétrie [relation (IV-54) du chapitre IV], nous effectuons les substitutions : ic K ~ i σ⇒− J ~

σ⇒−

dans les termes réels de δ(L) dans les termes imaginaires de δ(L)

(41)

(le c au numérateur de la première ligne est rendu nécessaire par le fait que l’opérateur K a été défini de sorte que son produit par une vitesse soit homogène à ~). Nous obtenons alors : i~ δT = δa0 · (c2 P × K − HJ ) − δε cP · J

(42)

Nous avons remplacé les composantes E, cp par des opérateurs dont les valeurs propres changent dans chacun des sous-espaces propres communs à H et P . Ceci nous permet d’obtenir un opérateur qui laisse invariants tous les sous-espaces propres communs à ces deux opérateurs, quels que soient les paramètres δa0 et δε. Nous voyons ainsi apparaître l’opérateur spin S défini dans la relation (V-74 ) du chapitre V : S=

H 1 J− P ×K 2 Mc M

(43)

et obtenons donc : i~ δT = −M c2 δa0 · S − δε cP · J

(44)

Par construction, cet opérateur laisse invariants les sous-espaces propres communs à H et P ; il commute avec ces deux membres de l’algèbre de Lie du groupe de Poincaré. Rien ne garantit cependant pour le moment qu’il commute également avec J et K. En ce qui concerne J , la commutation avec l’opérateur scalaire P · J , produit de deux opérateurs vectoriels, est cependant assurée. Pour la partie en S qui est vectorielle, il suffit de prendre le carré du vecteur pour obtenir un opérateur scalaire. Introduisons alors la famille d’opérateurs dépendant du paramètre λ : W 2 (λ) = S 2 −

λ (P · J )2 M 2 c2

(45) 211

COMPLÉMENT CV



pour lesquels il ne nous reste plus qu’à vérifier la commutation avec K. Les relations (V-79) et (V-80) du chapitre V nous montrent que cette commutation est obtenue pour λ = 1, de sorte que l’opérateur qui commute avec tous les générateurs du groupe de Poincaré est : W 2 = S2 −

(P · J )2 M 2 c2

(46)

Nous retrouvons ainsi l’expression (V-81) du chapitre V, par une méthode qui relie l’expression (43) de l’opérateur spin à la stabilité des sous-espaces propres communs aux composantes de l’opérateur énergie-impulsion. Remarque :

L’ensemble des quatre opérateurs (P ·J /M c), Sx , Sy et Sz possède des propriétés de transformation analogues à celles des composantes d’un quadrivecteur relativiste. Comme la norme d’un quadrivecteur est un invariant relativiste, il est naturel que l’opérateur W 2 possède cette propriété.

212

• PARITÉ

Complément DV Réflexions d’espace (parité) 1 2 3

Action dans l’espace réel . . . . . . . . . . . . . . . 213 Opérateur associé dans l’espace des états . . . . . 215 Conservation de la parité . . . . . . . . . . . . . . . 217

Nous allons étudier dans ce complément des opérations qui, comme les déplacements étudiés au complément BV , sont purement géométriques, mais de nature différente : les symétries (ou réflexions) par rapport à un point, ou encore parité 1 . On sait qu’en général un objet quelconque n’est pas superposable par déplacement avec l’objet obtenu par symétrie. 1.

Action dans l’espace réel

Choisissons un point donné de l’espace que nous prendrons comme origine O des axes de coordonnées Oxyz. L’opération de symétrie par rapport à O fait correspondre au point M tel que (figure 1) : −−→ OM = r

(1)

le point M 0 tel que : −−−→0 OM = r 0 = −r

(2)

Il s’agit là d’une opération linéaire S0 à laquelle est associée la matrice :

Figure 1 – Dans une opération de parité, chaque point M est transformé en un point M 0 symétrique de M par rapport à l’origine O. 1. On trouve également souvent employé le nom “inversion d’espace”, ou simplement “inversion”, en particulier dans les textes anglo-saxons.

213

COMPLÉMENT DV







−1 0 0   (S0 ) =  0 −1 0  0 0 −1

(3)

L’opérateur correspondant est linéaire et orthogonal (unitaire et réel), comme pour une rotation. Sa matrice se distingue cependant d’une rotation par le fait que : det (S0 ) = −1

(au lieu de + 1 pour une rotation)

(4)

On vérifie immédiatement que : (S0 )2 = (1)

(5a)

(S0 )−1 = (S0 )

(5b)

Si l’on prend l’ensemble constitué de l’opérateur identité et de la symétrie par rapport au point fixe O, on obtient un groupe à deux éléments isomorphe au groupe cyclique Z2 . C’est un groupe discret et non continu (il n’existe pas d’opération de symétrie infinitésimale par rapport à un point). La matrice (S0 ) étant simplement l’opposée de la matrice unité (matrice scalaire), elle commute avec toute matrice 3 × 3, en particulier celles des rotations. Donc : [S0 , R] = 0

(6)

Si l’on ajoute la matrice (S0 ) aux matrices (R), on obtient le groupe orthogonal 0(3) [toutes les matrices orthogonales 3 × 3, de déterminant ±1], dont les éléments sont, soit les rotations R, soit leurs produits par S0 . Pour obtenir les relations de commutation entre S0 et les translations T , on peut comme plus haut introduire des matrices 4 × 4 pour décrire les opérations [et adjoindre à (S0 ) une ligne et une colonne de zéros, sauf l’élément où elles s’intersectent qui vaut 1]. On peut aussi raisonner géométriquement à partir de (2) et vérifier que : S0 T` r = S0 [r + `] = −r − ` T` S0 r = T` [−r] = −r + `

(7)

et donc que : [S0 , T` ] = T(−2`)

214

(8)

• PARITÉ Remarques :

(i) L’opération de symétrie S peut être définie par rapport à un point A quelconque ; nous la noterons alors SA . On a alors : SA r = 2 rA − r

(9)

où rA est le vecteur position du point A. L’ensemble des opérations SA , plus l’opération identité, ne forme pas un groupe. En effet : SA SB r = 2 rA − 2 rB + r = T[2(rA −rB )] r

(10)

(ii) Cette égalité permet de montrer que, si les équations du mouvement d’un système physique admettent SA et l’ensemble des translations comme opération de symétrie, elles admettent alors les symétries SB par rapport à un point B quelconque. 2.

Opérateur associé dans l’espace des états

Commençons par envisager le cas d’une particule unique sans spin. On peut alors décrire son état quantique, soit par un vecteur d’état |ψi, soit par la fonction d’onde : ψ(r) = hr|ψi

(11)

Nous allons procéder de façon analogue à ce que nous avons fait pour les déplacements. Nous définirons l’action de l’opérateur parité S0 comme l’image, dans l’espace des états, de l’opération S0 de symétrie par rapport à un point 2 : S0 |ri = | − ri

(12)

C’est un opérateur unitaire, dont le carré vaut l’opérateur identité : [S0 ]2 = 1

(13)

donc : S0 = S0+ = S0−1

(14)

(voir le complément FII de [10] pour une étude plus détaillée). 2. Ne pas confondre | − ri et l’opposé −|ri du ket |ri ! Les kets | − ri et |ri sont orthogonaux (sauf si r = 0) et non colinéaires.

215

COMPLÉMENT DV



Par suite : hr|S0 = h−r|

(15)

et la fonction d’onde ψ 0 (r) associée au ket S0 |ψi est donnée par : ψ 0 (r) = hr|S0 |ψi = h−r|ψi = ψ(−r)

(16)

Cette égalité donne l’action de S0 en représentation {|ri}. Elle montre par exemple qu’une onde plane eik·r d’impulsion ~k se transforme en une autre onde plane e−ik·r d’impulsion opposée −~k, de sorte que : S0 |pi = | − pi

(17)

Donc : ψ 0 (p) = hp|S0 |ψi = h−p|ψi = ψ(−p)

(18)

On montre facilement à partir de (12) et (17) que : (

S0 R S0 = −R S0 P S0 = −P

(19)

R et P sont donc des observables qui changent par parité, ce qui est satisfaisant physiquement. Par contre : S0 (R × P ) S0 = S0 L S0 = L

(20)

de sorte que L est invariant par parité (figure 2). On dit que R et P correspondent à des vecteurs polaires (“vrais vecteurs”), L à un vecteur axial (ou “pseudo vecteur”). En électromagnétisme, le champ électrique E est également un vecteur polaire, le champ magnétique B un vecteur axial. Si le système étudié comprend plusieurs particules 1, 2, 3, ... l’opérateur parité S0 est simplement le produit des opérateurs parité associés à chacune des particules : S0 = S0 (1) S0 (2) S0 (3) . . .

(21)

Si la (ou les) particule(s) étudiée(s) possède(nt) un spin S, on s’appuie sur (20), qui indique que le moment cinétique orbital L n’est pas affecté par la parité, pour poser : S0 S S0 = S

(22)

l’opérateur parité n’agit donc pas dans l’espace des états de spin (comme les opérateurs de translation). 216

• PARITÉ

Figure 2 – Lorsque le mobile M tourne dans le sens direct sur une orbite circulaire, son transformé M 0 par parité tourne dans le même sens, de sorte que L = L0 . Donc, contrairement à R et P qui changent de signe par parité, l’opérateur de moment cinétique orbital L = R×P reste invariant par parité.

3.

Conservation de la parité

Si le système physique étudié possède un hamiltonien H indépendant du temps, la parité sera opération de symétrie à condition que : [H, S0 ] = 0

(23)

S0 est alors une constante du mouvement. On peut dans ce cas classer les états propres de H suivant la valeur propre de S0 , qui vaut ±1 d’après (13). Dans le premier cas, les états propres seront dits pairs, dans l’autre impairs. Si le vecteur d’état initial |ψ(0)i du système est pair (ou impair), il conserve au cours du temps cette propriété : |ψ(t)i reste pair (ou impair) et on dit que la parité est conservée. Si le vecteur d’état initial n’est ni pair ni impair, la condition (23) entraîne que S0 |ψ(t)i décrit un autre mouvement possible du système (avec le même hamiltonien) : le transformé par parité (symétrie point) d’un mouvement possible est un autre mouvement possible. Si la parité est conservée, on dit parfois de façon plus imagée que, si l’on regarde dans un miroir le mouvement d’un système, on observe un autre mouvement possible. Cette façon de dire suppose implicitement que les rotations sont des transformations de symétrie du système qui évolue. Elle utilise le fait que le produit d’une symétrie par rapport à un plan (celui du miroir) par une rotation de π autour d’un axe perpendiculaire au plan et le coupant en O est simplement la symétrie par rapport au point O (figure 3). 217

COMPLÉMENT DV



Figure 3 – Le produit d’une symétrie plane (symétrie miroir, qui transforme le point M en M 0 ) par une rotation d’un angle π autour d’un axe perpendiculaire (qui transforme M 0 en M 00 ) donne une symétrie par rapport au point d’intersection O de l’axe et du plan.

Il est clair que les notions de droite et de gauche sont interverties par symétrie dans un miroir (ou par rapport à un point). C’est pourquoi on parle quelquefois de symétrie droite-gauche pour désigner la conservation de la parité. Pendant longtemps, la symétrie de parité a été considérée plus ou moins implicitement comme évidente par les physiciens. Dans la vie courante, on sait bien que l’observation dans un miroir ne fournit pas un spectacle qui choque l’expérience de tous les jours ou l’intuition physique ; on peut par exemple projeter un film de cinéma à l’envers (inversion de la droite et de la gauche) sans faire apparaître aucun phénomène immédiatement reconnaissable comme physiquement absurde. Ce n’est que vers les années 1955 que cette conservation de la parité a été remise en question. Le phénomène physique qui y a conduit est la désintégration par interactions faibles de la particule maintenant appelée méson K + en deux ou trois pions. Ces deux types de désintégration conduisent à des états finals de parités respectives +1 et −1. Si la symétrie S0 est une symétrie des interactions qui gouvernent la désintégration, c’est que les parités des états initiaux (avant désintégration de la particule) sont différentes et donc qu’on est parti de deux particules différentes. C’est pourquoi on considérait, à l’époque, que l’on était, en fait, en présence de deux particules distinctes, les mésons θ+ et τ + , qui se désintégraient respectivement en deux et trois pions. Cependant, on constatait que le θ+ et le τ + étaient par ailleurs en tous points identiques (même masse, même durée de vie, etc.). Cette remarque a 218

• PARITÉ

Figure 4 – Si la parité était conservée, deux expériences symétriques par rapport à un point O, donc avec les mêmes directions de I et B, donneraient deux directions opposées de la direction préférentielle d’émission β − . Les mêmes causes ne pouvant produire des effets opposés, la direction des spins (vecteurs axiaux) ne peut déterminer la direction d’émission (vecteur polaire), sauf si la parité est violée. conduit Lee et Yang à supposer que les particules θ+ et τ + n’étaient en réalité qu’une seule et même particule (le méson K + ), mais que les interactions faibles violaient la symétrie de parité. Cette hypothèse a été confirmée expérimentalement de façon éclatante par Mme Wu et ses collaborateurs [34]. L’expérience consistait à observer la désintégration nucléaire : 60

Co → 60 Ni + e− + ν e + 2γ

(24)

(qui est due à l’interaction faible) en partant de noyaux de cobalt polarisés ; e− est un électron, ν e un antineutrino électronique, et γ un photon gamma. Les noyaux de cobalt ont en effet un spin I = 5, une durée de vie τ = 5,26 années (ils sont radioactifs β − ) et un moment magnétique µ = +3,8 µn (le moment µ est parallèle à I). En plaçant des noyaux de 60 Co dans un champ magnétique B intense et à très basse température, à l’équilibre thermodynamique on tend à favoriser le nombre de noyaux dont le spin est parallèle à B par rapport à ceux dont le spin est antiparallèle. L’expérience est alors la suivante : après avoir appliqué un champ B, le diagramme de rayonnement (nombre d’électrons émis par unité de temps) est mesuré dans la direction de B, puis dans la direction opposée. Le résultat obtenu est alors que plus d’électrons sont émis dans la direction opposée à 219

COMPLÉMENT DV



Figure 5 – Comparaison de deux expériences symétriques, non pas par rapport à un point comme dans la figure 4, mais par rapport à un plan (symétrie miroir). Si cette symétrie était respectée, la direction préférentielle d’émission β − devrait rester la même alors que les spins ont pris une direction opposée. B (donc à I) que dans la même direction. L’assymétrie observée est élevée (rapport 1,2 / 0,8 entre les intensités d’émission dans les deux directions). On peut ensuite, à titre de contrôle, renverser le champ B et les spins I, de façon à vérifier que les intensités d’émission dans les deux directions sont bien elles aussi inversées. Cette influence de la direction d’un vecteur axial (B ou I) sur un vecteur polaire (direction d’émission préférentielle des électrons) viole la conservation de la parité. On voit par exemple que, si la parité était conservée, deux expériences symétriques par rapport à un point donneraient deux directions opposées pour la direction d’émission β − pour les mêmes directions de I et B (cf. figure 4). Un résultat analogue est obtenu par symétrie miroir dans un plan parallèle à B. Cette fois I et B sont retournés, mais la direction d’émission préférentielle resterait la même (cf. figure 5) si la symétrie était respectée. Les résultats expérimentaux indiquent donc qu’elle est violée. A l’heure actuelle, on a donc renoncé à la conservation de la parité dans les interactions faibles. Insistons sur le fait que ce n’est pas un petit effet mais, en quelque sorte, un effet de 100 % (théorie du neutrino à deux composantes, et non quatre). Par contre, les interactions électromagnétiques et fortes sont considérées comme conservant strictement la parité.

220

Chapitre VI

Construction d’espaces des états et d’équations d’onde simples A

B

Groupe de Galilée, équation de Schrödinger . . A-1 Particule libre . . . . . . . . . . . . . . . . . . . . A-2 Particule en interaction . . . . . . . . . . . . . . Groupe de Poincaré, équations de Klein-Gordon et de Dirac . . . . . . . . . . . . . . . . . . . . . . B-1 Equation de Klein-Gordon . . . . . . . . . . . . . B-2 Equation de Dirac . . . . . . . . . . . . . . . . .

. 222 . 222 . 230 . 234 . 234 . 236

Nous appliquons maintenant les résultats généraux du chapitre précédent à la construction d’espaces des états E où agissent des opérateurs présentant une structure d’algèbre de Lie galiléenne ou einsteinienne. On s’attend bien sûr à ce que de nombreux systèmes quantiques puissent avoir des espaces des états entrant dans ce cadre ; les structures de ces espaces peuvent être complexes si, par exemple, ils comprennent des nombres de particules arbitrairement grands. Pour aller à l’essentiel, nous allons plutôt chercher à obtenir des espaces E dont la structure soit la plus simple possible, sachant qu’ils peuvent ensuite être combinés par produit tensoriel pour réaliser des espaces plus compliqués. Nous étudierons ensuite quelles équations d’onde peuvent décrire, dans ces espaces, l’évolution temporelle des systèmes quantiques. Dans le cas des symétries du groupe de Galilée, nous verrons que le système physique auquel on aboutit est une particule unique, libre ou en interaction avec un champ électromagnétique extérieur, avec ou sans spin, et décrite par une équation de Schrödinger. Dans le cas du groupe de Poincaré, la situation est rendue plus complexe par la possibilité

CHAPITRE VI

ESPACE DES ÉTATS ET ÉQUATIONS D’ONDE SIMPLES

relativiste de convertir de l’énergie en particles, ou vice-versa, qui limite la portée des équations d’onde à une seule particule. Nous obtiendrons toutefois deux équations relativistes, celle de Klein-Gordon qui décrit une particule sans spin, et celle de Dirac qui concerne les particules de spin 1/2. A.

Groupe de Galilée, équation de Schrödinger

Dans le cadre du groupe de Galilée, les relations de commutation qui nous intéressent sont les relations (V-24) à (V-26) du chapitre V. A-1.

Particule libre

Pour pouvoir parler comme nous l’avons fait de déplacement du système physique, nous nous attendons à ce qu’on puisse définir un opérateur position R du système (c’est-à-dire 3 opérateurs hermitiques X, Y et Z, qui sont ses composantes). Afin de construire l’espace des états E “minimum”, nous admettons que les trois composantes X, Y et Z de R forment un ECOC (Ensemble Complet d’Observables qui Commutent) : il existe alors une base orthonormée dont chaque vecteur est ket propre commun à X, Y et Z, qui peut être spécifié (à une phase près) uniquement par la donnée des valeurs propres correspondantes x, y et z. On comprend en effet que si X, Y et Z ne formaient pas un ECOC, il faudrait adjoindre des nombres quantiques supplémentaires à x, y, z pour définir une base de E , de sorte que cet espace deviendrait par là-même “plus grand”. Nous nous en tiendrons donc ici à cette “hypothèse minimum”, et nous appellerons le système physique correspondant une particule sans spin. A tout état |ψi de la particule correspond la fonction d’onde : ψ(r) = hr|ψi

(VI-1)

où r est une rotation condensée pour les 3 nombres x, y et z : |ri = |x, y, zi

(VI-2)

Il revient au même de se donner |ψi appartenant à E ou une fonction d’onde complexe ψ(r) de module au carré sommable. A-1-a.

α.

Transformations de l’opérateur position

Translations

Examinons comment se transforme l’opérateur position R lorsqu’on effectue sur le système une translation de vecteur `. Comme au complément BV , nous notons T (a, `) l’opérateur de déplacement incluant une rotation de paramètre a et une translation de paramètre `. Nous avons vu au § C 222

A. GROUPE DE GALILÉE, ÉQUATION DE SCHRÖDINGER

du chapitre IV comment se transforme une observable lors de toute transformation T agissant dans l’espace des états. Dans une translation décrite par l’opérateur unitaire T (0, `), l’opérateur R devient donc un opérateur R0 donné par : R0 = T (0, `) R T −1 (0, `)

(VI-3)

Mais on s’attend à ce qu’un opérateur de position varie d’une quantité ` lors d’une translation de vecteur ` , et donc à ce que 1 : R0 = R − `

(VI-4)

Si ` prend une valeur infinitésimale d` , nous avons vu que : i T (0, d`) = 1 − d` · P + . . . ~

(VI-5)

de sorte que les relations (VI-3) et (VI-4) conduisent à : R−

i [d` · P , R] = R − d` + . . . ~

(VI-6)

Identifions les termes contenant les trois composantes de d` dans les deux membres de cette égalité. Si l’on prend d` parallèle à l’axe Ox, il vient :

[X, Px ] = i~ [Y, Px ] = 0 [Z, Px ] = 0

(VI-7)

Par permutation circulaire de x, y et z, on obtient les relations générales : h

i

Xi , Pxj = i~ δij

(VI-8)

qui sont les relations fondamentales de commutation de la position et de l’impulsion d’une particule en mécanique quantique. Ici, au lieu de les introduire en postulant des règles de quantification, nous les avons obtenues de façon “géométrique”. β.

Changement de repère galiléen

Examinons maintenant les transformations de l’opérateur position dans un changement de repère galiléen, que nous prendrons lui aussi infinitésimal. 1. Si l’on déplace l’appareil de mesure de la position d’un vecteur +` , les positions mesurées sont changées de la quantité −` .

223

CHAPITRE VI

ESPACE DES ÉTATS ET ÉQUATIONS D’ONDE SIMPLES

L’opérateur unitaire T qui décrit une telle transformation, paramétrée par un vecteur vitesse dv, est : i T = 1 − dv·K + . . . ~

(VI-9)

Nous pouvons alors faire le même raisonnement que pour une translation, mais avec une différence notable : un changement de repère galiléen, effectué à l’instant t = 0 (celui où les deux repères spatiaux coïncident), ne change pas les positions. Si nous imposons à l’opérateur quantique de position R de suivre la même règle, nous devons donc avoir : [R , K] = 0

(VI-10)

Il s’ensuit que l’opérateur K doit être diagonal en représentation position. Nous avons supposé que les composantes de R constituent un ECOC, ce qui implique que K est une fonction de l’opérateur R : K = K(R)

(VI-11)

Mais, d’autre part, nous avons obtenu au chapitre V les relations de commutation de K avec l’opérateur impulsion : [Ki , Pj ] = −i~ δij M

(VI-12)

Compte tenu de (VI-8), nous obtenons : [Ki (R) , Pj ] =

~ ∂ Ki (R) i ∂Rj

(VI-13)

qui, comparé avec la relation (VI-12), montre que les dérivées de la fonction K(R) sont nécessairement des constantes. Nous avons donc : K(R) = −M R + C

(VI-14)

où C est une constante. Cette dernière peut être simplement éliminée en redéfinissant l’opérateur K en K0 = K−C, ce qui ne change évidemment aucune des relations de commutation de l’algèbre de Lie. A partir de maintenant, nous supposerons que cette redéfinition a été effectuée, et nous abandonnons le prime de la notation K0 . Nous obtenons ainsi une relation simple entre l’opérateur de position K et l’opérateur position : R=−

K M

que nous avions déjà anticipée à la fin du § C-1 du chapitre III. 224

(VI-15)

A. GROUPE DE GALILÉE, ÉQUATION DE SCHRÖDINGER

A-1-b.

Opérateurs vitesse et hamiltonien

Compte tenu de (VI-15), la relation (V-26c) du chapitre V donne la relation de commutation entre les opérateurs R et H : [H, R] = −

i~ P M

(VI-16)

Mais le commutateur [R, H] détermine directement l’évolution temporelle de la position, que physiquement l’on associe à l’opérateur vitesse V . Nous sommes donc conduits à poser : V =

P M

(VI-17)

Le fait que nous retrouvions une relation bien connue entre la vitesse et l’impulsion conforte l’identification que nous avons faite entre P , générateur infinitésimal des translations, et l’impulsion habituelle d’un système physique. D’autre part, la relation (V-26b) montre que H commute avec l’opérateur P . De même que la commutation de K et R nous a indiqué plus haut que K est une fonction de R, de même cette commutation nous indique que : H = H(P )

(VI-18)

La relation (VI-16) conduit alors à : [H(P ), R] = −i~∇P H(P ) = −i~

P M

(VI-19)

de sorte que : H=

P2 1 + Ui = M V 2 + Ui 2M 2

(VI-20)

où Ui est une constante jouant le rôle d’une énergie interne, qui peut facilement être éliminée par une redéfinition de l’origine des énergies. Nous retrouvons ainsi l’expression bien connue de l’énergie cinétique d’une particule libre. A-1-c.

Représentation position, équation de Schrödinger

En représentation position {|ri}, la fonction d’onde ψ(r) est définie en (VI-1). L’opérateur R correspond simplement à la multiplication par r de cette fonction d’onde : hr| R |ψi = r ψ(r)

(VI-21) 225

CHAPITRE VI

ESPACE DES ÉTATS ET ÉQUATIONS D’ONDE SIMPLES

Figure 1 – A une dimension, une fonction f (x) subit une translation de +x0 si l’on retire la quantité x0 à sa variable x. Si nous appliquons un opérateur de translation au ket |ψi, nous obtenons la fonction d’onde ψ 0 (r) : ψ 0 (r) = hr| e−i` ·P/~ |ψi = r0 |ψi

(VI-22)

avec : 0 r = e+i` ·P/~ |ri

(VI-23)

Ce ket |r0 i n’est autre que le résultat d’une translation de vecteur −` sur le ket propre de la position |ri. Si nous définissons la phase relative (qui a été laissée libre jusqu’à maintenant) de tous les vecteurs propres |ri de la position par : |ri = e−ir ·P/~ |r = 0i

(VI-24)

nous voyons que : 0 r = ei` ·P/~ e−ir ·P/~ |r = 0i = ei(`−r) ·P/~ |r = 0i = |r − `i

(VI-25)

et donc que : Ψ0 (r) = r0 |Ψi = Ψ(r − `)

(VI-26)

La figure 1 illustre, à une dimension, comment la soustraction d’une quantité x0 à la variable a pour effet la translation de la fonction d’une quantité +x0 . Si maintenant nous prenons une translation infinitésimale de vecteur d`, nous obtenons : i ψ 0 (r)=ψ(r) − d`·∇ψ(r) = hr| 1 − d`·P |ψi ~ i = ψ(r) − d`· hr| P |ψi (VI-27) ~ 226

A. GROUPE DE GALILÉE, ÉQUATION DE SCHRÖDINGER

soit : hr| P |ψi =

~ ∇ψ(r) i

(VI-28)

Nous retrouvons que l’action de l’opérateur impulsion en représentation position est celle de l’opérateur gradient, multipliée par ~/i. Enfin, l’évolution temporelle de la fonction d’onde Ψ(r) est donnée par : i |ψ(t + dt)i − |ψ(t)i = − Hdt |ψ(t)i ~

(VI-29)

soit, par projection sur la base {|ri} : i~

∂ ∂ ψ(r, t) = i~ hr |ψ(t)i = hr| H |ψ(t)i ∂t ∂t

(VI-30)

Compte tenu de (VI-20) et (VI-28 ), nous obtenons donc 2 : ∂ ~ ψ(r, t) = − ∆ + Ui ψ(r, t) ∂t 2m 

i~



(VI-31)

qui est la forme bien connue de l’équation de Schrödinger pour une particule libre (l’énergie interne constante Ui ne fait que changer la phase globale de la fonction d’onde à chaque instant, sans conséquence physique). A-1-d.

Rotations

Examinons maintenant l’effet des opérateurs de rotation et celui des composantes de J . Pour les translations, nous avons éliminé en (VI-24) les facteurs de phase par un choix convenable des phases relatives des kets |ri. Il n’est toutefois pas évident a priori que cette élimination soit également valable pour les rotations. Dans un premier temps, nous l’admettons cependant ; nous démontrerons ensuite que les résultats demeurent inchangés si l’on tient compte de l’existence possible de ces facteurs de phase. L’effet d’un opérateur de rotation T (a, 0) sur un ket propre |ri de l’opérateur position est de donner un autre ket propre de cet opérateur de valeur propre r 0 , obtenue à partir de r par la rotation R(a) dans l’espace ordinaire. En l’absence de facteurs de phase, on a donc simplement : T (a, 0) |ri = |R(a) ri

(VI-32)

2. Contrairement à la position r qui est associée à un opérateur et à une représentation dans l’espace des états, ce n’est pas le cas du temps t, qui est ici un simple paramètre. Pour la position, lorsque l’on passe d’un bra à un ket, il apparaît un changement de signe du fait que e−i` ·P/~ |ri est égal à |r + `i alors que hr|e−i` ·P/~ est égal à hr − `| – cf. par exemple (VI-22) et (VI-23). Ceci ne se produit pas pour le temps, et l’opérateur H correspond à +i~∂/∂t, alors que P correspond à −i~∇. Voir également note 8 du chapitre I.

227

CHAPITRE VI

ESPACE DES ÉTATS ET ÉQUATIONS D’ONDE SIMPLES

Comme T est unitaire, nous avons : T † (a, 0) |ri = |R −1 (a) ri

soit :

hr|T (a, 0) = hR −1 (a)r|

(VI-33)

de sorte que la transformée ψ 0 (r) d’une fonction d’onde ψ(r) s’écrit : 

ψ 0 (r) = hr|T (a, 0) |ψi = ψ R −1 (a) r



(VI-34)

Pour une rotation infinitésimale, nous obtenons [cf. relation (29) du complément BV ] : i ψ 0 (r) = ψ(r) − (da × r) · ∇ψ = ψ(r) − hr|da · J |ψi ~

(VI-35)

soit : hr|da · J |ψi =

~ ~ (da × r) · ∇ψ = da · (r × ∇ψ) i i

(VI-36)

Donc : hr|J |ψi =

~ r × ∇ψ i

(VI-37)

de sorte que l’action de J en représentation r est donnée par : J⇒

~ r×∇ i

(VI-38)

Compte tenu de (VI-28), nous sommes conduits à poser : J =L=R×P

(VI-39)

et nous retrouvons ainsi l’expression bien connue du moment cinétique orbital d’une particule. La relation (V-40) du chapitre V nous montre alors que le spin est nul : S=0

(VI-40)

Cette nullité est bien sûr une conséquence directe du fait que nous avons supposé que les trois composantes de l’opérateur R formaient un ECOC. Effet des facteurs de phase : Tenons maintenant compte de l’existence éventuelle de facteurs de phase eiα dans (VI-32), qui devient : T (a, 0) |ri = eiα(a , r) |R(a) ri Nous devons alors remplacer la relation (VI-34) par :  ψ 0 (r) = e−iα(a , r) ψ R −1 (a) r

228

(VI-41)

(VI-42)

A. GROUPE DE GALILÉE, ÉQUATION DE SCHRÖDINGER

Le facteur de phase α(a, r) est identiquement nul si a = 0. Lorsque a est infinitésimal, l’expression (VI-36) devient : hr|da · J |ψi =

~ da · (r × ∇ψ) + ~ da · ∇a α(a, r) + . . . i

(VI-43)

où apparaît le gradient de la phase α par rapport à a, pris en a = 0. La correspondance (VI-38) est alors modifiée, l’action de J en représentation {|ri} s’écrivant maintenant : ~ r × ∇ + ~∇a α(a, r) i

(VI-44)

et le deuxième membre de (VI-39) devenant : R × P + ~∇α(a, r)

(VI-45)

Mais on constate alors que les relations (V-24b) de commutation entre J et P ne sont plus satisfaites. Il faut en effet ajouter à l’opérateur (VI-39) de moment cinétique une fonction de l’opérateur position, ce qui introduit l’opérateur J 00 donné par : J 00 = R × P + χ(R)

avec :

χ(R) = ∇α(R)

(VI-46)

Calculons alors les relations de commutation de cet opérateur avec les trois composantes de P . Nous obtenons : [Jx00 , Px ] = [Jx , Px ] + [χx (R), Px ] = i~

∂ χx (R) ∂x

De même, la relation de commutation entre composantes x et y devient : [Jx00 , Py ] = i~

∂ χx (R) + i~ Pz ∂y

Un résultat analogue est obtenu pour [Jx00 , Pz ]. Dans ces conditions, si nous voulons préserver les relations de commutation (V-24b) du chapitre V, la fonction χx doit nécessairement être une constante indépendante de x, y et z (par symétrie, la même conclusion est valable pour les 3 composantes de χ, qui sont donc des constantes). On aurait alors, par exemple :  00 00  Jx , Jy = i~ Jz00 − χz qui conduirait à des relations de commutation modifiées pour les composantes du moment cinétique. Mais nous avons vu au § A du chapitre V que de telles constantes dans les relations de commutation peuvent être éliminées. Il nous faut donc faire χ ≡ 0, ce qui montre que les facteurs de phase ne jouent ici aucun rôle.

Dans le cas simple où nous nous sommes placés (particule unique sans spin), nous avons donc obtenu des représentations au sens strict (non projectives) du groupe des rotations et de celui des translations. 229

CHAPITRE VI

A-2.

ESPACE DES ÉTATS ET ÉQUATIONS D’ONDE SIMPLES

Particule en interaction

Supposons maintenant que la particule ne soit plus libre, mais placée dans un potentiel extérieur. L’origine de ce potentiel peut par exemple être les interactions avec une ou plusieurs autres particules, supposées infiniment lourdes et immobiles dans le repère d’un certain observateur galiléen Oref . Il est alors clair que tous les observateurs galiléens ne sont plus équivalents, ce qui fait tomber les raisonnements des §§ A-1-b et A-1-c, plus précisément les parties de ces raisonnements qui mettent en jeu l’évolution dans le temps et la valeur de H. On s’attend d’ailleurs à ce que l’hamiltonien H comprenne dans ce cas des termes autres que d’énergie cinétique ; H n’a aucune raison a priori d’être le même pour tous les observateurs O possibles. Nous allons cependant essayer de prolonger la démarche du § A-1 et, moyennant quelques hypothèses raisonnables, nous verrons que cela est effectivement possible. Parmi toutes les relations de commutation de l’algèbre de Lie du groupe de Galilée écrites au début du § A-4, nous devons renoncer à toutes celles qui contiennent XH , puisque tous les référentiels ne sont pas équivalents pour ce qui concerne l’évolution temporelle du système. Mais nous pouvons toujours prendre en compte des transformations de changement de repère galiléen, à condition de nous limiter à leur effet instantané au temps t = 0. Classiquement, ces transformations changent les vitesses sans changer les positions, qui ne sont affectées que lors de l’évolution ultérieure régie par l’hamiltonien. Les raisonnements effectués plus haut jusqu’au § A1-a restent donc valables, y compris la relation (VI-15) qui relie les opérateurs K et R. Etudions maintenant l’effet sur l’impulsion P d’une transformation de changement de repère galiléen. Lors d’une transformation infinitésimale de paramètre dv, l’impulsion P devient : i i i P = 1 − dv · K P 1 + dv · K + . . . = P − [dv · K , P ] ~ ~ ~ = P − M dv (VI-47) 0









où la seconde ligne découle de la relation de commutation (V-25b) entre K et P . Nous pouvons d’autre part définir un opérateur vitesse V comme la vitesse de variation de la position R : V =

1 [R , H] i~

(VI-48)

Lors du changement de repère galiléen précédent, on s’attend à ce que V varie de −dv. La comparaison avec (VI-47) montre alors que P − M V doit être un invariant dans cette opération, ce qui indique qu’il commute avec le générateur infinitésimal K. Mais, comme ce dernier est proportionnel à R, 230

A. GROUPE DE GALILÉE, ÉQUATION DE SCHRÖDINGER

il s’ensuit que P − M V est diagonal en représentation position. Deux cas sont alors possibles : • Si le spin de la particule est nul, les trois composantes de l’opérateur position constituent un ECOC (la donnée des trois valeurs propres des composantes de la position suffit à déterminer le ket propre, à une constante près), de sorte que l’opérateur P − M V s’exprime simplement comme une fonction 3 de R : P − M V = qA(R)

(VI-49)

Nous avons alors, compte tenu de (VI-48) : M [H , R] (VI-50) i~ Pour que le commutateur de H avec R ait la valeur qu’indique cette égalité, nous devons avoir : M V = P − qA(R) =

H=

1 1 [P − qA(R)]2 + qU (R) = M V 2 + qU (R) 2M 2

(VI-51)

où U (R) est une fonction de R que, comme plus haut, nous multiplions par la constante arbitraire q. • Si le spin de la particule est non nul, nous pouvons conserver les relations (VI-49) et (VI-50), mais modifier l’expression (VI-51) de l’hamiltonien. Posons en effet : 1 H= [P − qA(R)]2 + qX (VI-52) 2M où X est un opérateur à déterminer. Comme plus haut, la relation (VI-48) impose qu’il soit diagonal en représentation position. Si le spin de la particule est 1/2, cet opérateur est représenté par une matrice 2 × 2 dans chaque sous-espace propre de l’opérateur position, de valeur propre r. Décomposons chacune de ces matrices sur les matrices de Pauli σ et la matrice unité, nous pouvons écrire la restriction de X à ce sous-espace sous la forme : 

(X)r = q U (r) + B(r) · σ



(VI-53)

où U (r) et B(r) sont deux fonctions a priori arbitraires, la première scalaire et la seconde vectorielle. Si nous revenons maintenant à une écriture opératorielle qui soit valable dans tout l’espace des états, nous obtenons : H=

1 [P − qA(R)]2 + qU (R) + qB(R) · σ 2M

(VI-54)

3. Par convention, au lieu d’écrire simplement cette fonction A(R), nous la multiplions par une constante q, dont la valeur est arbitraire à ce stade. Ceci permet d’obtenir une expression (VI-51) de l’hamiltonien qui est identique à l’expression standard contenant une charge q.

231

CHAPITRE VI

ESPACE DES ÉTATS ET ÉQUATIONS D’ONDE SIMPLES

Nous retrouvons ainsi, de façon extrêmement générale, l’hamiltonien d’une particule placée dans un potentiel vecteur A et scalaire U . Notons toutefois que nous n’avons pas démontré que B(r) est proportionnel au rotationnel ∇ × A(r) ; pour une démonstration plus complète, y compris celle du facteur g = 2 du spin de la particule, voir la référence [29]. Remarques : (i) Il faut garder à l’esprit que nous avons raisonné dans le cadre de la relativité de Galilée, alors que c’est avec la relativité d’Einstein que l’électromagnétisme est compatible. Nous ne pouvons donc pas nous attendre à retrouver exactement l’hamiltonien d’une particule chargée placée dans un champ électromagnétique. Une conséquence est que la fonction A(R) qui apparaît dans l’hamiltonien est invariante dans un changement de repère galiléen à t = 0, alors que l’électromagnétisme de Maxwell prévoit que les potentiels vecteur et scalaire (dans la jauge de Lorentz) varient comme un quadrivecteur relativiste. (ii) Il est possible de continuer plus loin le raisonnement et de comparer les hamiltoniens H et H 0 utilisés par deux observateurs galiléens différents O et O0 , ce qui permet de voir comment se transforme l’opérateur potentiel U (R, t). A partir de maintenant, nous tenons compte explicitement d’une possible dépendance temporelle de U et A. Introduisons l’opérateur Γ associé à l’accélération. Nous le définissons comme la variation temporelle de l’opérateur (VI-50) en point de vue de Heisenberg, qui est la somme d’une variation hamiltonienne de l’opérateur vitesse et d’une variation provenant de la dépendance temporelle explicite de A(r, t) : Γ=

  1 q ∂ 1 MV 2 q ∂ [V , H] − A(r, t) = + qU (R, t), V − A(r, t) i~ M ∂t i~ 2 M ∂t (VI-55)

Un calcul simple donne 4 :   MV 2 i~q ,V = [V × B (R, t) − B (R, t) × V ] 2 2M

(VI-56)

où : B (R, t) = ∇ × A (R, t)

(VI-57)

est l’opérateur correspondant au champ magnétique qui dérive du potentiel vecteur A. Nous retrouvons donc l’analogue de la loi classique de Laplace. Comme, d’autre part : [U (R, t) , V ] =

1 [U (R, t) , P ] = −i~ ∇U (R, t) M

(VI-58)

4. Le calcul explicite figure dans le complément EVI de la référence [10], équation (45).

232

A. GROUPE DE GALILÉE, ÉQUATION DE SCHRÖDINGER

nous obtenons : q M Γ= [V × B (R, t) − B (R, t) × V ] 2   ∂ − q ∇U (R, t) + A (R, t) ∂t

(VI-59)

Cette égalité fait apparaître, en plus de la force magnétique, la force électrique associée au champ E : E (R, t) = −∇U (R, t) −

∂ A (R, t) ∂t

(VI-60)

Il est d’autre part clair que, pour deux observateurs O et O0 , les calculs de l’accélération doivent conduire au même résultat. Le fait que A soit une quantité invariante par changement de repère galiléen entraîne que : A (r, t) ≡ A (r 0 , t) avec : r 0 = r + v0 t et donc : dAx = dr · ∇Ax + dt

∂ ∂ Ax = dr0 · ∇0 Ax + dt0 0 Ax ∂t ∂t

ou encore : ∂ ∂ A = 0 A + (v0 · ∇) A ∂t ∂t

(VI-61)

Les accélérations dans les deux référentiels O et O0 sont donc les mêmes si : 1 ∂ [V × B (R, t) − B (R, t) × V ] − ∇U (R, t) − A (R, t) 2 ∂t 1 = ([V + v0 ] × B (R, t) − B (R, t) × [V + v0 ]) 2 ∂ − ∇U 0 (R, t) − A (R, t) + (v0 · ∇) A (R, t) ∂t c’est-à-dire si : ∇ [U 0 (R, t) − U (R, t)] = v0 × B (R, t) + (v0 · ∇)A (R, t) Comme : ∇ [v0 · A] = v0 × (∇ × A) + (v0 · ∇) A Il vient simplement : U 0 (R, t) − U (R, t) = v0 · A (R, t) + U0 (t)

(VI-62)

où l’opérateur diagonal U0 peut être pris nul. Contrairement à A, le potentiel scalaire n’est donc pas invariant dans une transformation de Galilée. Par suite, le passage de l’hamiltonien H d’un référentiel à celui H 0 d’un autre ne se fait pas simplement en appliquant à H la même transformation unitaire qu’au vecteur d’état [d’après (VI-20), une telle transformation changerait H en H + m v0 · V , ce qui n’est pas la valeur de H 0 ].

233

CHAPITRE VI

B.

ESPACE DES ÉTATS ET ÉQUATIONS D’ONDE SIMPLES

Groupe de Poincaré, équations de Klein-Gordon et de Dirac

Reprenons maintenant l’approche précédente, mais dans le cadre du groupe de Poincaré et des relations de commutation (V-58) à (V-60) du § B du chapitre V. Deux opérateurs commutant avec tous ceux de l’algèbre de Lie du groupe ont été obtenus : la masse M et l’opérateur W 2 , qui caractérise la valeur du spin de la particule. Nous supposerons la masse non nulle, et envisagerons successivement deux valeurs du spin. B-1.

Equation de Klein-Gordon

Il n’existe pas au sein de l’algèbre de Lie du groupe de Poincaré d’opérateur correspondant à la position. Nous avons vu que le comportement d’une position dans une translation conduit aux relations de commutation canoniques (VI-8), alors que dans cette algèbre de Lie aucun opérateur ne donne une constante par commutation avec P . C’est pourquoi, au lieu de le supposer pour les trois composantes de l’opérateur position, nous supposerons maintenant que ce sont les trois composantes de P qui constituent un ECOC. Comme plus haut, cette hypothèse implique que le spin est nul, et nous conduit à introduire la fonction d’onde ψ(p) : ψ(p) = hp|ψi B-1-a.

(VI-63)

Ecriture de l’équation

Pour obtenir l’évolution temporelle de cette fonction, nous nous référons à la relation (V-66a) qui donne le carré de l’hamiltonien H en fonction de P et de la masse M : H 2 = P 2 c2 + M 2 c4

(VI-64)

Comme −iH/~ est associé à la variation infinitésimale dans le temps de |ψi, donc à sa dérivée par rapport au temps, nous obtenons : −~2

∂2 ψ(p, t) = p2 c2 ψ(p, t) + M 2 c4 ψ(p, t) ∂t2

(VI-65a)

Nous pouvons maintenant introduire la transformée de Fourier ψ(r) de ψ(p). Une transformation de Fourier de cette équation conduit alors à : −~2

∂2 ψ(r, t) = −~2 c2 ∆ψ(r, t) + M 2 c4 ψ(r, t) ∂t2

(VI-65b)

Ces deux relations constituent les deux formes de l’équation de Klein-Gordon, respectivement en représentation impulsion et en représentation position. 234

B. GROUPE DE POINCARÉ, ÉQUATIONS DE KLEIN-GORDON ET DE DIRAC

B-1-b.

Loi de conservation locale, difficultés

Comme l’équation de Schrödinger, l’équation de Klein-Gordon satisfait une loi de conservation locale : ∂ ρ(r, t) + ∇ · J (r, t) ∂t

(VI-66)

où le courant de probabilité J (r, t) a l’expression habituelle : J (r, t) =

~ [ψ ? (r, t) ∇ψ(r, t) − c.c.] 2M i

(VI-67)

(c.c. signifie “complexe conjugué”) mais où ρ(r, t) s’écrit maintenant : 1 ∂ ? ψ (r, t) ψ(r, t) − c.c. 2i~ ∂t 

ρ(r, t) =



(VI-68)

Avec ces deux expressions, on vérifie sans difficulté que l’équation de conservation (VI-66) est conséquence de l’équation de Klein-Gordon (VI-65b). Mais une difficulté se présente immédiatement si l’on cherche à interpréter ρ(r, t) comme une densité de probabilité : le second membre de (VI-68) n’est pas toujours positif, contrairement au carré du module de ψ qui donne la valeur de ρ pour l’équation de Schrödinger. Il n’est en fait pas très surprenant que nous rencontrions ce type de difficulté. N’ayant pas trouvé d’opérateur position dans l’algèbre de Lie du groupe, nous nous sommes contentés de le définir mathématiquement par une transformée de Fourier, sans autre justification. Surtout, nous voyons que nous arrivons à la limite de l’exercice qui consiste à construire un système physique simple (une seule particule) dans un cadre relativiste qui resterait valable à toute énergie. Nous savons en effet qu’énergie et masse sont équivalentes dans un tel cadre, et qu’il est parfaitement possible de créer de nouvelles particules si l’on dispose de suffisamment d’énergie. Le cadre imposé par l’unicité de la particule est donc trop rigide. Un outil plus puissant pour traiter de ce genre de situation est la théorie des champs, où ψ(r) n’est plus une fonction d’onde mais un opérateur agissant dans un “espace de Fock” où le nombre de particules peut varier (cf. par exemple chapitre XV de [10]). La position n’est alors pas un opérateur, mais un paramètre qui joue le rôle d’indice repérant les opérateurs agissant dans l’espace des états. Dans cette optique, l’équation de Klein-Gordon est plus vue comme une étape intermédiaire sur le chemin d’une théorie des champs plus générale, qu’une base théorique en elle-même. B-1-c.

Couplage minimal

Comme dans le § A-2, nous pouvons envisager de généraliser les résultats précédents au cas d’une particule qui n’est plus libre. La procédure 235

CHAPITRE VI

ESPACE DES ÉTATS ET ÉQUATIONS D’ONDE SIMPLES

consiste ici aussi à remplacer l’impulsion P par l’expression : P ⇒ P − qA(R)

(VI-69)

et à procéder de même pour la première composante du quadrivecteur énergieimpulsion 5 , qui donne la dérivée temporelle de la fonction d’onde : H ⇒ H − qU (R)

(VI-70)

Cette opération est appelée, pour des raisons historiques, “couplage minimal”. Elle conduit à l’équation : h

i~

i2 h~ i2 ∂ − qU (r) ψ(r, t) − c2 ∇ − qA(r) ψ(r, t) = M 2 c4 ψ(r, t) (VI-71) ∂t i

Avec un potentiel scalaire U (r) coulombien et un potentiel vecteur nul A = 0, on obtient ainsi un modèle relativiste de l’atome d’hydrogène. Ce modèle fournit les expressions correctes de certaines corrections relativistes à la position des niveaux d’énergie (les corrections de structure fine), mais pas celles qui proviennent de l’existence du spin de l’électron, qui relèvent de l’équation de Dirac. B-2.

Equation de Dirac

Visiblement, c’est l’existence d’une dérivée temporelle du second ordre, et en particulier la non-positivité de la densité de probabilité qui apparaît dans la loi de conservation (VI-66,) qui compliquent notablement l’interprétation de l’équation de Klein-Gordon. Ce second ordre est conséquence du fait que l’expression relativiste de l’hamiltonien donne le carré de H, et non pas H lui-même. Dirac a eu l’idée de résoudre le problème en introduisant une équation du premier ordre en temps dont une équation du second ordre est une conséquence. B-2-a.

Etablissement de l’équation

L’idée est la suivante. Supposons que la fonction d’onde ψ(p, t) en représentation {|pi} obéisse à l’équation d’évolution : i~

h i ∂ ψ(p, t) = α0 M c2 + c α · p ψ(p, t) ∂t

(VI-72)

où α0 , ainsi que les trois composantes αx,y,z de α, sont des constantes (indépendantes de p et de t). En appliquant deux fois l’opérateur entre crochets, 5. En électromagnétisme, cette procédure consiste simplement à effectuer la somme de deux quadrivecteurs, le quadrivecteur {H/c, P } et le quadrivecteur {U/c, A} (en jauge de Lorentz) multiplié par l’opposé de la charge q.

236

B. GROUPE DE POINCARÉ, ÉQUATIONS DE KLEIN-GORDON ET DE DIRAC

nous obtenons : 3 h i2 X ∂2 0 2 0 2 2 4 2 −~ 2 ψ(p, t) = α M c + c α · p ψ(p, t) = (α ) M c + c (αi )2 p2i ∂t i=1 2

+

3 h X

0 i

i 0

α α +α α

i

3

M c pi +

i=1

3 h X

i

αi αj + αj αi c2 pi pj

i,j=1

(VI-73) où i, j = 1, 2, 3 désignent les composantes sur x, y, z. Nous pouvons donc obtenir ainsi une image conforme à l’expression (V-66a) de H 2 à condition que les carrés de toutes les composantes αi soient nuls : (αi )2 = 1 pour i = 0, 1, 2, 3

(VI-74a)

et que les composantes différentes anticommutent : h

i

αi αj + αj αi = 2δij

(VI-74b)

Bien sûr, les relations (VI-74b) n’ont pas de solution si α0 et les composantes de α sont des nombres ordinaires, qui ne peuvent anticommuter. Cependant, pour des matrices, ce n’est pas impossible. Des exemples bien connus sont les matrices de Pauli, qui correspondent aux trois composantes d’un spin 1/2 : non seulement ces matrices anticommutent, mais leurs carrés valent l’unité, et satisfont donc les relations (VI-74a). On peut alors espérer une solution très élégante au problème posé : ne suffit-il pas de supposer tout simplement que la particule possède un spin 1/2 ? Malheureusement, les matrices de Pauli σi ne sont qu’au nombre de trois, alors que nous avons besoin de quatre matrices satisfaisant aux conditions ci-dessus. • Tentons cependant de construire des matrices 2 × 2 qui satisfassent aux relations requises. Nous décomposons ces matrices µk sur la matrice unité et les matrices de Pauli selon : µk = x0k 1 +

3 X

xik σi

(VI-75)

i=1

Le carré de cette matrice vaut : X X   (mk )2 = (x0k )2 + (xik )2 1 + 2x0k xik σi i

(VI-76)

i

Ce carré peut valoir l’unité dans deux cas : – soit tous les xik pour i = 1, 2, 3 sont nuls, et x0k = 1, ce qui nous fournit le cas trivial où la matrice est la matrice unité. Ce cas ne nous intéresse pas, car il est incompatible avec l’anticommutation de µk avec trois autres matrices ;

237

CHAPITRE VI

ESPACE DES ÉTATS ET ÉQUATIONS D’ONDE SIMPLES

– soit x0k = 0, et la somme des carrés des trois autres composantes est égale à l’unité. Nous ne retenons donc que cette possibilité. Calculons alors l’anticommutateur de deux matrices µk et µl de composantes nulles sur la matrice unité. Compte tenu du fait que les matrices de Pauli anticommutent et sont de carré unité, nous obtenons : 3 h i X µk , µ l = 2 xki xli 1 = 2 xk · xl +

(VI-77)

i=1

L’anticommutation est donc satisfaite si les deux vecteurs xk , de composantes xki , et xl , de composantes xli , sont orthogonaux. Mais, dans un espace à trois dimensions, nous ne pouvons pas trouver plus de 3 vecteurs unitaires qui soient tous orthogonaux entre eux. Les quatre matrices que nous recherchons n’existent donc pas si nous nous limitons aux matrices 2 × 2. • Il n’est pas possible non plus de trouver des matrices 3 × 3 qui satisfassent aux relations (VI-74b) si ces matrices sont hermitiques. Elles sont alors diagonalisables et leurs valeurs propres valent toutes ±1, puisque leur carré vaut 1. Mais la relation d’anticommutation α0 αi = −αi α0 , ainsi que le fait que le carré de α0 soit égal à l’unité, impliquent que : αi = −α0 αi α0

(VI-78)

La trace de cette relation conduit à : Tr{αi } = −Tr{α0 αi α0 } = −Tr{(α0 )2 αi } = −Tr{αi }

(VI-79)

(nous avons à nouveau utilisé le fait que le carré de la matrice α0 vaut l’unité). La trace de tous les αi est donc nulle. Comme cette trace est la somme des valeurs propres, et que ces dernières valent toutes ±1, elles doivent être en nombre pair, ce qui indique que l’espace dans lequel elles agissent ne peut pas avoir une dimension impaire. Il est donc inutile de chercher des matrices de dimension 3 satisfaisant aux relations (VI-74b).

Si l’on prend des matrices 4 × 4, on peut poser : 0

α =

(1) 0 0 −(1)

! i

α =

0 σi σi 0

!

(VI-80)

où (1) désigne comme plus haut la matrice unité 2 × 2, et σ i une matrice de Pauli σ x , σ y , ou σ z ; les zéros symbolisent des matrices 2 × 2 dont tous les éléments sont nuls. Il n’est pas difficile de vérifier que ces matrices hermitiques satisfont aux relations (VI-74). L’équation de Dirac s’écrit alors :

i~ 238

h i ∂ ψD (p, t) = α0 M c2 + c α · p ψD (p, t) ∂t

(VI-81)

B. GROUPE DE POINCARÉ, ÉQUATIONS DE KLEIN-GORDON ET DE DIRAC

où ψD (p, t) est le spineur de Dirac à 4 composantes, que l’on peut représenter par une matrice colonne : 



ψ1 (p, t) ψ (p, t)   ψD (p, t) =  2  ψ3 (p, t) ψ4 (p, t)

(VI-82)

Par transformée de Fourier spatiale, cette équation devient : i~

h i ∂ ψD (r, t) = α0 M c2 − i~c α · ∇ ψD (r, t) ∂t

(VI-83)

où ψD (r, t) est un autre spineur à 4 composantes, semblable à (VI-82), mais où les quatre fonctions ψi dépendent maintenant de la position (au lieu de l’impulsion) et du temps. On interprète cette équation comme décrivant à la fois une particule de spin 1/2 et son antiparticule de même spin, chacune contribuant pour deux unités à la dimension de l’espace des états 6 . Cette équation a permis à Dirac de prédire en 1931 que l’électron avait une antiparticule de même spin, particule qui fut observée un an plus tard par Anderson au cours de ses recherches sur les rayons cosmiques. Cette particule porte maintenant le nom de “positron”. B-2-b.

Une solution simple : onde plane

Un cas simple fournit une première illustration du rôle des quatre états de l’équation de Dirac, celui d’une onde plane. Supposons que les quatre fonctions ψi (r, t) aient une dépendance spatiale en eik·r . Nous prenons l’axe Oz parallèle à k. La matrice 4×4 qui correspond à l’opérateur entre crochets n’a alors qu’une contribution de la composante Oz de α, et s’écrit : M c2 0 ~ck 0  0 M c2 0 −~ck      2  ~ck 0 −M c 0  0 −~ck 0 −M c2 



(VI-84)

Cette matrice ne couple que le premier vecteur au troisième, et le second au quatrième. C’est en fait un produit tensoriel de deux matrices 2 × 2, qui toutes deux s’écrivent : M c2 ±~ck ±~ck −M c2

!

= M c2 σz ± ~ck σx

(VI-85)

6. Une transformation de Lorentz permet d’amener une particule de masse non nulle au repos, et même de changer le signe de son impulsion, changeant ainsi celui de son hélicité (§ B-3 du chapitre V). Pour une particule de masse nulle, cette possibilité n’existe pas. C’est pourquoi il n’existe pas d’équation d’onde à 2 composantes pour une particule massive ; il faut aller à 4. En revanche, pour une particule de masse nulle, 2 composantes peuvent suffire. C’est le cas du photon, qui se confond avec son antiparticule.

239

CHAPITRE VI

ESPACE DES ÉTATS ET ÉQUATIONS D’ONDE SIMPLES

Ces deux matrices ont toutes deux les mêmes valeurs propres E : p

E = ± m2 c4 + ~2 c2 k 2

(VI-86)

Comme p = ~k, nous obtenons bien une expression qui, élevée au carré, redonne la relation (VI-64) relativiste entre énergie et impulsion. La valeur propre positive de E correspond bien au but recherché en construisant l’équation de Dirac. Mais la valeur propre négative pose des problèmes d’interprétation plus délicats, car elle n’a aucune limite inférieure lorsque k → ∞. Pourquoi alors un électron, d’énergie positive, ne retombet-il pas constamment vers cette infinité d’états d’énergie négative ? Pour répondre à cette question, Dirac a supposé que, dans le vide, tous les états d’énergie négative sont déjà peuplés, ce qui à cause du principe de Pauli interdit à un électron d’énergie d’y retomber. L’ensemble de ces états d’énergies négatives peuplés est souvent appelé “mer de Dirac”. De plus, il a proposé qu’il puisse exister un “trou” dans cette mer de Dirac, donc un état inoccupé, et que ce trou décrive une particule de charge opposée à celle de l’électron, mais sinon semblable : un positron. Ici aussi, la théorie quantique des champs, qui n’est pas une théorie où le nombre de particules reste fixé, permet d’aller plus loin, tout en évitant les difficultés liées à la mer de Dirac. B-2-c.

Forme relativiste

Il est possible d’obtenir une forme explicitement relativiste de l’équation de Dirac. Pour cela, multiplions les deux membres de l’équation (VI-83) par la matrice α0 et posons : γ 0 = α0

γ i = α0 αi =

et :

0 +σ i −σ i 0

!

avec i = x, y, z

(VI-87)

Contrairement aux matrices α, les γ i ne sont pas hermitiques. Comme le carré de la matrice α0 vaut l’unité, nous obtenons : h

M c2 − i~γ 0

i ∂ − i~c γ · ∇ ψD (r, t) = 0 ∂t

(VI-88)

soit, en divisant par c : h

i

M c − i~γ µ ∂µ ψD (r, t) = 0

(VI-89)

Nous utilisons ici la notation relativiste standard, où le quadrivecteur ∂µ a pour première composante ∂/c∂t, suivie des trois composantes du gradient spatial ∇r . Selon la convention d’Einstein, on somme de 1 à 4 tout indice qui apparaît deux fois, une en position haute et une en position basse. 240

B. GROUPE DE POINCARÉ, ÉQUATIONS DE KLEIN-GORDON ET DE DIRAC

B-2-d.

Lois de conservation

† Le conjugué hermitique ψD (r, t) du spineur de Dirac ψD (r, t) est associé à la matrice ligne :



† ψD (r, t) = ψ1∗ (r, t) ψ2∗ (r, t) ψ3∗ (r, t) ψ4∗ (r, t)



(VI-90)

Le produit des deux matrices 1 × 4 par 4 × 1 est un nombre. Nous avons : † ψD (r, t)ψD (r, t) = |ψ1 (r, t)|2 + |ψ2 (r, t)|2 + |ψ3 (r, t)|2 + |ψ4 (r, t)|2 ≥ 0

(VI-91) Les expressions (VI-80) des matrices α sont hermitiques, de sorte que l’opérateur différentiel qui figure au second membre de (VI-83) est hermitique. Or nous savons qu’une évolution sous l’influence d’un hamiltonien hermitique conserve la norme. Il en découle une loi de conservation de l’intégrale dans † tout l’espace de l’expression ψD (r, t)ψD (r, t) : d dt

Z

† d3 r ψD (r, t)ψD (r, t) = 0

(VI-92)

Cette loi de conservation a également une forme locale, donc plus précise, qui met en jeu un quadrivecteur courant j µ défini par : † 0 µ j µ = ψD γ γ ψD

(VI-93)

Comme (γ 0 )2 = 1, on obtient immédiatement : † j µ=0 = ψD (r, t)ψD (r, t) ≥ 0

(VI-94)

La composante µ = 0 du courant est donc bien la fonction positive (VI-91) qui intervient dans la loi de conservation globale (VI-92). Calculons alors la somme ∂µ j µ . Son premier terme, associé à la dérivée temporelle, s’obtient à partir de (VI-83) :   1∂ † 1 † 0 1 † 0 ψD ψD = ψD α M c−i~α·∇ ψD − ψD α M c+i~α·∇ ψD (VI-95) c ∂t ic ic

où, dans le second terme du second crochet, il faut comprendre le gradient † comme agissant sur le ψD qui le précède. Les termes en M c disparaissent et, comme i∇ ainsi que les composantes de α sont hermitiques et commutent, nous obtenons :  †  1∂ † † ψD ψD = −~α · ψD (∇ψD ) + (∇ψD )ψD c ∂t

(VI-96)

Les trois termes suivants de la somme ∂µ j µ ont pour somme : † 0 † † † ∇ · ψD γ γ ψD = ∇ · ψD αψD = α · ψD (∇ψD ) + (∇ψD )ψD





(VI-97) 241

CHAPITRE VI

ESPACE DES ÉTATS ET ÉQUATIONS D’ONDE SIMPLES

En additionnant (VI-96) et (VI-97) nous obtenons donc : ∂µ j µ = 0

(VI-98)

soit, si nous explicitons les composantes du quadrivecteur : ∂ † † ψ ψD + c ∇ · ψD αψD ∂t D

(VI-99)

qui a bien la forme d’une équation de conservation locale de la densité, avec une densité positive. B-2-e.

Couplage à un champ électromagnétique

Comme pour l’équation de Klein-Gordon, nous pouvons appliquer la procédure du couplage minimal pour ajouter les effets d’un champ électromagnétique dans l’équation de Dirac (VI-83). Nous obtenons alors : h

i~

i h  i ∂ − qU (r, t) ψD (r, t) = α0 M c2 − i~c α · i~∇ + qA(r, t) ψD (r, t) ∂t (VI-100)

où A(r, t) et U (r, t) sont respectivement les potentiels vecteur et scalaire du champ électromagnétique. Lorsque U est un potentiel coulombien indépendant du temps et A = 0, cette équation permet de calculer les énergies des niveaux de structure fine de l’hydrogène (cf. § XX-27 de [7] et § 19.3.4 et 5 de [14]). En champ magnétique non nul (A 6= 0) elle permet également de calculer la valeur du “facteur gyromagnétique g de l’électron”, qui donne le rapport entre son moment magnétique et son moment cinétique de spin. On obtient ainsi g = 2, valeur qui n’est pas évidente a priori puisque ce rapport vaut 1 pour les variables orbitales. Cette valeur 2 n’est d’ailleurs pas strictement exacte, car elle ne tient pas compte des corrections dues au couplage entre l’électron et le champ électromagnétique quantifié. Bien que faibles (à peu près un pour mille), ces corrections ont été mesurées avec une précision relative fantastique, de l’ordre de 10−10 . B-2-f.

Conclusion : statut de l’équation de Dirac

L’équation de Dirac rencontre donc un certain nombre de succès (prise en compte du spin, structure fine de l’atome d’hydrogène, facteur g de l’électron, une première introduction de la notion d’antiparticule) mais conduit aussi à des impasses, principalement liées à l’existence d’une infinité d’états d’énergies négatives (mer de Dirac). Ces difficultés sont fondamentales et liées à la possibilité relativiste de créer des particules, ce qui rend immédiatement caduque toute théorie relativiste à une seule particule. On peut 242

B. GROUPE DE POINCARÉ, ÉQUATIONS DE KLEIN-GORDON ET DE DIRAC

certes interpréter l’équation de Dirac comme une théorie à une seule charge, et non à une seule particule, afin d’y inclure la possibilité de création de paires électron-positron, mais cela ne lève pas toutes les difficultés. En fait, outre son intérêt historique, l’équation de Dirac est actuellement vue uniquement comme une étape intermédiaire vers une théorie bien plus puissante, la théorie des champs, qui permet de traiter un nombre bien plus élevé de phénomènes physiques, mais sort cependant du domaine de cet ouvrage. Le lecteur intéressé par la théorie moderne des champs pourra consulter les références [12] et [15].

243

• LAGRANGIENS DES ÉQUATIONS D’ONDE

Complément AVI Lagrangiens des équations d’onde 1

2 3 4

Lagrangien pour un champ . 1-a Champ réel . . . . . . . . 1-b Champs complexes . . . . Equation de Schrödinger . . Equation de Klein-Gordon . Equation de Dirac . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

245 245 247 248 249 249

Dans ce complément, nous montrons comment les équations d’ondes établies dans le chapitre VI peuvent être vues comme découlant d’un principe variationnel utilisant un lagrangien, qui est une fonctionnelle dépendant des composantes de la fonction d’onde. 1.

Lagrangien pour un champ

Au § B-2 du chapitre I, nous avons discuté les équations de Lagrange concernant un système physique décrit par un ensemble discret de coordonnées généralisées qi (i = 1, 2, . . . , N ). Mais les variables qui décrivent un champ φ(r) en chaque point r de tout l’espace dépendent de l’indice continu r, de sorte que la situation est différente ; il nous faut examiner ce que deviennent le principe de moindre action ainsi que les équations de Lagrange dans ce cas. Un champ peut avoir plusieurs composantes qui constituent ses variables dynamiques (un champ scalaire a une seule composante, un champ vectoriel trois composantes, etc.). Nous appelons φj (r) ces variables dynamiques, qui dépendent de la composante j ainsi que de l’indice continu que constitue le point r dans l’espace réel. Nous commencerons par établir les équations de Lagrange pour un champ réel. 1-a.

Champ réel

Le lagrangien L d’un champ réel est la somme des contributions de tous les r, et donc l’intégrale dans tout l’espace réel : Z

L=

d3 r L (r, t)

(1)

d’une densité de lagrangien L . Cette dernière est une fonctionnelle des diverses composantes du champ φj (r) et de leurs dérivées partielles par rapport 245

COMPLÉMENT AVI



à t et aux composantes de r, que nous notons : 



L (r, t) = L φj (r, t), φ˙ j (r, t), ∂i φj (r, t)

(2)

Pour un champ vectoriel, i = x, y, z ; nous utilisons les notations concises suivantes pour les dérivées : φ˙ j (r, t) = ∂φj (r, t)/∂t

(3)

∂i φj (r, t) = ∂φj (r, t)/∂ri

(4)

Etudions alors une histoire possible du champ, c’est-à-dire un chemin Γ du champ qui le fait passer de la valeur φj (r, t1 ) à un instant initial t1 à une valeur finale φj (r, t2 ) à un instant t2 . L’action SΓ associée à ce chemin s’écrit alors 1 : Z t2

SΓ =

Z

dt t1



d3 r L φj (r, t), φ˙ j (r, t), ∂i φj (r, t)



(5)

Selon le principe de moindre action, parmi l’infinité de chemins reliant un état initial donné à un autre état final donné, le (ou les) chemin(s) effectivement suivi(s) par le système sont ceux qui rendent SΓ extrémal. Pour obtenir ce(s) chemin(s), calculons la variation δS de l’action pour une variation infinitésimale du chemin caractérisée par les variations infinitésimales δφj (r, t), δ (∂φj (r, t)/∂t) et δ (∂φj (r, t)/∂ri ) : Z t2

δS =

Z

dt t1

" 3

d r

X

δφj (r, t)

j

∂L ∂L + δ φ˙ j (r, t) ∂φj ∂ φ˙ j +

X i

∂L δ (∂i φj (r, t)) ∂(∂i φj )

#

(6)

Comme : δ φ˙ j (r, t) = ∂ (δφj (r, t)) /∂t δ (∂i φj (r, t)) = ∂i (δφj (r, t))

(7)

on peut effectuer des intégrations par parties des termes proportionnels à ∂ (δφj (r, t)) /∂t et ∂i (δφj (r, t)). On constate ensuite que les termes tout intégrés sont nuls, du fait des conditions aux limites sur δφj (r, t) aux instants initial et final et des conditions d’annulation pour r → ∞. Les termes 1. Nous supposons que la densité de lagrangien est nulle, ou tend suffisamment vite vers zéro, quand r tend vers l’infini, pour que l’intégrale du second membre de (5) soit convergente.

246

• LAGRANGIENS DES ÉQUATIONS D’ONDE restants deviennent alors tous proportionnels à δφj (r, t), et l’on obtient 2 : Z t2

δS =

Z

dt t1

"

d3 r

X ij

X ∂L d ∂L ∂L δφj (r, t) − − ∂i ˙ ∂φj dt ∂ φj ∂(∂i φj ) i

#

(8)

La nullité de δS, quelles que soient les variations spatiales et temporelles de δφj (r, t), entraîne alors les équations de Lagrange du champ : X ∂L d ∂L ∂L − − ∂i =0 ∂φj dt ∂ φ˙ j ∂(∂i φj ) i

Avec des variables continues, on notera la présence du terme en n’existe pas si le système est décrit par des variables discrètes. 1-b.

(9) P

i,

qui

Champs complexes

Si le champ est Φ(r, t) complexe, chacune de ses composantes s’écrit : I φj (r, t) = φR j (r, t) + iφj (r, t)

(10)

I où φR j (r, t) et φj (r, t) sont deux fonctions réelles. Il est équivalent de considérer que le système possède n composantes complexes, ou 2n composantes réelles. La densité de lagrangien L s’exprime alors comme une fonctionnelle de Φ(r, t) et Φ∗ (r, t). Nous la supposons invariante dans un changement de la phase globale de la fonction Φ(r, t), ce qui revient à dire que chaque terme de L contient autant de fois Φ que Φ∗ . Lorsque l’on fait varier les φR j (r, t) et I φj (r, t) pour obtenir les conditions de stationnarité de l’action S, les variations de Φ et Φ∗ ne sont pas indépendantes, puisque complexes conjuguées. Les conditions de stationnarité de S peuvent toutefois être obtenues comme si elles l’étaient. En effet, si S est stationnaire, sa variation est nulle lorsque Φ varie de dΦ, mais aussi de eiχ dΦ. Les variations introduites par celles conjointes de Φ et Φ∗ s’ajoutent et :

dS = eiχ dc1 + e−iχ dc2 = 0

(11)

où dc1 est la variation induite par dΦ lorsque χ = 0, et dc2 celle induite par dΦ∗ . Mais cette fonction de χ ne peut rester nulle pour tout χ que si chacun 2. La fonction L ne dépend du temps que de façon indirecte, lorsque l’on remplace comme en (2) les champs et leurs dérivées par les valeurs prises pour une histoire donnée d ∂L du champ. La notation dt dans (8) et (9) désigne alors la dérivée de cette fonction ∂ φ˙ j par rapport au temps t au cours de cette histoire. Cette dérivée totale additionne donc les contributions des dérivées partielles de la fonction par rapport à toutes les variables initiales (les champs et leurs dérivées).

247

COMPLÉMENT AVI



des deux coefficients dc1 et dc2 est nul. Ceci indique bien que la variation de l’action doit s’annuler lorsque l’on fait varier indépendamment le champ et son complexe conjugué. Les raisonnements précédents se généralisent si le système physique est constitué de plusieurs champs complexes, indépendants ou couplés. 2.

Equation de Schrödinger

Notons la fonction d’onde ψ, et ψ˙ sa dérivée partielle par rapport au temps. Considérons la densité de lagrangien : ~2 L = i~ψ ∗ ψ˙ − ∇ψ ∗ · ∇ψ − V ψ ∗ ψ 2m

(12)

où V est le potentiel extérieur et m la masse de la particule. Effectuons dans un premier temps une variation de ψ ∗ . Comme : ∂L = i~ψ˙ − V ψ ∂ψ ∗

;

∂L =0 ∂ ψ˙ ∗

;

∂L ~2 ∗ (L ) = − = ∇ ∇ψ ∇ψ ∂∇ψ ∗ 2m (13)

l’équation de Lagrange (9) s’écrit : ~2 i~ψ˙ − V ψ + ∆ψ = 0 2m

(14a)

soit : ~2 i~ψ˙ = V ψ − ∆ψ 2m

(14b)

Nous retrouvons bien l’équation de Schrödinger standard. Effectuons maintenant une variation de ψ. Nous avons alors : ∂L = −V ψ ∗ ∂ψ

;

∂L = i~ψ ∗ ∂ ψ˙

;

∂L ~2 = ∇∇ψ (L ) = − ∇ψ ∗ ∂∇ψ 2m (15)

L’équation de Lagrange s’écrit alors : −V ψ ∗ − i~

d ∗ ~2 ψ + ∆ψ ∗ = 0 dt 2m

(16)

qui n’est autre que la complexe conjuguée de (14b). Nous retrouvons donc la même équation d’évolution. Les considérations précédentes se généralisent immédiatement au cas où la fonction d’onde décrit plusieurs particules, et où le potentiel comprend 248

• LAGRANGIENS DES ÉQUATIONS D’ONDE une composante d’interaction dépendant de la position mutuelle des particules. Il faut cependant remplacer le second terme du second membre de (12) (le terme d’énergie cinétique) par une somme sur les particules, de masse mk et position rk : −

3.

X ~2 ~2 ∇ψ ∗ · ∇ψ ⇒ − ∇rk ψ ∗ · ∇rk ψ 2m 2m k k

(17)

Equation de Klein-Gordon Etudions maintenant la densité de lagrangien : L =

~2 ˙ ∗ ˙ ~2 ψ ψ + ∇ψ ∗ · ∇ψ − mc2 ψ ∗ ψ mc2 m

(18)

Elle conduit à : ∂L = −mc2 ψ ∂ψ ∗

;

∂L ~2 ˙ = ψ mc2 ∂ ψ˙ ∗

;

∂L ~2 ∗ (L ) = = ∇ ∇ψ ∇ψ ∂∇ψ ∗ 2m (19)

L’équation de Lagrange s’écrit alors : −mc2 ψ −

~2 ¨ ~2 ψ − ∆ψ = 0 mc2 m

(20a)

soit encore : −~2

∂2 ψ(r, t) = −~2 c2 ∆ψ(r, t) + m2 c4 ψ(r, t) ∂t2

(20b)

Cette relation est identique à l’équation de Klein-Gordon écrite en (VI-65b), au changement de notation de la masse près (ici en lettre minuscule). Il n’est pas nécessaire d’examiner ce que donne une variation de ψ, puisque ψ et ψ ∗ jouent un rôle symétrique dans le lagrangien. Le résultat serait nécessairement l’équation complexe conjuguée de (20b). 4.

Equation de Dirac

Montrons que l’on peut obtenir l’équation de Dirac à partir de la densité de lagrangien : ˙ D + i~c Ψ† α · ∇ΨD − mc2 Ψ† α0 ΨD L = i~ Ψ†D Ψ D D

(21a)

soit, en notation relativiste : L = i~c Ψ†D αµ ∂µ ΨD − mc2 Ψ†D α0 ΨD

(21b) 249

COMPLÉMENT AVI



Dans ces expressions, les dérivées par rapport à Ψ†D sont en fait des dérivées fonctionnelles par rapport aux quatre éléments de matrice ligne qui représente l’adjoint du spineur de Dirac. On peut les écrire sous la forme d’un spineur, puisque leur produit par la matrice ligne qui exprime la variation dΨ†D donne la variation de la densité de lagrangien. Elles s’écrivent : ∂L ∂Ψ†D

˙ D − mc2 α0 ΨD + i~c α · ∇ΨD ; = i~Ψ

∂L =0 ; ˙∗ ∂Ψ D

∂L † ∂∇ψD

=0 (22)

ce qui conduit immédiatement à l’équation de Dirac (VI-83) : ˙ D − mc2 α0 ΨD + i~c α · ∇ΨD = 0 i~Ψ

(23)

Nous pouvons également envisager des variations de ΨD , et écrire des dérivées sous la forme : ∂L = −mc2 Ψ†D α0 ∂ΨD

;

∂L = i~ Ψ†D ˙D ∂Ψ

;

∂L = i~c Ψ†D α ∂∇ψD

(24)

Pour écrire l’équation de Lagrange, nous devons obtenir la divergence spatiale de la troisième de ces dérivées. Comme : 3 X ∂ i=1

∂xi

Ψ†D αi = ∇Ψ†D · α

(25)

nous obtenons : ˙ † − i~c Ψ† α = 0 −mc2 Ψ†D α0 − i~ Ψ D D

(26)

Cette relation n’est autre que la conjuguée de (23). Nous vérifions donc que les variations de ΨD n’apportent aucune nouvelle contrainte par rapport à celles de Ψ†D . Remarque :

Nous avons vérifié qu’un certain nombre de lagrangiens conduisaient aux équations d’onde qui nous intéressent. Ces lagrangiens sont cependant loin d’être uniques ; on peut par exemple leur ajouter une dérivée totale par rapport au temps sans changer l’équation obtenue.

250

Chapitre VII

Représentations irréductibles du groupe des rotations, spineurs A

B

C

Représentations unitaires irréductibles du groupe des rotations . . . . . . . . . . . . . . . . . . . . . A-1 Quelques propriétés utiles . . . . . . . . . . . . . . A-2 Représentations irréductibles . . . . . . . . . . . . A-3 Base standard . . . . . . . . . . . . . . . . . . . . A-4 Construction explicite des matrices de rotation . . A-5 Représentations au sens strict et représentations bivaluées . . . . . . . . . . . . . . . . . . . . . . . Particules de spin 1/2 ; spineurs . . . . . . . . . . B-1 Construction de l’espace des états . . . . . . . . . B-2 Vecteur d’état de la particule . . . . . . . . . . . . B-3 Opérateurs . . . . . . . . . . . . . . . . . . . . . . B-4 Mise en évidence des propriétés particulières à un spin demi-entier . . . . . . . . . . . . . . . . . . . Composition des moments cinétiques . . . . . . . C-1 Position du problème . . . . . . . . . . . . . . . . . C-2 Réduction de la représentation produit . . . . . . . C-3 Composition de plus de deux moments cinétiques .

252 253 254 257 260 263 274 274 276 277 279 281 281 284 288

Dans ce chapitre, nous allons utiliser les propriétés du groupe R(3) des rotations autour d’un point, plus précisément les relations de commutation de ses générateurs infinitésimaux, pour étudier et construire les opérateurs de rotation, infinitésimaux ou finis, agissant dans l’espace des états d’un système quelconque. Nous commencerons, au § A, par une étude générale

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

des représentations irréductibles unitaires de R(3) ce qui nous conduira à écrire de façon explicite les matrices correspondantes. Munis de ces résultats, nous pourrons compléter au § B les résultats du chapitre VI concernant les représentations de spin non nul, en discutant quelques propriétés des spineurs à deux composantes. Puis, au § C, nous aborderons le problème de la composition des moments cinétiques, c’est-à-dire de la décomposition en représentations irréductibles d’une représentation du groupe R(3) obtenue par produit tensoriel de représentations individuellement irréductibles. Bien que présentés de façon légèrement différente, un certain nombre des calculs que nous aurons à effectuer au paragraphe A sont contenus dans la plupart des ouvrages de base sur la mécanique quantique, même si la discussion n’est pas toujours effectuée en termes de représentation. Nous ne les redonnons donc pas ici explicitement. Le lecteur peu familier avec la théorie élémentaire du moment cinétique pourra consulter le chapitre correspondant de l’un des ouvrages cités dans l’introduction, par exemple le chapitre VI de [10], dont nous utilisons d’ailleurs systématiquement les notations. A.

Représentations unitaires irréductibles du groupe des rotations

Rappelons les relations de commutations entre opérateurs Jxi correspondant, dans l’espace des états d’un système physique quelconque, aux rotations infinitésimales : h

i

Jxi , Jxj = i~ εijk Jxk

(VII-1)

L’opérateur : J 2 = Jx2 + Jy2 + Jz2

(VII-2)

commute 1 avec toute composante de J : h

i

J 2 , Jxi = 0

(VII-3)

Le problème est maintenant le suivant : à partir de ces relations de commutation (c’est-à-dire des constantes de structure du groupe des rotations), construire les matrices qui donnent de façon explicite l’action des opérateurs Jx , Jy et Jz dans l’espace des états 2 E d’un système quelconque ; en déduire celle des opérateurs de rotation. Comme mentionné dans l’introduction, nous nous contenterons ici d’énoncer sans démonstration un certain nombre de résultats standard. 1. L’opérateur J 2 n’est autre que l’opérateur de Casimir (à un facteur −1/2 près) du groupe des rotations (§ 3 du complément AIII ). 2. Les raisonnements que nous allons faire ne sont bien sûr pas limités à la mécanique quantique, et l’espace E peut être un espace de représentation quelconque (espace où agissent les opérateurs associés aux matrices de la représentation). Par exemple, E peut parfaitement être l’espace habituel à 3 dimensions (cf. § A-5-a).

252

A. REPRÉSENTATIONS UNITAIRES IRRÉDUCTIBLES DU GROUPE DES ROTATIONS

A-1.

Quelques propriétés utiles

Les deux opérateurs J+ et J− sont définis par : J± = Jx ± i Jy

(VII-4)

On a : [Jz , J± ] = ±~ J± J+ J− = J 2 − Jz2 + ~ Jz 2

Jz2

J− J+ = J − − ~ Jz 1 J 2 = (J+ J− + J− J+ ) + Jz2 2

(VII-5a) (VII-5b) (VII-5c) (VII-5d)

Les propriétés suivantes peuvent alors être établies : (i) Les valeurs propres de J 2 sont réelles, positives ou nulles. Elles seront notées : j(j + 1) ~2 où j ≥ 0. Quant à celles de Jz , nous les écrivons m~ (m ≷ 0). (ii) Dans l’espace des états, on peut prendre une base orthonormée de vecteurs propres communs à J 2 et Jz . Ces vecteurs seront notés |k, j, mi, où l’indice k sert à distinguer entre eux les kets propres relatifs à deux mêmes valeurs de j et de m (k est utile si J 2 et Jz ne forment pas un ECOC à eux seuls). (iii) On a : −j < m < +j

(VII-6a)

Cette égalité peut être montrée à partir du fait que le carré de la norme des kets J± |k, j, mi est positif ou nul. (iv) J− |k, j, mi est un ket propre (non nul) commun à J 2 , avec la valeur propre j(j +1)~2 (inchangée), et à Jz , avec la valeur propre (m−1)~ (diminuée de ~), sauf si m = −j (le ket est alors nul). (v) Propriété symétrique pour J+ où l’on doit remplacer les − par des + : J+ |k, j, mi est un ket propre (non nul) commun à J 2 , avec la valeur propre j(j +1)~2 (inchangée) et à Jz , avec la valeur propre (m + 1)~ (augmentée de ~), sauf si m = +j (le ket est alors nul). (vi) L’action répétée de l’opérateur J+ sur un ket |k, j, mi doit toujours, au bout d’un nombre fini d’opérations, donner un ket nul [sinon, l’inégalité (VII-6a) serait violée]. D’après (v), on en déduit que j − m est entier. 253

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

Le même raisonnement avec J− montre que j + m est entier. (vii) Donc les nombres 2j et 2m sont entiers. Ou bien : • j est entier, ainsi que m ; • j est “demi-entier” (fraction du type p/2, où p est un entier impair), ainsi que m. (viii) A tout ket |k, j, mi, l’action répétée des opérateurs J+ et J− permet d’associer une famille de (2j + 1) kets orthogonaux, associés à la même valeur de j et aux (2j + 1) valeurs de m : m = j, j − 1, j − 2, . . . , −j + 1, −j

(VII-6b)

L’action de Jz , J+ ou J− sur l’un de ces kets redonne un autre ket de la même famille, à un coefficient de proportionnalité près (qui peut s’annuler pour Jz si m = 0, J+ si m = j, J− si m = −j). Le sous-espace engendré par cette famille de (2j + 1) kets est stable sous l’action de toute composante Ju de l’opérateur J . A-2.

Représentations irréductibles

Dans l’espace des états E , les opérateurs de rotation sont [cf. relation (67) du complément BV ] : Ru (ϕ) = exp {−iϕ Ju /~}

(VII-7)

où : Ju = ux Jx + uy Jy + uz Jz

(VII-8)

Nous reprenons ici les notations des chapitres précédents, à une exception près : les opérateurs de rotation seront notés pour simplifier R(a) ou Ru (ϕ) avec a = uϕ, au lieu de T (a, 0) [notation utilisée au complément BV dans l’étude du groupe des déplacements à 6 paramètres]. A chacun de ces opérateurs, on associe une matrice indiquant comment il agit dans une base orthonormée {|up i} de E :  

hu1 |e−iϕ Ju /~ |u1 i

  hu2 |e−iϕ Ju /~ |u1 i Ru (ϕ) =  ..   .

hu1 |e−iϕ Ju /~ |uN i



huN |e−iϕ Ju /~ |u1 i

254

...

...

huN |e−iϕ Ju /~ |uN i

     

(VII-9)

A. REPRÉSENTATIONS UNITAIRES IRRÉDUCTIBLES DU GROUPE DES ROTATIONS

Si la dimension N de l’espace E est finie, cette matrice est N × N ; en fait, N est souvent infini, et il en est de même de la matrice associée à Ru (ϕ). Par construction, ces matrices satisfont aux relations de commutation adéquates pour les rotations infinitésimales ; cependant, pour des rotations finies, il nous faudra vérifier si nous obtenons des représentations au sens propre, ou seulement des représentations projectives. Les opérateurs Ru (ϕ) étant unitaires et la base {|uk i} orthonormée, ces matrices sont unitaires ; on dit que la représentation elle-même est unitaire. Nous allons chercher à réduire cette représentation en somme de représentations de dimensions inférieures à N . Ceci revient à chercher une nouvelle base, {|u0k i}, où les opérateurs Ru (ϕ) sont représentés par des matrices diagonales par blocs : 

hu0 |e−iϕ Ju /~ |u01 i  0  1. .. Ru (ϕ) =  

...

hu0N |e−iϕ Ju /~ |u01 i

0

0

hu0N |e−iϕ Ju /~ |u0N i

   

 )   n1  0 0     )  //////////   n 2 ////////// 0    //////////  //////////   //////////   0  ////////// 

(VII-10)

//////////

(

           =         

////////// ////////// ////////// //////////

n1

(



...

hu01 |e−iϕ Ju /~ |u0N i

n2

Remarque :

Nous l’avons déjà noté au chapitre II, le problème n’est pas de diagonaliser une matrice donnée, ce qui est toujours possible pour une matrice unitaire, mais toutes les matrices du groupe en utilisant une base unique {|u0k i} ; une diagonalisation complète n’est donc pas en général possible, et il faut s’arrêter à une diagonalisation par blocs. Dans la matrice du second membre de (VII-10), appelons n1 le nombre de lignes et de colonnes du premier bloc, n2 celui du second, etc. Nous désignerons par Eτ1 le sous-espace de E engendré par les n1 premiers vecteurs de base, par Eτ2 celui engendré par les n2 suivants, et ainsi de suite. Dire que la matrice est diagonale par blocs revient à dire que chacun des sous-espaces 255

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

Eτi est globalement invariant 3 sous l’action de l’ensemble des opérateurs de rotation. Le problème de trouver les sous-espaces Eτ invariants se ramène à celui de la recherche des sous-espaces invariants sous l’action de toutes les composantes Ju de J – ou plus simplement sous l’action de Jx , Jy et Jz , ou encore de J+ , J− et Jz . Un sous-espace Eτ satisfait nécessairement cette condition puisqu’il est invariant sous l’action des opérateurs de rotation infinitésimale : Ru (δϕ) = 1 − i δϕ Ju /~

(VII-11)

Inversement, la condition d’invariance de Eτ sous l’action de Jx , Jy , Jz entraîne celle d’invariance sous l’action d’une composante quelconque Ju de J , et donc sous l’action de l’opérateur de rotation finie Ru (ϕ) puisque : Ru (ϕ) = exp {−i ϕ Ju /~} =

∞ X 1

q! q=0

[−i ϕ Ju /~]q

(VII-12)

(si Eτ est invariant sous l’action de Ju , il l’est évidemment sous celle d’une puissance quelconque de Ju ). Ayant décomposé les matrices de rotations en blocs diagonaux comme en (VII-10), on peut tenter d’appliquer à nouveau la même procédure à chaque bloc, c’est-à-dire de le décomposer en blocs plus petits. Cette opération pourra être effectuée jusqu’à ce que l’on arrive à des représentations irréductibles du groupe des rotations (chapitre II, § B-5), pour lesquelles par définition aucune décomposition ultérieure en somme directe n’est plus possible (toujours, bien sûr, si l’on considère l’ensemble des matrices de rotations). A ce stade, chacun des sous-espaces Eτ où agissent les blocs ne peut plus contenir de sous-espaces globalement invariants sous l’action des Ru (ϕ) : les Eτ sont alors appelés sous-espaces irréductibles. En imposant d’être orthonormée à la nouvelle base {|u0k i} qui permet de diagonaliser les matrices par blocs, on ne restreint en rien la recherche de sousespaces invariants. Supposons en effet qu’on ait trouvé, par un changement de base quelconque, un sous-espace Eτ globalement invariant sous l’action des Ru (ϕ). Dans ce sous-espace, on peut choisir une base orthonormée, puis compléter cette base par une base orthonormée dans l’espace supplémentaire. Si n1 est la dimension de Eτ1 , les n1 premiers vecteurs de cette base engendrent Eτ1 , les suivants le sousespace orthogonal à Eτ1 . Mais ce dernier sous-espace est également invariant sous l’action des composantes Ju de J et donc des Ru (ϕ). Ceci découle de l’hermiticité de Ju : si |ϕi appartient à Eτ1 et si |ϕ1 i appartient au sous-espace orthogonal, 3. Un sous-espace Eτ est globalement invariant sous l’action d’un opérateur R si |ψi ∈ Eτ entraîne que R|ψi ∈ Eτ , quel que soit |ψi. Ceci n’entraîne pas nécessairement une invariance ket par ket [on n’a pas en général R|ψi ∝ |ψi].

256

A. REPRÉSENTATIONS UNITAIRES IRRÉDUCTIBLES DU GROUPE DES ROTATIONS

hϕ1 |Ju |ϕi = 0 entraîne hϕ|Ju |ϕ1 i = 0. Nous avons donc bien deux sous-espaces invariants orthogonaux, qui peuvent être engendrés par la même base orthonormée. Dans la suite, nous nous limiterons donc à des changements de base orthonormée 4 .

Dans ces conditions, comme les matrices initiales (VII-9), les matrices après changement de base écrites en (VII-10) sont unitaires. Nous allons donc dans ce chapitre rechercher les représentations unitaires irréductibles du groupe de rotations autour d’un point. Toute représentation unitaire peut être obtenue par somme directe de représentations irréductibles (avec, éventuellement, application ultérieure d’un changement de base qui rend la réductibilité de la somme moins évidente). Le problème essentiel est donc de trouver les représentations irréductibles. A-3.

Base standard

Le sous-espace irréductible Eτ étant invariant sous l’action de Ju , il l’est également sous celle de J 2 . On peut donc diagonaliser l’opérateur J 2 à l’intérieur de chaque espace Eτ et obtenir un certain nombre de valeurs propres j(j + 1)~2 . Mais cette valeur propre est nécessairement unique puisque, si l’on avait deux valeurs j1 et j2 différentes de j, Eτ serait la somme directe de plusieurs sous-espaces orthogonaux associés à des valeurs propres distinctes de l’opérateur J 2 . Comme J 2 commute avec toute composante de J , ni Ju ni aucune fonction de J n’aurait d’éléments de matrice non nul entre ces sous-espaces orthogonaux. Ce serait donc le cas des opérateurs Ru (ϕ), et la représentation serait réductible. Donc j a une valeur unique dans Eτ ; à partir de maintenant, ce sousespace sera noté E (τ, j). Soit |τ, j, mi un ket de E (τ, j), obtenu par diagonalisation de Jz dans le sous-espace invariant, et relatif à la valeur propre m~ (on peut par exemple choisir la valeur maximale possible, m = j). A ce ket, on peut associer [cf. § A-1, propriété (viii)] une famille de (2j + 1) kets orthogonaux obtenus par action de J+ et J− (J− seulement si on a choisi m = j). Ce sont des vecteurs propres de Jz avec les valeurs propres m~ (m = j, j − 1, j − 2, . . . , −j). Ces kets appartiennent à E (τ, j) [invariant sous l’action de J± ] et engendrent un sous-espace de E (τ, j) qui n’est autre que E (τ, j) lui-même. En effet, ce sous-espace est invariant par construction sous l’action de Jz , J+ et J− , donc de tout opérateur Ru (ϕ). C’est ainsi un sous-espace invariant de E (τ, j) et, ce dernier étant irréductible, ce ne peut être que E (τ, j) lui-même. 4. Au § B-5 du chapitre II, nous avions distingué entre deux notions, celle de réduction totale d’une représentation [qui conduit à la forme (VII-10)] ou celle, moins contraignante, de réduction simple [dans (VII-10), seuls les éléments en dessous des blocs de la diagonale doivent être annulés]. Le raisonnement qui vient d’être fait montre que, dans le cas qui nous occupe ici [opérateurs Ru (ϕ)], la réduction simple entraîne, si l’on prend une base orthonormée, la réduction totale de la représentation.

257

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

Montrons maintenant que, si |τ, j, mi est normé, les kets |τ, j, m ± 1i associés aux valeurs voisines de m le sont également lorsqu’ils sont définis par : q

J± |τ, j, mi = ~ j(j + 1) − m(m ± 1) |τ, j, m ± 1i

(VII-13)

Calculons pour cela la norme des deux membres de cette égalité. Il vient (puisque J− est l’adjoint de J+ ) : hτ, j, m|J∓ J± |τ j mi = ~2 [j(j + 1) − m(m ± 1)] hτ, j, m ± 1|τ, j, m ± 1i (VII-14) Or, d’après (VII-5b) et (VII-5c), le premier membre de cette égalité vaut : h

i

j(j + 1)~2 − m2 ~2 ∓ m~2 hτ, j, m|τ, j, mi = ~2 [j(j + 1) − m(m ± 1)] (VII-15)

(puisque |τ, j, mi est normé par hypothèse). Après simplification par le facteur ~2 [j(j + 1) − m(m ± 1)], on voit que |τ, j, m ± 1i est également normé. Partant d’un ket |τ, j, mi quelconque, les relations (VII-13) peuvent donc nous fournir une base orthonormée de E (τ, j). Les relations (VII-13) nous permettent alors de passer d’un ket |τ, j, mi quelconque de cette base 5 aux kets de valeurs voisines de m. En résumé, les propriétés des kets |τ, j, mi que nous avons définis sont : J 2 |τ, j, mi = j(j + 1)~2 |τ, j, mi Jz |τ, j, mi = m~ |τ, j, mi

(VII-16)

p

J± |τ, j, mi = ~ j(j + 1) − m(m ± 1) |τ, j, m ± 1i On a, de plus, la relation d’orthogonalité : hτ, j, m|τ 0 , j 0 , m0 i = δτ τ 0 δjj 0 δmm0

(VII-17)

Le δτ τ 0 résulte de ce que les espaces E (τ, j) sont par construction orthogonaux entre eux ; les δmm0 et δjj 0 résultent de l’orthogonalité des vecteurs propres d’opérateurs hermitiques lorsqu’ils sont associés à des valeurs propres différentes. Enfin, on peut écrire une relation de fermeture : X

|τ, j, mi hτ, j, m| = 1

(VII-18)

τ,j,m

5. Il faut vérifier que, si la relation (VII-13) définit le ket |τ, j, m + 1i par action de J+ sur |τ, j, mi, elle permet également de revenir de |τ, j, m + 1i à |τ, j, mi par action de J− . Cette propriété s’établit facilement en utilisant à nouveau (VII-5b) ou (VII-5c).

258

A. REPRÉSENTATIONS UNITAIRES IRRÉDUCTIBLES DU GROUPE DES ROTATIONS

qui exprime que la somme des projecteurs sur les espaces E (τ, j) est l’opérateur identité. L’ensemble des |τ, j, mi constitue ce que l’on appelle une “base standard” du moment cinétique dans l’espace des états du système. Ce type de base est particulièrement bien adapté à l’étude des propriétés du moment cinétique d’un système physique quelconque. Résumons les résultats obtenus : • Les éléments de matrice de Jx , Jy et Jz sont immédiatement donnés par (VII-16), compte tenu de la définition (VII-4) de J+ et J− . • Les espaces E (τ, j) sont obtenus en regroupant entre eux les (2j +1) kets associés aux mêmes valeurs de τ , et de j, et en prenant le sous-espace qu’ils engendrent. Quelle que soit la nature du système physique considéré, ces espaces E (τ, j) ont toujours les mêmes dimensions 2j + 1 [où j = 0, 1/2, 1, 3/2, . . . etc.] et les mêmes propriétés vis-à-vis du moment cinétique total J : ils sont globalement invariants et les formules (VII-16) donnent les éléments de matrice de toute composante Ju de J , éléments qui ne dépendent que de j et m. Par suite, la seule donnée de la valeur de j détermine complètement la représentation obtenue du groupe des rotations. • Une fonction F (J ) quelconque du moment cinétique laisse E (τ, j) invariant ; elle est représentée dans chaque E (τ, j) par des matrices qui ne dépendent que de F et non du système physique étudié. La discussion qui suit s’applique donc dans tous les cas où l’on étudie un système physique par la mécanique quantique, sans avoir besoin de préciser la nature de ce système. Remarques :

(i) Une autre façon de construire une base standard. Supposons que l’on dispose d’un ensemble d’observables K1 , K2 , . . . , Ki formant avec J 2 et Jz un ECOC. Nous ferons l’hypothèse supplémentaire que les opérateurs Ki commutent, non seulement entre eux et avec Jz , mais avec les deux autres composantes Jx et Jy (les Ki commutent avec toute composante Ju de J : ce sont des opérateurs “scalaires”). Dans ce cas, les kets propres communs : |k1 , k2 , . . . , ki , . . . ; j, mi à K1 , K2 , . . . , Ki , J 2 et Jz forment une base standard, à condition de fixer leurs phases relatives par : J± |k1 , k2 , . . . , ki , . . . ; j mi =

q

j(j + 1) − m(m ± 1)

|k1 , k2 , . . . , ki , . . . ; j, mi (VII-19) 259

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

On notera que, pour pouvoir écrire cette égalité, il ne suffit pas que [Jz , Ki ] = 0, mais il faut également que [J± , Ki ] = 0. L’opérateur K sera par exemple l’hamiltonien d’un système invariant par rotation. (ii) On peut se demander dans quelle mesure les sous-espaces Eτ et les représentations trouvées par décomposition dépendent de la façon dont la décomposition est effectuée. Dans chaque E (τ, j), la valeur propre j(j +1)~2 de J 2 est (2j + 1) fois dégénérée. Un cas particulièrement simple est celui où, dans l’espace de représentation total, la dégénérescence de chaque valeur propre de J 2 n’est pas supérieure à (2j + 1). Dans ce cas, J 2 et Jz forment un ECOC et l’indice τ est inutile ; E (τ, j) ne peut alors être que le sous-espace propre correspondant de J 2 et chaque valeur propre j(j + 1)~2 fait apparaître une fois et une seule la représentation irréductible correspondante. La façon dont la décomposition est effectuée n’a donc dans ce cas aucune influence, ni sur les espaces E (τ, j) trouvés, ni sur les représentations irréductibles trouvées. Dans le cas général, les valeurs propres de J 2 peuvent avoir une dégénérescence plus élevée. Si une décomposition a donné q(j) espaces orthogonaux E (τ, j) associés à la même valeur de j, la valeur propre j(j +1)~2 est (2j + 1) × q(j) fois dégénérée. Ce degré de dégénérescence ne dépendant pas de la façon dont la décomposition a été effectuée, il est clair que q(j) n’en dépend pas non plus. Toutefois les sous-espaces E (τ, j) peuvent, eux, dépendre de cette décomposition. Prenons par exemple deux d’entre eux, E (τ1 , j) et E (τ2 , j), et deux de leurs kets respectifs |τ1 , j, mi et |τ2 , j, mi. Au lieu de ces deux kets, on peut prendre un ensemble de deux de leurs combinaisons linéaires, également orthonormées (par exemple la somme √ et la différence, multipliées par 1/ 2). Par action successive de J+ et J− sur ces deux nouveaux kets, on voit facilement qu’on engendre deux familles de (2j +1) kets, combinaisons linéaires (avec les mêmes coefficients) de celles qui engendraient E (τ1 , j) et E (τ2 , j) ; ces deux nouvelles familles engendrent deux sous-espaces E (τ10 , j) et E (τ20 , j) qui ont des propriétés identiques aux précédents. Ainsi, lorsque J 2 et Jz ne forment pas un ECOC, les sous-espaces de représentations elles-mêmes peuvent dépendre de la façon dont est effectuée la décomposition de la représentation. A-4.

Construction explicite des matrices de rotation

Construisons explicitement les ensembles irréductibles de matrices de rotation associées aux sous-espaces E (τ, j), c’est-à-dire les matrices à (2j +1) lignes et (2j + 1) colonnes, qui, dans ces sous-espaces, sont associées aux opérateurs Ru (ϕ). Pour cela, il suffit de choisir une valeur de j, entière ou demi-entière, et d’utiliser les relations (VII-13) et (VII-14) pour construire les matrices (2j + 1) × (2j + 1) associées à Jx , Jy et Jz . On en déduit facilement celle de Ju , combinaison linéaire des précédentes. Puis, par exponentiation [formule (VII-7)], on obtiendra les matrices associées aux opérateurs 260

A. REPRÉSENTATIONS UNITAIRES IRRÉDUCTIBLES DU GROUPE DES ROTATIONS

[j]



Ru (ϕ). Ces matrices seront notées Ru (ϕ) , et leurs éléments dans une base [j]

standard Ru (ϕ)mm0 ; nous simplifierons souvent ces notations en R[j] et  R[j] mm0 , lorsque la dépendance en u et ϕ ne sera pas essentielle :  









[j] Ru (ϕ) = R[j] = matrice de Ru (ϕ) dans E (τ, j)

R[j]

 mm0

= hτ, j, m| exp {−iϕ Ju /~} |τ, j, m0 i

(VII-20a) (VII-20b)

Dans ce qui suit, le nombre quantique τ ne joue aucun rôle et peut être omis sans inconvénient. A-4-a.

j = 0 (moment cinétique nul)

Cette valeur de j ne nous conduit qu’à la représentation triviale de dimension 1. En effet, m ne peut être que nul [cf. (VII-6b)] et les formules (VII-13) et (VII-14) donnent : (Ju ) = (0)

(VII-21)

Pour les opérateurs de rotation, on vérifie immédiatement que : 



[0] Ru (ϕ) = (1)

(VII-22)

quels que soient u et ϕ. A-4-b.

j = 1/2 (spin 1/2)

Les matrices sont alors des matrices 2×2. On obtient immédiatement 6 : !

~ 1 0 (Jz ) = 2 0 −1 0 J+ = ~ 0

!

1 0

(VII-23) 0 J− = ~ 1

!

0 0

(VII-24)

Donc, d’après la définition de J± : ~ 0 (Jx ) = 2 1

!

1 0

~ 0 (Jy ) = 2 i

!

−i 0

(VII-25)

Nous retrouvons ainsi les trois matrices de Pauli (à un facteur ~/2 près). Quant à l’opérateur J 2 , il est associé à la matrice unité 2 × 2, multipliée par 3~2 /4. 6. Par convention, et quelle que soit la valeur de j, nous rangeons toujours les vecteurs de base par ordre de m décroissant : |τ, j, ji, |τ, j, j − 1i, |τ, j, j − 2i, . . . , |τ, j, −ji

261

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

Passons maintenant aux opérateurs de rotation finie. Par exemple, par exponentiation de (VII-23), on trouve sans difficultés : 



Rz (ϕ) =

e−iϕ/2 0 0 eiϕ/2

!

(VII-26)

De même, pour une rotation autour de Ou, où l’opérateur infinitésimal est :

Ju = ux Jx + uy Jy + uz Jz

(VII-27)

on peut utiliser les propriétés des matrices de Pauli [σu2 = 1 ; cf. chapitre III, § B-3] pour obtenir : 





ϕ 2i ϕ − sin u · J 2 ~ 2 ! cos ϕ2 − i uz sin ϕ2 (−i ux − uy ) sin ϕ2 (−i ux + uy ) sin ϕ2 cos ϕ2 + i uz sin ϕ2 

[1/2] Ru (ϕ) = e−iϕ Ju /~ = cos

=

(VII-28)

Nous retrouvons donc les matrices de SU (2) déjà introduites au chapitre II, paramétrées de la même façon [il suffit de remplacer dans (VII-28) ϕ par a pour obtenir exactement la matrice écrite en (III-77)]. Nous discuterons au § A-5 suivant dans quelle mesure ces matrices donnent une représentation du groupe des rotations.

Remarque :

La relation (17) du complément BV permet d’exprimer une rotation R(α, β, γ), définie par ses angles d’Euler α, β et γ, en fonction de rotations autour des axes Oy et Oz. Elle permet donc d’exprimer (R[1/2] ) en fonction des angles d’Euler sous la forme : 





 

[1/2] R[1/2] (α, β, γ) = ± Ru (α) z

 

[1/2] Ru (β) y

e−i(α+γ)/2 cos β/2 =± ei(α−γ)/2 sin β/2



[1/2] Ru (γ) z

!

− ei(γ−α)/2 sin β/2 ei(γ+α)/2 cos β/2 (VII-29)

Anticipant quelque peu sur la suite ( § A-5-b), nous avons inséré un ± dans ces équations pour tenir compte du fait que la représentation du groupe des rotations peut être projective (ou, ici, bivaluée).

262

A. REPRÉSENTATIONS UNITAIRES IRRÉDUCTIBLES DU GROUPE DES ROTATIONS

A-4-c.

j=1

La dimension de la représentation est 3 dans ce cas (cf. note 6 pour l’ordre des vecteurs de base). Nous utilisons les relations (VII-16) avec les égalités Jx = (J+ + J− )/2 et J− = (J+ − J− )/2i pour obtenir : 



10 0   Jz = ~  0 0 0  0 0 −1









0 −1 0 i~   Jy = √  1 0 −1  2 0 1 0

010 ~   Jx = √  1 0 1  2 010

(VII-30) Par un raisonnement analogue à celui qui vient d’être fait pour j = 1/2, on trouve : 





e−iϕ 0 0   [1] Ru (ϕ) =  0 1 0  z 0 0 eiϕ 

(VII-31)

et, par exemple : √ − sin ϕ/ 2 cos ϕ√ sin ϕ/ 2





(1 + cos ϕ) √ /2  Ruy (ϕ) =  sin ϕ/ 2 (1 − cos ϕ) /2 



(1 − cos ϕ) √/2  − sin ϕ/ 2  (1 + cos ϕ) /2

(VII-32)

Comme en (VII-29), on peut obtenir : 





[1] R[1] (α, β, γ) = Ru (α) z

 

 −i(α+γ) 1+cos β e 2   sin β −iγ √ e = 2 

ei(α−γ)

 

[1] Ru (β) y

1−cos β 2

[1] Ru (γ) z

−e−iα

sin √β 2

cos β eiα

sin √β 2

 1−cos β 2 sin β iγ √ −e 2 β ei(γ+α) 1+cos 2

ei(γ−α)

    

(VII-33) Le signe ± en facteur est ici inutile car, au paragraphe A-5 suivant, nous verrons que les matrices 3 × 3 ainsi obtenues sont simplement les matrices de rotation habituelles, dans une base différente (représentations équivalentes). La représentation n’est donc pas projective. Nous ne donnerons pas ici plus  [J] de détails sur les diverses propriétés des matrices de rotation Ru (ϕ) . On trouvera un certain nombre d’entre elles dans l’appendice C-IV du tome II de l’ouvrage de mécanique quantique de A. Messiah [7]. A-5.

Représentations au sens strict et représentations bivaluées

Nous allons maintenant discuter les résultats précédents. En particulier, nous allons examiner si les opérateurs de rotation agissant dans l’espace 263

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

des états E fournissent une représentation au sens strict (sans facteur de phase) du groupe des rotations R(3) , ou une représentation projective. La réponse à cette question n’est pas évidente a priori. La structure du groupe des rotations nous a permis d’éliminer localement les facteurs de phase, mais rien ne prouve que globalement, sur l’ensemble du groupe des rotations, il en soit de même. Dans ce qui précède, nous avons procédé par conditions nécessaires : à partir des relations de commutation entre générateurs infinitésimaux, nous avons calculé des relations, comme (VII-16), qui doivent nécessairement être satisfaites dans tout espace associé à une représentation irréductible de R(3) , avec un choix convenable de la base dans cet espace. Nous n’avons cependant pas vérifié si ces relations sont suffisantes et, en toute rigueur, il n’est en rien évident que, pour toute valeur de j entière ou demi-entière, les relations (VII-16) nous conduisent à des représentations de R(3) , projectives ou non ; nous verrons d’ailleurs qu’il faut distinguer les deux cas (valeur de j entière ou demi-entière). Nous allons donc reprendre les matrices que nous avons calculées et vérifier si elles fournissent effectivement des représentations du groupe R(3) . Mis à part le cas j = 0 (qui donne effectivement une représentation, la représentation triviale de dimension 1), le premier cas qui s’est présenté à nous est celui où j = 1/2 (représentation de dimension 2). On remarque tout de suite, sur (VII-28) ou (VII-29) par exemple, que dans les expressions obtenues pour les matrices (R[1/2] ) figurent des fonctions trigonométriques des angles moitié ϕ/2, α/2, etc. Ceci entraîne qu’à une rotation R peuvent a priori correspondre (au moins) deux matrices distinctes (R[1/2] ) : en remplaçant ϕ par ϕ + 2π, on ne change rien à la rotation mais, dans (VII-28), on obtient la matrice opposée. Nous pressentons donc une difficulté et, avant de la discuter en détail, nous traitons le cas plus simple j = 1. A-5-a.

Cas où j = 1

Ce cas est plus simple car, comme nous l’avons déjà vu, les matrices R[1] que nous avons obtenues ne sont autres que les matrices (R) introduites au § 1-b-β du complément BV , après un changement de base. Il ne peut en effet en être autrement : nous avons recherché systématiquement toutes les représentations irréductibles du groupe des rotations, et, pour chaque dimension (2j + 1), n’en avons trouvé qu’une seule possible, à un changement de base près dans chaque espace de représentation E (τ, j). Or les matrices de rotation elles-mêmes fournissent une représentation irréductible 7 de di7. Si la représentation était réductible, elle serait décomposable en une somme, soit de deux représentations (de dimensions respectives 1 et 2), soit de trois (de dimension 1). Dans les deux cas, il existerait une direction de l’espace (sous-espace de R3 de dimension 1) invariante sous l’action de toutes les rotations. Or on sait bien que ce n’est pas le cas : il suffit de considérer une rotation d’axe non confondu avec la direction en question et d’angle non nul pour voir que cette direction n’est pas invariante.

264

A. REPRÉSENTATIONS UNITAIRES IRRÉDUCTIBLES DU GROUPE DES ROTATIONS

mension 3. Les deux représentations sont donc nécessairement équivalentes. On peut bien sûr montrer explicitement qu’un changement de base permet de passer des matrices (R) de rotation dans l’espace habituel aux matrices R[j=1] . Nous effectuons ce calcul ci-dessous à titre de vérification, et surtout parce qu’il nous conduira à introduire une base de vecteurs |e+1 i, |e0 i et |e−1 i dont nous aurons besoin au chapitre suivant. Nous allons donc appliquer dans l’espace habituel la même procédure que celle qui nous a conduits aux expressions (VII-30) à (VII-33) dans un espace E (τ, j = 1). Pour prendre des notations habituelles pour celles d’un espace des états, appelons |ex i, |ey i, |ez i les vecteurs de base portés par un trièdre orthonormé Oxyz dans l’espace habituel. α.

Changement de base

Au § C-1 du chapitre III, nous avons écrit l’expression des rotations infinitésimales d’angle δϕ autour du vecteur unitaire u sous la forme : Ru (δϕ) = 1 + δϕ [ux Mx + uy My + uz Mz ]

(VII-34)

et donné l’expression des matrices M , par exemple dans la relation (III-88) : 



0 −1 0   Mz =  1 0 0  0 0 0

(VII-35)

Les matrices (R) sont réelles et orthogonales, un cas particulier des matrices complexes et unitaires comme les (R[j] ). Pour ces dernières, nous avons écrit les variations infinitésimales sous la forme −iu · J /~. Nous devons donc appliquer la correspondance : Jxi ⇔ i~ Mxi

(VII-36)

Comme dans un espace E (τ, j), diagonalisons l’opérateur de rotation infinitésimale autour de Oz. Il est facile de diagonaliser (VII-35) et l’on obtient la base de vecteurs définis à un facteur de phase près :  1   |e+ i = √ [|ex i + i |ey i]    2 |e0 i = |ez i (VII-37)   1   |e− i = √ [|ex i − i |ey i]  2 Comme en (VII-13), il faut ensuite définir la phase relative des vecteurs de base. L’opérateur qui correspond ici à J+ est : 



0 0 −1   J+ ⇔ i~ M+ = i~ (Mx + i My ) = ~  0 0 −i  1 i 0

(VII-38)

265

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

où Mx et My sont les matrices écrites en (III-90) du chapitre III. Par suite : ~ i~ M+ |e+ i = √ [|ez i − |ez i] = 0 2 √ i~ M+ |e0 i = ~ [−|ex i − i |ey i] = −~ 2 |e+ i √ ~ i~ M+ |e− i = √ [|ez i + |ez i] = ~ 2 |e0 i 2

(VII-39) (VII-40) (VII-41)

Pour obtenir exactement les relations (VII-13), nous sommes conduits à changer le signe du premier vecteur, et donc à choisir la base :  i 1 h   √ |e i = −|e i = − |e i + i |e i +1 + x y    2

|e i = |e i

(VII-42)

0 z  i  1 h    |e−1 i = |e− i = √ |ex i − i |ey i

2

β.

Nouvelles expressions des matrices de rotation

Compte tenu des expressions des matrices M dans la base initiale |ex i, |ey i, |ez i (chapitre III, § C-1), on calcule aisément leur action dans la nouvelle base |e+1 i, |e0 i, |e−1 i. Par exemple : h i 1 i i Mx |e+1 i = − √ Mx |ex i + i |ey i = − √ |ez i = − √ |e0 i 2 2 2 i i h Mx |e0 i = Mx |ez i = −|ey i = − √ |e+1 i + |e−1 i 2 h i i i Mx |e−1 i = √ Mx |ex i − i |ey i = − √ |e0 i 2 2

(VII-43)

Les matrices Mx,y,z deviennent alors, dans la nouvelle base : 











010 0 −1 0 −i 0 0 i  1  1     M˜x = − √  1 0 1  M˜y = √  1 0 −1  M˜z = √  0 0 0  2 010 2 0 1 0 2 0 0 i (VII-44) Ces expressions, multipliées par i~, redonnent bien les matrices des trois composantes de J écrites en (VII-30). Par exponentiation (exponentielles réelles pour les matrices de rotation R, imaginaires pures pour les matrices (R[j=1] ), on passe des rotations infinitésimales aux rotations finies, et on vérifie que la correspondance entre matrices est maintenue. On vérifie ainsi que, dans la base |e+1 i, |e0 i, |e−1 i, les matrices de [j=1] rotation (Ru (ϕ)) deviennent identiques aux matrices Ru (ϕ). La matrice 266

A. REPRÉSENTATIONS UNITAIRES IRRÉDUCTIBLES DU GROUPE DES ROTATIONS

unitaire (S) du changement de base (VII-42) s’écrit : 

− √12 0

√i (S) =  − 2 0



0

√1 2 √ − i2

1

   

(VII-45)

0

Les relations standard de changement de base fournissent alors les relations d’équivalence entre les deux représentations : [j=1] Ru (ϕ) = S



Ru (ϕ) = S 

−1 

Ru (ϕ)



 [j=1] Ru (ϕ)

S



(VII-46a) −1

(S)

(VII-46b)

Dans le cas où j = 1, notre construction générale des représentations irréductibles nous a donc fait retrouver tout simplement les matrices de rotation elles-mêmes [groupe SO(3)]. Il est alors clair que la représentation est fidèle (biunivocité de la correspondance) et qu’elle l’est au sens propre (non projective) : au produit des matrices (R) correspond automatiquement le produit des matrices R[j=1] . On a donc effectivement dans ce cas une représentation d’où tous les facteurs de phase ont été éliminés. A-5-b.

Cas où j = 1/2

Nous avons vu plus haut que ce cas est plus délicat. Les matrices obtenues pour la représentation sont écrites en (VII-28). Ce sont des matrices du groupe SU (2), comme le montre immédiatement la comparaison avec l’expression (III-77) du chapitre III, où a joue le rôle du paramètre ϕ. Comme le paramètre a d’une rotation est effectivement égal à uϕ, nous sommes conduits à associer à chaque rotation la matrice de SU (2) associée à la même valeur du paramètre a. La difficulté qui se présente tient au fait que, pour obtenir le groupe SU (2), a doit varier pour chaque direction u dans un intervalle de longueur 4π [cf. figure 11 du chapitre III] ; mais, dans le groupe R(3) des rotations, un intervalle de longueur 2π est suffisant pour le paramètre ϕ [toute rotation d’angle 2π est la rotation identité]. Le fait que SU (2) soit “deux fois plus grand” que R(3) est d’ailleurs directement visible par comparaison des figures 3 du complément BV et 13 du chapitre III. Dans ces conditions, quelle sera précisément la correspondance entre éléments de R(3) et de SU (2) ? • Un premier point de vue serait de considérer que, mathématiquement, une seule matrice doit être associée à chaque rotation. On peut alors contraindre dans (VII-28) ϕ à rester dans un intervalle de longueur 2π 8 : −π < ϕ < +π

(VII-47)

8. Même en restreignant de cette façon le domaine accessible à ϕ, chaque rotation peut être décrite de deux façons : on change ϕ et u en leurs opposés. Ceci est sans conséquence puisque la matrice (VII-28) reste la même dans cette opération.

267

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

On met alors en correspondance l’ensemble des rotations et la moitié de SU (2) : celle qui, sur la figure 13 du chapitre III, correspond à la sphère de gauche, centrée autour de la matrice unité. Ce sous-ensemble de SU (2) est celui que nous avons noté 9 SU (2)+ dans le § B-3 du chapitre III. Il est alors clairement impossible d’obtenir de cette façon une représentation au sens strict du groupe R(3) , puisque les matrices de représentation ne forment pas un groupe, l’ensemble étant non fermé sous l’effet de la multiplication. Prenons par exemple des rotations autour de Oz : Ruz (ϕ1 )

− π < ϕ1 < π

;

Ruz (ϕ2 )

− π < ϕ2 < π

(VII-48)

Leur produit donne alors : 

 

R[1/2] (ϕ1 )



R[1/2] (ϕ2 ) =

e−i(ϕ1 +ϕ2 )/2 0 0 ei(ϕ1 +ϕ2 )/2

!

(VII-49)

Si |ϕ1 + ϕ2 | < π, on obtient simplement de cette façon la matrice associée à la rotation produit d’angle ϕ1 + ϕ2 . Par contre, si |ϕ1 + ϕ2 | ≥ π, ce qui est parfaitement possible sans violer les inégalités (VII-48), ce produit n’appartient pas à l’ensemble des matrices choisies. En fait la rotation produit a, compte tenu de la convention sur les angles, un angle ϕ1 + ϕ2 − π ; elle correspond donc à la matrice opposée à (VII-49). Dans ce premier point de vue, on peut considérer qu’on a une représentation projective où les facteurs de phase eiξ ne peuvent prendre que les deux valeurs discrètes ±1. Il existe un isomorphisme local entre les rotations et les matrices R[1/2] : tant que l’une au moins des rotations est d’angle suffisamment petit pour que le produit reste dans l’ensemble de représentation (trace positive), le produit des matrices correspond bien au produit des rotations. Mais, si l’on prend le groupe des rotations dans son ensemble, il est possible que ce soit l’opposé du produit des matrices qui corresponde au produit des rotations. Remarque :

La situation que nous rencontrons n’est pas surprenante puisque nous n’avons utilisé que les propriétés de l’algèbre de Lie du groupe R(3) au voisinage d’une rotation donnée. Ceci nous a conduits à un isomorphisme local entre matrices de représentation et rotations. Par contre, nous avons complètement perdu une propriété globale de R(3) , à savoir que deux rotations de même vecteur u et d’angles ϕ qui tendent vers +π et −π tendent vers la même rotation (si l’on préfère, on a perdu 9. Rappelons que les matrices de SU (2)+ sont celles de traces positives, celles de SU (2)− [sphère de droite de la figure 13 du chapitre III] celles de traces négatives.

268

A. REPRÉSENTATIONS UNITAIRES IRRÉDUCTIBLES DU GROUPE DES ROTATIONS

le fait qu’une rotation d’angle 2π est la rotation identité). Nous revenons plus en détail sur la correspondance entre les deux groupes au complément AVII . • Un second point de vue est d’associer à chaque rotation de R(3) non pas une, mais deux matrices de SU (2) : celle du point de vue précédent [matrice de SU (2)+ ] et la matrice opposée [matrice de SU (2)− ]. Ces deux matrices sont obtenues si l’on prend dans (VII-23), l’angle ϕ et l’angle ϕ + 2π. Ce second point de vue est schématisé sur la figure 1, où l’on voit qu’un point A (dont la position donne le paramètre a associé à une rotation) est associé à deux points A0 et A00 (de positions respectives a et a ± 2π a/a). On a alors une correspondance bivaluée entre éléments de R(3) et de SU (2) [inversement, cette correspondance définit une “surjection” de SU (2) dans R(3) ]. De cette façon, l’ensemble de représentation est la totalité du groupe SU (2). De plus, au produit R2 R1 de deux rotations correspond toujours le couple des deux matrices ±U2 U1 obtenues en multipliant les matrices unitaires ±U1 et ±U2 associées respectivement à R1 et R2 . Ce deuxième point de vue est plutôt plus commode, et c’est celui qui est généralement pris en mécanique quantique. On n’a alors plus de représentation (même projective) de R(3) au sens envisagé jusqu’ici mais on peut, bien sûr, généraliser la notion de représentation à des matrices qui sont des fonctions multivaluées des éléments du groupe.

Figure 1 – La sphère de gauche représente le groupe des rotations R(3) , celle de droite le groupe SU (2) des matrices unitaires 2 × 2 de déterminant unité. Au lieu d’associer à chaque rotation (point A) une seule matrice de SU (2), on lui associe deux matrices opposées (points A0 et A00 ), obtenant ainsi une représentation bivaluée. 269

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

Figure 2 – L’image continue dans SU (2) d’un chemin fermé homotope à zéro dans le groupe des rotations est nécessairement un chemin également fermé dans SU (2) (la représentation étant bivaluée, il existe deux telles images, dont une seule est représentée sur la figure). La possibilité d’une correspondance bivaluée entre les rotations et les matrices du SU (2), tout en préservant localement un homomorphisme local entre les deux groupes, est liée à la topologie de R(3) qui est 2-connexe alors que SU (2) est simplement connexe. Considérons en effet un chemin fermé homotope à zéro dans R(3) , partant du point A (cf. figure 2). Choisissons A0 par exemple comme image de A et, par continuité, l’image M 0 de M . Lorsque le chemin se referme, et que M tend vers A, M 0 tend nécessairement vers A0 (et non A00 ) : par continuité, on revient sur la même matrice de SU (2) tant que le chemin suivi est homotope à zéro. En effet, un tel chemin peut être continûment déformé vers le chemin nul et la continuité interdit à la matrice associée à la rotation d’effectuer un saut de la valeur initiale à la valeur opposée. De façon générale, si l’on prend deux chemins fermés partant et aboutissant à A, et si ces chemins sont homotopes entre eux, on aboutit nécessairement par continuité à la même image de A (soit A0 , soit A00 ). Comment alors aboutir en A00 au lieu de A0 ? Il faut prendre, comme sur la figure 3, un chemin fermé non homotope à zéro, mais homotope à un ensemble de rotations autour d’un axe fixe où l’angle varie de 2π. L’image du chemin fermé dans R(3) est alors un chemin ouvert dans SU (2). On comprend pourquoi la structure 2-connexe de R(3) autorise les représentations bivaluées, mais pas celles qui sont tri- quadri-, valuées. Sur la figure 4, on montre comment l’image continue d’un chemin dans R(3) homotope à zéro mais plus complexe (passant 4 fois par des rotations d’angle π) est un chemin fermé dans SU (2) [et donc un chemin homotope à zéro, puisque SU (2) est simplement connexe]. 270

A. REPRÉSENTATIONS UNITAIRES IRRÉDUCTIBLES DU GROUPE DES ROTATIONS

Figure 3 – Un chemin fermé non homotope à zéro dans le groupe des rotations a pour image continue un chemin ouvert dans SU (2), car il aboutit au point de départ de la seconde image du chemin. Si l’on suivait alors par continuité cette seconde image, on reviendrait au point de départ dans SU (2) ; l’enchaînement des deux images constitue un chemin fermé (non représenté sur la figure).

• Physiquement, pouvons-nous accepter ces représentations bivaluées en mécanique quantique ? A priori oui : un facteur de phase globale du vecteur d’état n’ayant aucun effet sur les propriétés physiques du vecteur d’état, il n’est pas gênant d’associer deux opérateurs opposés à la même opération géométrique. Compte tenu de la discussion topologique précédente, on peut aller un peu plus loin et préciser dans quel cas on prendra comme matrice de rotation la matrice U appartenant à SU (2)+ , dans quel cas la matrice −U de SU (2)− . On raisonne par continuité et suppose que U est la matrice identité 2 × 2 si aucune opération n’est effectuée sur le système. Partant d’une position initiale donnée, le système est progressivement tourné pour aboutir à une position finale ; à ce processus est associé un chemin dans R(3) , chemin qui dépend, non seulement des positions initiale et finale, mais aussi des positions intermédiaires (à chaque point du chemin est associé une rotation différente). Supposons pour commencer que le chemin soit fermé (le système physique revient à sa position initiale). Si le chemin est homotope à zéro (il est continûment déformable en un chemin nul), on associe la matrice identité au passage du ket du système dans la position initiale à celui dans sa position finale. Au contraire, si le chemin n’est pas homotope à zéro (par exemple : suite de rotations autour d’un axe dont l’angle croît de 0 à 2π), on associe l’opposée de la matrice identité.

271

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

Figure 4 – La figure de gauche représente un chemin fermé dans le groupe des rotations qui, bien que plus complexe que celui de la figure 2, est homotope à zéro (cf. figure 5 du complément BV ). Son image par la représentation bivaluée est un ensemble de deux chemins fermés dans SU (2). Pour bien illustrer que le vecteur d’état dépend alors, non seulement des positions initiale et finale du système physique, mais aussi de la façon dont il y est arrivé, prenons le cas très simple d’une rotation autour d’un axe donné. Si l’angle ϕ croît de 0 à 2π, la phase du vecteur d’état est multipliée par −1 ; s’il croît de 0 à 4π, par +1 ; s’il croît de 0 à 6π, par −1, etc. Un facteur de phase globale du vecteur d’état ne changeant pas les propriétés physiques du système, l’effet qui vient d’être décrit ne joue aucun rôle dans la plupart des expériences. Cependant, il peut parfaitement apparaître dans certaines expériences d’interférences (cf. § B-4). Aucun principe physique fondamental n’est donc violé si l’on accepte les représentations bivaluées obtenues pour j = 1/2. En particulier, la structure 2-connexe de R(3) fait que |ψi ne subit bien que des variations continues si l’on fait tourner le système physique. En fait, de nombreuses particules ont un spin 1/2 : électron, proton, neutron, par exemple 10 .

10. Historiquement, cette possibilité de moments cinétiques demi-entiers a donné lieu à des controverses amusantes pendant les débuts de la mécanique quantique. Lorsque Uhlenbeck et Goudsmit ont avancé l’hypothèse du spin de l’électron pour expliquer certaines particularités du spectre de l’hydrogène, de vives réticences ont été exprimées. En effet, la quantification des variables orbitales, toute récente, avait conduit au fait qu’un moment cinétique était nécessairement un multiple entier de ~. Si maintenant on ajoutait la valeur ~/2 on ouvrait la voie aux valeurs ~/3, ~/4, . . . , ~/n, ce qui revenait à faire tendre ~ vers zéro et renoncer à toute quantification ! On comprend aujourd’hui pourquoi la structure 2-connexe de R(3) n’autorise pas des fractions de ~ inférieures à 1/2.

272

A. REPRÉSENTATIONS UNITAIRES IRRÉDUCTIBLES DU GROUPE DES ROTATIONS

A-5-c.

Cas où j est quelconque

Les résultats que nous avons obtenus aux §§ A-5-a et A-5-b se généralisent : les valeurs entières de j conduisent à des “vraies” représentations du groupe des rotations, les valeurs demi-entières à des représentations bivaluées. • En ce qui concerne les valeurs entières de j, on peut s’appuyer sur les propriétés des harmoniques sphériques pour vérifier ce résultat. Dans ce but, on peut revenir à la formule qui donne l’expression du moment cinétique d’une particule sans spin et utiliser, au lieu des composantes cartésiennes x, y, z de r, des coordonnées sphériques. On obtient alors : Lz ⇒

~ ∂ i ∂ϕ

(VII-50)

et, de la même façon, on voit que les opérateurs Lx et Ly (ou L± = Lx ±i Ly ) ont des expressions où interviennent les angles θ et ϕ, mais pas r. Lorsqu’on recherche alors les fonctions propres communes à L2 et Lz , on obtient alors les fonctions du type f (r) Y`m (θ, ϕ), où f (r) est quelconque et Y`m (θ, ϕ) désigne l’harmonique sphérique `, m, associée aux valeurs propres `(` + 1)~2 de L2 et m~ de Lz [voir par exemple le § D du chapitre VI et le complément A-VI de la référence [10] pour une démonstration des propriétés que nous allons énoncer]. Les (2` + 1) harmoniques sphériques associées à une même valeur de ` et aux valeurs m = `, `−1, `−2, . . . , −`, se transforment les unes dans les autres par rotation et fournissent donc la base d’une représentation du groupe des rotations. Comme les opérateurs L+ et L− permettent de passer de Y`m à Y`m−1 et Y`m−1 respectivement, cette représentation est irréductible. Par suite, les représentations associées à des valeurs entières de j sont nécessairement ces représentations irréductibles, et ce sont donc des vraies représentations de R(3) (ce sont d’ailleurs les seules, comme nous allons le voir). • Pour les représentations associées à des valeurs demi-entières de j, il est facile de vérifier qu’elles ne peuvent être que projectives (ou bivaluées suivant le point de vue adopté). Raisonnons en effet comme nous l’avons fait au début du § A-5-b précédent et considérons les rotations d’angle ϕ autour de Oz. Il est facile de voir qu’il leur correspond des matrices diagonales [dans la base {|j, mi}] où les éléments valent eimϕ avec m demi-entier. Si ϕ est astreint à être compris entre −π et +π, on obtient donc des matrices de représentation qui ne forment pas un groupe, et tous les raisonnements faits pour j = 1/2 se transposent au cas où j est demi-entier quelconque. Il faudrait bien sûr reprendre ces raisonnements en détail, en particulier pour examiner ce qui se produit pour des rotations d’axes différents, mais nous ne donnerons pas ici la démonstration. En effet, dans la théorie générale du couplage des moments cinétiques, au § C, nous verrons qu’un moment cinétique demi-entier j

273

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

peut être obtenu par couplage d’un moment 1/2 et d’un autre j − 1/2, entier (c’està-dire obtenu par produit tensoriel d’une vraie représentation et d’une représentation bivaluée). La propriété annoncée découle alors simplement de celle démontrée au § A-5-b précédent.

B.

Particules de spin 1/2 ; spineurs

Comme nous l’avons dit dans l’introduction de ce chapitre, nous allons dans ce paragraphe prolonger les résultats obtenus au § A-1 du chapitre VI pour une particule libre : partant de considérations générales sur les transformations géométriques que peut subir un système physique, nous allons construire un espace des états E où le groupe de ces transformations peut être représenté linéairement. Toutefois, au lieu de choisir la possibilité la plus simple possible comme nous l’avions fait, nous allons envisager le cas qui suit immédiatement dans l’ordre de complexité croissante. Nous obtiendrons ainsi l’espace des états d’une particule de spin 1/2. B-1.

Construction de l’espace des états

Nous procédons comme au § A-1 du chapitre VI et, dans le cadre du groupe de Galilée, nous supposons qu’il existe un opérateur position R du système ; R symbolise trois opérateurs hermitiques X, Y et Z. Toutefois, nous ne nous limiterons pas ici au cas où X, Y , Z forment un ECOC. Une base orthonormée de vecteurs propres communs à ces trois opérateurs sera la base des vecteurs : |x, y, z, µi = |r, µi

(VII-51)

où µ est un indice qui permet de distinguer entre eux les divers vecteurs propres associés aux mêmes valeurs propres x, y, z. Pour le moment, les valeurs que peut prendre le nombre quantique µ ne sont pas précisées (elles peuvent a priori être discrètes ou continues). Nous utilisons à nouveau les opérateurs de translation T (0, `) pour définir la phase relative des kets |r, µi par : |r, µi = T (0, ` = r) |r = 0, µi

(VII-52a)

Cette égalité définit, à partir des divers kets |r, µi associés à r = 0, les kets |r, µi en tout point ; en particulier, elle implique 11 que le nombre de valeurs accessibles à µ et les valeurs elles-mêmes soient indépendantes du point r considéré (homogénéité de l’espace). On obtient alors facilement : |r, µi = T 0, ` = r − r 0 |r 0 , µi 

(VII-52b)

11. L’unitarité des opérateurs T entraîne que, si les kets |r = 0, µi associés aux diverses valeurs de µ sont orthogonaux, il en est de même des kets |r, µi.

274

B. PARTICULES DE SPIN 1/2 ; SPINEURS

de sorte que l’origine r = 0 ne joue aucun rôle privilégié dans la définition de la base {|r, µi}. On peut alors considérer que l’espace des états E engendré par cette base est le produit tensoriel d’un espace Er , engendré par les kets {|ri}, et d’un espace engendré par les {|µi} que nous noterons ES : |r, µi = |ri ⊗ |µi

|ri ∈ Er

|µi ∈ ES

E = Er ⊗ ES

(VII-53)

La relation (VII-52b) implique que l’indice µ est invariant sous l’action de tout opérateur de translation, c’est-à-dire de toute composante de P . Donc, par définition, P est un opérateur qui n’agit pas dans ES , mais seulement dans Er . Nous avons ainsi postulé que, dans ES , on a une représentation du groupe des translations qui est la représentation triviale (matrice identité nj × nj où nj est la dimension de Ej ). Les observables agissant dans Ej seulement sont toutes invariantes par translation, et µ apparaît comme un indice relatif à des variables internes du système. Si nous voulons que les variables internes du système ne soient pas invariantes dans tout déplacement, nous devons prendre pour le groupe R(3) une représentation non triviale. Une représentation quelconque étant décomposable en somme directe de représentations irréductibles, nous allons imposer, toujours guidés par un critère de simplicité maximale, à la représentation du groupe R(3) dans ES d’être irréductible. Nous savons alors qu’elle a nécessairement une dimension (2j + 1) où j est entier ou demi-entier. L’indice µ peut alors prendre 2j + 1 valeurs discrètes ; nous supposerons que ce sont celles µ = j, j − 1, . . . − j des valeurs de m pour une base standard (sinon, un simple changement de base permet toujours de se ramener à ce cas). Si l’opérateur qui engendre les rotations infinitésimales dans ES est noté S (nous réservons J pour l’opérateur qui engendre ces rotations dans l’espace total E ), on aura donc dans l’espace ES des variables internes : Sz |µi = µ~ |µi q

S± |µi = ~ S(S + 1) − µ(µ ± 1) |µ ± 1i

(VII-54a)

où Sx , Sy et Sz sont les composantes de S et S± = Sx ± i Sy [le nombre quantique j a été remplacé par S, de façon à réserver la notation j(j + 1)~2 aux valeurs propres de J 2 ]. Dans l’espace total E , les relations deviennent : Sz |r, µi = µ~ |r, µi q

S± |r, µi = ~ S(S + 1) − µ(µ ± 1) |r, µ ± 1i

(VII-54b)

puisque, par hypothèse, S n’agit pas dans l’espace Er . 275

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

A partir de maintenant, nous appellerons variables orbitales (ou externes) du système celles qui agissent dans Er , et variables de spin (ou internes) celles qui agissent dans ES . La dénomination “spin” (de l’anglais, tourner sur soi-même) provient de ce que l’opérateur S, que nous appellerons d’ailleurs spin du système, est un opérateur de rotation des variables internes du système. Ce dernier rappelle donc la rotation d’une toupie sur elle-même dont le spin serait le moment cinétique interne. Cette analogie classique doit cependant être maniée avec prudence, car le spin ne correspond pas à la rotation d’une particule de dimension finie, mais d’une particule ponctuelle ; il est de nature quantique (cf. § B-4). B-2.

Vecteur d’état de la particule

Soit |ψi le vecteur d’état du système. Il revient au même de se donner |ψi ∈ E ou ses composantes dans la base {|r, µi} : ψµ (r) = hr, µ|ψi

(VII-55)

L’état du système est défini, non par la donnée d’une fonction d’onde ψ(r), mais par celle de (2s + 1) fonctions ψµ (r) [où µ = S, S − 1, . . . − S]. Nous allons raisonner dans la suite en prenant le cas où S = 1/2 (le cas S = 0 se ramène immédiatement à celui d’une particule sans spin, déjà étudié) ; la généralisation à des valeurs plus élevées de S se fait sans difficultés. Le système est alors appelé “particule de spin 1/2” et nous noterons simplement + ou − les valeurs µ = +1/2 et −1/2 respectivement. On regroupe souvent les deux fonctions d’ordre ψ± (r) dans une matrice colonne :

[ψ(r)] =

ψ+ (r) ψ− (r)

!

(VII-56)

Un tel objet mathématique est appelé “spineur”. En tout point de l’espace r, un spineur est donc défini par la donnée de deux composantes ψ+ et ψ− . Ceci est très analogue à la donnée d’un champ de vecteurs V (r) dans l’espace, à ceci près qu’un vecteur V a trois composantes et non deux (voir exercice ci-dessous). Le spineur adjoint sera la matrice ligne : 

? ? [ψ(r)]† = ψ+ (r) ψ− (r)



(VII-57)

Le produit de matrices ligne et colonne : [ψ(r)]† [ψ(r)] = |ψ+ (r)|2 + |ψ− (r)|2

(VII-58)

donne la densité de probabilité de trouver la particule au point r, quel que soit son état de spin. 276

B. PARTICULES DE SPIN 1/2 ; SPINEURS

La base {|r, µi} étant orthonormée, on a : hr, µ|r 0 , µ0 i = δ r − r 0 δµµ0 

(VII-59)

La relation de fermeture sur cette base s’écrit : Z

X

d3 r

|r, µi hr, µ| = 1

(VII-60)

µ=+,−

De cette dernière égalité on déduit immédiatement que : |ψi =

Z

X

d3 r

|r, µi hr, µ|ψi

µ=+,−

Z

=

n

o

d3 r ψ+ (r)|r, +i + ψ− (r)|r, −i

(VII-61)

De même, si l’on considère deux kets |ϕi et |ψi, on obtient facilement : hϕ|ψi =

Z

d3 r ϕ?+ (r) ψ+ (r) + ϕ?− (r) ψ− (r)

Z

d3 r [ϕ(r)]† [ψ(r)]

= B-3.

n

o

(VII-62)

Opérateurs

Dans Er , tous les résultats que nous avons obtenus au § A-1 du chapitre VI restent valables : l’opérateur P agit comme (~/i)∇, l’opérateur moment cinétique dans Er est : L=R×P

(VII-63)

etc. Nous pouvons également procéder comme au § 2-c du complément BV , où nous avions étudié le cas où l’espace des états E a une structure de produit tensoriel E = E1 ⊗ E2 [cf. (VI-39)]. Nous avions alors vu que l’impulsion totale et le moment cinétique total du système sont la somme des opérateurs correspondants dans les espaces E1 et E2 . Ici Er joue le rôle de E1 et ES celui de E2 ; de plus, nous avons déjà remarqué que les translations sont sans effet dans ES , ce qui revient à considérer que l’opérateur impulsion est nul dans ES . L’impulsion totale est donc égale à l’opérateur P défini dans Er , tandis que le moment cinétique total J vaut : J =L+S =R×P +S

(VII-64)

L’opérateur de rotation Ru (ϕ) s’écrit : Ru (ϕ) = e−iϕ Ju /~ = e−iϕ (Lu +Su )/~ = e−iϕ Lu /~ e−iϕ Su /~

(VII-65) 277

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

Or : e−iϕ Lu /~ |ri = |r 0 i avec r 0 = Ru (ϕ)r

(VII-66a)

et : e−iϕ Su /~ |µi =

X

hµ0 |e−iϕ Su /~ |µi |µ0 i

µ0

=

X 

[1/2] Ru (ϕ)



µ0

µ0 µ

|µ0 i (VII-66b)

[1/2]

où les Rµ0 µ ont été définis en (VII-20b) et (VII-28). En combinant ces égalités, on obtient : Ru (ϕ) |r, µi =

X 



[1/2] Ru (ϕ)

µ0

µ0 µ

|r 0 , µ0 i

(VII-67)

La notation [ψ(r)] en (VII-56) nous a permis de condenser une matrice colonne à deux composantes (spineur) représentant un ket ; de même, la notation [[A]] désignera une matrice 2 × 2 agissant sur les matrices colonne associées aux spineurs. Prenons par exemple le cas où A n’agit que dans ES . On a alors : Z A|ψi = d3 r {ψ+ (r)A|ri|+i + ψ− (r)A|ri|−i} Z d3 r |ri {ψ+ (r) [A++ |+i + A−+ |−i] + ψ− (r) [A+− |−i + A−− |−i]} (VII-68) 0 0 et, par suite, si ψ+ (r) et ψ− (r) sont les composantes du spineur associé à |ψ 0 i = A|ψi :  0      A++ A+− ψ+ (r) ψ+ (r) = (VII-69) 0 ψ− (r) ψ− (r) A−+ A−−

Ceci revient à écrire :   A++ A+− [[A]] = A−+ A−−

(VII-70)

Le fait que A n’agisse que dans ES se traduit par le fait que les éléments de [[A]] n’agissent pas sur la variable r. Par contre, si on avait pris un opérateur qui agit dans Er seulement, par exemple Px , on aurait obtenu :   ~ ∂/∂x 0 Px = (VII-71) 0 ∂/∂x i qui est le produit d’un opérateur agissant sur r par la matrice identité 2 × 2. On peut aussi considérer des opérateurs mixtes agissant à la fois dans Er et ES ; les opérateurs de rotations Ru (ϕ) en font partie comme le montre (VII-65). On a : Z X 0 |ψ i = Ru (ϕ)|ψi = d3 r ψµ (r) Ru (ϕ) |r, µi (VII-72) µ=+,−

278

B. PARTICULES DE SPIN 1/2 ; SPINEURS

c’est-à-dire d’après (VII-67) : Z   X |ψ 0 i = d3 r ψµ (r) R[1/2] µµ0

µ0 µ

|r 0 , µ0 i

(VII-73a)

avec : r 0 = Ru (ϕ) r

(VII-73b)

Pour finir on obtient, en remplaçant r par R −1 r 0 , et en changeant dans (VII-73a) la variable d’intégration r en r 0 : 0 (r) ψ+ 0 (r) ψ−



!

=

R[1/2]



R[1/2]



++ −+

R[1/2]

R[1/2]



 +− −−

!

!

ψ+ R −1 r  ψ− R −1 r

(VII-74)

La relation que nous obtenons est semblable à celle qui donne la rotation d’un champ de vecteurs : pour tourner le spineur, il faut considérer ses composantes au point R −1 r, puis effectuer une combinaison linéaire de ces composantes. Exercice : Ecrire les formules de transformation par rotation des composantes d’un champ de vecteur dans l’espace à 3 dimensions. En considérant des rotations infinitésimales, définir des opérateurs L et S de moment cinétique orbital et de spin. Ecrire explicitement les matrices de Sx , Sy et Sz et calculer S 2 = Sx2 + Sy2 + Sz2 . Est-on ainsi conduit à une représentation irréductible du groupe des rotations ? Laquelle ? Montrer que l’analogie est parfaite avec une particule de spin S = 1. (cf. [7], § 21 du chapitre XIII)]. B-4.

Mise en évidence des propriétés particulières à un spin demi-entier

Au § A-5, nous avons remarqué et discuté une particularité importante des représentations associées à des moments j demi-entiers : les représentations obtenues sont bivaluées et, suivant la façon dont le système physique est tourné pour atteindre sa position finale, deux vecteurs d’états différents ±|ψi peuvent être obtenus. En particulier, une rotation de 2π conduit à changer le signe de |ψi. Physiquement, deux kets ±|ψi conduisent à des résultats de mesure identiques (ils ne diffèrent que par un facteur de phase global) et un examen superficiel pourrait faire croire que cette curiosité mathématique est sans conséquence physique. Ce n’est pas exact, et, pour le comprendre, prenons une analogie avec l’Optique. On sait qu’un détecteur lumineux n’est pas sensible à la phase d’une onde optique : si on l’utilise pour mesurer l’intensité d’une onde qui a traversé un objet de phase d’indice inconnu, on ne peut pas savoir de quelle quantité la phase de l’onde optique a été modifiée par l’objet. Mais on sait également comment on peut tourner cette difficulté, 279

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

Figure 5 – Une source S émet des neutrons (particules de spin 1/2) de spins polarisés qui traversent un diaphragme D percé de deux orifices. Sous l’effet de la diffraction, les faisceaux se recombinent sur un écran E où l’on observe des franges d’interférence. On applique alors dans la région R que traverse l’un des faisceaux un champ magnétique qui fait tourner les spins d’un angle de 2π, les rétablissant à la fin dans leur direction initiale. On observe cependant une complète modification de la figure d’interférence sur l’écran, la frange centrale brillante devenant par exemple une frange sombre. grâce aux expériences d’interférences : on superpose au champ de l’onde qui a traversé l’objet à étudier une onde de référence, dont les phases en divers points de l’espace sont connues. La figure d’interférence obtenue renseigne alors sur les variations de la phase de l’onde inconnue. En mécanique quantique, des expériences d’interférences sont également possibles ; elles sont même à la base de cette discipline (principe de superposition linéaire, notion d’amplitude de probabilité, etc). L’idée de l’expérience est donc simple (figure 5) : on construit un interféromètre pour des particules de spin 1/2 (électrons, protons, neutrons par exemple) et, sur un des bras de l’interféromètre, on impose une rotation des variables internes (spin) de 2nπ ; après recombinaison des deux ondes, on examine 12 la figure d’interférence en fonction de la valeur de n. Si la particule a un spin demientier et si n = 1 (ou, de façon générale, si n est impair), la phase de l’une des ondes qui interfèrent est changée de π (puisque eiπ = −1) et la figure d’interférence est modifiée en conséquence. Par contre, si n = 2, 4, 6, . . ., on obtient la même figure que si n = 0 (pas de rotation). L’expérience a été effectuée [35, 36] avec des neutrons, dont la charge est nulle (pas de force de Lorentz, donc pas de déviation magnétique des 12. Si l’on envisage l’opération imposée au spin de la particule d’un point de vue global (modification du spineur en chaque point r), on voit qu’elle est plus complexe que celle que donne un opérateur e−iϕ Su /~ . En effet, c’est une opération de rotation qui dépend de r (position de la particule) et agit donc de façon corrélée sur les variables orbitales et de spin.

280

C. COMPOSITION DES MOMENTS CINÉTIQUES

trajectoires), mais dont le moment magnétique de spin non nul subit la précession de Larmor dans un champ magnétique B. Effectivement, il a été vérifié qu’une rotation de 2π change la figure d’interférence comme prévu. Cette spectaculaire expérience démontre qu’en physique la rotation d’un objet de 2π peut modifier certaines de ses propriétés. C.

Composition des moments cinétiques

Dans le § B précédent nous avons déjà rencontré le cas où l’espace des états du système étudié est le produit tensoriel de deux espaces où existent des représentations du groupe des rotations. Ce cas est très fréquent : si par exemple nous considérons un système constitué de deux particules sans spin, d’espaces des états respectifs E1 et E2 , l’espace des états du système total est : E = E1 ⊗ E2

(VII-75)

Dans E1 et E2 , on peut définir des sous-espaces qui engendrent des représentations irréductibles du groupe des rotations R(3) . Par produit, on obtient dans E des représentations de R(3) qui sont des produits tensoriels des représentations individuelles. On peut se demander quelles sont les caractéristiques de ces nouvelles représentations. C-1.

Position du problème

Considérons donc deux systèmes physiques S1 et S2 (ou encore deux types différents de variables S1 et S2 d’un même système physique, par exemple variables orbitales et variables de spin). Les espaces des états E1 et E2 correspondants peuvent être décomposés en somme directe d’espaces irréductibles : E1 =

X

E (τ1 , j1 )

⊕ τ1 j 1

E2 =

X

E (τ2 , j2 )

(VII-76)

⊕ τ2 j 2

les bases standard correspondantes sont notées {|τ1 , j1 , m1 i} et {|τ2 , j2 , m2 i}. L’espace total E , obtenu en (VII-75) par produit tensoriel, s’écrit : E =

X

E (τ1 , τ2 ; j1 , j2 )

(VII-77a)

⊕ τ1 τ2 j1 j2

où : E (τ1 , τ2 ; j1 , j2 ) = E (τ1 , j1 ) ⊗ E (τ2 , j2 )

(VII-77b)

Ce sous-espace E (τ1 τ2 ; j1 j2 ) de E est engendré par les kets : |τ1 τ2 ; j1 j2 m1 m2 i = |τ1 j1 m1 i ⊗ |τ2 j2 m2 i

(VII-77c) 281

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

où τ1 , τ2 , j1 , j2 sont fixés tandis que chacun des indices m1 et m2 a (2j1 +1) et (2j2 + 1) valeurs possibles. L’espace E (τ1 τ2 ; j1 j2 ) est invariant sous l’action de toute fonction de J1 et J2 , en particulier sous celle du moment cinétique total J = J1 + J2 . L’opérateur associé à la rotation du système 1 d’un angle ϕ1 autour de u1 et à celle du système 2 d’un angle ϕ2 autour de u2 s’écrit : i 1 2 Ru (ϕ1 ) Ru (ϕ2 ) = exp − ϕ1 J1 · u1 1 2 ~ 



i exp − ϕ2 J2 · u2 ~ 



(VII-78a)

L’ensemble des opérateurs de ce type constitue un groupe, produit tensoriel de celui des rotations du système 1 autour de O par celui des rotations du système 2 autour du même point [les éléments de R(3) ⊗ R(3) dépendent de 6 paramètres continus]. Dans le sous-espace E (τ1 , τ2 ; j1 , j2 ), ces opérateurs sont représentés par les matrices d’éléments : hτ1 , j1 , m1 ; τ2 , j2 , m2 |e−i ϕ1 J1 ·u1 /~ e−i ϕ2 J2 ·u2 /~ |τ1 j1 m01 ; τ2 j2 m02 i 



[j1 ] = Ru (ϕ1 ) 1

 m1 m01

[j2 ] Ru (ϕ2 ) 2

 m2 m02

(VII-78b)

On obtient les matrices produits tensoriels des (R[j1 ] ) et (R[j2 ] ) pour représenter le groupe produit. Cette représentation est irréductible. En effet, un sous-espace E (τ1 , τ2 ; j1 , j2 ) qui serait globalement invariant sous l’action de tous les opérateurs du groupe produit serait en particulier invariant sous l’influence des opérateurs infinitésimaux (associés à δϕ1 et δϕ2 quelconques), donc de toute composante de J1 ou J2 . Par suite, un tel sous-espace serait invariant sous l’action de J1± et de J2± . Or, tout ket de la base |τ1 τ2 ; j1 j2 m1 m2 i qui engendre E (τ1 τ2 ; j1 j2 ) peut être obtenu à partir d’un autre ket quelconque de la même base par actions répétées de J1± et de J2± . De façon générale, tout ket |ψτ1 τ2 j1 j2 i de E (τ1 τ2 ; j1 j2 ) peut donner |τ1 τ2 ; j1 j2 j1 j2 i par action des opérateurs J1+ et J2+ à une certaine puissance, puis un ket quelconque de base par action répétée de J1− et J2− . Donc, E (τ1 τ2 ; j1 j2 ) ne contient pas de sous-espace invariant sous l’action du groupe produit tensoriel dont les éléments sont donnés en (VII-78).

Mais le problème qui nous intéresse ici est, non la rotation des deux sous-systèmes S1 et S2 de façon indépendante, mais celle du système global constitué de S1 et S2 . Nous ne considérons donc que les opérateurs (VII-78) où : u1 = u2 = u 282

et ϕ1 = ϕ2 = ϕ

(VII-79)

C. COMPOSITION DES MOMENTS CINÉTIQUES

ce qui donne les opérateurs : i i Ru (ϕ) = exp − ϕ J1 · u exp − ϕ J2 · u ~ ~   i = exp − ϕ J · u ~ 







(VII-80)

où : J = J1 + J2

(VII-81)

Nous obtenons ainsi un sous-groupe du groupe produit tensoriel considéré précédemment. Il est clair que les matrices (VII-78a) donnent, lorsqu’on y reporte les égalités (VII-79), une représentation du groupe d’opérateurs (VII-80). On a donc directement, dans l’espace E1 ⊗ E2 , de nouvelles représentations du groupe R(3) , de dimension (2j1 + 1)(2j2 + 1) : Ru (ϕ)|τ1 τ2 ; j1 j2 m1 m2 i = X 

[j1 ] Ru (ϕ)



m01 m02

 m01 m1



[j2 ] Ru (ϕ)

m02 m2

|τ1 τ2 ; j1 j2 m01 m02 i

(VII-82)

Les éléments de matrice de ces représentations sont donnés par : 

(Tu (ϕ))m0 m0 1

0 2 ; m1 m1



[j1 ] = Ru (ϕ)

 m01 m1

[j2 ] Ru (ϕ)

 m02 m2

(VII-83)

La question qui se pose alors est : cette représentation est-elle irréductible ? La réponse n’est pas évidente car, cette fois, le problème n’est plus de diagonaliser simultanément par blocs tous les opérateurs (VII-78a) [nous avons vu que c’est impossible] mais seulement ceux qui satisfont la relation (VII-79). Si on peut réduire cette représentation, c’est qu’il existe une autre base de E (τ1 τ2 ; j1 j2 ) où : 

/////  ///// 

    (Ru (ϕ)) =       

0 0

0

0

0

0

0

    ///// 0 0   /////   ///// 0 0   /////   ///// 

(

0



///// (VII-84)

E (τ, J) avec : E (τ1 τ2 ; j1 j2 ) =

X

E (τ, J)

(VII-85)

⊕ τ, J 283

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

[nous simplifions ici la notation E (τ1 τ2 ; τ J) en E (τ, J)]. Nous allons voir qu’une telle décomposition est effectivement possible. Le problème sera alors de déterminer quelles sont les représentations qui apparaissent (caractérisées par les valeurs de J), de savoir combien de fois chaque valeur de J apparaît, comment faire le changement de base, etc. C-2.

Réduction de la représentation produit

Nous passerons rapidement sur les démonstrations de ce paragraphe, qui figurent dans les cours de mécanique quantique élémentaire [voir par exemple [10], chapitre X, § C]. Valeurs propres de J 2 et kets |J, M i

C-2-a.

Il apparaît dès l’abord que la représentation produit est en général réductible. En effet, si elle ne l’était pas, on aurait une seule valeur de J possible telle que 2J + 1 = (2j1 + 1)(2j2 + 1) et chaque valeur propre M ~ de l’opérateur : Jz = J1z + J2z

(VII-86a)

serait réalisée une fois et une seule (entre +J et −J). Or (sauf si ou j1 ou j2 est nul), on peut trouver des combinaisons différentes de m1 et m2 conduisant à la même somme : M = m1 + m2

(VII-86b)

Le même raisonnement donne facilement les valeurs de J possibles. A toute représentation irréductible dans E (τ, J) est associée une fois et une seule toute valeur de M égale à J, J − 1, J − 2, . . . , −J. Par exemple, cette remarque entraîne que la valeur J = j1 +j2 est réalisée, et une seule fois : ceci provient de l’existence d’un ket et d’un seul tel que M = m1 + m2 = j1 + j2 . Pour la valeur M = j1 + j2 − 1, elle est dégénérée deux fois [m1 = j1 − 1, m2 = j2 ou m1 = j1 , m2 = j2 − 1]. La valeur maximale de J = j1 + j2 donnant lieu à un ket où M = j1 + j2 − 1, il existe nécessairement la valeur J = j1 +j2 −1. Le raisonnement se poursuit de même et on obtient le résultat bien connu. Les valeurs possibles pour J sont :

J=

   j1 + j2     j1 + j2 − 1     j1 + j2 − 2 

..

..   ..       |j1 − j2 | + 1    |j1 − j2 |

284

(VII-87)

C. COMPOSITION DES MOMENTS CINÉTIQUES

Chaque valeur de J n’étant réalisée qu’une seule fois, l’indice τ de (VII-85) est en fait inutile 13 . On vérifie que la somme des dimensions des espaces E (J) est bien égale à celle de l’espace de départ : |j1 +j2 |

X

(2J + 1) = (2j1 + 1) (2j2 + 1)

(VII-88)

J=|j1 −j2 |

Nous voyons donc que J 2 et Jz forment un ECOC dans E (τ1 τ2 ; j1 j2 ). Nous avions déjà l’ensemble des deux opérateurs J1z et J2z . Comment passer de la base |τ1 τ2 ; j1 j2 m1 m2 i associée au second ECOC (à partir de maintenant, nous noterons les kets |j1 j2 m1 m2 i, ignorant des indices qui sont devenus inutiles) à celle |J, M i associée au premier ? Le raisonnement effectué plus haut montre qu’on peut poser : |J = j1 + j2 , M = m1 + m2 i = |j1 , j2 , m1 = j1 , m2 = j2 i

(VII-89)

Par action de : J− = J1− + J2−

(VII-90)

on construit ensuite tous les autres kets : |J = j1 + j2 , M i de la même “famille” repérée par la valeur j1 + j2 de J. On obtient ainsi les 2j1 + 2j2 + 1 premiers kets de la nouvelle base qui donne E (J = j1 + j2 ). On raisonne ensuite dans le supplémentaire de ce sous-espace, où la valeur propre M = j1 + j2 − 1 est réalisée une seule fois (non dégénérée), au lieu de deux fois dans l’espace initial. Le raisonnement est alors exactement le même, le seul problème qui se pose étant celui du choix de la phase d’un des kets de base (l’action de J± fixant ensuite celle des autres). Par convention, on pose : hj1 j2 j1 J − j1 |JJi réel > 0

(VII-91)

Il est clair que le raisonnement est récurrent ; de cette façon, on obtient tous les kets |J, M i. Pour résumer les résultats obtenus, nous avons écrit la décomposition (VII-85) du sous-espace E (τ1 τ2 ; j1 j2 ) sous la forme : E (τ1 τ2 ; j1 j2 ) =

j1X +j2

E (J)

(VII-92a)

J=|j1 −j2 |

13. Il se trouve que, dans le cas du groupe des rotations, la décomposition d’une représentation produit tensoriel de représentation irréductible ne fait jamais apparaître plus d’une fois chaque représentation irréductible. Ce n’est pas toujours le cas pour un groupe quelconque.

285

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

Chaque E (J) est engendré par les 2J + 1 kets |J, M i de la base standard associés à la valeur correspondante de J et à M = J, J − 1, J − 2, . . . , −J. Le fait que l’indice τ de (VII-85) soit inutile tient au fait que, dans la décomposition de la représentation produit tensoriel (VII-83), il se trouve que chaque valeur de J permise apparaît une seule fois. De façon symbolique, on peut écrire : 







R[j1 ] ⊗ R[j2 ] =

j1X +j2



R[J]



(VII-92b)

J=|j1 −j2 |

C-2-b.

Coefficients de Clebsch-Gordan

Les coefficients de Clebsch-Gordan sont, par définition, les produits scalaires : hj1 j2 m1 m2 |JM i Ce sont les [(2j1 + 1)(2j2 + 1)]2 coefficients d’une matrice unitaire de changement de base (la matrice est en fait réelle et donc orthogonale). (i) Par construction, ces coefficients sont totalement indépendants de la nature du système physique considéré, ainsi que de τ1 et τ2 : ils traduisent des propriétés du groupe R(3) des rotations. (ii) Ils sont réels : hj1 j2 m1 m2 |JM i = hJM |j1 j2 m1 m2 i

(VII-93)

(puisque les coefficients qui apparaissent par action de J± , Jz sont réels). (iii) Règles de sélection : hj1 j2 m1 m2 |JM i ne peut être non nul que si : • M = m1 + m2 ; • |j1 + j2 | ≥ J ≥ |j1 − j2 | (règle du triangle cf. figure 6) ; • J est entier si j1 et j2 sont tous deux entiers ou demi-entiers ; • J est demi-entier si l’un des deux nombres quantiques (seulement) est demi-entier. (iv) Relations d’orthogonalité : Le fait que les deux bases {|J, M i} et {|j1 j2 m1 m2 i} de E (τ1 τ2 ; j1 j2 ) soient orthonormées entraîne que : X

hJM |j1 j2 m1 m2 i hj1 j2 m1 m2 |J 0 M 0 i = δJJ 0 δM M 0 (VII-94a)

m1 ,m2

et : X J,M

286

hj1 j2 m1 m2 |JM i hJM |j1 j2 m01 m02 i = δm1 m01 δm2 m02

(VII-94b)

C. COMPOSITION DES MOMENTS CINÉTIQUES

Figure 6 – Règle du triangle ; pour qu’un coefficent de Clebsch-Gordan hj1 j2 m1 m2 |JM i ne soit pas nul, il faut que l’on puisse construire un triangle avec les longueurs des moments cinétiques J1 , J2 et J. (v) Lien avec les matrices de rotation. On a : 

R[j1 ]





m1 m01

J=j 1 +j2 X

R[j2 ]

X

 m2 m02

=

(VII-95a)

hj1 j2 m1 m2 |JM i hj1 j2 m01 m02 |JM 0 i



R[J]

J=|j1 −j2 | M,M 0

 MM0

(VII-95b) et, inversement : 

R[J]

 MM0

=

X

X

hj1 j2 m1 m2 |JM i hj1 j2 m01 m02 |JM 0 i

m1 m01 m2 m02



R[j1 ]



 m1 m01

R[j2 ]

 m2 m02

(VII-95c)

Exercices : (i) Pour démontrer ces égalités, calculer l’élément de matrice : hj1 j2 m1 m2 |e−iϕ J·u/~ |j1 j2 m01 m02 i en introduisant des matrices de rotation et en utilisant la relation J = J1 + J2 . Développer d’autre part les kets |j1 j2 m1 m2 i et |j1 j2 m01 m02 i sur la base |J, M i et démontrer la formule (VII-94a). Pour démontrer la formule (VII-94b), partir de : hJ, M |e−iϕ J·u/~ |J, M 0 i et développer les kets |J, M i sur la base |j1 j2 m1 m2 i. 287

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

(ii) Calculer explicitement les coefficients de Clebsch-Gordan hj1 = 1, j2 = 1 m1 m2 |J, M i

Remarque :

On montre [voir par exemple référence [10], complément BX ] que : hj1 j2 j1 (J − j1 ) |J, Ji

réel > 0

hj1 j2 j1 (M − j1 ) |J, M i réel > 0 hj1 j2 m2 m1 |J, M i = (−1)j1 +j2 −J hj1 j2 m1 m2 |J, M i hj1 j2 − m1 − m2 |J, −M i = (−1)j1 +j2 −J hj1 j2 m1 m2 |J, M i

(VII-96)

et les relations de récurrence : q

J(J + 1) − M (M ± 1) hj1 j2 m1 m2 |J, M ± 1i = q

j1 (j1 + 1) − m1 (m1 ∓ 1) hj1 j2 (m1 ∓ 1) m2 |JM i +

q

j2 (j2 + 1) − m2 (m2 ∓ 1) hj1 j2 m1 (m2 ∓ 1) |JM i (VII-97)

De ces relations, on déduit que : (−1)j−m hj j m − m|0, 0i = √ 2j + 1

(VII-98)

Cette dernière égalité, qui donne les coefficients correspondant à un moment cinétique J = 0 (avec j1 = j2 = j), nous sera utile ci-dessous. Exercice : Démontrer les relations (VII-97) et (VII-98). C-3.

Composition de plus de deux moments cinétiques

C-3-a.

Moment cinétique total nul ; coefficients 3j

Considérons un système S1 de moment cinétique J1 et appelons E1 l’espace (irréductible) engendré par les (2j1 +1) kets propres de Jz qui seront notés |1 : m1 i. Pour un second système S2 , de moment cinétique J2 , E2 sera engendré par les (2j2 + 1) kets |1 : m2 i. Dans l’espace E1 ⊗ E2 de dimension (2j1 + 1) (2j2 + 1), la valeur minimale du nombre quantique J du moment cinétique total est |j1 − j2 | ; elle n’est nulle que si j1 = j2 = j (figure 7). L’état de moment cinétique nul est alors, d’après (VII-97) : |ϕ0 i =

+j X (−1)j−m



m=j

288

2j + 1

|1 : mi ⊗ |2 : −mi

(VII-99)

C. COMPOSITION DES MOMENTS CINÉTIQUES

Figure 7 – Deux moments cinétiques de longueurs égales mais de directions opposées se combinent en un moment cinétique total nul. Que se passe-t-il maintenant pour un ensemble de trois systèmes S1 , S2 et S3 de moments cinétiques J1 , J2 et J3 ? Si l’on commence par composer J1 et J2 pour obtenir J 0 : J1 + J2 = J 0

(VII-100)

puis si l’on compose ensuite J 0 avec J3 pour obtenir le moment cinétique total J : J 0 + J3 = J on est conduit au tableau suivant : J0

(j1 + j2 )

J

−→

(j1 + j2 − 1) −→

  j1 + j2 + j3     j1 + j2 + j3 − 1

..   .    |j + j − j | 1 2 3    j1 + j2 + j3 − 1 ..

.  

|j1 + j2 − j3 − 1| .. .. ..

(

|j1 − j2 |

−→

|j1 − j2 | + j3 |j1 − j2 | − j3 |

Il est clair qu’en général, chaque valeur de J est réalisée plusieurs fois : J 2 et Jz ne forment pas ECOC. Il faut en plus spécifier la valeur de J 0 (donc J 2 , Jz et J 02 forment un ECOC). Il existe cependant des valeurs de J réalisées 289

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

une seule fois, par exemple la valeur maximale J = j1 + j2 + j3 . On ne peut pas affirmer a priori que la valeur minimale n’est réalisée qu’une seule fois 14 . Examinons dans quels cas cette valeur minimale est nulle. Si l’on veut que J = 0, il faut que J 0 = j3 et donc (règle du triangle) que : (j1 + j2 ) > j3 > |j1 − j2 | j1 + j2 + j3

entier

(VII-101)

On a alors un seul ket possible associé à la valeur J = 0 (défini à une phase près s’il est normé). La situation est schématisée sur la figure 8. Construisons

Figure 8 – Trois moments cinétiques dont la somme est nulle. ce ket |ψ0 i. Pour cela, commençons par supposer que (VII-101) est réalisée et couplons J1 et J2 pour obtenir les kets : |J 0 = j3 , M 0 i =

hj1 j2 m1 m2 |j3 M 0 i |1 : m1 i ⊗ |2 : m2 i

X

(VII-102)

m1 ,m2

Le ket |ψ0 i vaudra alors : |ψ0 i = (−1)j1 −j2 −j3

X

hj3 j3 m3 M 0 |0 0i |J 0 = j3 , M 0 i ⊗ |3 : m3 i

M 0 +m3 =0

(VII-103) où le facteur (−1)j1 −j2 −j3 est introduit par pure commodité. Compte tenu de (VII-98) et (VII-102), on obtient alors : |ψ0 i =

X m1 m2 m3

(−1)j1 −j2 −m3 √ hj1 j2 m1 m2 |j3 − m3 i 2j3 + 1 |1 : m1 i ⊗ |2 : m2 i ⊗ |3 : m3 i

(VII-104)

14. Pour 3 spins 1/2, la valeur minimale est J = 1/2, et elle est réalisée deux fois (par l’intermédiaire de J 0 = 0 et J 0 = 1).

290

C. COMPOSITION DES MOMENTS CINÉTIQUES

avec dans la somme la contrainte m1 +m2 +m3 = 0. Si donc nous définissons les “coefficients 3j” par : !

j1 j2 j3 m1 m2 m3

=

(−1)j1 −j2 −m3 √ hj1 j2 m1 m2 |j3 − m3 i 2j3 + 1

(VII-105)

nous aurons simplement : j1 j2 j3 m1 m2 m3

X

|ψ0 i =

m1 m2 m3 (m1 + m2 + m3 = 0)

!

|1 : m1 i ⊗ |2 : m2 i ⊗ |3 : m3 i

(VII-106) Le choix de phase de |ψ0 i que nous avons fait donne aux coefficients 3j des propriétés de symétrie commodes. Un coefficient 3j est en effet : • invariant par permutation circulaire des colonnes : j1 j2 j3 m1 m2 m3

!

=

j2 j3 j1 m2 m3 m1

!

=

j3 j1 j2 m3 m1 m2

!

(VII-107a)

• multiplié par (−1)j1 +j2 +j3 si l’on intervertit deux colonnes : j2 j1 j3 m2 m1 m3

! j1 +j2 +j3

= (−1)

j1 j2 j3 m1 m2 m3

!

(VII-107b)

Démonstration : Considérons en effet le ket : X  j2 j3 j1  0 |ψ0 i = |1 : m1 i ⊗ |2 : m2 i ⊗ |3 : m3 i m2 m3 m1 m1 m2 m3

=

X m1 m2 m3

(−1)j2 −j3 −m1 √ hj2 j3 m2 m3 |j1 − m1 i |1 : m1 i ⊗ |2 : m2 i ⊗ |3 : m3 i 2j1 + 1 (VII-108)

|ψ00 i correspond au couplage de J2 ⊗ J3 en J 00 : J2 + J3 = J 00

(VII-109)

puis de J 00 avec J1 pour former J . Comme la valeur propre J = 0 est non dégénérée, on a nécessairement : |ψ00 i = λ|ψ0 i

(VII-110)

De plus, le fait que les deux kets soient par construction normés entraîne que |λ| = 1, et celui que leurs coefficients sur les kets de la base initiale soient réels (produits et sommes de coefficients de Clebsch-Gordan) entraîne que λ = ±1.

291

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

Le seul problème qui se pose pour comparer |ψ0 i et |ψ00 i est donc un problème de signe. Considérons par exemple les coefficients de ces deux kets sur le vecteur de base : |1 : j1 i ⊗ |2 : j3 − j1 i ⊗ |3 : j3 i Pour |ψ0 i, l’égalité (VII-103) indique que ce coefficient a le signe de (−1)j1 −j2 +j3 d’après la convention (VII-91). Pour |ψ00 i, le signe est : (−1)j2 −j3 −j1 × signe du coefficient hj2 j3 (j3 − j1 ) − j1 |j1 − j1 i Or, les relations (VII-95) permettent de voir facilement que le signe du coefficient de Clebsch-Gordan qui apparaît est positif. Pour finir : |ψ0 i = |ψ00 i

(VII-111)

et la relation (VII-107a) est démontrée. Examinons maintenant ce qui se produit par changement de l’ordre de j1 et j2 (permutation de 1 et 2). On est alors conduit au ket : X  j2 j1 j3  |ψ000 i = |1 : m1 i ⊗ |2 : m2 i ⊗ |3 : m3 i m2 m1 m3 m1 ,m2 ,m3

=

X m1 ,m2 ,m3

(−1)j2 −j1 −m3 √ hj2 j1 m2 m1 |j3 − m3 i |1 : m1 i ⊗ |2 : m2 i ⊗ |3 : m3 i 2j3 + 1 (VII-112)

Comme plus haut, on sait a priori que |ψ000 i = ±|ψ0 i. Mais le coefficient de |ψ000 i sur le ket |1 : j1 i ⊗ |2 : j3 − j1 i ⊗ |3 : −j3 i a pour signe : (−1)j2 −j1 +j3 signe du coefficient hj2 j1 j3 − j1 j1 |j3 j3 i = (−1)j2 −j1 +j3 (−1)j1 +j2 −j3 = (−1)2j2

(VII-113)

[cf. [10], complément BX , formule (23)]. On a donc : |ψ000 i = (−1)j1 +j2 +j3 |ψ0 i

(VII-114)

ce qui établit l’égalité (VII-107b).

Ces relations de symétrie permettent de permuter, soit j1 et m1 , soit j2 et m2 , avec J et M dans un coefficient de Clebsch-Gordan. On obtient, en utilisant (VII-107a), (VII-107b) et la définition (VII-105) : s

2J + 1 hJj2 M − m2 |j1 m1 i 2j1 + 1

s

2J + 1 hj1 J − m1 M |j2 m2 i (VII-115) 2j2 + 1

j1 −J+m2

hj1 j2 m1 m2 |J, M i = (−1)

= (−1)j2 −J−m1

292

C. COMPOSITION DES MOMENTS CINÉTIQUES

Figure 9 – Différents modes de couplage de trois moments cinétiques. Les relations d’orthogonalité (VII-94) deviennent pour les coefficients 3j : X

(2j3 + 1)

j3 m3

X m1 m2

C-3-b.

j1 j2 j3 m1 m2 m3

!

j1 j2 j3 m1 m2 m3

!

j1 j2 j3 m01 m02 m3

!

j1 j2 j30 m1 m2 m03

!

= δm1 m01 δm2 m02 =

1 0 δ 0δ (VII-116) 2j3 + 1 j3 j3 m3 m3

Coefficients 6j de Wigner

Pour trois moments cinétiques J1 , J2 et J3 , considérons les deux modes de composition : (

(

J1 + J2 = G G + J3 = J

J2 + J3 = G0 J1 + G0 = J

(VII-117)

Ces deux modes sont schématisés sur la figure 9. Il leur correspond deux bases de kets notés respectivement : | (j1 , j2 ) g, j3 ; J M i = |ϕgJM i 0

|j1 , (j2 j3 ) g 0 ; J 0 M 0 i = |ϕgJ 0 M 0 i

(VII-118)

0

Les kets |ϕgJM i et |ϕgJ 0 M 0 i sont nécessairement orthogonaux, sauf si J = J 0 et M = M 0 (des vecteurs propres de J 2 et Jz de valeurs propres différentes sont orthogonaux). Montrons que leur produit scalaire dépend de J, g et g 0 , 0 mais pas de M . En effet, si l’on introduit entre le bra hϕgJM | et le ket |ϕgJM i la relation (VII-5c) : J− J+ = J 2 − Jz2 − ~ Jz 293

CHAPITRE VII

REPRÉSENTATIONS IRRÉDUCTIBLES DES ROTATIONS

Figure 10 – Tétrahèdre associé à un coefficient 6j. et si l’on utilise le fait que, par construction : J± |ϕgJM i = h

q

i

J (J + 1) − M (M ± 1) |ϕgJM ±1 i h

i

J 2 − Jz2 − Jz |ϕgJM i = ~2 J (J + 1) − M 2 − M |ϕgJM i

(VII-119)

0

g (et une relation du même type pour les kets |ψJM i). On obtient : 0

0

g g hϕgJM |ψJM i = hϕgJM ±1 |ψJM ±1 i

(VII-120) (

Par définition du coefficient 6j noté 0

hϕgJM |ψJg 0 M 0 i = δJJ 0 δM M 0

q

j1 j2 g j3 J g 0

)

on pose :

(2g + 1)(2g 0 + 1) ( j1 +j2 +j3 +J

(−1)

j1 j2 g j3 J g 0

)

(VII-121)

où les (−1)j1 +j2 +j3 +J et racines carrées sont, ici aussi, introduits pour donner une plus grande symétrie aux coefficients 6j. Les propriétés des coefficients 6j sont les suivantes : (i) ils sont réels ; (ii) ils sont invariants dans une permutation quelconque des colonnes entre elles ; (iii) ils sont invariants si l’on remplace deux éléments de la première ligne par les éléments correspondants de la seconde (et vice-versa) ; (iv) on peut associer à chacun d’entre eux un tétraèdre dans l’espace (figure 10). Les coefficients 6j ne dépendent que des moments cinétiques et de leur position sur le tétraèdre ; 294

C. COMPOSITION DES MOMENTS CINÉTIQUES

(v) ils sont nuls sauf si, pour chaque face du tétraèdre : • la somme des moments cinétiques est entière, • les égalités du triangle sont vérifiées. Pour démontrer ces relations, on développe les deux vecteurs (VII-118) sur la base |1 : m1 i ⊗ |2 : m2 i ⊗ |3 : m3 i. Par exemple : |ϕgJM i =

(−1)j1 −j2 −j3 +m1 2 +g+M

X

0

m1 m2 m3

q

j1 j2 g m1 m2 − m1 2

(2g + 1) (2J + 1)

!

g j3 J m1 2 m3 − M 0

|1 : m1 i ⊗ |2 : m2 i ⊗ |3 : m3 i

!

(VII-122)

Si nous reportons cette égalité dans le produit scalaire qui figure au membre de gauche de (VII-121), nous obtenons la relation : 1 δj3 j30 δm3 m03 2j3 + 1

J1 J2 j3 M1 −M2 m3

!

(

)

j1 j2 j3 = J1 J2 J3

J 2 J 3 j1 M2 −M3 m1

X

(−1)J1 +J2 +J3 +M1 +M2 +M3

M1 M2 M3 m1 m2

!

J 3 J 1 j2 M3 −M1 m2

!

j1 j2 j30 m1 m2 m03

!

(VII-123) Cette égalité (où la somme sur 5 indices se réduit à une somme double, du fait des règles de sélection) conduit aux relations de symétrie énoncées plus haut. En utilisant les diverses propriétés des coefficients 3j et 6j, on peut démontrer un grand nombre de relations utiles, que nous ne donnerons pas. On pourra se reporter à l’appendice C du tome II de la référence [7], ou encore au livre de A.R. Edmonds [37]). Il existe des tables numériques des coefficients 3j et 6j [38]. La procédure utilisée peut se généraliser, ce qui permet de définir des coefficients 9j, 12j, etc.

295



HOMORPHISME ENTRE LES MATRICES DE SU (2) ET CELLES DE ROTATION

Complément AVII Homomorphisme entre les matrices de SU (2) et celles de rotation

1

Transformation d’un vecteur P induite par une matrice de SU (2) . . . . . . . . . . . . . . . . . . . . 297

2

La transformation est une rotation . . . . . . . . . 299

3

Homomorphisme . . . . . . . . . . . . . . . . . . . . 300

4

Lien avec le raisonnement du chapitre VII . . . . 301

5

Lien avec les représentations bivaluées . . . . . . . 303

Dans ce complément, nous allons montrer qu’il existe un homomorphisme appliquant le groupe SU (2) sur le groupe SO(3), c’est-à-dire qu’il est possible d’établir une correspondance entre chaque matrice de SU (2) et une matrice de SO(3) telle qu’au produit matriciel dans SU (2) corresponde le produit dans SO(3). Rappelons que, par définition, SU (2) est le groupe des matrices 2 × 2 complexes unitaires et unimodulaires (déterminant de U = +1), et que SO(3) est le groupe des matrices de rotation dans l’espace ordinaire [groupe R(3) ], c’est-à-dire des matrices 3 × 3, orthogonales (unitaires et réelles) et unimodulaires. Nous avons déjà noté que chacun de ces deux groupes de Lie est de dimension 3.

1.

Transformation d’un vecteur P induite par une matrice de SU (2)

L’expression générale M (a) des matrices de SU (2) a déjà été écrite en (III-77). Si l’on veut obtenir toutes les matrices de SU (2) dont le paramètre a est parallèle à une direction u donnée, il faut faire varier a entre 0 et 4π, comme l’illustre la figure 11 du chapitre III. Quant aux matrices de rotation, elles ont été étudiées au § 1-b du complément BV et au § A-4-c du chapitre VII, où nous les avons également décrites par un paramètre a, mais dont le module a est limité à π. Considérons maintenant un vecteur P quelconque de l’espace réel à 3 dimensions, et notons Px , Py et Pz ses composantes. On peut lui associer 297

COMPLÉMENT AVII



une matrice hermitique 2 × 2, la matrice ρ définie par 1 : 1 (1 + σ · P ) 2 1 = (1 + σx Px + σy Py + σz Pz ) 2

ρ=

(1)

où 1 est la matrice unité 2 × 2 et σx , σy , σz sont les trois matrices de Pauli [définitions (III-72)]. Ces matrices ont les propriétés bien connues : σj2 = 1

j = x, y, z

Tr {σj } = 0 (σ · A) (σ · B) = A · B 1 + iσ · (A × B)

(2a) (2b) (2c)

où A et B sont deux vecteurs constants donnés. On en déduit que : P = hσi = Tr {ρσ}

(3)

et : ρ2 =

 1 1 + 2σ · P + P 2 4

(4)

de sorte que : n

o

Tr ρ2 =

 1 1 + P2 2

(5)

On peut d’autre part facilement vérifier que, lorsque P est réel et quelconque, l’égalité (1) donne la matrice 2×2 hermitique la plus générale de trace unité. A toute matrice ρ, on peut associer par l’intermédiaire de chaque matrice M (a) de SU (2) la matrice : ρ0 = M (a) ρM † (a)

(6)

Comme ρ, la matrice ρ0 est hermitique et de trace unité, elle peut donc être décomposée sous la forme : ρ0 =

 1 1 + σ · P0 2

(7)

1. La matrice ρ peut être interprétée comme la matrice densité d’un spin 1/2 (com√ plément EIV de la référence [10]), à condition que P = P 2 < 1. La valeur moyenne de ce spin est alors hSi = (~/2)P . Si P = 0, le spin n’est pas polarisé ; si P = 1, il est totalement polarisé (état pur). Cette interprétation de ρ comme une matrice densité est la raison pour laquelle figure le terme 1 dans (1). On peut très bien supprimer ce terme diagonal dans toute la suite sans rien changer au raisonnement ; l’ensemble des matrices ρ est alors celui des matrices 2 × 2 hermitiques de trace nulle (c’est un espace vectoriel de dimension 3).

298



HOMORPHISME ENTRE LES MATRICES DE SU (2) ET CELLES DE ROTATION

où P 0 est réel. Donc, la correspondance entre ρ et ρ0 donnée par M (a) peut également être considérée comme une correspondance R entre deux vecteurs P et P 0 de l’espace réel à 3 dimensions : P =⇒

M (a) =⇒

ρ

ρ0 = M (a) ρM † (a)

=⇒

R



P0

(8)



En d’autre termes, à toute matrice M de SU (2), nous associons une transformation du vecteur P . 2.

La transformation est une rotation On peut exprimer P 0 en fonction de P par l’égalité : 0

 P = Tr ρ0 σ = Tr





M

1+σ·P 2





M σ



(9)

qui indique que P 0 est fonction linéaire de P . Nous pouvons donc écrire : P 0 = (R)P où (R) est une matrice 3 × 3. D’autre part : n

o

n

Tr ρ02 = Tr M ρM † M ρM † n

o

o n

= Tr M ρ2 M † = Tr ρ2

o

(10)

(d’après l’invariance de la trace par permutation circulaire des opérateurs) et, comme en (5) : n

o

Tr ρ02 =

 1 1 + P2 2

(11)

donc : P 02 = P 2

(12)

de sorte que la transformation linéaire qui permet de passer de P à P 0 ne change pas la longueur des vecteurs 2 . C’est donc, soit une rotation autour de l’origine, soit le produit d’une rotation et d’une symétrie par rapport à l’origine. En fait, cette dernière éventualité doit être exclue. En effet, les deux possibilités peuvent être distinguées par le fait que le déterminant de 2. Si ρ est interprétée comme la matrice densité d’un spin 1/2, ceci correspond au fait que le degré de polarisation du spin n’est pas changé dans la transformation unitaire M.

299

COMPLÉMENT AVII



(R) vaut +1 dans le premier cas (rotation pure), −1 dans le second (produit d’une rotation par une symétrie point). Si l’on choisit pour M la matrice 1, on a P 0 = P et ce déterminant vaut 1. Or, toute matrice M de SU (2) peut être obtenue par variation continue des paramètres à partir de la matrice 1, et le déterminant de (R) ne peut sauter de façon discontinue entre +1 et −1. Donc, (R) est une matrice de rotation, c’est-à-dire une matrice de SO(3). 3.

Homomorphisme

Prenons alors deux matrices M et M 0 de SU (2). Si nous appliquons la transformation unitaire M , puis la transformation M 0 à ρ, nous obtenons : ρ00 = M 0 ρ0 M 0† = M 0 M ρ M † M 0†

(13)

comme : M 0M

†

= M † M 0†

(14)

c’est bien la matrice obtenue directement par la transformation unitaire associée au produit M 0 M des matrices. Par ailleurs, on a : P 00 = (R)0 P 0 = (R 0 )(R)P

(15)

et le produit (R 0 )(R) est bien associé au produit des matrices M correspondantes. Ceci établit donc que la correspondance : M =⇒ (R)

(16)

est un homomorphisme. Ce n’est pas un isomorphisme (elle n’est pas biunivoque). En effet, on remarque immédiatement sur (6) que deux matrices opposées, M et −M , donnent les mêmes matrices ρ0 , et donc la même transformation P =⇒ P 0 . Nous allons donc voir que, inversement, si deux matrices M1 et M2 correspondent à la même rotation (R), elles sont soit égales, soit opposées. Démonstration : Supposons en effet que deux matrices M1 et M2 soient associées à la même rotation (R) et, par suite, fassent correspondre la même matrice ρ0 à toute matrice ρ (hermitique et de trace unité) : M1 ρ M1† = M2 ρ M2†

(17)

Par suite, on aura : M2† M1 ρ M1† M2 = ρ

(18)

quelle que soit la matrice ρ choisie. Appelons M0 la matrice de SU (2) la plus générale qui corresponde à l’opération identité pour le vecteur P . Nous voyons que : M2† M1 = M0

300

(19a)



HOMORPHISME ENTRE LES MATRICES DE SU (2) ET CELLES DE ROTATION

ou encore : M1 = M2 M0

(19b)

Donc, connaissant une matrice M2 , l’ensemble des matrices M1 qui sont associées à la même rotation (R) peut être obtenu par multiplication par l’ensemble des matrices M0 associées à la rotation identité. On remarque que la transformation unitaire M peut être définie comme celle qui fait passer du système des deux vecteurs propres orthonormés |ϕ1 i et |ϕ2 i de ρ à celui des deux vecteurs propres orthonormés |ϕ01 i et |ϕ02 i de ρ0 . En effet : ρ |ϕl i = pl |ϕl i

l = 1, 2

(20)

(pl est réel) entraîne : ρ0 M |ϕ` i = M ρM † M |ϕ` i = M ρ |ϕ1 i = p` M |ϕ` i

(21)

Si les deux valeurs propres p1 et p2 ne sont pas dégénérées, on a donc nécessairement : |ϕ0l i = eiαl M |ϕl i

l = 1, 2

(22)

(où α1 est réel) et les valeurs propres de ρ0 sont les mêmes que celles de ρ. Montrons alors que l’ensemble des matrices M0 ne comprend que la matrice unité (1) et son opposée. Les vecteurs propres |ϕ1 i et |ϕ2 i de ρ forment une base orthonormée quelconque de l’espace à 2 dimensions où agissent les matrices M ; seule une matrice scalaire [proportionnelle à (1)] peut admettre toutes ces bases comme bases propres. Donc : M0 = c (1)

(23)

où c est une constante complexe. L’unitarité de M0 entraîne que |c| = 1 et donc c = eiβ où β est réel. On obtient alors : det M0 = e2iβ det (1) = e2iβ

(24)

qui ne peut valoir 1 que si β = nπ [où n est entier]. Pour finir, il reste : M0 = ±(1)

(25)

Donc, seules des matrices opposées de SU (2) correspondent à la même rotation (R). Inversement, une rotation donnée correspond à deux matrices, M et −M , de SU (2). Ces deux matrices appartiennent respectivement aux sous-ensembles notés SU (2)+ et SU (2)− dans le § B-3 du chapitre III. 4.

Lien avec le raisonnement du chapitre VII

Montrons maintenant que la correspondance (16) entre matrices unitaires M et rotations R est bien celle que nous avons obtenue dans le chapitre VII. Nous verrons à cette occasion que cette correspondance permet 301

COMPLÉMENT AVII



d’obtenir toutes les matrices de rotation [ce qui est rendu vraisemblable par le fait que les matrices de SU (2), comme celles de SO(3), dépendent de 3 paramètres]. Commençons par prendre dans (III-74) un paramètre δa = uδa infinitésimal. Alors : M (δa) = (1) − i

δa [ux σx + uy σy + uz σz ] 2

(26)

C’est cette égalité qui nous a permis d’introduire σx , σy , σz comme opérateurs de l’algèbre de Lie de SU (2). La relation (6) devient : ρ0 = M (δa) ρ M † (δa) = ρ − i =ρ−i

δa [ux σx + uy σy + uz σz , ρ] 2

δa [ux σx + uy σy + uz σz , σ · P ] 2

(27)

En développant le produit σ · P et en utilisant la relation : [σx , σy ] = 2iσz

(28)

(ainsi que celles obtenues par permutation circulaire des indices x, y, et z), on obtient : ρ0 − ρ =

δa (uy Pz − uz Py ) σx + (uz Px − ux Pz ) σy 2 + (ux Py − uy Px ) σz

(29)

c’est-à-dire : P 0 − P = δa u × P

(30)

C’est bien la relation qui donne une rotation infinitésimale du vecteur δa. Par suite, à chaque matrice (VII-28) infinitésimale, repérée par le paramètre δa, correspond bien la rotation de même paramètre. Par intégration de ces opérations infinitésimales dans SU (2) et SO(3), on vérifie ensuite que la correspondance entre tout vecteur a (avec |a| < π) définissant une matrice M donne la rotation de même paramètre a. En particulier, toutes les rotations peuvent ainsi être obtenues. Remarque :

On peut d’ailleurs facilement raisonner sur des matrices associées à des valeurs finies de a. Si l’on choisit dans (III-68) le vecteur u parallèle à Oz, on obtient la matrice : M= 302

e−ia/2 0 0 eia/2

!

= e−iaσz /2

(31)



HOMORPHISME ENTRE LES MATRICES DE SU (2) ET CELLES DE ROTATION

de sorte que (6) devient : ρ0 = M ρM † =

i 1h 1 + e−iaσz /2 P · σ eiaσz /2 2

(32)

Un calcul élémentaire sur des matrices 2 × 2 donne alors : e−iaσz /2 σx eiaσz /2 = cos a σx + sin a σy e−iaσz /2 σy eiaσz /2 = − sin a σx + cos a σy ei−aσz /2 σz eaσz /2 = σz

(33)

Donc, par substitution dans ρ0 , il vient :  0 P = cos a Px − sin a Py    x

Py0 = sin a Px + cos a Py    0

(34)

Pz = Pz

qui correspond à une rotation autour de Oz d’un angle ϕ = a. Choisissons maintenant u parallèle à Oy. La matrice M est alors réelle :

M=

cos(a/2) − sin(a/2) sin(a/2) cos(a/2)

!

= e−iaσy /2

(35)

Un calcul du même type donne : Px0 = sin a Pz + cos a Py Py0 = Py Pz0 = cos a Pz − sin a Py

(36)

On a maintenant pour (R) une rotation autour de Oy d’angle ϕ = a. Il ne nous reste alors plus qu’à utiliser la relation (17) pour établir que, par produit de rotations autour de Oz et Oy, une rotation (R) quelconque peut être obtenue. 5.

Lien avec les représentations bivaluées

Nous avons donc établi une correspondance (non biunivoque) entre chaque matrice M de SU (2) et chaque matrice de rotation (R). Si a appartient à la sphère de diamètre 2π accessible dans le cas des rotations [la matrice M appartient à SU (2)+ ], la correspondance a lieu par la même valeur de a. Par contre, si π < a < 2π [la matrice M est dans SU (2)− ], on pose : a a0 = a − 2π (37) a 303

COMPLÉMENT AVII



ce qui ramène le paramètre dans la sphère en question, ne fait que changer M en −M et donne le paramètre de la rotation associée. Du point de vue de la figure 13 du chapitre III, on ramène tous les points de la sphère de droite [ensemble SU (2)− ] sur les points ayant la même position par rapport au centre de celle de gauche [ensemble SU (2)+ ]. Dans cette correspondance SU (2) =⇒ SO(3), au produit des matrices M est toujours associé le produit des rotations. Ce point de vue est l’inverse de celui de la figure 1 du chapitre III (renversement du sens des flèches). Revenons donc au point de vue où l’on considère une correspondance bivaluée SO(3) =⇒ SU (2). A toute rotation, on associe alors un couple de matrices M , celui des deux matrices dont elle était l’image dans le point de vue précédent. Deux rotations R1 et R2 correspondront alors à deux couples ±M1 et ±M2 de matrices unitaires et il est clair que le produit des deux rotations correspondra au couple obtenu par produit des matrices ±M1 et ±M2 . C’est bien ce que nous avions trouvé au § A-5-b du chapitre VII. Mais, si l’on ne prend qu’une des deux matrices M de ce couple, celle qui appartient à SU (2)+ par exemple, il se peut parfaitement que la rotation produit corresponde à l’opposé du produit des matrices M correspondantes.

304

Chapitre VIII

Transformation des observables par rotation A

B

C

D

Opérateurs vectoriels . . . . . . . . . . . . . . . . A-1 Définition d’un opérateur vectoriel . . . . . . . . A-2 Composantes standard . . . . . . . . . . . . . . . Opérateurs tensoriels . . . . . . . . . . . . . . . . B-1 Définition . . . . . . . . . . . . . . . . . . . . . . B-2 Composantes sphériques . . . . . . . . . . . . . . B-3 Opérateurs tensoriels irréductibles . . . . . . . . B-4 Propriétés des opérateurs tensoriels irréductibles Théorème de Wigner-Eckart . . . . . . . . . . . . C-1 Démonstration . . . . . . . . . . . . . . . . . . . C-2 Applications et exemples . . . . . . . . . . . . . Décomposition de la matrice densité sur les opérateurs tensoriels . . . . . . . . . . . . . . . . . . . D-1 Espace de Liouville . . . . . . . . . . . . . . . . . D-2 Transformation par rotation . . . . . . . . . . . . D-3 D-4

. . . . . . . . . . .

308 308 311 312 312 315 317 322 329 330 334

. 345 . 345 . 347

(K)

Base des opérateurs TQ . . . . . . . . . . . . . . 348 Invariance par rotation dans l’évolution d’un système physique . . . . . . . . . . . . . . . . . . . . 351

Introduction Nous avons, dans le chapitre précédent, étudié diverses propriétés des opérateurs Ru (ϕ) qui traduisent l’effet d’une opération de rotation sur le vecteur d’état d’un système physique quelconque. Les mêmes opérateurs Ru (ϕ) permettent de calculer l’effet des rotations sur les appareils de mesure

CHAPITRE VIII

ROTATION DES OBSERVABLES

associés aux diverses observables A du système (opérateurs hermitiques à spectre complet). L’opérateur A0 associé aux instruments de mesure ayant subi une rotation d’un angle ϕ autour du vecteur unitaire u est en effet (chapitre IV, § C) : † A0 = Ru (ϕ) A Ru (ϕ)

(VIII-1)

où, rappelons-le : i Ru (ϕ) = exp − ϕJu ~ 



(VIII-2)

En particulier, si la rotation est infinitésimale (angle δϕ) : i A0 = A − δϕ [Ju , A] ~

(VIII-3)

C’est donc le commutateur de A avec les diverses composantes Ju du moment cinétique total J qui traduit l’effet d’une rotation infinitésimale sur chaque observable. Dans ce chapitre, nous allons donc étudier la rotation des observables. La principale différence par rapport au chapitre précédent est que, pour effectuer des transformations sur les observables, nous remplacerons les formules du type : |ψ 0 i = Ru (ϕ)|ψi

(VIII-4)

par la relation (VIII-1), où Ru (ϕ) apparaît deux fois au lieu d’une seule. De façon analogue, pour les rotations infinitésimales, au lieu de faire simplement agir Ju sur |ψi, c’est le commutateur (VIII-3) qui intervient. Pour le reste, nous ne ferons qu’utiliser à nouveau les raisonnements (ainsi que les notations) du chapitre VII. Ce chapitre VIII doit donc être considéré, non comme un exposé où des idées importantes et/ou nouvelles sont introduites, mais plutôt comme un chapitre d’applications où des techniques de calcul utiles sont présentées. Cette étude nous permettra en particulier de dégager la notion d’opérateur vectoriel (§ A) ou tensoriel (le complément AVIII propose un rappel élémentaire sur les tenseurs classiques) ; elle nous conduira à introduire (§ B) la définition des “opérateurs tensoriels irréductibles”. Ces derniers permettent, en mécanique quantique, de simplifier considérablement de nombreux calculs où l’algèbre angulaire et l’invariance par rotation jouent un rôle. La simplification ainsi introduite provient principalement du théorème de WignerEckart que nous démontrerons et commenterons ensuite (§ C). Une application importante des méthodes de calcul exposées est donnée par les opérateurs multipolaires électriques ou magnétiques d’un système de charges (complément CVIII ). 306

Figure 1 – La partie gauche de la figure schématise un système physique S décrit par un ket |Ψi soumis à une mesure associée à l’opérateur A. La partie médiane représente la situation lorsque S a subi une rotation, de sorte qu’il est décrit par un ket |Ψ0 i. Enfin, la partie droite suppose que le système physique et l’appareil de mesure ont subi la même rotation. Ni les résultats de mesure ni leurs probabilités ne doivent alors changer par rapport à la situation initiale. Remarque : Si l’on confond les opérations de rotation d’un système physique ou de ses observables, on s’expose à des erreurs de calcul, en particulier des fautes de signe. La figure 1 symbolise la façon dont nous avons obtenu (VIII-1), selon le raisonnement des §§ A et C du chapitre IV. Nous avons construit l’observable A0 , transformée de A par rotation, de façon qu’aucun résultat de mesure physique ne soit changé si l’on tourne à la fois le système physique et les instruments de mesure. L’idée est que les résultats possibles de cette dernière ainsi que leurs probabilités ne dépendent que des positions relatives des appareils de mesure et du système mesuré. Pour prendre un exemple concret, considérons une expérience du type Stern et Gerlach. La quantité mesurée est alors la composante du spin d’une particule le long d’une direction v donnée, et l’observable A s’écrit S · v (le vecteur v est supposé unitaire). Supposons qu’initialement, le spin soit l’état propre |+iv de cette observable (valeur propre +}/2) ; le résultat de la mesure est alors certain : c’est +}/2. Si l’on fait subir au système une rotation Ru (ϕ), son état devient (|+iv0 , état où le spin pointe dans la direction v donnée par : v 0 = Ru (ϕ)v

(VIII-5) 0

Le ket |+iv0 est ket propre de la composante de S sur v (valeur propre +}/2), composante qui est précisément l’observable A0 transformée de A par rotation des instruments de mesure : † S · v 0 = (S · v)0 = Ru (ϕ) S · v Ru (ϕ)

(VIII-6)

Bien sûr, si l’on tourne à la fois le système physique (spin) et les instruments de mesure (aimants de Stern et Gerlach), rien n’est changé : le résultat de mesure est toujours certain et vaut +}/2. En d’autres termes, les appareils de mesure définissent les axes d’espace par rapport auxquels les propriétés physiques du système sont examinées.

307

CHAPITRE VIII

ROTATION DES OBSERVABLES

Le risque d’erreur signalé plus haut tient au fait, bien connu en géométrie, qu’il n’est pas équivalent d’effectuer une rotation R sur chaque point r de l’espace ou d’effectuer la même rotation des axes : tourner les axes revient à effectuer sur les coordonnées l’opération inverse de celle où l’on tourne les vecteurs r eux-mêmes. Evidemment, si l’on tourne à la fois les vecteurs r et les axes, rien n’est changé en ce qui concerne les coordonnées x, y et z. En mécanique quantique, effectuer l’opération |ψ 0 i = R |ψi est donc l’analogue d’effectuer une rotation sur les vecteurs r (“rotation active”, cf. § A-3 du chapitre I), alors que transformer les observables suivant (VIII-1) est l’analogue d’un changement des axes de coordonnées (“rotation passive”).

A.

Opérateurs vectoriels

Nous avons déjà mentionné à plusieurs reprises les opérateurs scalaires, qui commutent avec toutes les composantes du moment cinétique J du système physique considéré. Ce sont les opérateurs invariants par rotation, dont l’exemple le plus courant est l’hamiltonien d’un système qui a cette propriété. En termes de simplicité concernant leurs transformations par rotation, les opérateurs vectoriels viennent directement après les opérateurs scalaires. Dans l’algèbre de Lie des groupes de Galilée et de Poincaré, tous les opérateurs qui ne sont pas scalaires sont vectoriels. A-1.

Définition d’un opérateur vectoriel

Dans le groupe de Galilée comme celui de Poincaré, les trois générateurs infinitésimaux de translation P , de rotation J et de changement de repère galiléen K satisfont aux mêmes relations de commutation : 



Jxi , Vxj = i~ εijk Vxk

(VIII-7)

où Vxi désigne la composante i de l’un quelconque de ces trois vecteurs. La forme explicite de ces relation est : 



Jx , Vy = i~ Vz

(VIII-8)

ainsi que les deux autres relations obtenues par permutation circulaire des indices x, y et z. Par définition, tout ensemble de trois opérateurs satisfaisant à ces relations de commutation avec le moment cinétique total est un opérateur vectoriel. Examinons plus en détail le lien entre cette définition et les rotations géométriques. A-1-a.

Vecteurs classiques, rappels et notations

Dans une rotation des axes d’angle ϕ autour du vecteur u, la matrice de rotation contient dans ses colonnes les composantes des nouveaux vecteurs de base

308

A. OPÉRATEURS VECTORIELS

en fonction des anciens [cf. par exemple relation (19) du complément BV ] :   (e01 e02 e03 ) = (e1 e2 e3 ) Ru (ϕ) (VIII-9) Un même vecteur r peut être décomposé sur les deux bases : r = xex + yey + zez = x0 e0 x + y 0 e0 y + z 0 e0 z

(VIII-10)

soit : r = (e1 e2

   0 x x e3 )  y  = (e01 e02 e03 )  y 0  z z0

(VIII-11)

Insérons alors la relation (VIII-9) dans le second membre et identifions les composantes sur les trois vecteurs e1 , e2 et e3 . Il vient :     x   x0  y  = Ru (ϕ)  y 0  (VIII-12a) z z0 La matrice (R) permet donc de passer des nouvelles coordonnées aux anciennes. Si l’on multiplie à gauche par la matrice inverse, on obtient :  0   x  −1 x  y 0  = Ru (ϕ) y (VIII-12b) 0 z z La matrice (R)−1 permet donc de passer des anciennes coordonnées aux nouvelles. Il est parfois plus commode de faire apparaître les matrices (R) que leurs inverses. On peut partir du fait que les matrices (R) sont orthogonales (leur inverse est égale à leur transposée) pour écrire (VIII-12b) sous la forme équivalente : (x0 y 0 z 0 ) = (x y z) (Ru (ϕ))

(VIII-12c)

Si l’on explicite cette relation, ou son équivalent (VIII-12b), on obtient : X X −1 x0i = (R)ij xj = (R)ji xj xi , xi0 = x, y, z (VIII-12d) j

j

Nous avons calculé les transformations des coordonnées d’un vecteur fixe dans deux bases différentes, la seconde ayant subi une rotation (R) par rapport à la première. Mais on peut interpréter autrement (VIII-12a) : on peut y voir la relation de transformation des coordonnées x, y et z d’un vecteur v qui devient sous l’effet de la rotation (R)−1 un vecteur v 0 , de coordonnées x0 , y 0 et z 0 . Ceci conduit à écrire : v 0 = Ru−1 (ϕ)v

(VIII-13)

Nous retrouvons le fait que les coordonnées d’un vecteur se transforment de la même façon dans une rotation des axes, ou dans la rotation inverse du vecteur. Dans le cas particulier d’une rotation infinitésimale d’angle δϕ, r 0 devient [cf. relation (29) du complément BV ] : v 0 = v + δv = v − δϕ u × v

(VIII-14)

309

CHAPITRE VIII

A-1-b.

ROTATION DES OBSERVABLES

Opérateur vectoriel

Un ensemble Vx , Vy , Vz de trois opérateurs constitue les trois composantes d’un opérateur vectoriel si, lors d’une rotation, ces opérateurs se transforment comme les composantes d’un vecteur à trois dimensions. Selon (VIII-12b), les relations de transformation des composantes d’un opérateur vectoriel sont donc : 

Vx0



 

 0  Vy  = Ru (ϕ)

−1

Vz0

Vx



   Vy 

(VIII-15)

Vz

avec : † Vx0i = Ru (ϕ) Vxi Ru (ϕ)

(VIII-16)

Nous obtenons ainsi une définition possible pour un opérateur vectoriel. Comme nous l’avons vu en (VIII-12c), cette relation est équivalente à : 



Vx0 Vy0 Vz0 = (Vx Vy Vz ) (Ru (ϕ))

(VIII-17)

On peut condenser les trois opérateurs Vx , Vy et Vz dans une notation vectorielle : V = Vx ex + Vy ey + Vz ez

(VIII-18)

ce qui conduit à écrire (VIII-15) sous la forme : † V 0 = Ru (ϕ) V Ru (ϕ) = Ru−1 (ϕ)V

(VIII-19)

A nouveau, on ne sera pas surpris que ce soit la rotation inverse Ru−1 (ϕ), et non pas la rotation directe, qui apparaisse dans ces relations : comme nous l’avons souligné dans l’introduction, nous n’appliquons pas une rotation au vecteur V lui-même, mais exprimons les composantes d’un même vecteur dans des axes ayant subi une rotation. Dans l’exemple de la mesure d’un spin par un aimant de Stern et Gerlach, ce n’est pas le spin qui tourne, mais l’aimant de mesure. Dans le cas particulier d’une rotation infinitésimale d’angle δϕ, V 0 devient [cf. relation (29) du complément BV ] : V 0 = V + δV = V − δϕ u × V

(VIII-20)

La condition pour que V soit un opérateur vectoriel peut donc s’écrire : [Ju , V ] = −i} u × V 310

(VIII-21)

A. OPÉRATEURS VECTORIELS

ou encore, par linéarité : [(J · u) , (V · w)] = i} (u × w) · V

(VIII-22)

Par projection sur les trois axes, on retrouve alors les relations (VIII-7), ou (VIII-8), donc notre première définition d’un opérateur vectoriel. Par intégration de rotations infinitésimales, on peut obtenir des rotations finies, et obtenir à nouveau (VIII-15). Ces diverses définitions d’un opérateur vectoriel sont donc équivalentes. A-2.

Composantes standard

Au § A-5-a du chapitre VII, nous avons vu que les matrices de rotation ne sont autres que les matrices habituelles de rotation (R) écrites dans une autre base. Nous allons donc rechercher un changement de base qui modifie les composantes d’un opérateur vectoriel V de façon qu’elles se transforment comme des kets |j = 1, mi, avec m = 0, ±1. Partant de la base ex , ey et ez où agissent les matrices (R), nous avons introduit les trois vecteurs : (R[j=1] )

 1   e+1 = − √ [ex + iey ]    2 

e0 = ez

(VIII-23)

   1    e−1 = √ [ex − iey ]

2

qui donnent la base où les (R) s’identifient aux (R[j=1] ). La matrice (S) du changement de base est unitaire, et son inverse est la matrice hermitique conjuguée : 

− √12 0

√i (S) =  − 2 0



0

√1 2 − √i2

1





− √12



 (S)−1 =  0

  



0

√1 2

√i 2

0 √i 2

0

 

1  0

(VIII-24)



Les relations standard de changement de base s’écrivent alors : [j=1] Ru (ϕ) = S



Ru (ϕ) = S 

−1 

Ru (ϕ)



S



[j=1] Ru (ϕ) (S)−1



(VIII-25a) (VIII-25b)

Reportons la seconde de ces égalités dans (VIII-17), il vient : 



Vx0 Vy0 Vz0 = (Vx Vy Vz ) S

   [j=1] Ru (ϕ) (S)−1

(VIII-26)

Introduisons la matrice : (V+1 V0 V−1 ) = (Vx Vy Vz ) (S)

(VIII-27) 311

CHAPITRE VIII

ROTATION DES OBSERVABLES

De même, nous écrivons une relation où (S) relie les composantes standard 0 , V 0 et V 0 à V 0 V+1 x,y,z . L’égalité (VIII-26) se simplifie alors en : 0 −1 

0 0 [j=1] V+1 V00 V−1 = (V+1 V0 V−1 ) Ru (ϕ)





(VIII-28)

0 , V 0 et V 0 désignent les opérateurs transformés de V , V et V 0 où V+1 +1 0 0 −1 −1 par rotation : † Vm0 = Ru (ϕ) Vm Ru (ϕ)

avec

m = +1, 0, −1

(VIII-29)

Si nous explicitons la relation (VIII-27), nous obtenons :  1   V+1 = − √ (Vx + iVy )    2 

V0 = Vz

(VIII-30)

   1    V−1 = √ (Vx − iVy )

2

Les opérateurs Vm ainsi définis (avec m = +1, 0, −1) sont appelés “composantes standard” de l’opérateur vectoriel V . La relation (VIII-28) exprime que ces composantes standard se transforment par rotation comme des kets d’une base standard de moment cinétique j = 1. On conçoit donc l’intérêt d’introduire des composantes standard Vm : elles nous permettent d’appliquer sans changement la théorie du moment cinétique et de la base standard du chapitre précédent. Remarque :

Si l’on développe l’opérateur vectoriel V sur la base (VIII-23), il faut prendre garde au fait que V+1 est associé à e−1 et V−1 à e+1 , ainsi qu’aux signes : V = Vx ex + Vy ey + Vz ez = −V−1 e+1 + V0 e0 − V+1 e−1 (VIII-31) B.

Opérateurs tensoriels

B-1.

Définition

Il existe des opérateurs dont les lois de transformation par rotation ne sont, ni celles de scalaires, ni celles de vecteurs. Par exemple, l’opérateur TXX = XPX + PX X

(VIII-32)

obéit à des lois de transformations plus compliquées, bien qu’il soit simplement défini à partir de composantes d’opérateurs vectoriels. 312

B. OPÉRATEURS TENSORIELS

Une observable A quelconque sera obtenue comme une fonction F des observables fondamentales A = F (R, P , S)

(VIII-33)

Une procédure standard pour obtenir une telle fonction est d’appliquer les règles de quantification canoniques à une (ou un ensemble de) particule(s) sans spin. Partant d’une fonction classique F (ri , pj ) des positions ri et impulsions pj , on obtient l’observable quantique par substitution de r en un opérateur Ri et de p en un opérateur Pi , avec éventuellement par une symétrisation convenable (pour tenir compte de la non-commutation entre opérateurs). De façon générale, la fonction F peut être développée en série de Taylor, ce qui fait apparaître des termes du type : C × Vxi Wxj . . . Zx`

(VIII-34)

Dans cette expression, C est une constante (proportionnelle à une dérivée à l’origine d’ordre n de la fonction F ) et Vxi , Wxj , . . . , Zx` sont les composantes cartésiennes de n opérateurs vectoriels (xi , xj . . . x` = x, y ou z). Les opérateurs V , W . . . Z représentent chacun l’un des trois opérateurs R, P ou S, mais tout ce qui va être dit par la suite reste également valable si ce sont des opérateurs vectoriels différents (L = R × P par exemple). Considérons alors tous les termes du type (VIII-34) où l’on a effectué un choix donné pour les n opérateurs vectoriels (on spécifie par exemple le nombre de fois où apparaît chaque opérateur R, P ou S, et dans quel ordre). Ces termes ne diffèrent que par le choix des composantes xi , xj . . . x` et sont donc au nombre de 3n . On regroupe ces 3n termes dans un tableau d’opérateurs (en faisant C = 1) que l’on appelle opérateur tensoriel T (n) d’ordre n. Les composantes de cet opérateur sont : Tx(n) = Vxi Wxj . . . Zx` i ,xj ... x`

xi , xj . . . x` = x, y ou z

(VIII-35)

et on note : T (n) = V ⊗ W ⊗ . . . ⊗ Z

(VIII-36)

Par exemple, si n = 1, on retombe sur le cas déjà étudié d’un opérateur vectoriel, représenté par une matrice ligne à 3 éléments. Si n = 2, le tableau est une matrice 3 × 3 : 

T

(2)

V x Wx V x Wy

=  V y Wx V y Wy 

V z Wx V z Wy

V x Wz



V y Wz  Vz Wz 

(VIII-37)

313

CHAPITRE VIII

ROTATION DES OBSERVABLES

De la même façon, si n = 3, on est conduit à un tableau cubique 3 × 3 × 3 (ensemble de 3 matrices 3 × 3), etc. Il est clair que toutes les fonctions F peuvent, par développement de Taylor, s’exprimer comme combinaisons linéaires des composantes de tels tenseurs. La question qui se pose alors est de déterminer comment se transforment les composantes des opérateurs tensoriels T (n) par rotation. Si nous explicitons les composantes de la relation (VIII-17), nous obtenons : Vx0i = R Vxi R† =

X

(R)ji Vxj

(VIII-38)

j

Cette relation peut s’appliquer à V , W , . . . , Z, qui sont vectoriels. Le transformé par rotation de la composante (VIII-35) de l’opérateur tensoriel est donc donné par : R Tx(n) R† = R Vxi R† R Wxj R† . . . R Zx` R† i xj ...x` =

X i0 j 0 ... `0

(R)i0 i (R)j 0 j . . . (R)`0 ` Tx(n) i0 xj 0 ... x`0

(VIII-39)

Nous appellerons opérateur tensoriel T (n) tout ensemble de 3n composantes (opérateurs) se transformant par rotation suivant cette loi. Il est clair que, non seulement les opérateurs produits tensoriels (VIII-39), mais toutes leurs combinaisons linéaires (pour une même valeur de n) engendrent 1 des opérateurs tensoriels T (n) . Les lois (VIII-39) de transformation linéaire pour les composantes des opérateurs tensoriels fournissent une représentation linéaire du groupe des rotations. En effet, si l’on applique successivement deux rotations R1 et R2 dans cet ordre, les transformations des composantes satisfont à : 

Vx



 

   Vy  = R2

Vz





Vx00



 



Vx00



R1  Vy00  = R2 R1  Vy00  Vz00 Vz00 







(VIII-40)

Donc, pour un opérateur tensoriel d’ordre n = 1, c’est bien la matrice de rotation produit R2 R1 qui effectue la transformation. Pour un opérateur tensoriel d’ordre n quelconque, on applique la même relation à chacun des termes du produit (VIII-39), et on obtient le même résultat. Les relations (VIII-39) fournissent donc bien une représentation du groupe des rotations. 1. Si l’espace des états E est de dimension infinie, l’ensemble des T (n) pour n fixé constitue en général un autre espace vectoriel de dimension infinie. Par exemple, le nombre d’opérateurs scalaires (ou vectoriels) linéairement indépendants est infini si on peut définir de façon indépendante des éléments de matrice réduits dans tous les E (τ, j) (cf. § C-2). On ne confondra pas espace des opérateurs et espace des états E (où agissent les éléments du premier espace).

314

B. OPÉRATEURS TENSORIELS

Il est alors naturel de se demander si cette représentation est réductible, ou non. Dans le cas n = 1 (opérateurs vectoriels), la représentation est évidemment irréductible, car nous avons vu qu’un changement de base nous a permis d’introduire les composantes standard qui se transforment directement avec les matrices (R[j=1] ). Dans le cas où n ≥ 2, ce n’est pas évident a priori. Cette fois encore, nous allons définir de nouvelles composantes de façon à pouvoir directement utiliser les résultats du chapitre VII concernant les représentations irréductibles du groupe des rotations. B-2.

Composantes sphériques

Nous introduisons maintenant les “composantes sphériques” (ou, de façon plus explicite, les “composantes sphériques découplées”) d’un tenseur T (n) . Leur intérêt est de se transformer par rotation simplement comme un produit tensoriel de kets de moments cinétiques j = 1. B-2-a.

Définition et propriétés de transformation

Pour un opérateur vectoriel V , les composantes sphériques sont identiques 2 aux composantes standard Vm définies par la relation (VIII-30). Une fois développée, la relation (VIII-27) s’écrit : Vmi =

X

(S)i0 i Vxi0

(VIII-41)

i0

avec la correspondance suivante entre indices des composantes des vecteurs et de la matrice de changement de base (S) : i = 1 ⇔ mi = +1 ;

i = 2 ⇔ mi = 0 ;

0

0

i = 1 ⇔ x i0 = x ;

i = 2 ⇔ xi0 = y ;

i = 3 ⇔ mi = −1 i0 = 3 ⇔ xi0 = z

(VIII-42)

Pour un tenseur T (n) = V ⊗ W ⊗ . . . ⊗ Z, les composantes sphériques (n) découplées sont les Tmi mj ... m` définies en appliquant cette relation à chaque composante du tenseur. Ceci conduit à la définition : (n) Tm = i mj ... m`

X i0 j 0 ... `0

(S)i0 i (S)j 0 j . . . (S)`0 ` Tx(n) i0 xj 0 ... x`0

(VIII-43a)

avec la même correspondance que (VIII-42), étendue à tous les indices. Inversement, la matrice (S) étant unitaire, on a : Tx(n) = i ,xj ... x`

X i0 j 0 ... `0

(n) (S)?ii0 (S)?jj 0 . . . (S)?``0 Tm i0 mj 0 ... m`0

(VIII-43b)

2. Si n = 1, les composantes standard et les composantes sphériques découplées se confondent, mais ce n’est plus le cas dès que n ≥ 2, comme nous allons le voir.

315

CHAPITRE VIII

ROTATION DES OBSERVABLES

Ces deux égalités, introduites pour un tenseur de la forme V ⊗ W ⊗ . . . ⊗ Z, restent valables pour un tenseur quelconque (elles sont linéaires en T ). Comment les composantes sphériques se transforment-elles par rotation ? La relation (VIII-28) permet de calculer l’effet d’une rotation sur chaque facteur Vmi , Wmj , . . . , Zm` du tenseur, et on obtient (en intercalant autant de fois que nécessaire R† R ≡ 1 entre les opérateurs Vmi , Wmj . . .) : X 

(n) R Tm R† = i mj ... m`

R[1]



i0 j 0 ... `0



m0i mi

R[1]





m0j mj

. . . R[1]



(n)

m0` m`

Tm0 m0 ... m0 i

j

(VIII-44) Cette fois encore, on peut étendre par linéarité la validité de cette formule, du cas où T (n) est un produit tensoriel V ⊗ W ⊗ . . . ⊗ Z, au cas général. B-2-b.

Lien avec un produit tensoriel

Considérons maintenant n systèmes physiques, de moments cinétiques j = 1 : le système S1 , d’espace des états E1 (à 3 dimensions) engendré par les kets |1 : mi (m1 = +1, 0 ou −1) ; le système S2 , d’espace des états E2 , engendré par les 3 kets |2 : m2 i (m2 = +1, 0 ou −1), etc. Pour le système S total obtenu par la réunion de S1 , S2 , . . . Sn , une base de l’espace des états (base “découplée”) est donnée par l’ensemble des kets : |1 : m1 i ⊗ |2 : m2 i ⊗ . . . |n : mn i où tous les m valent +1, 0 ou −1. Par rotation de l’ensemble du système S, ces kets se transforment selon : Ru (ϕ) [|1 : m1 i ⊗ |2 : m2 i ⊗ . . . ⊗ |n : mn i] h

i

h

i

h

i

= e−iϕJ1 /~ |1 : m1 i ⊗ e−iϕJ2 /~ |2 : m2 i . . . ⊗ e−iϕJn /~ |n : mn i =

X m01 m02 ... m0n



R[1]



 m01 m1

R[1]





m02 m2

. . . R[1]

 m0n mn

|1 : m01 i ⊗ |2 : m02 i ⊗ . . . ⊗ |n : m0n i

(VIII-45)

où J1 , J2 , . . . désignent les opérateurs de moment cinétique associés respectivement à S1 , S2 , . . . Nous obtenons donc, pour les kets de la base découplée, exactement la même loi de transformation qu’avec la relation (VIII-44) pour (n) les composantes sphériques découplées. En d’autres termes, les Tmi mj ... m` se transforment suivant des matrices obtenues par produit tensoriel de matrices (R[1] ). C’est cette propriété qui va nous permettre d’appliquer la théorie générale du couplage des moments cinétiques (passage des composantes sphériques découplées aux composantes couplées, ou composantes standard). En composant n fois des matrices de rotations R[j] où j = 1, nous savons que les valeurs de J obtenues sont : 316

`

B. OPÉRATEURS TENSORIELS

Ceci fait apparaître des représentations irréductibles du groupe des rotations allant jusqu’à la valeur maximale J = n (valeurs entourées sur le tableau 3 ). On remarque que cette valeur maximale n’est atteinte qu’une seule fois (un seul schéma de couplage), contrairement aux autres valeurs. Les opérateurs obtenus après cette opération de couplage des moments cinétiques pour construire des représentations irréductibles sont appelés “opérateurs tensoriels irréductibles”. Le § B-3 suivant est consacré à leur définition plus précise et à l’étude de certaines de leurs propriétés. B-3.

Opérateurs tensoriels irréductibles

Commençons par étudier le cas où n = 2, qui est la valeur la plus faible de n pour laquelle on n’est pas ramené aux opérateurs vectoriels initiaux (n = 1). Ceci permet d’introduire les idées principales, ainsi que les notations qui apparaissent dans le cas général où n est quelconque. B-3-a.

Composantes standard d’un tenseur n = 2

Lorsque n = 2, le tenseur T (2) est souvent noté T , avec une double barre qui rend explicite son caractère tensoriel. Il possède 9 composantes cartésiennes T xi xj , ainsi que 9 composantes sphériques (découplées) T mi mj . Elles se transforment par rotation comme les 9 kets : |1 1 mi mj i = |1 : mi i ⊗ |2 : mj i

(VIII-46)

associés à deux systèmes de moment cinétique 1. Par couplage des états (VIII-46), on obtient les kets |J, M i dont l’expression explicite est [second exercice du § C-2-b du chapitre VII] :    |2, 2i = |1 1 1 1i     1 1     |2, 1i = √ |1 1 1 0i + √ |1 1 0 1i   2 2 

1

2

1

|2, 0i = √ |1 1 1 − 1i + √ |1 1 0 0i + √ |1 1 − 1 1i   6 6 6    1 1    |2, −1i = √ |1 1 0 − 1i + √ |1 1 − 1 0i    2 2  

(VIII-47a)

|2, −2i = |1 1 − 1 − 1i

3. La valeur J = 0 est également entourée pour n = 2 car c’est la première fois qu’elle est obtenue. Elle correspond à un opérateur scalaire (invariant par rotation).

317

CHAPITRE VIII

ROTATION DES OBSERVABLES

 1 1   |1, 1i = √ |1 1 1 0i − √ |1 1 0 1i    2 2  

1 1 |1, 0i = √ |1 1 1 − 1i − √ |1 1 − 1 1i  2 2    1 1    |1, −1i = √ |1 1 0 − 1i − √ |1 1 − 1 0i 2 2

(VIII-47b)

1 1 1 |0, 0i = √ |1 1 1 − 1i − √ |1 1 0 0i + √ |1 1 − 1 1i 3 3 3

(VIII-47c)

Les fractions qui apparaissent dans ces égalités sont les divers coefficients de Clebsch-Gordan h1 1 m1 m2 |J M i. De la même façon que ces coefficients permettent de construire les états |J, M i de la base couplée à partir des états |1 1 m1 m2 i, nous pouvons construire les “composantes standard” (ou (K) composantes sphériques couplées) TQ de l’opérateur tensoriel T par : (K)

TQ

X

=

h1 1 m1 m2 |K Qi T m1 m2

(VIII-48a)

m1 m2

Dans cette définition, K remplace l’indice J du moment cinétique total et vaut 2, 1 ou 0 ; l’indice Q qui remplace M varie par valeurs entières entre +K et −K. Inversement, on a : T m1 m2 =

X

(K)

h1 1 m1 m2 |K Qi TQ

(VIII-48b)

K,Q

Alors, de même que : R |J, M i =

X 

R[j]

M0

 M 0M

|J, M 0 i

(VIII-49a) (K)

les transformés par rotation des opérateurs TQ (K)

R TQ

R† =

P  [K]  R Q0

(K)

Q0 Q

TQ0

sont donnés par : (VIII-49b)

Ce résultat découle immédiatement de l’identité des formules de transforma(K) tion des T m1 m2 et de celle des kets |1 1 m1 m2 i, et du fait que les TQ sont définis à partir des T m1 m2 exactement de la même façon que les |J, M i à partir des |1 1 m1 m2 i. Vérification : Assurons-nous en cependant de façon explicite. Pour cela, écrivons que : X |J, M i = hj1 j2 mi mj |J, M i |j1 j2 mi mj i (VIII-50) mi mj

318

B. OPÉRATEURS TENSORIELS

(dans ce calcul, seules les valeurs j1 = j2 = 1 nous intéressent ; cependant, le calcul est le même lorsque j1 et j2 sont quelconques, et son résultat nous sera utile dans la suite). On a donc :   hJ, M |R|J 0 , M 0 i = δJJ 0 R[J] MM0 X X = hj1 j2 mi mj |JM ihj1 j2 m0i m0j |J 0 M 0 ihj1 j2 mi mj |R|j1 j2 m0i m0j i mi mj m0i m0j

(VIII-51) avec : hj1 j2 m0i m0j |R|j1 j2 mi mj i = hj1 m0i |R1 |j1 mi ihj2 m0j |R2 |j2 mj i     = R[j1 ] 0 R[j2 ] 0 mi mi

(VIII-52)

mj mj

Il vient donc :   X X δJJ 0 R[J] 0 = hj1 j2 mi mj |JM ihj1 j2 m0i m0j |J 0 M 0 i M M

mi mj m0i m0j



R[J1 ]



 m0i mi

R[J2 ]



(VIII-53)

m0j mj

Considérons alors l’expression : X (K) R TQ R † = h1 1 mi mj |K Qi R T mi mj R† mi mj

=

X X

h1 1 mi mj |K Qi



h1 1 mi mj |K Qi



R[1]



R[1]



m0i mi

mi mj m0i m0j

=

X X mi mj m0i m0j

×

X



 m0i mi

R[1]



R[1]



m0j mj

T m0i m0j

m0j mj (K 0 )

h1 1 m0i m0j |K 0 Q0 i TQ0

(VIII-54)

K 0 Q0

[on a utilisé les deux relations (VIII-48)]. Compte tenu de (VIII-53), où l’on fait j1 = j2 = 1, on peut effectuer la sommation sur les 4 indices mi , mj , m0i , m0j en faisant apparaître δKK 0 qui supprime également la sommation sur K 0 . Pour finir, il reste l’égalité (VIII-49b).

Les T (K) sont appelés “opérateurs tensoriels irréductibles” ; chacun (K) d’entre eux comprend 2K + 1 composantes standard TQ . On trouvera leurs valeurs explicites au § 1 du complément BVIII . Il est possible de revenir aux 9 composantes sphériques découplées associées à chaque T (K) en utilisant la relation (VIII-48b) ; on y effectue la somme sur Q, mais pas sur K, de façon à obtenir les Tm1 m2 associés à chaque valeur de K séparément. L’égalité (VIII-43b) donne ensuite les composantes cartésiennes correspondantes ; ce calcul est effectué au § 2 du complément BVIII . 319

CHAPITRE VIII

ROTATION DES OBSERVABLES

Pour une rotation infinitésimale, on sait que : δϕ Ju ~ de sorte que (VIII-49b) devient, au premier ordre en δϕ : Ru (δϕ) = 1 − i

h

(K)

Ju , TQ

i

=

(K)

hJ = K, M = Q0 |Ju |J = K, M = Qi TQ

X

(VIII-55)

(VIII-56)

Q0

En prenant u parallèle à Ox, Oy, Oz successivement, et en combinant linéairement les deux premières inégalités obtenues pour faire apparaître J± = Jx ± iJy , on obtient : h i (K) (K)  = Q~ TQ  Jz , TQ h i p   J± , T (K) = ~ K(K + 1) − Q(Q ± 1) T (K) Q Q±1

(VIII-57)

Ces relations peuvent constituer une autre définition d’un opérateur tenso(K) riel irréductible TQ . Par intégration, il est possible de remonter des égalités (VIII-57) qui concernent les transformations des opérateurs dans une rotation infinitésimale à celles qui donnent les transformations dans des rotations finies ; on obtient alors (VIII-49b). Remarque :

La somme sur K dans (VIII-48b) fait apparaître le tenseur T de départ comme la somme de 3 contributions venant des valeurs K = 0, 1, 2 : = (n)

T

=

=T

= (K=2)

+T

= (K=1)

+ T (K=0)

(VIII-58)

Cette décomposition est effectuée au § 2 du complément BVIII . B-3-b.

Cas général

Partant de la base découplée écrite plus haut : |1 : m1 i ⊗ |2 : m2 i ⊗ . . . ⊗ |n : mn i où chacun des kets est associé à la même valeur j = 1, on peut passer à une nouvelle base couplée de vecteurs propres communs à J 2 et Jz (l’opérateur J désigne le moment cinétique total J1 + J2 + . . . + Jn ). Par exemple, on choisit de coupler J1 à J2 pour obtenir un nombre quantique J1 2 (on pose J1 2 = J1 + J2 ), puis leur somme à J3 ce qui donne le nombre quantique J1 2 3 (on pose J1 2 3 = J1 2 + J3 ), etc. On obtient les états : |J1 2 , J1 2 3 , . . . ; J, M i =

X

Cmi ...m` [J1 2 , J1 2 3 . . . ; J M ]

mi +...+m` =M

|1 : mi i ⊗ |2 : mj i . . . ⊗ |n : m` i 320

(VIII-59)

B. OPÉRATEURS TENSORIELS

Dans cette égalité, les coefficients C sont des constantes obtenues par produits de coefficients de Clebsch-Gordan. Lorsque, dans (VIII-59), M varie de +J à −J (les autres nombres quantiques J1 2 , J1 2 3 , ... restant constants), on obtient 2J + 1 kets qui engendrent un sous-espace irréductible à 2J + 1 dimensions 4 . Ces sous-espaces sont spécifiés, non seulement par la valeur de J, mais aussi par celle des moments cinétiques intermédiaires J1 2 , J1 2 3 , etc. (à la différence de ce qui se produisait dans le cas n = 2). On définit donc les “composantes standard” en calquant la relation (VIII-59) et en posant : (K)

TQ

[J1 2 , J1 2 3 , . . .] = X

(n) Cmi mj ... m` [J1 2 , J1 2 3 . . . ; K Q] Tm i mj ... m`

mi +mj + ... +m` =Q

(VIII-60) Ces opérateurs se transforment par rotation suivant l’égalité : (K)

R TQ

[J1 2 , J1 2 3 , . . .] R† =

X Q0

R[j=K]



(K)

Q0 Q

TQ0 [J1 2 , J1 2 3 , . . .] (VIII-61)

en tous points identique à la relation (VIII-49b) pour les tenseurs du second ordre. Réciproquement, les coefficients C définissent une matrice réelle orthogonale 3n × 3n ; on peut donc écrire, grâce aux mêmes coefficients, les composantes sphériques découplées Tmi mj ... m en fonction des composantes tensorielles irréductibles. Remarques :

(i) Pour exprimer la propriété caractéristique (VIII-61) des opéra(K) teurs tensoriels irréductibles, on dit parfois que des opérateurs TQ se transforment par rotation comme les harmoniques sphériques d’ordre ` = K. (ii) Le nombre K est entier, jamais demi-entier, comme on le voit par exemple sur le tableau qui figure à la fin du § B-2 précédent. Pour les opérateurs, contrairement à ce qui se produit pour les vecteurs d’état, seules peuvent intervenir les “vraies” représentations de R(3) , pas les représentations “bivaluées” (chap. VII, § A-5). On 4. Les sous-espaces irréductibles obtenus, ainsi que la base standard que l’on peut construire, ne sont évidemment pas les mêmes si l’on change le schéma de couplage des moments cinétiques.

321

CHAPITRE VIII

ROTATION DES OBSERVABLES

peut d’ailleurs remarquer qu’un opérateur d’ordre demi-entier se changerait en son opposé sous l’effet d’une rotation de 2π : ceci entraînerait qu’une rotation globale de l’ensemble des appareils de mesure correspondant changerait tous les résultats possibles en leurs opposés (le changement de signe d’une observable a des conséquences physiques immédiates, ce qui n’est pas le cas pour un vecteur d’état). (iii) La valeur maximale K = n est réalisée une seule fois (J1 2 = 2, J1 2 3 = 3, etc.). On réserve parfois le nom d’opérateur tensoriel irréductible aux opérateurs T (K) où K = n (ils correspondent aux valeurs entourées d’un cercle à droite du tableau à la fin du § B-2). On les note alors simplement T (K) puisque les valeurs des moments intermédiaires J1 2 , J1 2 3 , ... n’ont plus à être précisées. (iv) On prendra garde à ne pas confondre les trois types de composantes tensorielles cartésiennes

→ sphériques → standard ← découplées ←

qui sont toutes différentes, sauf si n = 1 (opérateur vectoriel). Beaucoup d’auteurs appellent “sphériques” (sans préciser “couplées”) les composantes standard. B-4. B-4-a.

Propriétés des opérateurs tensoriels irréductibles Relations de commutation avec J

Les relations de commutation d’un opérateur tensoriel irréductible avec le moment cinétique total J du système considéré peuvent être obtenues de la même façon qu’au § B-3-a précédent, égalités (VIII-55), (VIII-56) et (VIII-57). En considérant une rotation infinitésimale d’opérateur 1 − iδϕ Ju /~, et en identifiant les termes en δϕ, on obtient les relations : (K) TQ

h i (K) (K)   Jz , TQ = ~ Q TQ h i p   J± , T (K) = ~ K(K + 1) − Q(Q ± 1) T (K) Q Q±1

(VIII-62)

qui généralisent les relations (VIII-57) à des tenseurs d’ordre quelconque. Ces relations donnent une condition nécessaire et suffisante pour que (K) 2K +1 opérateurs TQ puissent être considérés comme les composantes d’un (K)

opérateur tensoriel irréductible d’ordre K ; elles expriment que les TQ se transforment par rotation comme des kets |J = K, M = Qi ; elles peuvent servir de définition pour les opérateurs tensoriels irréductibles. 322

B. OPÉRATEURS TENSORIELS

Symétries des T (K) ; hermiticité

B-4-b.

Dans tout ce § B-4-b, nous supposons que K a sa valeur maximale : K=n

(VIII-63)

Alors, si l’on revient aux composantes cartésiennes de T (K) , on constate que ce tenseur est symétrique et de trace nulle. Démonstration : Commençons par établir la symétrie du tenseur et, pour cela, montrons d’abord que les composantes sphériques découplées Tmi mj . . . m` sont invariantes par permutation de deux indices, mi et mj par exemple. Cette propriété est évidemment vérifiée si tous les indices m valent +1. En effet, comme : |J = K, M = Ki = |1 : m = 1i ⊗ |2 : m = 1i ⊗ . . . ⊗ |n : m = 1i

(VIII-64a)

on a simplement lorsque K = n : (K)

(n)

TQ=K = T1,1,1...1

(VIII-64b)

Appliquons J− à l’égalité (VIII-64a) : J− = J1− + J2− + . . . + Jn−

(VIII-65)

Il vient : √ −1/2 |J = K, M = K − 1i = [K(K + 1) − K(K − 1)] 2 n × |1 : m = 0i ⊗ |2 : m = 1i ⊗ . . . ⊗ |n : m = 1i + |1 : m = 1i ⊗ |2 : m = 0i ⊗ . . . ⊗ |n : m = 1i + . . . + |1 : m = 1i ⊗ |2 : m = 1i ⊗ . . . ⊗ |n : m = 0i

o

(VIII-66)

Donc, si K = n : i 1 h (n) (K) (n) (n) TQ=K−1 = √ T0 1 1 ... 1 + T1 0 1 ... 1 + . . . + T1 1 1 ... 0 K (K)

(VIII-67a)

(n)

et TQ=K−1 est encore une fonction symétrique des Tmi mj ... m` . (n)

Pour obtenir les composantes sphériques des Tmi mj ... m` , il faut ensuite inverser les formules précédentes [on inverse les égalités (VIII-60) en supposant que, 0 de tous les tenseurs T (K ) qui y apparaissent, seul celui pour lequel K = n est non nul]. De fait, la matrice des coefficients Cmi mj ... m` étant orthogonale, aucun calcul n’est nécessaire, et (VIII-67a) donne simplement : 1 (n) (n) (n) (K) T0 1 1 ... 1 = T1 0 1 ... 1 = . . . = T1 1 1 ... 0 = √ TQ=K−1 K

(VIII-67b)

(n)

qui montre qu’effectivement les composantes Tmi mj ... m sont invariantes par permutation de deux de leurs indices 5 . 5. Si la somme Q des indices m vaut K, ou K − 1, on voit même que toutes les composantes associées à la même valeur de cette somme sont égales. Cette propriété n’est cependant pas générale quel que soit Q [cf. formules (VIII-47a)], mais reste en fait limitée à Q = ±K, Q = ±(K − 1) (toujours si K = n).

323

CHAPITRE VIII

ROTATION DES OBSERVABLES

Passons maintenant aux coordonnées cartésiennes. Pour cela, on utilise la formule (VIII-43b), et on constate que la même propriété de symétrie est vérifiée par les composantes cartésiennes : c’est la même matrice (S) qui intervient pour changer chaque indice sphérique en indice cartésien. La propriété de symétrie annoncée est donc vérifiée.

Dans le cas où K = 2, on peut effectivement constater la symétrie du tenseur écrit dans la relation (14) du complément BVIII . Dans le cas où K = 3 par exemple, on aura : Tx(K=3) = Tx(K=3) = ... xy yx relation qui n’est évidemment pas vérifiée pour un opérateur tensoriel quelconque (réductible). Montrons maintenant que T (K) est un tenseur à trace nulle : X

Txi xi xj ... x` = 0

(VIII-68)

xi =x,y,z

On a choisi ici de contracter les premiers indices, c’est-à-dire de les prendre égaux et de sommer sur leurs 3 valeurs possibles ; on pourrait évidemment faire de même pour deux indices quelconques, consécutifs ou non, et la suite du raisonnement serait pratiquement la même. Démonstration : La propriété annoncée découle du fait que, si l’on commence par coupler les deux premiers moments cinétiques J1 et J2 pour former J1 2 = 0, et si l’on fait ensuite le produit du ket obtenu par des kets absolument quelconques pour les systèmes 3, 4, ..., K, on ne peut obtenir que des états orthogonaux à |J = K, M i. Ce résultat provient simplement du fait que, si J1 2 = 0, la valeur maximale de J est n − 2 (des kets propres de J 2 de valeurs propres différentes sont orthogonaux). Le ket associé à ce couplage de J1 et J2 s’écrit [formule (VIII-47c)] : 1 |J1 2 = 0i = √ [|1 : m1 = 1i |2 : m2 = −1i 3 −|1 : m1 = 0i |2 : m2 = 0i + |1 : m1 = −1i |2 : m2 = 1i]

(VIII-69)

Le fait que : |J1 2 = 0i ⊗ |3 : m3 i ⊗ |4 : m4 i ⊗ . . . |n : mn i soit orthogonal à |J = K, M i entraîne alors que : C1−1 m3 m4 ... mn − C0 0 m3 m4 ... mn + C−1 1 m3 m4 ... mn = 0

(VIII-70a)

[où les C ont été définis en (VIII-59)]. Cette égalité a pour conséquence que : (K)

(K)

(K)

T1−1 m3 m4 ... mn − T0 0 m3 m4 ... mn + T+1 1 m3 m4 ... mn = 0

324

(VIII-70b)

B. OPÉRATEURS TENSORIELS

Il ne nous reste plus qu’à passer aux composantes cartésiennes en utilisant autant de fois que nécessaire la matrice (S) de changement de base [formules (VIII-43)]. Si l’on commence par transformer les deux premiers indices en indices cartésiens, il vient : (K) (K) Tx(K) x m3 m4 ... mn + Ty y m3 m4 ... mn + Tz z m3 m4 ... mn = 0

(VIII-71)

(la trace d’un tenseur sur deux indices n’apparaît que dans le tenseur où les moments cinétiques correspondants sont couplés pour donner un moment nul). On peut, si on le désire, changer également les autres indices sphériques en cartésiens, et l’on obtient l’égalité (VIII-68).

Nous avons déjà mentionné qu’un opérateur tensoriel T est considéré comme hermitique si ses composantes cartésiennes sont des opérateurs hermitiques. La condition nécessaire et suffisante pour qu’il en soit ainsi est que : h

i (K) †

TQ

(K)

= (−1)Q T−Q

(VIII-72)

Par exemple, si V est hermitique (Vx = Vx† , ...), on a :  1   [V+1 ]† = − √ (Vx − iVy ) = −V−1    2 

[V0 ]† = V0

(VIII-73)

   1  †   [V−1 ] = √ (Vx + iVy ) = −V+1

2

et on vérifie bien (VIII-72). Ce résultat se généralise à une valeur quelconque de K. Démonstration : Ecrivons la relation hermitique conjuguée de (VIII-43a), en supposant le tenseur hermitique. Au second membre, puisque les composantes cartésiennes du tenseur sont hermitiques, il suffit de prendre les complexes conjugués de tous les éléments de la matrice (S) de changement de base. Commençons par prendre le complexe conjugué du premier, (S)i0 i . L’expression (VIII-24) de cette matrice montre que l’on interchange ainsi la première et la troisième colonne de cette matrice, avec en plus une multiplication par −1 si i = 1 ou 3. Comme i = 1, 2 et 3 correspondent respectivement à m = +1, 0 et −1, nous faisons ainsi apparaître l’expression de la composante suivante du tenseur : (n)

(−1)mi T−mi mj ... m` Si nous répétons l’opération pour les éléments de matrice de S, nous obtenons au second membre l’expression de la composante sphérique du tenseur : (n)

(−1)mi +mj +..+m` T−mi −mj ... −m`

325

CHAPITRE VIII

ROTATION DES OBSERVABLES

Nous obtenons la relation suivante pour ses composantes sphériques : h i† (n) Tm = (−1)mi +mj +...+m` T−mi −mj ... −m` i mj ... m`

(VIII-74)

Pour les composantes irréductibles, la relation (VIII-60) donne, puisque la somme des coefficients m vaut Q : h i† (K) TQ = (−1)Q

(n)

X

Cmi mj ... m` T−mi −mj ... −m`

mi +mj +...+m`

(nous ignorons les indices J1 2 , J1 2 3 , etc. qui valent automatiquement 2, 3, etc. puisque K = n). En utilisant la dernière des formules (VII-96) avec J = j1 + j2 (valeur maximale du moment cinétique), on montre facilement par récurrence que : Cmi mj ... m` = C−mi −mj ... −m` et l’on obtient le résultat (VIII-72).

B-4-c.

Produit de deux opérateurs tensoriels

Considérons deux opérateurs tensoriels irréductibles, l’opérateur T (K1 ) d’ordre K1 et l’opérateur W (K2 ) d’ordre K2 . Nous allons nous intéresser aux produits de leurs composantes : (K )

(K )

TQ1 1 WQ2 2

avec : − K1 ≤ Q1 ≤ K1 , −K2 ≤ Q2 ≤ K2

(VIII-75)

On obtient ainsi un ensemble de (2K1 + 1) (2K2 + 1) opérateurs se transformant linéairement les uns dans les autres par rotation. En d’autres termes, on a un espace vectoriel d’opérateurs, de dimension (2K1 + 1) (2K2 + 1), globalement invariant par rotation. Nous allons voir que cet espace n’est en général pas irréductible, mais peut être décomposé en sous-espaces invariants de dimension inférieure. En effet : (K )

(K )

(K )

(K )

R TQ1 1 WQ2 2 R† = R TQ1 1 R† R WQ2 2 R† =

X  Q01 Q02

R[K1 ]



 Q01 Q1

R[K2 ]

 Q02 Q2

(K )

(K )

TQ0 1 WQ0 2 1

2

(VIII-76) Les opérateurs écrits en (VIII-75) se transforment par rotation comme des produits tensoriels de kets |J = K1 , M = Q1 i ⊗ |J = K2 , M = Q2 i. Nous sommes donc ramenés une fois de plus au problème de la composition des moments cinétiques. En conséquence, nous pouvons affirmer que les opéra326

B. OPÉRATEURS TENSORIELS

(K)

teurs ZQ (K)

ZQ

=

définis par 6 : (K )

X

(K )

hK1 K2 Q1 Q2 |K Qi TQ1 1 WQ2 2

Q1 +Q2 =Q

K = K1 + K2 , K1 + K2 − 1, . . . , |K1 − K2 | Q = K1 K − 1, . . . , . . .

... ,

−K1

(VIII-77)

se transforment par rotation de façon plus simple, comme les kets de la base couplée |J = K, M = Qi : (K)

R ZQ R † =

X

R[K]



(K)

Q0 Q

Q0

ZQ0

(VIII-78)

(K)

Les 2K + 1 opérateurs ZQ associés à une même valeur de K donnent un opérateur tensoriel irréductible. Inversement, les produits (VIII-75) s’expriment en fonction des nouveaux opérateurs sous la forme : (K )

(K )

TQ1 1 WQ2 2 =

X

(K)

hK1 K2 Q1 Q2 |K Qi ZQ

(VIII-79)

K,Q

On voit donc apparaître une somme d’opérateurs tensoriels irréductibles dont l’ordre va de |K1 − K2 | à K1 + K2 . Nous avons déjà vu plus haut (§ B-3-a) comment, en composant des opérateurs vectoriels (K1 = K2 = 1), on obtient des opérateurs K = 0, 1, 2. Les égalités (VIII-77) et (VIII-79) permettent de généraliser ces calculs au cas où K1 et K2 sont quelconques. En particulier, on voit que, pour obtenir par produit un opérateur scalaire, il faut toujours partir de deux opérateurs tensoriels irréductibles du même ordre. On utilise alors (VII-99) pour écrire le produit scalaire de deux opérateurs T (K) et W (K) : T (K) · W (K) =

X

(K)

(−1)Q TQ

(K)

W(−Q)

(VIII-80)

Q

La disparition du (−1)K (2K + 1)−1/2 de (VII-99) assure que, si K = 1, on retrouve le produit scalaire ordinaire de deux vecteurs ; cf. relation (2) du complément BVIII . (K)

6. Le tenseur ZQ est la partie tensorielle irréductible extraite du produit tensoriel T (K1 ) ⊗ W (K2 ) . On peut la noter : (K)

ZQ

= T (K1 ) ⊗ W (K2 )



(K) Q

327

CHAPITRE VIII

ROTATION DES OBSERVABLES

Exercice : On considère deux tenseurs T (K=2) et Z (K=2) . Ecrire leurs composantes cartésiennes T xi xj et Z xi xj . Calculer ensuite le “produit contracté” P ij

T xi xj Z xi xj et vérifier que l’on retrouve le produit scalaire T (K=2) ·Z (K=2) .

La règle K1 = K2 est utile chaque fois que l’on a à construire des opérateurs scalaires à partir d’opérateurs tensoriels. C’est le cas par exemple si l’on construit l’hamiltonien d’un système isolé (invariant par rotation) à partir de produits d’opérateurs agissant dans l’espace des états du système. Exemples

(i) Pour une particule libre, des opérateurs comme P 2 , R · L, P · S sont, a priori 7 de bons candidats pour l’hamiltonien H (qui doit commuter avec J = L + S). Pour une particule dans un potentiel central, on peut prendre ξ(r) L · S. (ii) On considère un ensemble de deux systèmes S1 et S2 en interaction, mais isolés dans leur ensemble (pas de potentiel extérieur). L’hamiltonien d’interaction W est donc invariant par rotation simultanée de S1 et S2 , mais pas nécessairement de S1 ou S2 séparément. Par suite, dans W peuvent apparaître des termes qui seraient impossibles dans H1 et H2 séparément : termes en J1 · J2 par exemple, en J1 · S2 (couplage spin-autre orbite entre les deux électrons de l’atome d’hélium), en δ(r) J1 · S2 [si J1 = I, spin nucléaire, et si S2 est le spin d’un électron, on a ainsi le terme de contact δ(r) I · S de l’hamiltonien de structure hyperfine]. Un autre terme de ce type est l’hamiltonien Wdd de couplage magnétique dipôle-dipôle entre deux systèmes (électrons par exemple) de positions R1 et R2 , et de spins S1 et S2 ; cet hamiltonien s’écrit : λ (S1 · R) (S2 · R) S1 · S2 − 3 3 R R2 

Wdd =



(VIII-81)

où λ est une constante et R = R1 − R2 . Exercice : Vérifier que Wdd est invariant par rotation. Introduire, dans l’espace des états S E (1) ⊗ S E (2), associé aux spins des deux particules, un opérateur de spin S T (K=2) tensoriel irréductible, et donner ses composantes. De même, dans l’espace orbital O E (1) ⊗ O E (2), construire, à partir de l’opérateur position angulaire relative R/R (qui est vectoriel), un opérateur tensoriel 7. On notera cependant que P · S n’est pas invariant par parité (il se change en son opposé par symétrie par rapport à un point, cf. complément DV ) et que R · L n’est pas invariant par renversement du temps (cf. appendice I).

328

C. THÉORÈME DE WIGNER-ECKART

(2)

irréductible O T (K=2) ; montrer que O T0 est proportionnel à 3 cos2 θ − 1 (où θ est l’angle de r1 − r2 avec un axe Oz fixe). Par produit de S T (K=2) et de O T (K=2) , construire un opérateur scalaire et vérifier qu’on retrouve ainsi Wdd (à un coefficient près). C.

Théorème de Wigner-Eckart

Le théorème de Wigner-Eckart fournit une expression très utile de l’élément de matrice : (K)

hτ, J, M |TQ |τ 0 , J 0 , M 0 i (K)

d’un opérateur tensoriel irréductible TQ dans une base standard. Il indique que cet élément de matrice est proportionnel au coefficient de ClebschGordan hJM |J 0 KM 0 Qi avec un coefficient de proportionnalité indépendant de M , M 0 et Q. Dans les calculs de mécanique quantique où l’on utilise une base standard (ce qui est fréquemment le cas), ceci entraîne une notable simplification : quand on connaît un élément de matrice, on en connaît, grâce au théorème de Wigner-Eckart, un grand nombre d’autres. La présence du coefficient de Clebsch-Gordan entraîne également l’existence de règles de sélection : par exemple, on doit avoir M = Q + M 0 pour que ce coefficient soit non nul ; la nullité de tous les éléments de matrice ne satisfaisant pas cette égalité en découle immédiatement, sans aucun calcul. Avant de donner une démonstration précise du théorème, donnons-en l’idée générale. Nous commencerons par remarquer que, lors d’une rotation, le ket : (K)

TQ |τ 0 , J 0 , M 0 i devient : (K)

R TQ

R† R|τ 0 , J 0 , M 0 i (K)

Dans cette expression, R TQ R† est connu (transformation d’un opérateur tensoriel irréductible), ainsi que R |τ 0 , J 0 , M 0 i (transformation des kets d’une base standard). Un raisonnement analogue à celui que nous avons déjà effectué à plusieurs reprises montre alors que la transformation par ro(K) tation des kets TQ |τ 0 , J 0 , M 0 i se fait comme celle de produits tensoriels |J = K, M = Qi ⊗ |J 0 , M 0 i. Ceci nous conduira à coupler J 0 et K pour former J 00 = J 0 + K, et à faire apparaître des états |k, J = J 00 , M 00 i grâce aux coefficients de Clebsch-Gordan hJ 0 KM 0 Q|J 00 M 00 i. Il ne nous restera alors plus qu’à effectuer un produit scalaire par hτ, J, M |. On s’attend à ce qu’il soit nul (comme pour une base standard) sauf si J = J 00 , M = M 00 ; ces égalités, reportées dans le coefficient hJ 0 KM 0 Q|J 00 M 00 i, donnent bien le coefficient annoncé. 329

CHAPITRE VIII

C-1.

ROTATION DES OBSERVABLES

Démonstration

Précisons maintenant le raisonnement qui vient d’être ébauché. Nous allons procéder en deux étapes. En premier lieu, nous établirons un lemme concernant le produit scalaire hτ, J, M |k, J 00 , M 00 i ; puis nous démontrerons le théorème lui-même. C-1-a.

Lemme

Considérons deux ensembles, de 2J + 1 et 2J 00 + 1 vecteurs : |τ, J, M i

M = J, J − 1, . . . , −J

|k, J 00 , M 00 i

M 00 = J 00 , J 00 − 1, . . . , −J 00

Par hypothèse, ces kets satisfont aux propriétés d’une base standard 8 : l’action de J+ , J− , Jz , et donc de toute composante Ju de J , est donnée par les relations (VII-16). Dans ces conditions, nous allons montrer que le produit scalaire hτ, J, M |k, J 00 , M 00 i • est nul sauf si J = J 00 et M = M 00 ; • est indépendant de M (et M 00 ). La démonstration de ce lemme est très simple : • deux kets propres de J 2 , ou de Jz (qui sont des opérateurs hermitiques) sont orthogonaux s’ils sont associés à des valeurs propres différentes ; • utilisant la relation (VII-5b), insérons l’opérateur : J+ J− = J 2 − Jz2 + ~ Jz

(VIII-82)

entre hτ JM | et |kJM i. Il vient : hτ, J, M |J+ J− |k, J, M i = (hτ, J, M |J+ ) (J− |k, J, M i) = ~2 [J(J + 1) − M (M − 1)] hτ, J, M − 1|k, J, M − 1i (VIII-83) puisque les |τ, J, M i et les |k, J, M i satisfont aux relations d’une base standard. D’autre part, l’égalité (VIII-82) donne, puisque |k, J, M i est vecteur propre de J 2 et Jz : h

hτ, J, M |J+ J− |k, J, M i = hτ, J, M |k, J, M i ~2 J(J + 1) − M 2 + M

i

(VIII-84) La comparaison de (VIII-83) et (VIII-84) montre que : hτ, J, M |k, J, M i = hτ, J, M − 1|k, J, M − 1i

(VIII-85)

et le lemme est démontré. 8. Les notations différentes |τ, J, M i et |k, J 00 , M 00 i sont utilisées pour insister sur le fait que ces kets n’appartiennent pas nécessairement à une même base standard. La décomposition de |k, J 00 , M 00 i sur les |τ, J, M i peut donc faire intervenir plusieurs valeurs de τ .

330

C. THÉORÈME DE WIGNER-ECKART

Remarque : Une autre façon d’établir cette propriété est d’utiliser le “lemme de Schur”, que nous énonçons ici sans démonstration ; voir réf. [16] chap. 9, théorèmes 2 et 3 ; ou réf. [27], chap. 2, § 2-2 ; ou encore réf. [17], chap. 3, § 3-14. Soient M1 (g) et M2 (g) deux ensembles de matrices qui donnent deux représentations irréductibles, de dimensions respectives p1 et p2 , d’un même groupe G (d’éléments notés g). S’il existe une matrice F à p1 colonnes et p2 lignes telle que : F M1 (g) = M2 (g) F

(VIII-86)

on peut affirmer que : • ou bien les représentations M1 (g) et M2 (g) sont équivalentes (ce qui n’est évidemment possible que si p1 = p2 ), ou bien F est nulle ; • si les représentations sont, non seulement équivalentes, mais de plus identiques [M1 (g) ≡ M2 (g) pour tout g ∈ G], F est nécessairement une matrice scalaire (c’est-à-dire multiple de la matrice unité). Pour appliquer ce lemme, considérons les deux espaces EJ (de dimension 2J + 1) engendré par les |τ, J, M i, et EJ 00 (de dimension 2J +1) engendré par les |k, J 00 , M 00 i. Tous deux sont globalement invariants sous l’action de l’ensemble des opérateurs de rotation et on peut écrire : hτ, J, M |R|k, J 00 , M 00 i =

X

hτ, J, M |R|τ, J, M 0 i hτ, J, M 0 |k, J 00 , M 00 i

M0

=

X

R[J]



(F )M 0 M 00

MM0

M0

=

X

hτ, J, M |k, J 00 , M 000 i hk, J 00 , M 00 |R|k, J 00 , M 00 i

M 000

=

X

(F )M M 000



R[J

00

]



(VIII-87) M 000 M 00

M 000

où (F )M M 00 est défini par : (F )M M 00 = hτ, J, M |k, J 00 , M 00 i

(VIII-88)

La matrice (F ) est associée à une application linéaire de EJ 00 dans EJ , telle que : F |k, J 00 , M 00 i =

X

(F )M M 00 |τ, J, M i

(VIII-89)

M

D’autre part, les égalités (VIII-87) donnent : R[J]



(F ) = (F )



R[J

00

]



(VIII-90)

et, si (F ) n’est pas identiquement nul, le lemme de Schur impose que (F ) soit proportionnel à la matrice unité.

331

CHAPITRE VIII

C-1-b.

ROTATION DES OBSERVABLES

Le théorème

Démontrons maintenant le théorème de Wigner-Eckart lui-même, à savoir l’égalité : (K)

hτ, J, M |TQ |τ 0 , J 0 , M 0 i hτ, J||T (K) ||τ 0 , J 0 i √ 2J ! +1 0 J K J hτ, J||T (K) ||τ 0 , J 0 i −M Q M 0

= hJ M |J 0 K M 0 Qi = (−1)J−M

(VIII-91)

Le nombre hτ J||T (K) ||τ 0 J 0 i est appelé “élément de matrice réduit” de T (K) entre les sous-espaces E (τ, J) et E (τ 0 , J 0 ) ; il ne dépend que de ces sousespaces et de l’opérateur T (K) envisagé. La donnée de cet élément de matrice réduit détermine, grâce à l’égalité (VIII-91), celle des (2J +1)(2J 0 +1)(2K+1) (K) valeurs des éléments de matrices des opérateurs TQ , associés aux valeurs possibles pour J, M 0 et Q. (K)

Démonstration : Les lois de transformation des kets TQ |τ 0 , J 0 , M 0 i obtenues à partir de la relation (VIII-61) s’écrivent : (K)

(K)

R TQ |τ 0 , J 0 , M 0 i = R TQ =

XX

R[K]

R† R|τ 0 , J 0 , M 0 i



Q0 M 00

 Q0 Q

R[J

0]



(K)

M 00 M 0

TQ0 |τ 0 , J 0 , M 00 i

(VIII-92)

Cette égalité montre que les kets considérés se transforment de la même façon que des produits tensoriels : |J = K, M = Qi ⊗ |J 0 , M 0 i

(VIII-93)

Par suite, on peut utiliser la théorie générale de la composition des moments cinétiques et introduire les kets |k, J 00 , M 00 i donnés par : |k, J 00 , M 00 i =

X

(K)

hJ 0 K M 0 Q|J 00 M 00 i TQ |τ 0 , J 0 , M 0 i

(VIII-94)

Q M0

où hJ 0 K M 0 Q|J 00 M 00 i est un coefficient de Clebsch-Gordan. Ces kets se transforment simplement comme ceux d’une base standard, c’est-à-dire suivant la relation : R|k, J 00 , M 00 i =

X  M 000

R[J

00 ]

 M 000 M 00

|k, J 00 , M 000 i

(VIII-95)

La démonstration est la même que celle de la formule (VIII-49b) à partir de la définition (VIII-48a). 332

C. THÉORÈME DE WIGNER-ECKART

Si l’on inverse l’égalité (VIII-94), on obtient (en tirant parti du fait que les coefficients hJ 0 K M 000 Q|J 00 M 00 i définissent un changement de base orthogonal) : (K)

TQ |τ 0 , J 0 , M 0 i =

X

hJ 0 K M 0 Q|J 00 M 00 i|k, J 00 , M 00 i

(VIII-96)

J 00 M 00

Le fait que les |k, J 00 , M 00 i se transforment comme les kets d’une base standard permet d’appliquer le lemme établi plus haut : hτ, J, M |k, J 00 , M 00 i = δJJ 00 δM M 00 × [facteur indépendant de M ] On pose alors : hτ, J, M |k, J 00 , M 00 i = δJJ 00 δM M 00 √

1 hτ, J||T (K) ||τ 0 , J 0 i 2J + 1

(VIII-97)

où le (2J + 1)−1/2 est introduit par pure convention ; la quantité hτ, J||T (K) ||τ 0 , J 0 i ne dépend que des nombres quantiques qui y apparaissent (elle ne dépend ni de M , ni de M 0 , ni de Q). Alors, en multipliant l’expression (VIII-96) par le bra hτ, J, M |, on obtient la relation (VIII-91). Remarques :

(i) La condition d’hermiticité (VIII-72) de T (K) est équivalente à 9 : 0

hτ, J||T (K) ||τ 0 , J 0 i = (−1)J−J hτ,0 J 0 ||T (K) ||τ, Ji? (K)†

Démonstration : En effet, si TQ

(VIII-98)

(K)

= (−1)Q T−Q , nous avons :

(K)

hτ, J, M |(TQ )† |τ 0 , J 0 , M 0 i 1 = (−1)Q √ hJ, M |J 0 K M 0 − Qihτ J||T (K) ||τ 0 J 0 i 2J + 1 (VIII-99) Par ailleurs, selon la définition d’un opérateur adjoint, cet élément de matrice vaut : (K)

hτ 0 , J 0 , M 0 |TQ |τ, J, M i? 1 =√ 0 hJ 0 , M 0 |J K M Qihτ 0 J 0 ||T (K) ||τ Ji? 2J + 1 (VIII-100)

cient

9. La simplicité de la relation (VIII-98) explique l’introduction arbitraire du coeffi√ 2J + 1 dans le dénominateur du second membre de (VIII-97).

333

CHAPITRE VIII

ROTATION DES OBSERVABLES

où nous avons à nouveau utilisé le théorème de Wigner-Eckart pour écrire le second membre. Mais les relations (VII-116) du chapitre VII indiquent que : 0

0

J−J 0 +Q

hJ M |J K M Qi = (−1)

r

2J 0 + 1 hJ M |J 0 K M 0 − Qi 2J + 1 (VIII-101)

de sorte que nous obtenons bien l’égalité (VIII-98).

A l’intérieur d’un sous-espace E (τ, j), la condition d’hermiticité de l’opérateur T (K) se réduit à : hτ, J||T (K) ||τ, Ji = hτ, J||T (K) ||τ, Ji?

(VIII-102)

qui indique simplement que l’élément de matrice réduit est réel. (ii) Le théorème de Wigner-Eckart n’est pas limité au groupe des rotations R(3) . Ce dernier cependant possède une propriété qui n’est pas générale : dans la décomposition d’un produit tensoriel de représentations (R[j1 ] ) ⊗ (R[j2 ] ) en représentations irréductibles, chaque représentation (R[J] ) n’apparaît qu’une seule fois (au plus). Ceci entraîne l’existence d’un seul élément de matrice réduit. Si l’on écrit le théorème de Wigner-Eckart pour d’autres groupes que R(3) (groupes de symétrie dans les cristaux par exemple), il faut modifier le second membre de (VIII-91) en y introduisant une somme comprenant plusieurs éléments de matrice réduits. C-2. C-2-a.

Applications et exemples Opérateurs scalaires

Lorsque K = 0, on dit que l’opérateur T (K) est scalaire. Les relations (VIII-62) indiquent que c’est un opérateur invariant par rotation commutant avec toutes les composantes du moment cinétique total J. Le coefficient de Clebsch-Gordan qui apparaît dans l’expression (VIII-91) du théorème de Wigner-Eckart s’écrit ici : hJ M |J 0 0 M 0 0i = δJJ 0 δM M 0

(VIII-103)

Donc, les seuls éléments de matrice non nuls d’un opérateur scalaire sont ceux associés à des mêmes valeurs des nombres J, et des mêmes valeurs de M pour le bra et le ket. En particulier, à l’intérieur d’un sous-espace E (τ, J), ce sont les éléments diagonaux. Cette propriété peut d’ailleurs être démontrée directement de façon élémentaire en utilisant la commutation de T (K=0) avec Jz et J± , sans faire intervenir le théorème de Wigner-Eckart. 334

C. THÉORÈME DE WIGNER-ECKART

Comment écrire la matrice qui représente un opérateur T (K=0) dans une base standard ? Nous venons de voir que, dans chaque E (τ, J), T (0) donne une matrice diagonale dont tous les éléments sont égaux (matrice scalaire). Mais il n’est pas impossible que T (0) ait également des éléments non diagonaux différents de zéro, mais toujours entre bras et kets associés à la même valeur de J et de M (seule la valeur de τ est différente). En d’autres termes, entre deux espaces E (τ, J) et E (τ 0 , J) différents on a, comme à l’intérieur de ces sous-espaces, des matrices carrées scalaires : E(τ1 , J 0 ) · · ·

E(τ1 , J) 

T0 =

                                   

λ1

E(τ2 , J) 

λ4 λ1

.. .

···

. . .. · · · λ1 ..

···

λ4 .. .

. . .. · · · λ4 ..

λ2 λ2

.. .

.. .

.. .

. . .. · · · λ2 ..

.. .

..

.. .

.

λ5

λ3 λ5

.. .

. . .. · · · λ5 ..

···

···

λ3 .. .

. . .. · · · λ3 ..

                                   

(VIII-104) (0)

(0)

Considérons maintenant deux opérateurs scalaires Ta et Tb . A l’intérieur de chaque (τ, J), ils sont représentés par des matrices scalaires de la forme λa (τ ) × (1) et λb (τ ) × (1). Alors, si l’on pose : cab (τ ) = λa (τ )/λb (τ )

(VIII-105)

il vient : (0)

Ta(0) = cab (τ ) Tb (0)

(VIII-106a)

(0)

Donc, Ta et Tb sont proportionnels [tous leurs éléments de matrice dans E (τ, J) sont dans un même rapport cab (τ )] ; quel que soit l’état |ψτ i du 335

CHAPITRE VIII

ROTATION DES OBSERVABLES

système physique appartenant à E (τ, J), on a : (0)

hTa(0) i = hψτ |Ta(0) |ψτ i = cab (τ ) hTb i

(VIII-106b)

Il faut cependant prendre garde à ne pas mal utiliser ces égalités : si l’on oublie qu’elles sont uniquement valides à l’intérieur d’un sous-espace E (τ, J) (0) donné, on s’expose à des erreurs. Il est en général inexact de dire que Ta (0) et Tb sont proportionnels dans l’espace des états E total, somme directe de tous les E (τ, J) ; d’ailleurs, le coefficient de proportionnalité λa (τ )/λb (τ ) dépend du sous-espace E (τ, J) considéré. Remarques :

(i) Une façon d’éviter tout risque d’erreur est de ne jamais écrire de relation du type (VIII-106a) et de la remplacer par : (0)

P (τ, J) Ta(0) P (τ, J) = cab (τ ) P (τ, J) Tb

P (τ, J)

(VIII-107)

où P (τ, J) est le projecteur orthogonal sur le sous-espace E (τ, J). Cette façon d’écrire a l’avantage d’être plus correcte ; elle est cependant plus lourde. (ii) Donnons un exemple d’une erreur possible si l’on oublie que, dans l’espace total, deux opérateurs scalaires ne sont pas nécessairement proportionnels. Supposons que l’on connaisse le coefficient de proportionnalité cab (τ ) et que l’on s’intéresse à l’opérateur produit : (0)

Ta(0) Tb

Il est facile de vérifier que cet opérateur est, lui aussi, scalaire. On peut être tenté d’écrire que, dans E (τ, J), cet opérateur est proportionnel à : h i2 (0) cab (τ ) Tb Cette égalité semblerait découler directement de (VIII-106a) ; elle est cependant fausse. En réalité, il faut écrire : (0)

hτ, J, M |Ta(0) Tb |τ, J, M i X (0) = hτ, J, M |Ta(0) |τ 0 , J, M ihτ 0 , J, M |Tb |τ, J, M i (VIII-108) τ0

où, dans la relation de fermeture qui a été insérée, le caractère scalaire des opérateurs permet d’éliminer les sommations sur J et M . On voit (0) (0) alors clairement que les éléments de matrice de Ta et Tb entre espaces E (τ, J) différents interviennent explicitement (sauf s’il se trouve que la somme sur τ 0 se réduit à τ 0 = τ ; ce serait le cas par exemple si l’on a (0) choisi Ta = J 2 ).

336

C. THÉORÈME DE WIGNER-ECKART

(iii) Les éléments de matrice de deux opérateurs scalaires Ta(0) et Tb(0) entre

deux sous-espaces E (τ, J) et E (τ 0 , J) différents sont également proportionnels. Ces coefficients de proportionnalité dépendent alors de τ , τ 0 et J. Même si l’on reporte ces coefficients de proportionnalité dans le second membre de (VIII-108), leur dépendance en τ 0 empêche en général de faire apparaître une relation de fermeture sur la base {|τ 0 , J, M i} et (0)2 par suite l’opérateur Tb .

C-2-b.

Opérateurs vectoriels

Un opérateur vectoriel est associé à la valeur K = 1 et aux trois valeurs possibles de Q qui sont +1, 0 et −1. On peut également utiliser (K=1) (K=1) (K=1) les composantes cartésiennes Tx , Ty et Tz de l’opérateur. Les trois valeurs de Q, ou de l’indice cartésien xi , correspondent à trois matrices dont les éléments obéissent aux règles de sélection du coefficient de Clebsch-Gordan hJ 0 1 M 0 Q|J M i. On a donc, pour les éléments de matrice (K=1) hτ, J, M |TQ |τ, J 0 , M 0 i, les règles de sélection suivantes : M0 = M + Q

(VIII-109a)

0

J = J + 1, J, J − 1

(VIII-109b) (K=1)

Pour l’élément de matrice hτ, J, M |Txi |τ 0 , J 0 , M 0 i, il obéit encore à la règle de sélection (VIII-109b) ; la règle (VIII-109a) doit être remplacée par : M0 = M ± 1 M0 = M

si xi = x ou y si xi = z

(i = 1, 2) (i = 3)

(VIII-109c)

A l’intérieur d’un sous-espace E (τ, J) donné, tous les éléments de matrice de l’opérateur T (K=1) , que nous noterons plus commodément V , dépendent d’un seul paramètre, l’élément de matrice réduit : hτ, J||V ||τ, Ji C’est un nombre réel si V est hermitique [cf. § B-4-b]. Les règles de sélection (VIII-109c) montrent que la matrice représentant Vz dans E (τ, J) est toujours diagonale ; ses éléments sont proportionnels à la valeur de M (valeur propre de Jz ) apparaissant dans le bra et le ket. On peut vérifier cette propriété, soit directement sur le coefficient hJ 1 M 0|J M i, soit en utilisant le théorème de projection démontré ci-dessous. Quant aux éléments de matrice de V+1 , ils seront situés directement au-dessus de la diagonale principale 10 , ceux de V−1 directement au-dessous. Pour ceux de Vx et Vy , les deux types d’éléments précédents sont possibles ; si V est hermitique, les éléments de Vx sont réels, ceux de Vy imaginaires purs. 10. On suppose les vecteurs de la base standard rangés par valeurs décroissantes de M.

337

CHAPITRE VIII

α.

ROTATION DES OBSERVABLES

Lien entre deux opérateurs vectoriels

Considérons maintenant deux opérateurs vectoriels Va et Vb ; le rapport entre les divers éléments de matrice à l’intérieur de chaque E (τ, J) est, pour chacune de leurs composantes (cartésiennes ou standard), toujours égal au rapport de leurs éléments de matrices réduits. Si l’on pose : αab (τ ) =

hτ, J||Va ||τ, Ji hτ, J||Vb ||τ, Ji

(VIII-110)

on peut écrire, à l’intérieur de E (τ, J) : Va = αab (τ ) Vb

(VIII-111a)

Cette égalité est à prendre avec les mêmes précautions que (VIII-106a) : elle ne concerne que l’effet des opérateurs Va et Vb restreint à un sous-espace E (τ, J). Il est plus correct d’écrire, comme en (VIII-107) : P (τ, J) Va P (τ, J) = αab (τ ) P (τ, J) Vb P (τ, J) β.

(VIII-111b)

Théorème de projection

On peut choisir pour Vb l’opérateur moment cinétique total J luimême, qui commute avec P (τ, J). La relation (VIII-111b) devient alors, pour un opérateur vectoriel V quelconque : P (τ, J) V P (τ, J) = αV (τ ) P (τ, J) J

(VIII-111c)

Pour calculer la constante αV (τ ), on peut multiplier scalairement cette égalité en utilisant à nouveau la commutation de P (τ, J) et de J : P (τ, J) J · V P (τ, J) = αV (τ ) P (τ, J) J 2

(VIII-112)

Dans cette équation, les deux membres sont des opérateurs scalaires (obtenus par produit de deux opérateurs vectoriels). Le second s’écrit simplement : αV (τ ) J(J + 1) ~2 P (τ, J) puisque E (τ, J) est un sous-espace propre de J de valeur propre J(J + 1) ~ ; nous noterons le premier : hJ · V iτ,J P (τ, J) où la constante hJ · V iτ,J désigne la valeur commune de tous les éléments diagonaux dans E (τ, J) de l’opérateur J · V . En d’autres termes, quel que 338

C. THÉORÈME DE WIGNER-ECKART

soit le ket normé |ψi appartenant à E (τ, J), la valeur moyenne hψ|J · V |ψi est égale à la constante hJ · V iτ,J . Pour finir, l’égalité (VIII-112) donne : αV (τ ) =

hJ · V iτ,J J(J + 1) ~2

(VIII-113)

Le coefficient de proportionnalité entre J et V est donc donné par le rapport entre le produit scalaire de J et V et le carré du module de J . Ce résultat est souvent désigné sous le nom de “théorème de projection”. On peut l’interpréter classiquement en remarquant que, lors de la précession d’un vecteur quelconque v autour du moment cinétique total j (constant) d’un système physique, seule subsiste en valeur moyenne dans le temps la projection : v·j v = j × 2 (VIII-114) j de v sur j (cf. figure 2) ; la projection V⊥ de v sur le plan perpendiculaire à j est en effet moyennée à zéro 11 au bout d’un grand nombre de précessions du système autour de j.

Figure 2 – Lorsque le vecteur v tourne rapidement autour du vecteur j, sa valeur moyenne dans le temps est égale à la projection v de v sur j. Cette fois encore, il faut se garder d’utiliser le résultat obtenu hors de ses limites de validité ; l’égalité (VIII-113) ne permet par exemple pas d’obtenir le coefficient de proportionnalité αab (τ ) entre deux opérateurs vectoriels Va et Vb quelconques sous la forme : hVa · Vb iτ,J hVb2 iτ,J 11. Il ne faut pas prendre trop au pied de la lettre cette analogie classique du théorème de projection en mécanique quantique. Ce théorème donne une propriété instantanée des opérateurs où le temps ne joue aucun rôle, alors que v ne se moyenne à v// qu’au bout d’un temps suffisamment long.

339

CHAPITRE VIII

ROTATION DES OBSERVABLES

En effet, dans la démonstration de (VIII-113), nous avons effectué une commutation des opérateurs P (τ, J) et J , ce qui n’est plus possible en général si J est remplacé par un autre opérateur vectoriel. Sauf bien sûr si Vb commute avec P (τ, J), αab (τ ) n’est en général pas égal à l’expression ci-dessus. Entre deux sous-espaces E (τ, J) différents, le théorème de WignerEckart permet également, par l’intermédiaire des relations (VIII-109), de réduire considérablement les éléments de matrice non nuls possibles pour un opérateur vectoriel V . Prenons par exemple la composante Vz de cet opérateur ; la matrice qui le représente a une allure rappelant celle écrite en (VIII-104), mais avec en plus des éléments de matrice non nuls entre sous-espaces E (τ, J) et E (τ, J ± 1) ; les règles de sélection sont un peu moins strictes que pour un opérateur scalaire. γ.

Application aux transitions optiques dipolaires

Considérons un atome se trouvant, à l’instant initial t = 0, dans l’un des sous-niveaux Zeeman (états |Je , Me i) d’un niveau atomique excité de moment cinétique Je ; par émission spontanée d’un photon de polarisation eλ , il peut tomber dans l’un des sous-niveaux Zeeman (états |Jf , Mf i) de son niveau fondamental. Comment évaluer la probabilité des différents processus et l’intensité des raies émises en fonction du sous-niveau Me de départ ou Mf d’arrivée, et de la polarisation considérée eλ ? Nous allons supposer que l’atome n’est soumis à l’action d’aucun champ magnétique extérieur, ou que ce champ est suffisamment faible pour être négligé 12 . Tous les sous-niveaux |Je , Me i, ainsi que tous les sous-niveaux |Jf , Mf i, ont alors la même énergie. On les représente souvent, comme sur la figure 3, par un diagramme où l’on range les valeurs de M par ordre croissant de gauche à droite, et où l’on représente par des segments de droite verticaux ou obliques les transitions atomiques entre sous-niveaux excités et fondamentaux. Le problème est alors d’évaluer les probabilités relatives des processus associés à toutes les façons de joindre un sous-niveau Me à un sous-niveau Mf , et de comprendre comment intervient la polarisation eλ . Pour cela, on peut utiliser la règle d’or de Fermi (ou la théorie de Wigner-Weisskopf de l’émission spontanée) qui dit que la probabilité par unité de temps d’émission d’un photon d’impulsion ~k, de polarisation eλ , par passage du sous-niveau Me au sous-niveau Mf est : 2π |hJe , Me ; 0|Hi |Jf , Mf ; k, eλ i|2 ρ(Ef ) (VIII-115) ~ Dans cette expression, |Je , Me ; 0i désigne l’état du système global (atome + rayonnement) où l’atome est dans l’état |Je , Me i et le rayonnement dans son Γ (k, eλ )Me →Mf =

12. En pratique, il faut des champs magnétiques de l’ordre de 0,1 tesla (1000 gauss) pour modifier notablement les caractéristiques des raies Zeeman émises par les atomes d’une vapeur à température ordinaire.

340

C. THÉORÈME DE WIGNER-ECKART

Figure 3 – Diagramme de polarisations pour les transitions optiques entre un niveau inférieur de moment cinétique Jf = 1, Mf et un niveau supérieur de Je = 2, Me . Les lignes verticales représentent des polarisations linéaires parallèles à l’axe de quantification Oz, dites polarisations π ; du fait du caractère transverse des ondes lumineuses, le faisceau se propage perpendiculairement à Oz. Les lignes inclinées penchant vers la droite représentent des polarisations circulaires droite pour un faisceau se propageant parallèlement à Oz, dont les photons transportent un moment cinétique +~ (polarisations σ+ ). Les lignes inclinées penchant vers la gauche représentent des polarisations circulaires gauche, dont les photons transportent un moment cinétique opposé −~ (polarisations σ− ). état fondamental (vide de photons) ; |Jf , Mf ; k, λi désigne l’état du système global où l’atome se trouve décrit par |Jf , Mf i tandis que, pour le rayonnement, le mode k, eλ est dans l’état d’excitation n = 1 (un photon). La densité d’états finals est notée ρ(Ef ) ; la conservation de l’énergie impose que ~ck = Ee − Ef . Enfin, Hi désigne l’hamiltonien d’interaction : Hi = c

X

Pq · A (Rq )

(VIII-116)

q

où c est une constante, Pq et Rq sont l’impulsion et la position du q ième électron de l’atome, et A est le potentiel vecteur du champ électromagnétique. Ce dernier s’exprime en fonction des opérateurs ak,λ de destruction d’un quantum dans le mode k, eλ sous la forme : A(r) =

X

ak,λ eλ eik·r + hermitique conjugué

(VIII-117)

k,λ

Nous allons faire l’approximation dipolaire électrique qui consiste à négliger les dimensions de l’atome, dont l’ordre de grandeur est le rayon de Bohr a0 , devant la longueur d’onde λ = 2π/k des photons émis ; cette approximation est bien fondée dans le domaine optique (a0 /λ . 10−3 ). Si le noyau de 341

CHAPITRE VIII

ROTATION DES OBSERVABLES

l’atome est supposé fixe et situé à l’origine des axes, on peut alors, dans (VIII-117), remplacer les exponentielles eik·r par 1. Il vient donc : Hi = c

X

ak,λ eλ · P

(VIII-118)

k,λ

où P est l’impulsion totale de tous les électrons : P =

X

Pq

(VIII-119)

q

Dans (VIII-118), on peut aussi bien remplacer P par R, opérateur position du centre de masse des électrons. En effet, dans l’égalité (VIII-115), nous ne ferons intervenir que l’élément de matrice entre des états atomiques |Je , Me i et |Jf , Me i, états appartenant à une base standard ; le théorème de WignerEckart permet alors d’affirmer que tous les éléments de matrice de P sont proportionnels à ceux de R. Pour finir, compte tenu de (VIII-115) et (VIII118), on est conduit à écrire : Γ (k, eλ )Me →Mf = a|hJe , Me |eλ · R|Jf , Mf i|2

(VIII-120)

où a est une constante indépendante de Me , Mf et eλ . Si l’on choisit eλ = ez , on obtient le calcul de la probabilité d’émission d’un photon polarisé linéairement le long de Oz (ce cas correspond à ce que l’on appelle “polarisation π”) ; c’est l’élément de matrice de la composante Q = 0 de l’opérateur vectoriel qui intervient : eλ = e0 = ez

(polarisation π) ⇔ Q = 0

(VIII-121a) √ Si, maintenant, on prend eλ = −(ex + iey )/ 2, on obtient une polarisation circulaire, dite σ + , et la composante Q = 1 : eλ = e+1 = −

ex + iey √ 2

(polarisation σ + ) ⇔ Q = +1

(VIII-121b)

√ Lorsque eλ = (ex − iey )/ 2, on obtient une polarisation circulaire de sens opposé, appelée σ − , et la composante Q = −1 : eλ = e−1 = −

ex − iey √ 2

(polarisation σ − ) ⇔ Q = −1

(VIII-121c)

Enfin, par une polarisation eλ quelconque, on décompose eλ sur e+1 , e0 et e−1 et on obtient une combinaison linéaire des 3 composantes standard Q = +1, 0 et −1 de R. Nous nous contenterons donc de raisonner dans les trois cas simples où la polarisation est σ + , σ − ou π. Le théorème de Wigner-Eckart dit alors que la probabilité de transition est proportionnelle à: |hJe , Me |Jf 1 Mf Qi|2 342

C. THÉORÈME DE WIGNER-ECKART

Figure 4 – Exemples de diagrammes de polarisations. Figure de gauche : une transition reliant un niveau inférieur de moment cinétique J = 0 à un niveau supérieur J = 1. Figure centrale : deux niveaux de J = 1/2. Figure de droite : un niveau inférieur J = 1/2 à un niveau spérieur J = 3/2. Le carré d’un coefficient de Clebsch-Gordan permet donc d’évaluer les intensités relatives de toutes les transitions verticales ou inclinées de la figure 2. Les règles de sélection suivantes sont obtenues : |Je − Jf | ≤ 1 |Me − Mf | ≤ 1

(règles dipolaires)

(VIII-122a)

et Me = Mf Me = Mf + 1 Me = Mf − 1 (conservation du

polarisation π polarisation σ + polarisation σ − moment cinétique)

(VIII-122b)

On reporte souvent les valeurs des divers coefficients de Clebsch-Gordan hJe , Me |Jf 1 Mf Qi sur les figures du type (VIII-3). Les valeurs absolues suffisent pour évaluer la probabilité de transition si eλ = e+1 , e0 ou e−1 mais, pour une polarisation eλ quelconque qui est combinaison linéaire de ces vecteurs, il est également utile d’avoir leur signe. La figure 4 donne quelques exemples des schémas ainsi obtenus : dans tous les cas, une polarisation π correspond à une transition verticale, σ + à une transition inclinée vers la droite, σ − à une transition inclinée vers la gauche. Ces diagrammes sont quelquefois appelés “diagrammes de polarisations”. 343

CHAPITRE VIII

ROTATION DES OBSERVABLES

Remarque :

Le fait que R n’agisse que sur les variables orbitales des électrons donne les règles de sélection suivantes pour un atome en couplage LS. On pose J = L + S, où L est la somme des moments orbitaux de tous les électrons et S la somme de leurs spins : ∆L = 0, ±1 ∆S = 0 ∆J = 0, ±1

(VIII-123)

où ∆L, ∆S et ∆J désignent les différences entre les nombres quantiques associés au niveau excité et au niveau fondamental. De même, si l’on considère un atome de spin nucléaire non nul I, et si l’on pose F = I + J , on obtient : ∆F = 0, ±1 C-2-c.

(VIII-124)

Opérateurs tensoriels K = 2

Pour des opérateurs tensoriels d’ordre K = 2 (ou plus), on peut faire le même type de raisonnement qu’aux paragraphes C-2-a et C-2-b. Par exemple, dans un sous-espace E (τ, J) donné, tous les opérateurs tensoriels irréductibles d’ordre K donné sont proportionnels entre eux. A partir de l’opérateur vectoriel J , on peut construire, grâce aux coefficients de Clebsch-Gordan (VIII-47a) l’opérateur hermitique J composantes standard :

(K=2)

de

(2)

J ±2 = (J±1 )2 = (J± )2 /2 (2) 1 J ±1 = √ (J±1 J0 + J0 J±1 ) = ∓ (J± Jz + Jz J± ) /2 2    √ (2) 1  J 0 = √ J±1 J−1 + 2J02 + J−1 J+1 = 3Jz2 − J 2 / 6 6

(VIII-125)

Dans E (τ, J), tous les tenseurs irréductibles T (K=2) sont proportionnels à ce tenseur J

(K=2)

. La valeur moyenne hJ (2) JQ ]

(2)

i de ce tenseur [c’est-à-dire les

5 valeurs moyennes des composantes sera appelée “alignement” du système physique (par opposition à “orientation” qui désigne la valeur moyenne de J ). Le coefficient de Clebsch-Gordan hJ 2 M 0 Q|J M i qui apparaît grâce au théorème de Wigner-Eckart montre que l’alignement ne peut être non nul que dans un espace E (τ, J) où J ≥ 1 (règle du triangle). Un exemple important d’opérateur T (K=2) est l’opérateur quadrupolaire électrique associé en mécanique quantique à un ensemble de charges (complément CVIII ). 344

D. DÉCOMPOSITION DE LA MATRICE DENSITÉ SUR LES OPÉRATEURS TENSORIELS

Remarques : (n=2)

(K=2)

(i) Un tenseur T n’est pas nécessairement proportionnel à J dans E (τ, J). Ce n’est en effet exact que pour sa partie irréductible K = 2, c’est-à-dire sa partie symétrique à trace nulle. La partie antisymétrique est proportionnelle à l’opérateur produit vectoriel J ×, c’est-à-dire un opérateur K = 1 (avec un coefficient en général indépendant de celui pour K = 2). Quant à la trace, elle est proportionnelle (avec un troisième coefficient indépendant) à J 2 , c’est-à-dire à (1). (ii) En développant l’exponentielle eik·r de (VIII-117) en puissances de a0 /λ, on fait apparaître, à la suite des transitions dipolaires électriques, des transitions multipolaires d’ordres plus élevés 13 . Des opérateurs tensoriels irréductibles d’ordre K = 2, ou plus, peuvent entrer en ligne de compte, ce qui modifie le coefficient de ClebschGordan écrit plus haut et, en conséquence, les règles de sélection. Un exemple bien connu est la raie quadrupolaire verte de l’oxygène atomique (λ = 5 577 ˚ A, durée de vie correspondante τ ' 1 s), correspondant à la transition : 2s2 2p4 1 S0 → 2s2 2p4 1 D2 Il est clair qu’une telle transition où ∆J = 2 (et, de plus, ∆L vaut également 2) est interdite par les règles de sélection dipolaires ; c’est ce qui explique la nécessité d’émettre lors de la désexcitation un photon quadrupolaire. Le fait que l’effet soit d’un ordre supérieur en a0 /λ explique la longue durée de vie correspondante ; le niveau est métastable. D.

Décomposition de la matrice densité sur les opérateurs tensoriels irréductibles

Nous allons étudier dans cette dernière partie un système physique dont l’espace des états est restreint à un espace irréductible E (τ, J) donné. Les 2J + 1 kets |J, M i associés aux valeurs M = J, J − 1, J − 2, . . . , −J + 1, −J, forment alors une base de l’espace des états E . D-1.

Espace de Liouville

Soit maintenant L l’ensemble des opérateurs agissant dans E ; dans une base donnée de E , ces opérateurs sont représentés par des matrices (2J + 1) × (2J + 1). On se convainc facilement que l’ensemble L est un 13. Voir par exemple le complément AXIII de la réf. [10].

345

CHAPITRE VIII

ROTATION DES OBSERVABLES

espace vectoriel, de dimension (2J + 1)2 , défini sur le corps des complexes 14 . L est dit “espace de Liouville”. Une base possible pour L est l’ensemble des opérateurs |J, M ihJ, M 0 | (opérateurs “dyadiques”), où M et M 0 prennent chacun (2J + 1) valeurs ; lorsque ces opérateurs seront considérés comme des vecteurs de l’espace de Liouville, nous les noterons comme des “doubles kets” : |J, M ihJ, M 0 | ⇔ |M, M 0 ii

(VIII-126)

De même, à tout opérateur A nous ferons correspondre l’élément de L noté |Aii. On peut très simplement introduire un produit scalaire dans l’espace de Liouville entre deux éléments |Aii et |Bii quelconques par : n

hhB|Aii = Tr B † A

o

(VIII-127)

(où la trace du second membre est prise comme habituellement dans l’espace des états E ). On vérifie facilement (invariance de la trace par permutation circulaire) que : hhB|Aii = hhA|Bii?

(VIII-128a)

d’où il découle que hhA|Aii est réel, et que 15 : hhA|Aii ≥ 0

(VIII-128b)

(la nullité n’étant réalisée que si A est identiquement nul). Les propriétés de définition d’une norme (définie positive) et d’un produit scalaire sont donc bien satisfaites. La base |M, M 0 ii est orthonormée, puisque : hhM, M 0 |M 00 , M 000 ii = Tr |J, M 0 i hJ, M |J, M 00 i hJ, M 000 | 

= δM M 00 δM M 000



(VIII-129)

14. Ce serait le corps des réels si l’on se restreignait aux opérateurs hermitiques. 15. Tout opérateur A peut s’écrire A = AR +iAI , où AR et AI sont les deux opérateurs hermitiques (donc diagonalisables), donnés par AR = (A + A† )/2 et AI = (A − A† )/2i. On a alors : hhA|Aii = Tr {A†R AR } + Tr {A†I AI } + i Tr {A†R AI − A†I AR } = Tr {A2R } + Tr {A2I } Chacune de ces traces est la somme de carrés de nombre réels, donc positive, ce qui démontre (VIII-128b). Ces sommes ne peuvent s’annuler que si toutes les valeurs propres de AR et de AI sont nulles, donc si AR et AI ainsi que A sont nuls.

346

D. DÉCOMPOSITION DE LA MATRICE DENSITÉ SUR LES OPÉRATEURS TENSORIELS

On peut donc décomposer tout opérateur A sous la forme : A=

+J X

hhM, M 0 |Aii |M, M 0 ii

M,M 0 =−J

=

X

n

o

Tr |J, M 0 i hJ, M |A |J, M i hJ, M 0 |

(VIII-130)

M,M 0

Dans cette égalité, la trace est donnée par : n

o

Tr |J, M 0 i hJ, M |A =

+J X

hJ, M 00 |J, M 0 i hJ, M |A|J, M 00 i

M 00 =−J

= hJ, M |A|J, M 0 i

(VIII-131)

La décomposition (VIII-130) est donc simplement équivalente à l’introduction de deux relations de fermeture sur la base {|J, M i}, une de chaque côté de l’opérateur A. On peut, en particulier, décomposer la matrice densité ρ du système sous la forme : ρ=

+J X

ρM M 0 |M, M 0 ii =

M M 0 =−J

X

ρM M 0 |J, M i hJ, M 0 |

(VIII-132a)

MM0

où : ρM M 0 = hJ, M |ρ|J, M 0 i

(VIII-132b)

L’hermiticité de ρ entraîne que : ρM 0 M = (ρM M 0 )?

D-2.

(VIII-132c)

Transformation par rotation

On peut se demander comment se transforment par rotation les éléments |Aii de l’espace de Liouville. L’opérateur A devenant RAR† lors d’une rotation, il est naturel de poser : |A0 ii = |RAR† ii

(VIII-133a)

que nous pouvons écrire : |A0 ii = L R|Aii où |A0 ii est le transformé de |Aii par rotation, et qui décrit cette rotation dans l’espace de Liouville.

(VIII-133b) LR

l’opérateur linéaire

347

CHAPITRE VIII

ROTATION DES OBSERVABLES

Examinons en particulier comment se transforme la base |M, M 0 ii introduite plus haut. On a : +J X

R |J, M i =



R[J]



M 00 =−J

M 00 M

|J, M 00 i

(VIII-134a)

et donc : hJ, M 0 |R† =

+J X



R[J]

M 000 =−J

? M 000 M 0

hJ, M 000 |

(VIII-134b)

Par suite : R |J, M ihJ, M 0 |R† =

X X

R[J]

M 00 M 000



 M 00 M

R[J]

? M 000 M 0

|J, M 00 i hJ, M 000 | (VIII-135a)

ou encore : L

R |M, M 0 ii =

X



R[J]



M 00 M 000

 M 00 M

R[J]

? M 000 M 0

|M 00 , M 000 ii (VIII-135b)

Les transformations par rotation des |M, M 0 ii ne se font donc pas de façon particulièrement simple, puisque deux matrices de rotation interviennent. D-3.

(K)

Base des opérateurs TQ

Dans l’espace des états E de départ, on connaît l’action d’un opérateur vectoriel, le moment cinétique J lui-même. A cet opérateur T (K=1) correspondent 3 éléments de L notés |K, Qii (avec K = 1, Q = 1, 0, −1). Par produit tensoriel de J par lui-même, on peut construire, comme nous l’avons fait au § B-3-a, deux nouveaux opérateurs K = 0 (opérateur scalaire proportionnel à J 2 ) et K = 2 (alignement, cf. § C-2-c) ; nous ne gardons pas l’opérateur K = 1 puisqu’il est proportionnel à J d’après le théorème de Wigner-Eckart. Nous avons ainsi introduit dans L un élément |K = 0, Q = 0ii, et 5 éléments |K = 2, Qii où Q varie entre +2 et −2. On peut continuer de la même façon et multiplier tensoriellement l’opérateur T (K=2) par J pour obtenir T (K=3) , etc. Il est clair que cette procédure ne peut se répéter indéfiniment : dès que K ≥ 2J + 1, les opérateurs obtenus sont nuls, puisque hJ K M Q|J M 0 i est nul d’après la règle de sélection du triangle. En tout, nous avons ainsi défini 2J + 1 opérateurs tensoriels d’ordres K = 0, 1, 2, . . . , 2J, ayant chacun 2K + 1 composantes. Comme : 2J X K=0

348

(2K + 1) = 2

2J(2J + 1) + 2J + 1 = (2J + 1)2 2

(VIII-136)

D. DÉCOMPOSITION DE LA MATRICE DENSITÉ SUR LES OPÉRATEURS TENSORIELS

le nombre de ces opérateurs est égal à celui de la dimension de l’espace de Liouville de L . A priori, les |K, Qii peuvent donc former une base ; il nous faut cependant vérifier qu’ils sont indépendants. Pour cela, nous allons démontrer l’égalité : n

(K)

Tr TQ

o

= δK0 δQ0

(VIII-137)

Démonstration : Commençons par calculer la trace de chaque opérateur (K) TQ que nous avons introduit. Si K = Q = 0, on peut, par multiplication par un facteur convenable, convenir de poser : (K=0)

T0

=

1 1 2J + 1

(VIII-138)

de sorte que : n o (K=0) Tr T0 =1

(VIII-139) (K)

Pour les traces de tous les autres opérateurs TQ , elles sont nécessairement nulles. En effet, la première des relations (VIII-62) donne : n o nh io (K) (K) ~ Q Tr TQ = Tr Jz , TQ =0 (VIII-140) (K)

(la trace d’un commutateur est nulle). Donc, si Q 6= 0, la trace de TQ est nulle. Si Q n’est pas nul, on utilise la deuxième des égalités (VIII-62) pour écrire : n o nh io (K) (K) Tr TQ±1 ∝ Tr J± , TQ =0 (VIII-141) où le coefficient de proportionnalité n’est nul que si K = 0. Pour finir : n o (K) Tr TQ = δK0 δQ0 (VIII-142)

Calculons maintenant le produit scalaire de deux éléments |K, Qii de L : n

(K)†

hhK, Q|K 0 , Q0 ii = Tr TQ

(K 0 )

TQ0

o

(VIII-143a)

Nous avons vu en (VIII-102) que l’opérateur T (K) est hermitique si son élément de matrice réduit dans l’espace E (τ, J) est réel. Grâce à une multiplication par une constante, on peut donc rendre chaque T (K) hermitique. Alors la relation (VIII-72) permet d’écrire : n

(K)

(K 0 )

hhK, Q|K 0 , Q0 ii = (−1)Q Tr T−Q TQ0

o

(VIII-143b) (K)

(K 0 )

Pour évaluer cette trace, décomposons comme au § B-4-c le produit T−Q TQ0 (K 00 )

en opérateurs tensoriels irréductibles ZQ00 (K)

(K 0 )

T−Q TQ0

=

X

: (K 00 )

hK K 0 − Q Q0 |K 00 Q00 i ZQ00

(VIII-144)

K 00 Q00

349

CHAPITRE VIII

ROTATION DES OBSERVABLES

(K 00 )

(K 00 )

Chaque opérateur ZQ00 est proportionnel à l’opérateur TQ00 de même ordre ; d’après (VIII-137), il a donc une trace nulle sauf si K 00 = Q00 = 0. Par suite : hhK, Q|K 0 , Q0 ii = (−1)Q hK K 0 − Q Q0 |0 0i × β

(VIII-145)

où β est une constante. D’après les règles de sélection sur les coefficients de Clebsch-Gordan, cette expression est nulle sauf si K = K 0 , Q = Q0 ; elle est alors indépendante de Q [cf. égalité (VII-98)]. Les |K, Qii sont donc orthogonaux entre eux ; la multiplication de chaque T (K) par une constante réelle suffit alors pour obtenir une base orthonormée. Nous avons ainsi obtenu une nouvelle base orthonormée dans l’espace de Liouville. Par rotation, les vecteurs de cette base se transforment de façon simple puisque l’égalité (VIII-61) entraîne que : L

R |K, Qii =

X

R[K]

 Q0 Q

Q0

|K, Q0 i

(VIII-146)

qui est plus pratique à manier que (VIII-135b). Tout opérateur A, c’est-à-dire tout élément |Aii de L , peut être décomposé sur cette nouvelle base. En particulier, pour la matrice densité ρ, il vient : |ρii =

2J X

+K X

(K)

ρQ

|K, Qii

(VIII-147a)

K=0 Q=−K

ou encore : ρ=

XX K

(K)

ρQ

(K)

TQ

(VIII-147b)

Q

avec : (K)

ρQ

n

(K)

o

= hhK, Q|ρii = Tr (TQ )† ρ n

(K)

o

= (−1)Q Tr T−Q ρ

(VIII-148)

Cette décomposition de ρ sur ses “composantes tensorielles” s’avère très sou(0) vent commode. La quantité ρ0 est une constante invariante par rotation, la trace de ρ (on l’appelle parfois la “population totale” des niveaux, lorsqu’on (1) n’impose pas à cette trace de valoir 1). Les trois composantes ρQ donnent (2)

l’orientation du niveau, les cinq de ρQ son alignement, etc. Si J = 1/2, la donnée des 3 composantes de l’orientation (et éventuellement de la population totale) suffit entièrement à déterminer ρ, et donc l’état du système ; d’après le théorème de Wigner-Eckart, tous les moments d’ordre 2, 3, ... sont toujours strictement nuls. 350

D. DÉCOMPOSITION DE LA MATRICE DENSITÉ SUR LES OPÉRATEURS TENSORIELS

(2)

Si J = 1, il faut ajouter la donnée des cinq ρQ (alignement) aux (1)

ρQ pour complètement déterminer l’état du système. Le raisonnement se prolonge de la même façon ; plus le moment cinétique J d’un système est (K) élevé, plus augmente le nombre de ρQ nécessaires pour spécifier sa matrice densité. D-4.

Invariance par rotation dans l’évolution d’un système physique

L’utilisation de l’espace de Liouville apporte des simplifications dans les calculs d’évolution d’un système physique invariant par rotation. D-4-a.

Equation pilote

L’évolution dans le temps de la matrice densité ρ(t) peut dans de nombreux cas être écrite sous la forme : i~

d |ρ(t)ii = C (t) |ρ(t)ii dt

(VIII-149)

où C (t) est un opérateur linéaire agissant dans L , que nous appellerons “liouvillien”. Si le système considéré est isolé, son hamiltonien H est indépendant du temps, et on a simplement (équation de Schrödinger) : C (t) |ρ(t)ii = |[H, ρ]ii

(VIII-150)

Cependant, l’équation (VIII-149), que nous appellerons “équation pilote”, est bien plus générale ; elle inclut par exemple la possibilité d’interaction du système avec l’extérieur (compte tenu d’hypothèses souvent réalisées dans des cas physiques intéressants), de caractère aléatoire pour l’hamiltonien (théorie de la relaxation), etc. C’est donc sur elle que nous raisonnerons. L’analogie de (VIII-149) avec l’équation de Schrödinger est frappante. On peut, dans ce cas également, introduire l’opérateur d’évolution U(t, t0 ) qui permet d’écrire la solution de (VIII-149) sous la forme : |ρ(t)ii = U(t, t0 ) |ρ(t0 )ii

(VIII-151)

Cet opérateur doit satisfaire à : i~

d U(t, t0 ) = C (t) U(t, t0 ) dt

(VIII-152a)

et U(t0 , t0 ) = 1

(VIII-152b)

351

CHAPITRE VIII

ROTATION DES OBSERVABLES

Si, par exemple, il existe un opérateur U (t, t0 ) agissant dans l’espace des états qui donne l’évolution de ρ sous la forme : ρ(t) = U (t, t0 ) ρ(t0 ) U † (t, t0 )

(VIII-153)

on a simplement : U(t, t0 ) |ρii = |U ρ U † ii

(VIII-154)

mais, cette fois encore, la forme (VIII-151) est plus générale. D-4-b.

Invariance par rotation de l’équation pilote

Supposons maintenant qu’une opération de rotation quelconque soit transformation de symétrie pour l’évolution du système physique considéré (on étudie par exemple un atome subissant de la part de ses voisins des collisions dans toutes les directions de l’espace avec la même probabilité). Si l’on revient au schéma général de la figure 5, on est conduit à écrire, de façon tout à fait analogue à l’équation (I-101) du chapitre I : L

R U(t, t0 ) = U(t, t0 )LR

(VIII-155a)

c’est-à-dire : L

h

i

R , U(t, t0 ) = 0

(VIII-155b)

(où il faut comprendre que le commutateur est calculé dans l’espace de Liouville de L ). Les opérateurs U(t, t0 ) et C (t) sont donc des opérateurs scalaires en tant qu’opérateurs agissant dans L . D’autre part, il est clair sur (VIII146) que les |K, Qii satisfont, dans cet espace, aux relations de définition d’une base standard. Par suite, le théorème de Wigner-Eckart (appliqué cette fois dans L et non dans E , mais le raisonnement reste le même) entraîne pour U et C des propriétés analogues à celles qu’entraîne la présence du coefficient de Clebsch-Gordan (VIII-103) pour un opérateur T (0) . On a donc : hhK, Q|U(t, t0 )|K 0 , Q0 ii = δKK 0 δQQ0 CK (t, t0 )

(VIII-156)

où C est un nombre indépendant de Q et Q0 . Par suite, la relation (VIII-150) donne : (K)

(K)

ρQ (t) = ρQ (t0 ) × CK (t, t0 )

(VIII-157)

Nous obtenons donc le résultat important suivant, exact chaque fois que l’invariance par rotation est préservée dans l’évolution du système physique (K) considéré : les différentes composantes tensorielles ρQ de la matrice densité 352

D. DÉCOMPOSITION DE LA MATRICE DENSITÉ SUR LES OPÉRATEURS TENSORIELS

évoluent de façon indépendante ; la façon dont elles évoluent dépend de K, mais pas de Q. On conçoit l’importance pratique que peut prendre cette propriété dans beaucoup de problèmes physiques où l’invariance par rotation joue un rôle. Exemple : On rencontre souvent le cas où : CK (t, t0 ) = e−(t−t0 )/TK

(VIII-158)

où TK est une constante positive, le temps de relaxation des observables tensorielles d’ordre K. Remarque :

Si l’on est dans le cas particulier où la relation (VIII-150) donne l’évolution de ρ (évolution hamiltonienne), l’invariance par rotation impose à l’hamiltonien H d’être scalaire. L’opérateur H est donc proportion(K=0) nel à l’opérateur T0 écrit en (VIII-138), qui commute avec tout opérateur dans E [rappelons que E a été restreint à un seul sous-espace E (τ, J)]. En d’autres termes, le système physique n’évolue pas, et les égalités (VIII-157) en découlent de façon triviale. D-4-c.

Moment cinétique dans l’espace de Liouville

Dans l’espace de Liouville L , on peut définir l’action d’un opérateur → − moment cinétique J . Il suffit pour cela de considérer une rotation infinitésimale de vecteur δa = uδϕ et de poser : L

R =1−

→ − iδϕ u· J ~

(VIII-159)

Compte tenu de (VIII-133), on voit que ceci revient à définir l’action de la → − → − composante Ju = u · J de J par : Ju |Aii = | [Ju , A]ii

(VIII-160)

Il est clair, sur la définition même des opérateurs tensoriels irréductibles, que : Jz |K, Qii = Q ~|K, Qii

(VIII-161a)

et : q

J± |K, Qii = ~ K(K + 1) − Q(Q ± 1) |K, Q ± 1i

(VIII-161b)

(où J± = Jx ± iJy ). Les |K, Qii satisfont exactement aux relations d’une base standard dans L . L’espace de Liouville peut donc être décomposé 353

CHAPITRE VIII

ROTATION DES OBSERVABLES

comme la somme directe de 2J + 1 sous-espaces invariants irréductibles sous l’action de l’ensemble des opérateurs de rotation : l’espace (de dimension 1) engendré par |K = 0, Q = 0ii, celui (de dimension 3) engendré par les kets |K = 1, Qii, celui (de dimension 5) engendré par les |K = 2, Qii, etc. [rappelons que K ≤ 2J]. Chacun de ces sous-espaces est sous-espace propre de l’opérateur : → −2 J = Jx2 + Jy2 + Jz2 1 = (J+ J− + J− J+ ) + Jz2 2

(VIII-162)

avec la valeur propre K(K + 1) ~2 : → −2 J |K, Qii = K(K + 1) ~2 |K, Qii

(VIII-163)

Dans l’espace de Liouville L , un opérateur scalaire (invariant par rotation) est un opérateur qui commute avec tout opérateur de rotation LR, → − c’est-à-dire avec toute composante de J . L’égalité (VIII-155b) indique que U(t, t0 ) est scalaire. Le fait que U(t, t0 ) commute avec les opérateurs Jz et → −2 J implique alors que ses éléments de matrice entre vecteurs propres de valeurs propres différentes sont toujours nuls ; la relation (VIII-150) en découle alors immédiatement (sans faire intervenir le théorème de Wigner-Eckart dans l’espace de Liouville). Si maintenant l’évolution du système physique étudié n’est invariante que par rotation autour de l’axe Oz, l’opérateur U commute toujours avec → − Jz mais plus nécessairement avec J 2 . Dans ces conditions, les évolutions des (K) ρQ associées à des valeurs de Q différentes sont toujours découplées, mais par celles entre valeurs différentes de K pour la même valeur de Q (couplage entre composantes Q = 0 de l’orientation, l’alignement, etc.).

354



RAPPELS ÉLÉMENTAIRES SUR LES TENSEURS CLASSIQUES

Complément AVIII Rappels élémentaires sur les tenseurs classiques 1 2 3

Vecteurs . . . . . . . . . . . . . . . . . . . . . . Tenseurs . . . . . . . . . . . . . . . . . . . . . . Propriétés . . . . . . . . . . . . . . . . . . . . . 3-a Addition tensorielle . . . . . . . . . . . . . . 3-b Produit tensoriel . . . . . . . . . . . . . . . . 3-c Contraction . . . . . . . . . . . . . . . . . . . Critère de tensorialité . . . . . . . . . . . . . . Tenseurs symétriques et antisymétriques . . Tenseurs particuliers . . . . . . . . . . . . . . Tenseurs irréductibles . . . . . . . . . . . . . .

4 5 6 7

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

355 356 359 359 359 360 361 361 362 363

Le but de ce complément est de fournir quelques rappels concernant les propriétés classiques des tenseurs. Il n’est évidemment pas question de présenter une théorie générale de l’algèbre tensorielle ; le but sera plutôt d’introduire quelques concepts et résultats simples, ainsi que les notations, dans le cadre d’hypothèses restreintes. En particulier, nous nous limiterons aux changements de base orthonormés, malgré le caractère restrictif de cette simplification 1 . Le lecteur qui cherche un point de vue plus général le trouvera aisément dans de nombreux ouvrages, par exemple la référence [33]. 1.

Vecteurs

Pour éviter d’avoir constamment à nous y reporter, rappelons brièvement quelques résultats du § A-1-a du chapitre VIII. Nous avons écrit les composantes d’un même vecteur v dans deux systèmes d’axes {e1 , e2 , e3 } et {e01 , e02 , e03 } orthonormés, lorsque Ru (ϕ) est la rotation qui permet de passer du premier système au second : e01,2,3 = Ru (ϕ) e1,2,3

(1)

c’est-à-dire : e01 e02 e03 = (e1 e2 e3 ) (Ru (ϕ)) 

(2)

où (Ru (ϕ)) est une matrice 3×3 qui, dans la ième colonne, a pour éléments les composantes de e0i sur les ej (les indices i et j valent 1, 2 ou 3). Cette matrice 1. Considérer des changements de base “obliques” peut d’ailleurs être très utile en physique, en particulier dans le cadre de l’étude des algèbres de Lie, ou encore de celui de la théorie de la relativité.

355

COMPLÉMENT AVIII



est donc celle associée à l’opérateur linéaire de rotation (active) amenant les e sur les e0 . Appelons vx , vy , vz les composantes d’un vecteur v quelconque dans la base {e1 , e2 , e3 }, et vx0 , vy0 , vz0 celles dans la base {e01 , e02 , e03 }. On a : vx0 i =

X

vxk (R)ki

(3)

k

et : 







vx0 vx    0   vy  = (Ru (ϕ))  vy  vz vz0

(4)

Inversement : 







vx0 vx  0   −1   vy  = (Ru (ϕ))  vy  vz vz0

(5)

Comme (R) est une matrice orthogonale, cette égalité s’écrit également : 



vx0 vy0 vz0 = (vx vy vz ) (Ru (ϕ))

(50 )

Pour une rotation infinitésimale R de vecteur u et d’angle δϕ, on a : 



2.

vx0 vy0 vz0







0 −uz uy    = (vx vy vz ) 1 + δϕ  uz 0 −ux  −uy ux 0

(6)

Tenseurs

A partir de deux vecteurs v et w, on peut construire un tableau (matrice 3 × 3) comprenant les 9 nombres vx,y,z × wx,y,z : v x wx

v y wx

v z wx

T =  v x wy

v y wy

v z wy 

v x wz

v y wz

v z wz

 

 

(7a)

Ce tableau sera appelé tenseur T du second ordre, noté : T =v⊗w

(7b)

Un exemple de tenseur bien connu en physique est donné par le moment d’inertie d’un solide. Nous supposons pour simplifier qu’un point origine O du solide reste immobile (pas de translation). Ce dernier est constitué de N 356



RAPPELS ÉLÉMENTAIRES SUR LES TENSEURS CLASSIQUES

particules de positions rq et de vitesses vq , toutes de la même masse m. Le fait que les particules du solide se déplacent de façon rigide (sans que leurs distances relatives soient modifiées) impose que : vq = Ω × rq

(8)

Le mouvement est une rotation pure autour de 0, et nous notons Ω la vitesse angulaire du solide. Le moment cinétique du solide vaut alors : J =m

N X

rq × vq

(9)

q=i

c’est-à-dire, compte tenu de (8) et de la formule du double produit vectoriel :

J =m

X

rq2 Ω − (rq · Ω) rq

(10)

q

La composante Ji de J est donc donnée par l’égalité : Ji =

X

( X

j

q



)

rq2 δij − (rq )i (rq )j

Ωj

(11)

Par suite, il vient : Ji =

X

T ij Ωj

(12)

j

avec : T ij = m

X h 

rq2 δij − (rq )i (rq )j

i

(13)

q

Ces quantités définissent les 9 composantes d’un tenseur T du second ordre (tenseur d’inertie du solide) ; l’égalité (12) peut alors être écrite sous la forme : J= T Ω

(14)

De façon plus générale, prenons n vecteurs u, v, w, . . . , m. Si la dimension de l’espace est d (ici d = 3), on peut former un tableau avec les dn composantes de ces vecteurs et obtenir un tenseur T (n) noté : T (n) = u ⊗ v ⊗ w ⊗ . . . ⊗ m

(15)

Si n = 1, on a simplement un vecteur ; si n = 2, on est en présence d’un tenseur du second ordre, associé à une matrice carrée ; si n = 3, il faut 357

COMPLÉMENT AVIII



prendre une “matrice” cubique, etc. Les composantes (cartésiennes) de T (n) sont les : Tx(n) = uxi vxj . . . , mx` i xj ... x` T (n)

avec :

xi , xj , . . . , x` = x, y ou z

Dans une rotation des axes (changement de base), les composantes de deviennent :

(n)

Tx0 x0 ... x0 = ux0i vx0j . . . mx0` i

j

(16)

`

c’est-à-dire : (n)

Tx0 x0 ... x0 = i

j

`

X i00 j 00 ...`00

(R)i00 i (R)j 00 j . . . (R)`00 ` Tx(n) i00 xj 00 ... x`00

(17)

Cette égalité constitue en fait la définition générale d’un tenseur cartésien d’ordre n : un ensemble T (n) de 3n composantes cartésiennes (orthonormées) sera dit constituer un tenseur d’ordre n si, lors d’un changement de base orthonormé, les nouvelles composantes s’expriment en fonction des anciennes par les égalités linéaires (17). Par définition, la matrice 3n × 3n qui donne les effets du changement de base sur les composantes est donc n fois le produit tensoriel de la matrice (R) par elle-même 2 . Il est clair que la définition (17) est plus large que (15) : l’ensemble des tenseurs T (n) comprend, non seulement des produits tensoriels comme (15) mais toutes leurs combinaisons linéaires 3 . Exemple : Posons, dans une base donnée T ij = δij

(18)

Dans une nouvelle base orthonormée, les nouvelles composantes seront les =

T 0 ij donnés par : =

T 0 ij =

X

(R)i00 i00 (R)j 00 j 00 Txi00 xj 00

i00 j 00

=

X

(R)i00 i (R)i00 j = δij

(19)

i00

2. Si l’on se donne des composantes quelconques de T (n) dans une seule base, on peut toujours considérer qu’on a défini un tenseur d’ordre n et utiliser (16) pour calculer ses composantes dans une base quelconque. Par contre, si l’on se donne a priori l’expression des composantes de T (n) dans toutes les bases (orthonormées), il faut vérifier si l’on a bien défini de cette façon un tenseur. C’est ce second point de vue que nous adopterons dans toute la suite où, par exemple, les formules de définition du produit tensoriel ou du produit contracté sont applicables simultanément à toutes les bases. 3. On montre aisément que l’ensemble des T (n) constitue un espace vectoriel de dimensions dn (où d = 3 si l’on est parti de l’espace ordinaire) ; une base de cet espace est constituée par les produits tensoriels ei ⊗ ej ⊗ . . . ⊗ e` ; i, j, . . . , ` = 1, 2, . . . ; d = 3.

358



RAPPELS ÉLÉMENTAIRES SUR LES TENSEURS CLASSIQUES

puisque (R) est une matrice orthogonale. L’égalité (18), valable dans toute base, définit donc bien un tenseur du second ordre particulièrement simple (tenseur unité du second ordre, noté 1). Les transformations des tenseurs d’ordre n donnent des représentations, de dimension 3n , du groupe R(3) des rotations autour d’un point fixe. C’est le problème de la décomposition de ces représentations en représentations irréductibles qui conduit à l’introduction des tenseurs irréductibles T (k) .

Remarque : Comme déjà mentionné, en nous limitant aux changements de repères orthonormés, nous restreignons considérablement le problème ; ceci permet de ne pas distinguer composantes contravariantes et covariantes d’un tenseur. Cette restriction revient à ne considérer que les représentations des sous-groupes SO(3) de GL(3, R). Elle augmente le nombre des propriétés invariantes des T (n) dans les changements de base envisagés : par suite, elle permet de pousser plus loin la décomposition de l’ensemble des T (n) en sous-ensembles invariants. Par exemple, le tenseur diagonal (18) forme à lui seul un sous-espace invariant sous l’action des changements de base associés aux éléments de R(3) ; par contre, ce ne serait pas le cas pour GL(3, R) si les δij étaient considérés comme composantes deux fois co- ou contravariantes (l’invariance étant préservée pour des coordonnées mixtes).

3.

Propriétés

3-a.

Addition tensorielle

On définit simplement l’addition tensorielle en ajoutant les composantes correspondantes de deux (ou d’un nombre fini) de tenseurs d’ordre n. Il est clair qu’on obtient encore un tenseur du même ordre.

3-b.

Produit tensoriel

A partir de deux tenseurs T (n1 ) et T (n2 ) , on peut construire un tenseur (n) P (n) = T (n1 ) ⊗ T (n2 ) d’ordre n = n1 + n2 , dont les composantes Pxi xj ... x` sont données par : Pxi xj ... xh |

{z

n1

(n )

xh+1 ... x`

} |

{z

n2

}

(n )

2 = Txi x1 j ... xh Txh+1 ... x`

(20)

Il est facile de vérifier qu’on obtient effectivement de cette façon un tenseur d’ordre n. 359

COMPLÉMENT AVIII

3-c.



Contraction

L’opération de contraction des indices consiste à transformer un tenseur T (n) en un tenseur Q(n−2) , d’ordre n − 2, en posant : Q(n−2) xk ... xm =

X

Tx(n) i xi xk ... xm

(21)

xi =x,y,z

On effectue donc la somme de tous les éléments de T (n) diagonaux par rapport aux deux premiers indices, laissant tous les autres libres. L’opération de contraction se généralise immédiatement à deux indices quelconques, pas nécessairement les premiers, ni même obligatoirement consécutifs. Vérifions qu’on obtient ainsi un tenseur d’ordre n − 2. Calculons pour cela les composantes de Q(n−2) dans une nouvelle base : (n−2) ... x0m k

Qx0

=

X

Tx0i x0i ... x0m

i=1,2,3

=

X

X

(R)i00 i (R)j 00 i . . . (R)m00 m Txi00 xj 00 ... xm00

(22)

i=1,2,3 i00 j 00 ... m00

Or : X

(R)i00 i (R)j 00 i = δi00 j 00

(23)

i

(produit de deux lignes d’une matrice orthogonale) et l’on obtient : (n−2) ... x0m k

Qx0

=

X

(R)k00 k . . . (R)m00 m

k00 ... m00

=

X

(R)k00 k . . .

k00 ... m00

X

Txi00 xi00 xk00 ... xm00 i00 (R)m00 m Q(n−2) xk00 ... xm00

(24)

qui démontre que Q(n−2) est un tenseur d’ordre n − 2. Exemple : Soit T tenseur du 2e ordre, V un tenseur du 1er ordre (c’est-à-dire un vecteur). Le produit tensoriel : P = T ⊗V

(25) 3e

est un tenseur du ordre. Par contraction des deux derniers indices, on obtient un tenseur du 1er ordre, le vecteur W , qui sera noté : W = T ·V

(26)

La composante Wi de W est donnée par Wi =

X

(270 )

Tij Vj

j ≡

Cette contraction des indices de P revient donc bien à multiplier les lignes de (T ) par la colonne de (V ), comme nous l’avions par exemple écrit en (12). 360

• 4.

RAPPELS ÉLÉMENTAIRES SUR LES TENSEURS CLASSIQUES

Critère de tensorialité

Comme nous l’avons vu dans l’exemple précédent, il est également possible de contracter les indices de deux tenseurs différents, d’ordres n1 et n2 . Ceci revient à commencer par considérer le produit tensoriel d’ordre n1 +n2 , puis à contracter deux de ces indices pour obtenir un tenseur d’ordre n1 + n2 − 2. La condition nécessaire et suffisante pour que T (n) soit un tenseur d’ordre n est que, par contraction avec un tenseur quelconque d’ordre p < n, il donne un tenseur d’ordre n − p. Nous admettrons que la condition est suffisante (il n’est pas nécessaire de considérer l’ensemble de n + 1 valeurs de p a priori possibles ; elle est déjà suffisante si l’on a choisi une valeur unique quelconque p < n). 5.

Tenseurs symétriques et antisymétriques Soit T un tenseur d’ordre deux tel que : Txi xj = ε Txj xi

(27)

Si ε = +1, le tenseur est dit symétrique ; si ε = −1, il est dit antisymétrique. Cette propriété de T est indépendante de la base choisie. En effet : Tx0i x0j =

X

(R)i00 i (R)j 00 j Txi00 xj 00 = ε

i00 j 00

= ε Tx0j x0i

X

(R)i00 i (R)j 00 j Txj 00 xi00

i00 j 00

(28)

Elle se généralise immédiatement à des tenseurs d’ordre plus élevé : si un tenseur T (n) est, dans une base donnée, symétrique ou antisymétrique par rapport à deux indices (par exemple Txi xj xk = ε Txk xi xj ), il conserve cette propriété dans une base quelconque. Nous commençons ainsi à rencontrer des propriétés d’invariance qui permettent de construire des sous-espaces de l’espace des tenseurs T (n) qui restent globalement invariants.

Remarque :

Si l’on considère des changements de base non orthonormés, la propriété précédente reste vraie pour des composantes covariantes ou contravariantes par rapport aux deux indices en question. Ce n’est pas le cas des composantes mixtes (comme celles qui servent habituellement à la définition de la matrice associée à un opérateur). 361

COMPLÉMENT AVIII

6.



Tenseurs particuliers

Nous avons déjà rencontré le tenseur 1 du 2ème ordre, de composantes δij . Il existe un autre tenseur fondamental, le tenseur εA totalement antisymétrique du 3ème ordre. Ses composantes sont les εijk définis par : εi,j,k

   +1

si i, j, k sont une permutation paire de 1, 2, 3 = −1 si la permutation est impaire   0 si 2 des 3 indices i, j, k sont égaux

(29)

Vérifions que l’on définit effectivement de cette façon un tenseur. Calculons à cet effet les composantes ε0ijk de εA dans une nouvelle base : ε0ijk =

X

(R)i00 i (R)j 00 j (R)k00 k εi00 j 00 k00

(30)

i00 j 00 k00

Le deuxième membre de cette égalité est clairement invariant par permutation circulaire des trois indices, et change de signe si l’on en permute deux (il est donc nul si deux indices sont égaux). Tous les ε0ijk peuvent donc être déduits immédiatement de ε01,2,3 , qui vaut : ε01,2,3 = Det (R) = 1

(31)

on a donc : ε0ijk = εijk

(32)

de sorte que εA est effectivement un tenseur du 3e ordre. Prenons par exemple un tenseur T du 2e ordre, de composantes T jk , et multiplions-le tensoriellement par εA /2 ; nous obtenons ainsi un tenseur d’ordre 5. Contractons ensuite ce dernier sur deux paires d’indices (comprenant chacune un indice issu de T ) ; il nous reste un tenseur d’ordre 5 − 2 − 2 = 1, c’est-à-dire un vecteur. Les composantes de ce dernier sont : Vxi =

h i 1 X 1 εijk Txj xk = εijk Txj xk − Txk xj 2 jk 2

c’est-à-dire : 1 Vx = (Tyz − Tzy ) 2

(33)

(340 )

(et les relations obtenues par permutation circulaire des indices x, y et z). Inversement, si un tenseur T d’ordre deux est antisymétrique : 

O

T =  −A 

A

B

O

C

−B −C O 362

 

(34)



RAPPELS ÉLÉMENTAIRES SUR LES TENSEURS CLASSIQUES

il peut être assimilé à un vecteur V de composantes :  Vx = −C   

Vy = B   

(35)

Vz = −A

L’action de T sur un vecteur W (c’est-à-dire le produit contracté T · W ) donne alors simplement le produit vectoriel V × W . Ce résultat se généralise à un ordre n quelconque : dès qu’un tenseur d’ordre n est antisymétrique par rapport à deux de ses composantes, il peut être considéré comme un tenseur d’ordre n − 1 “déguisé” : si l’on range de façon différente ses composantes, on peut abaisser son ordre d’une unité. 7.

Tenseurs irréductibles

Nous n’allons donner ici qu’un aperçu de la façon dont se présente le problème de la recherche des tenseurs irréductibles sous l’action des opérations de R(3) . Ce problème a en effet été traité en détail dans le chapitre VIII grâce aux propriétés du moment cinétique et celles de la composition de plusieurs moments. Nous verrons cependant ici comment une approche directe est possible, et retrouverons certains des résultats du chapitre VIII. Les lois de transformations (17) des composantes d’un tenseur T (n) donnent des représentations de R(3) ; la démonstration est la même que pour un opérateur tensoriel d’ordre un. Revenons donc à la question posée plus haut : ces lois peuvent-elles être réduites de façon à faire apparaître des représentations irréductibles de dimension moindre ? Le problème est donc (n) de trouver des combinaisons linéaires des Txi xj ... x` qui se transforment toujours les unes dans les autres par rotation des axes et fassent intervenir des représentations de dimensions plus basses. • Commençons par prendre le cas où n = 2 ; nous allons voir que les résultats des paragraphes précédents permettent de décomposer complètement la représentation correspondante. Celle-ci étant de dimension 9, de nombreuses possibilités sont a priori envisageables : j = 4, ou bien j = 3 ⊕ j = 1/2, etc. Remarquons d’emblée que la trace de T : n o

Tr T

= T xx + T yy + T zz

(36)

est un invariant dans tout changement de base. Si donc nous posons : T =

n o = = 1 Tr T × 1 + K 3

(37) 363



COMPLÉMENT AVIII

nous décomposons T comme la somme de deux contributions : une partie scalaire (invariante par changement de base), et une partie à trace nulle (dans une base quelconque). La première partie fait donc apparaître la représentation j = 0, à une dimension, du groupe R(3) . Pour les tenseurs à trace nulle, ils forment clairement un sous-espace invariant, mais pas irréductible comme nous allons le voir. Ce sous-espace est de dimension 8. Pour le réduire, posons : K = S K + AK

(38)

où les composantes de S K sont : (SK )ij =

n o 1 1 1 [Kij + Kji ] = [Tij + Tji ] − Tr T 2 2 3

(39a)

et celles de AK : (AK )ij =

1 1 [Kij − Kji ] = [Tij − Tji ] 2 2

(39b)

Les tenseurs AK appartiennent à l’espace des tenseurs complètement antisymétriques ; nous avons vu qu’ils sont assimilables à des vecteurs, de sorte qu’il leur correspond la représentation irréductible j = 1 de R(3) , qui est à 3 dimensions (cf. chapitre VII, § A-5-a). Il ne nous reste maintenant qu’à considérer l’espace à 5 dimensions des tenseurs S K , symétriques et de trace nulle. Nous admettons ici (mais la démonstration a été faite dans le chapitre VIII) que la représentation correspondante est irréductible ; il en résulte la présence de la valeur j = 2 dans la représentation étudiée. • Pour un tenseur d’ordre n quelconque, le raisonnement précédent peut être généralisé. Il est facile par trace sur deux indices quelconques de faire apparaître des tenseurs d’ordre n−2. De cette façon, on peut retrancher du tenseur initial Cn2 = n(n − 1)/2 tenseurs qui se ramènent à des tenseurs de rang inférieur de deux unités. On écrit ensuite : Txi xj xk ... x` =

i 1 h Txi xj xk ... x` + Txj xi xk ... x` 2 i 1 h + Txi xj xk ... x` − Txj xi xk ... x` 2

(40)

Le deuxième terme du membre de droite, antisymétrique par rapport aux deux premiers indices, est assimilable à un tenseur d’ordre n − 1. Nous le retranchons donc et ne gardons que le premier terme, symétrique. On peut effectuer la même opération pour tous les couples d’indices. Pour finir, après que toutes les parties de T (n) qui se ramènent à des ordres n − 1 ou n − 2 aient été retranchées, il reste un tenseur complètement symétrique et de traces nulles (les composantes sont invariantes par 364



RAPPELS ÉLÉMENTAIRES SUR LES TENSEURS CLASSIQUES

échange de deux indices quelconques ; les n(n−1)/2 sommes sur deux indices quelconques sont toutes nulles). L’espace engendré par de tels tenseurs est irréductible et de dimension 2n + 1. Vérifions que cette dimension est bien (2n + 1). Pour cela, cherchons de combien de paramètres dépendent les tenseurs en question. Pour un tenseur complètement symétrique, la valeur d’une composante dépend du nom (x, y ou z) des composantes qui y apparaissent, mais pas de leur ordre : x : p fois

y : q fois

z : r fois

si r est fixé, p peut être choisi de n + 1 − r façons différentes : p = 0, 1, 2, . . . , n − r. Il faut donc calculer : n X

n − r + 1 = n(n + 1) −

r=0

n(n + 1) (n + 1)(n + 2) +n+1= 2 2

De plus, on a n(n + 1)/2 conditions de traces nulles. Pour finir, il reste : (n + 1)(n + 2) n(n + 1) − = 2n + 1 2 2 paramètres indépendants. Il ne resterait donc qu’à démontrer l’irréductibilité des représentations pour établir qu’elles correspondent à j = n. Remarque :

Si l’on considère des changements de trace non nécessairement orthonormés, les représentations irréductibles sont à rechercher parmi celles du groupe des permutations ; les sous-espaces invariants sont alors moins nombreux.

365



OPÉRATEURS TENSORIELS DU SECOND ORDRE

Complément BVIII Opérateurs tensoriels du second ordre 1

Produit tensoriel de deux opérateurs vectoriels . 367

2

Composantes cartésiennes du tenseur dans le cas général . . . . . . . . . . . . . . . . . . . . . . . . . . 369

Dans ce complément, nous examinons plus en détail comment les égalités (VIII-47) du chapitre VIII permettent de construire des tenseurs du second ordre, de façon à rendre plus visibles leurs propriétés. Nous allons en fait effectuer deux calculs : tout d’abord, au § 1, nous prendrons le cas (K) simple où T = V ⊗ W et donnerons les expressions des TQ ; puis, au § 2, nous considérerons un tenseur T quelconque, et nous écrirons les matrices associées à la décomposition (VIII-58) du chapitre VIII. Ceci fera apparaître la façon dont se répartissent les divers éléments de matrice associés à chaque valeur de K.

1.

Produit tensoriel de deux opérateurs vectoriels Supposons donc que : T =V ⊗W

(1)

et calculons les composantes des tenseurs T (K) pour K = 0, 1, 2. (i) K = 0 L’égalité (VIII-47c) donne : 1 (K=0) T(Q=0) = √ [V+1 W−1 − V0 W0 + V−1 W+1 ] 3 1 = − √ [Vx Wx + Vy Wy + Vz Wz ] 3 1 = −√ V · W 3

(2)

L’opérateur scalaire (invariant par rotation) que nous obtenons est donc simplement proportionnel au produit scalaire V · W . 367



COMPLÉMENT BVIII

(ii) K = 1 Nous utilisons maintenant la relation (VIII-47b), qui conduit à : 1 1 = √ (V+1 W0 − V0 W+1 ) = − [Vx Wz − Vz Wx + i (Vy Wz − Vz Wy )] 2 2 1 i (K=1) T0 = √ (V+1 W−1 − V−1 W+1 ) = − √ [Vy Wx − Vx Wy ] 2 2 1 1 (K=1) T−1 = √ (V0 W−1 − V−1 W0 ) = [Vz Wx − Vx Wz − i (Vz Wy − Vy Wz )] 2 2 (3) (K=1)

T1

On reconnaît alors les composantes de l’opérateur : K =V ×W

(4)

et on voit que : (K=1)

T1

(K=1)

T0

(K=1)

T−1

i = √ K+1 2 i = √ K0 2 i = √ K−1 2

En d’autres termes : i i T (K=1) = √ K = √ V × W 2 2

(5)

(6)

Les relations de commutation de cet opérateur avec le moment cinétique total J sont celles d’un opérateur vectoriel. (iii) K = 2 Enfin la relation (VIII-47a) indique que : (2)

T2

(2)

T1

(2)

T0

(2)

T−1

= V+1 W+1 1 = √ (V+1 W0 + V0 W+1 ) 2 1 = √ (V+1 W−1 + 2V0 W0 + V−1 W+1 ) 6 1 = √ (V0 W−1 + V−1 W0 ) 2

(2)

T−2 = V−1 W−1

(7) (2)

L’expression de T0 (2)

T0 368

peut être mise sous la forme :

1 = √ [3Vz Wz − V · W ] 6

(8)



OPÉRATEURS TENSORIELS DU SECOND ORDRE

Ce tenseur ne peut pas être ramené à un tenseur n < 2, contrairement aux deux précédents. En composantes cartésiennes, il faut donc le décrire par une matrice 3 × 3 contenant 9 opérateurs. Nous verrons que cette matrice est symétrique et à trace nulle. 2.

Composantes cartésiennes du tenseur dans le cas général

Prenons maintenant un tenseur quelconque, qui n’est donc pas nécessairement un produit tensoriel. Nous allons calculer ses composantes carté(K) siennes T xi xj en fonction des Tmi mj , puis des TQ . Pour T xx par exemple, la relation (VIII-43b) du chapitre VIII, ainsi que les expressions (VIII-24) des éléments de la matrice (S), conduisent à : T xx =

X

(S)?1i0 (S)?1j 0 Tmi0 mj 0

i0 j 0

=

1 [T1 1 + T−1 −1 − T1 −1 − T−1 1 ] 2

(9)

puis, en utilisant les coefficients de Clebsch-Gordan de la relation (VIII-47b) : 1 (2) (2) T + T−2 − 2 2

1 1 1 √ T0(2) + √ T0(1) + √ T0(0) 6 2 3   1 (2) 1 (1) 1 (0) − √ T0 − √ T0 + √ T0 6 2 3 i 1 h (2) 1 1 (2) (2) (0) = T + T−2 − √ T0 − √ T0 2 2 6 3 

T xx =





(10)

De même : i [−T1 1 + T−1 −1 − T1 −1 + T−1 1 ] 2 i i h (2) i (1) (2) = T−2 − T2 − √ T0 2 2

Txy =

(11)

ainsi que : i 1 1h (2) (2) (1) (1) Txz = √ [−T1 0 + T−1 0 ] = −T1 + T−1 − T1 − T−1 2 2

(12)

Nous avons ainsi obtenu tous les éléments de matrice de l’opérateur tensoriel T qui se trouvent sur la première ligne de la matrice. Des calculs du même type peuvent être effectués pour les 6 composantes restantes, et permettent d’obtenir la contribution de T (0) , T (1) et T (2) aux composantes cartésiennes de T . 369



COMPLÉMENT BVIII

• Celle de T (0) est : 

(0)

T0 1   −√  0 3 0



0 (0)

T0 0

0  0   (0)

T0

C’est un tenseur scalaire d’ordre n = 2. Les composantes non nulles sont placées sur la diagonale principale, elles sont égales et invariantes dans toute rotation. • La contribution de T (1) s’écrit : 

(1) −T0

0

  i  (1) √   T0 2  i h (1)

−√

2

T1

0 (1)

+ T−1

i

1 h (1)

−√

2

T1

(1)

− T−1



0

i

i  (1) =√  Tz 2 (1) −Ty

i i h (1) √ T1(1) + T−1  2 i 1 h (1) (1)  √ T1 − T−1   2  

0 (1)

−Tz 0 (1) Tx

(1)



Ty  (1) −Tx   0

(13a)

On a posé, comme pour tout opérateur vectoriel : i 1 h (1) (1) Tx(1) = √ T−1 − T1 2 i i h (1) (1) Ty(1) = √ T1 + T−1 2 (1)

Tz(1) = T0

(13b)

Le tenseur obtenu a une trace nulle et est totalement antisymétrique. Il peut s’écrire comme un produit vectoriel : i √ T (1) × . . . 2 ou encore, si T = V ⊗ W : 1 (V × W ) × . . . 2 370



OPÉRATEURS TENSORIELS DU SECOND ORDRE

• Enfin, la contribution de T (K=2) s’écrit : 1 h

(2)

T2

i 1 (2) (2) + T−2 − √ T0 6

2  i  i h (2) (2) − T − T −2  2 2  i  1 h (2) (2)



2

− T−1

T1

i i i h (2) 1 h (2) (2) (2) T2 − T−2 − T1 − T−1  2 2 i h i  1 h (2) 1 i (2) (2) (2) (2)  − T2 + T−2 − √ T0 T1 + T−1   2 2 6  h i  i 2 (2) (2) (2) √ T1 + T−1 T0 2 6 (14)



Nous obtenons, comme annoncé plus haut, une matrice symétrique à trace nulle. Remarques :

(i) Seul T (0) contribue à la trace de T . (ii) Un tenseur T (K) est hermitique si ses composantes cartésiennes le sont. La matrice (S) étant complexe, ceci n’entraîne pas l’hermiticité des composantes sphériques. Sur la matrice d’opérateurs que nous venons d’écrire, on voit que l’hermiticité est réalisée pour T (K=2) et T (K=0) si : h

i (K) †

TQ

(K)

= (−1)Q T−Q

(15) (1)

(1)

Pour T (K=1) , cette définition assure que les trois opérateurs Tx , Ty (1) et Tz définis en (13b) sont hermitiques au sens habituel (en tant que composantes d’un opérateur vectoriel T ). Cependant, pour la contribution à un tenseur d’ordre 2, on voit √ que les opérateurs qui apparaissent sont antihermitiques, à cause du i/ 2 en facteur dans (13a) : l’hermitique conjugué de chaque opérateur est celui qui est symétrique par rapport à la diagonale principale.

371



LES MOMENTS MULTIPOLAIRES

Complément CVIII Les moments multipolaires 1

2

3

Moments multipolaires électriques . . . . . . . . . 374 1-a Développement du potentiel à l’extérieur d’un système de charges . . . . . . . . . . . . . . . . . . . . 374 1-b Cas de charges ponctuelles . . . . . . . . . . . . . 378 1-c Système de charges placées dans un potentiel extérieur . . . . . . . . . . . . . . . . . . . . . . . . . 379 1-d Discussion physique . . . . . . . . . . . . . . . . . 380 1-e Opérateurs en mécanique quantique . . . . . . . . 385 Moments multipolaires magnétiques . . . . . . . 387 2-a Développement du champ magnétique statique B à l’extérieur d’un système de courants . . . . . . . 387 2-b Cas de charges ponctuelles . . . . . . . . . . . . . 391 2-c Discussion physique . . . . . . . . . . . . . . . . . 392 2-d Opérateurs quantiques . . . . . . . . . . . . . . . . 393 Moments multipolaires d’un système quantique dans une multiplicité de moment cinétique J donné 393 3-a Généralités . . . . . . . . . . . . . . . . . . . . . . 393 3-b Moment quadrupolaire électrique d’un noyau . . . 395

En physique classique, considérons un système de charges et de courants localisés dans un volume V de surface externe S. Nous allons dans ce complément nous intéresser aux interactions électromagnétiques de ce système avec d’autres systèmes physiques situés à l’extérieur de S. Au § 1, nous calculerons le champ électrique créé par ces charges en un point r hors de S, en nous limitant pour commencer au cas où les charges sont immobiles. Ce champ électrostatique sera exprimé en fonction de quantités qui portent le nom de “moments multipolaires électriques” Qm l du système considéré. On peut également traiter un problème légèrement différent, celui du calcul de l’interaction des charges de S avec un potentiel électrique créé par d’autres charges (toutes extérieures à S) ; nous verrons que, cette fois encore, le résultat fait intervenir les Qm l . Dans le cadre de la mécanique quantique, les (K=l) m Ql deviennent des opérateurs tensoriels irréductibles TQ=m ; le théorème de Wigner-Eckart leur est donc applicable. Nous reprendrons ensuite le problème au § 2, mais en considérant cette fois un système de courants stationnaires, et non de charges. Ceci nous conduira à introduire les “moments multipolaires magnétiques” Mlm , dont les propriétés sont assez semblables à celles des Qm l , à part que leurs parités sont opposées. Nous donnerons enfin au § 3 quelques exemples d’application 373



COMPLÉMENT CVIII

de ce formalisme : quadrupole électrique de niveaux atomiques ou nucléaires, règles de sélection pour des transitions multipolaires entre niveaux différents. Remarque :

Nous nous limiterons ici au cadre de l’électrostatique ou de la magnétostatique (densité de charges ρ et courants J très lentement variables dans le temps). Cette limitation n’a rien d’essentiel : il est possible de raisonner de façon plus générale, dans le cadre des équations de Maxwell qui tiennent compte des effets liés à la propagation du rayonnement. Les calculs sont alors plus compliqués, et il est commode d’introduire la notion d’harmoniques sphériques vectorielles (analogues aux harmoniques “scalaires” Ylm ), qui sont les fonctions propres communes de J2 et de Jz pour un champ de vecteurs (au lieu d’une fonction scalaire, n’ayant qu’une seule composante). Le lecteur intéressé pourra consulter le chapitre 16 de [39], ou encore le cours au Collège de France de C. Cohen-Tannoudji (1973-1974), disponible en ligne. 1.

Moments multipolaires électriques

1-a.

Développement du potentiel à l’extérieur d’un système de charges

Considérons une densité de charges ρ(r), localisée dans un volume V , et appelons S0 une sphère de rayon R0 , centrée à l’origine, contenant V (figure 1) : ρ(r) = 0 si

r > R0

(1)

Nous nous intéressons au calcul du potentiel V et du champ électrique E

Figure 1 – Une densité ρ(r) de charges électriques est localisée à l’intérieur d’une sphère S0 de rayon R0 . On cherche à calculer le champ en tout point r extérieur à la sphère. 374



LES MOMENTS MULTIPOLAIRES

créés par ce système de charges à l’extérieur de S0 . Il s’agit donc de chercher la solution de l’équation en V : ∆V = −ρ(r)/ε0

(2)

qui s’annule à l’infini. L’opérateur ∆ est le laplacien : ∆=

∂2 ∂2 ∂2 + + ∂x2 ∂y 2 ∂z 2

(3)

invariant par rotation ; il commute donc avec Lz et L2 (opérateurs de moment cinétique orbital), et peut s’écrire : ∆≡

1 ∂2 L2 r − r ∂r2 ~2 r2

(4)

Nous allons donc décomposer les dépendances angulaires de V et de ρ sur les harmoniques sphériques, et poser 1 : V (r) =

∞ X +l X

? vlm (r) Ylm (θ, ϕ)

(5a)

ρ?lm (r) Ylm (θ, ϕ)

(5b)

l=0 m=−l

ρ(r) =

∞ X +l X l=0 m=−l

Comme les Ylm (θ, ϕ) sont orthonormées en tant que fonction de θ et ϕ, les coefficients vlm et ρlm sont donnés par : Z

vlm (r) = 4π

Z

ρlm (r) = 4π

dΩ Ylm (θ, ϕ) v(r)

(6a)

dΩ Ylm (θ, ϕ) ρ(r)

(6b)

Si l’on identifie alors les développements des deux membres de (2), on obtient en utilisant (4) : "

#

1 d2 l(l + 1) ρlm (r) r− vlm (r) = − 2 2 r dr r ε0

(7)

Nous avons ainsi complètement séparé les aspects angulaire et radial du problème. Pour chaque valeur de l et de m, l’équation (7) est une équation différentielle à une seule variable. ? 1. Il est commode de prendre la convention selon laquelle ce sont vlm (r) et ρ?lm (r), et non vlm et ρlm , qui figurent dans ces développements. Elle assure que ces coefficients se transforment par rotation comme Ylm , comme le montrent les relations (6). Rappelons ? la relation générale Ylm (θ, ϕ) = (−1)m Yl−m (θ, ϕ). Le fait que V (r) et ρ(r) soient réels ? entraîne que vlm (r) = (−1)m vl−m (r) et ρ?lm (r) = (−1)m ρl−m (r).

375

COMPLÉMENT CVIII



Nous allons voir que sa solution est : vlm (r) =

1 1 Qm l p ε0 4π(2l + 1) rl+1

(8)

où Qm l est la constante définie par : s

Qm l

R0 4π = dr0 (r0 )l+2 dr0 ρlm (r0 ) 2l + 1 0 s Z  4π = d3 r0 (r0 )l Ylm θ0 , ϕ0 ρ(r0 ) 2l + 1 V0

Z

(9)

Qm l est appelé le moment multipolaire électrique d’ordre l, m, du système de charges étudié. Démonstration : Si r > R0 , la fonction ρlm (r) est nulle, de sorte que :   1 d2 l(l + 1) r − vlm (r) = 0 si r > R0 (10) r dr2 r2 Cette équation 2 admet deux solutions indépendantes, rl et 1/rl+1 . Les solutions de l’équation (7) dépendent de deux paramètres, et ont généralement un comportement en rl quand r → ∞. Ce comportement divergent est à rejeter puisque le potentiel créé par les charges s’annule à très grande distance. Nous ne garderons donc que la solution (définie à un facteur multiplicatif près) qui présente à l’infini un comportement non divergent en 1/rl+1 . Posons donc (changement de fonction) : vlm (r) = rl xlm (r)

(11)

Cette égalité définit xlm (r) en tout point (sauf éventuellement en r = 0). Comme vlm (r) reste fini lorsque r → ∞, nous nous attendons à ce que 3 : xlm (r) − −−→ r−→ ∞ 0 Le report de (11) dans (10) donne :   d d2 1 2(l + 1) + r 2 xlm (r) = −ρlm (r) dr dr ε0 rl−1

(12)

(13)

qui se réduit à une équation différentielle du premier ordre si l’on pose : ylm (r) =

d xlm (r) dr

(14)

2. C’est une équation différentielle à coefficients réels régissant une fonction complexe d’une variable réelle. Les raisonnements que nous menons s’appliquent à la partie réelle et à la partie imaginaire de la fonction, et donc tout aussi bien à la fonction elle-même. 3. En fait, si vlm ∼ r−(l+1) lorsque r → ∞, on a xlm ∼ r−(2l+1) et xlm tend rapidement vers zéro à l’infini. C’est bien ce que nous obtiendrons plus loin.

376



LES MOMENTS MULTIPOLAIRES

La nouvelle fonction ylm (r) satisfait à :   d 1 2(l + 1) + r ylm (r) = −ρlm (r) dr ε0 rl−1

(15)

Si r > R0 , ρlm (r) est nul, et la solution de cette équation est proportionnelle à 1/r2(l+1) . Si nous posons : ylm (r) =

zlm (r) r2(l+1)

(16)

Nous obtenons l’équation plus simple : d 1 zlm (r) = − rl+2 ρlm (r) dr ε0 qui s’intègre immédiatement pour donner : Z 1 r 0 0 l+2 zlm (r) = zlm (0) − dr r ρlm (r0 ) ε0 0

(17)

(18)

La fonction zlm n’est donc jamais singulière à l’origine. Mais ce n’est en général pas le cas des fonctions x, y et v introduites précédemment. En effet, si zlm (0) 6= 0, lorsque r → 0 : ylm (r) ∼ zlm (0)/r2l+2 xlm (r) ∼ zlm (0)/r2l+1 vlm (r) ∼ zlm (0)/rl+1

(19)

Nous retrouvons bien le résultat que nous avions prévu plus haut : en général, la solution de (7) diverge à l’origine en r−(l+1) . Or nous cherchons une solution de (2) qui reste valable en tout point de l’espace, y compris l’origine, lorsque ρ(r) est partout finie. Il nous faut donc poser zlm (0) = 0 dans (18). Lorsque r > R0 , la fonction zlm est constante, et sa valeur est donnée par : r 1 2l + 1 m zlm = − Ql si r > R0 (20) ε0 4π où l’on a posé : r Z R0 4π Qm = r02 dr0 r0 l ρlm (r0 ) (21) l 2l + 1 0 p Dans cette définition, le facteur 4π/(2l + 1) a été introduit par pure commodité, pour des raisons qui apparaîtront dans la suite ; la borne supérieure de l’intégrale, R0 , peut aussi bien être remplacée par +∞. Il vient donc : r 1 2l + 1 Qm l ylm (r) = − si r > R0 (22) ε0 4π r2(l+1) qui nous donne la dérivée par rapport à r de xlm (r).

377

COMPLÉMENT CVIII



Nous ne connaissons pas le comportement de xlm à l’origine, ce qui nous interdit d’intégrer (22) de 0 à r ; toutefois, la condition (12) nous permet d’effectuer une intégration entre r et +∞, ce qui donne : +∞

Z xlm (∞) = 0 = xlm (r) +

dr ylm (r)

(23)

r

soit encore : 1 xlm (r) = ε0

r

2l + 1 Qm 1 l 4π 2l + 1 r2l+1

(24)

Par suite, il vient : vlm (r) =

1 1 Qm l p ε0 4π(2l + 1) rl+1

(25)

et nous obtenons alors l’égalité (8).

Pour finir, la solution de (2) que nous avons retenue s’écrit : ∞ X l 1 X V (r) = 4π ε0 l=0 m=−l

s

m 4π ? Yl (θ, ϕ) (Qm l ) 2l + 1 rl+1

(26)

Les Qm l définis en (9) [ou (21)] sont donc des nombres qui permettent d’écrire le potentiel électrique à l’extérieur de S0 sous forme d’un développement en harmoniques sphériques. Ces nombres sont appelés moments multipolaires électriques du système de charges considéré. Ils permettent de complètement caractériser le champ électrique E(r) créé par les charges à l’extérieur de S0 :

∞ X l 1 X E(r) = − 4π ε0 l=0 m=−l

1-b.

s

4π Ylm (θ, ϕ) ? (Qm l ) ∇ 2l + 1 rl+1 



(27)

Cas de charges ponctuelles

Si le système considéré comprend une charge unique située en r1 , on a: ρ(r 0 ) = q δ r 0 − r1



(28)

et V (r) est simplement donné par : V (r) = 378

1 q 4π ε0 |r − r1 |

(29)



LES MOMENTS MULTIPOLAIRES

D’autre part, si l’on reporte (28) dans (9), on peut immédiatement effectuer l’intégration et obtenir la valeur de Qm l : s

Qm l

=q

4π (r1 )l Ylm (θr1 , ϕr1 ) 2l + 1

(30)

L’égalité (26) donne alors, si l’on remplace r1 par r 0 pour rendre la formule plus symétrique : m X 4π 1 0 l m? 0 0  Yl (θ, ϕ) = (r ) Y θ , ϕ l |r − r 0 | 2l + 1 rl+1 lm

si r0 < r

(31)

où r0 , θ0 , ϕ0 sont les coordonnées sphériques du vecteur r 0 . Si r0 > r, il suffit d’inverser dans (31) le rôle de r et r 0 pour obtenir le développement de 1/|r − r 0 | en harmoniques sphériques. Le développement (31) s’avère fréquemment utile, et nous servira d’aileurs dans la suite de ce complément. Pour un système comprenant N charges ponctuelles q1 , q2 , q3 , . . . situées en r1 , r2 , r3 , . . . on a : ρ(r 0 ) =

N X

qn δ r 0 − r n



(32)

n=1

et la relation (9) conduit à : s

Qm l

=

N 4π X qn (rn )l Ylm (θn , ϕn ) 2l + 1 n=1

(33)

où rn , θn et ϕn sont les composantes sphériques de rn . 1-c.

Système de charges placées dans un potentiel extérieur

Nous considérons maintenant deux systèmes de charges : le premier, identique au précédent, et entièrement situé à l’intérieur d’une sphère S0 ; le second est constitué de charges qui sont toutes extérieures à une sphère S1 , centrée comme S0 à l’origine, mais de rayon R1 supérieur (ou égal) à R0 . Le rôle de ce second système de charges est de créer un potentiel électrique Ve (r) dont nous allons calculer l’énergie d’interaction avec les charges contenues dans S0 . Cette énergie s’écrit : Z

W =

d3 r0 ρ(r 0 ) Ve (r 0 )

(34)

où le potentiel Ve (r 0 ) s’exprime en fonction de la densité de charges ρe (r 0 ), qui en est la source, par : Ve (r 0 ) =

1 4π ε0

Z

d3 r00

ρe (r 00 ) |r 00 − r 0 |

avec : ρe (r 0 ) = 0 si r0 < R1

(35) 379

COMPLÉMENT CVIII



Figure 2 – Un premier système de charges est concentré autour de l’origine, entièrement contenu dans une sphère S0 de rayon R0 . Un second système de charges est entièrement localisé à l’extérieur d’une sphère S1 de rayon R1 ; il crée un potentiel électrostatique Ve (r) qui interagit avec le premier système. Si nous utilisons le développement (31) de 1/|r 00 − r 0 |, il vient : 1 X Ve (r 0 ) = 4π ε0 lm

s

 4π ? Tlm (r0 )l Ylm θ0 , ϕ0 2l + 1

(36)

Ylm (θ00 , ϕ00 ) (r00 )l+1

(37)

avec : s

Tlm =

4π 2l + 1

Z

d3 r00 ρe (r 00 )

Les Tlm peuvent être appelés “moments multipolaires vers l’intérieur” du système de charges décrit par ρe (par opposition aux Qm l qui sont des “moments multipolaires vers l’extérieur”). Ils donnent le développement de Ve (r) sur les fonctions harmoniques rl Ylm (θ, ϕ), c’est-à-dire les termes de degré l dans le développement de Ve (r) en puissances de x, y et z au voisinage de l’origine. Si nous reportons (36) dans l’énergie d’interaction (34), nous obtenons :

W =

∞ X +l 1 X (−1)m Tlm Q−m l 4π ε0 l=0 m=−l

(38)

Les moments multipolaires Qm l d’un système de charges caractérisent donc aussi bien le champ électrique qu’elles créent à l’extérieur que leur énergie d’interaction avec un potentiel externe Ve auquel elles sont soumises. 1-d.

Discussion physique

Examinons maintenant à quoi correspondent physiquement les divers moments multipolaires Qm l . 380

• α.

LES MOMENTS MULTIPOLAIRES

Moments l = 0 ; charge totale

√ On sait que Y00 est une constante Y00 = 1/ 4π. On a donc : Q00 =

Z

d3 r0 ρ(r0 )

(39)

de sorte que Q00 est la charge totale du système envisagé, que nous notons Q pour simplifier. Pour des particules ponctuelles de charges qn : Q=

X

qn

(40)

n

La contribution de la charge totale Q à V (r) [terme l = m = 0 de (26)] est :

V00 (r) =

Q 1 4π ε0 r

(41a)

et le champ électrique correspondant vaut : E00 =

Q r 4π ε0 r3

(41b)

Ce champ est invariant par rotation ; c’est celui que créeraient l’ensemble des charges si elles étaient toutes ramenées à l’origine. Lorsqu’on s’intéresse au champ créé par un système de charges à grande distance [r  R0 , dimension caractéristique de l’extension spatiale du système], on fait souvent l’approximation qui consiste à ne retenir 4 que le terme l = m = 0 dans le développement (26) de V (r). β.

Moment l = 1 ; dipôle électrique Comme :  r r    3 3 x ± iy  ±1 ±i ϕ  sin θ e =∓  Y1 (θ, ϕ) = ∓ 8π 8π r r r  3 3 z    Y10 (θ, ϕ) = cos θ =

(42)

4π r



on obtient : Q±1 1 Q01

1 = ∓√ 2 Z

=

Z

d3 r0 ρ(r 0 ) x0 ± iy 0

d3 r0 ρ(r 0 ) z 0





(43)

4. Pour que cette approximation soit bonne, il faut bien sûr que Q00 ne soit pas nul m 2 (système de charges non neutre), et que |Q0 |  |Qm 1 |/r, |Q2 |/r , . . .

381

COMPLÉMENT CVIII



Les relations (VIII-30) du chapitre VIII indiquent comment revenir des composantes standard vers les composantes cartésiennes : i 1 h 1 = √ Q−1 d3 r0 ρ(r 0 ) x0 1 − Q1 = 2 i Z i h −1 1 = √ Q1 + Q1 = d3 r0 ρ(r 0 ) y 0 2 Z

Q1 x Q1 y

Q1 z =

Q01

Z

=

d3 r0 ρ(r 0 ) z 0

(44a)

soit, en notation vectorielle : Z

Q1 =

d3 r0 r 0 ρ(r 0 )

(44b)

Pour des charges ponctuelles, il vient : Q1 =

X

qn rn

(45)

n

Nous retrouvons pour Q1 le dipôle électrique habituel d’un ensemble de p charges (nous voyons ainsi l’intérêt du facteur 4π(2l + 1) introduit plus haut dans la définition de Qm l ). En reportant ces égalités dans (26) et en utilisant à nouveau les égalités (42), on vérifie que la contribution correspondant à V (r) s’écrit : 1 Q1 · r 4π ε0 r3

(46)

On obtient donc un potentiel qui varie en r−2 . Pour le champ électrique, il est proportionnel à r−3 et a l’allure bien connue d’un champ dipolaire illustré sur la figure 3. Il arrive souvent en physique que l’on ait à étudier des systèmes physiques électriquement neutres (atomes, molécules par exemple). Le champ dipolaire est alors la contribution principale du champ électrique qu’ils créent à suffisamment grande distance. Si maintenant le système est placé dans un potentiel extérieur, on peut isoler dans (38) la contribution du dipôle électrique à l’énergie d’interaction W , contribution qui s’écrit : X

(−1)m Q,−m T1m = −Q1 · Ee (0) 1

(47)

m

où Ee (0) est le champ électrique créé à l’origine par les charges externes : Ee (0) = −∇ {Ve (r)}r=0 382

(48)



LES MOMENTS MULTIPOLAIRES

Figure 3 – Allure générale des lignes de champ créé par un dipôle Q1 placé à l’origine et pointant vers le haut.

La démonstration de cette relation est simple et peut être par exemple trouvée dans le complément EX de la référence [10]. Lorsque le système étudié est de dimensions très petites [comparées à une distance caractéristique sur laquelle varie le champ Ee (r)], on peut souvent tronquer l’énergie d’interaction W aux termes l ≤ 1. En fait, on peut alors même se limiter à l’expression (47) en ignorant le terme l = 0, qui s’écrit Q Ve (0) et donne donc une constante sans conséquences physiques sur l’évolution du système soumis au potentiel extérieur. Cette situation se présente par exemple lorsque l’on veut étudier la dynamique d’un atome soumis à l’action d’un potentiel électrique créé par des électrodes de dimensions macroscopiques, ou encore par un laser de fréquence optique qui induit un dipôle dans l’atome (dans l’approximation où l’on ne retient que la composante continue de l’énergie d’interaction).

γ.

Moment l = 2 ; quadrupôle électrique On calcule facilement à partir de l’expression des Y2m (θ, ϕ) : √ Z   2 6  ±2   Q2 = d3 r0 ρ(r 0 ) x0 ± iy 0   4   √ Z    6 ±1 Q2 = ∓ d3 r0 ρ(r 0 ) z 0 x0 ± iy 0   2   Z  h i  0 1  Q = d3 r0 ρ(r 0 ) 3z 0 2 − r 0 2 2

(49a)

2

383



COMPLÉMENT CVIII

Pour un ensemble de charges ponctuelles ces formules deviennent : √  6 X  ±2   Q = qn [xn ± iyn ]2  2  4 n   √   6 X ±1 Q2 = ∓ qn zn [xn ± iyn ]  2 n    h i  1 X  0   qn 3zn2 − rn2  Q2 = 2 n

(49b)

Le potentiel correspondant varie en r−3 , le champ en r−4 . On se reportera à des ouvrages d’électromagnétisme pour trouver des figures représentant l’allure des cartes de champs correspondantes. Une façon simple de visualiser un système de charges quadrupolaire pur, c’est-à-dire de Q0 et Q1 nuls, est de considérer un ensemble de deux dipôles opposés. On montre facilement que la contribution à l’interaction W du système =

de charges avec le potentiel Ve (r) fait apparaître le produit de Q2 par le vecteur des dérivées premières à l’origine des composantes du champ Ee (r). Exercice : Montrer que, pour un système de charges ponctuelles, les termes l = 2 du développement (38) s’écrivent (contraction de deux tenseurs cartésiens d’ordre deux) : (" X i,j

∂ 2 Ve ∂xi ∂xj

#

)

×

X

r=0

qn xin xjn

n

où xin = xn , yn ou zn δ.

si i = 1, 2, 3

Généralisation ; moments l-polaires électriques

Plus la valeur de l que l’on considère est élevée, plus le champ électrique correspondant varie dans l’espace de façon compliquée, et plus vite il décroît à l’infini [en r−(l+2) ] ; ce champ dépend des 2l+1 composantes du moment Ql . Dans beaucoup de cas, cette décroissance rapide à l’infini permet de tronquer la sommation (26) à une faible valeur de l (par exemple l = 2), ce qui apporte souvent une simplification considérable aux calculs. Remarque :

On peut se demander quelle est l’influence de l’origine des coordonnées choisie sur les valeurs des Qm l . Les expressions de tous les moments m Ql , sauf Q00 , dépendent a priori de l’origine des axes choisie pour les évaluer. Considérons cependant un système de deux charges opposées, +q et −q ; on a alors : Q1 = q (r1 − r2 ) 384

(50)



LES MOMENTS MULTIPOLAIRES

et il est clair que Q1 est indépendant de l’origine choisie. Cette propriété se généralise : pour un système dont tous les moments Q0 , Q1 . . . Ql−1 m sont nuls dans un référentiel donné, ces moments restent nuls par translation des axes ; la valeur des premiers moments multipolaires non nuls, d’ordre l, ne varie pas dans cette translation des axes.

Exercice : Démontrer cette propriété. Pour cela, on pourra considérer une transm lation infinitésimale de δr0 de l’origine des axes n et calculer laovariation δQl 0l m 0 0 de Qm l . On fait alors apparaître la quantité ∇ r Yl (θ , ϕ ) dont on montrera que les 3 composantes sont des fonctions harmoniques homogènes de degré l − 1 de x0 , y 0 et z 0 . On en déduira que ces composantes sont des comm0 (θ 0 , ϕ0 ) et que la variation de Qm s’exprime binaisons linéaires des r0 l−1 Yl−1 l en fonction des Ql−1 m0 . 1-e.

Opérateurs en mécanique quantique

Pour un ensemble de N charges ponctuelles, nous avons obtenu en (33) l’expression suivante du multipôle Qm l : s

Qm l =

N 4π X qn (rn )l Ylm (θn , ϕn ) 2l + 1 n=1

(51)

où rn , θn , ϕn sont les composantes sphériques de la position rn de la nième particule, de charge qn . L’expression : (rn )l Ylm (θn , ϕn ) est une fonction homogène (harmonique) de degré n des coordonnées cartésiennes xn , yn , zn de cette particule. Cette fonction peut être notée Flm (rn ) :

Flm (rn ) = Flm (xn , yn , zn ) = (rn )l Ylm (θn , ϕn )

(52)

ˆ m correspondant à (51) sera simplement obtenu en L’opérateur quantique Q l remplaçant xn , yn et zn par les opérateurs Xn , Yn et Zn (aucune symétrisation n’est nécessaire, puisque tous ces opérateurs commutent) : ˆm = Q l

4π X qn Flm (Rn ) 2l + 1 n

(53)

385



COMPLÉMENT CVIII

Exemples : La charge totale (l = m = 0) donne un opérateur qui est simplement un nombre (opérateur scalaire), commutant avec tout autre opérateur ; le dipôle électrique donne : P (op.) =

X

qn R n

(54)

n

etc. ˆ m est la composante m d’un opérateur tensoriel Chaque opérateur Q l irréductible d’ordre K = l. Démonstration : Raisonnons dans l’espace des états E d’une particule unique ; la généralisation à un ensemble de plusieurs particules est immédiate. Par définition de l’opérateur quantique Fˆlm associé à Flm , on a : Fˆlm |ri = rl Ylm (θ, ϕ) |ri (55) 0 Calculons alors l’action en représentation |ri du transformé Fˆlm de Fˆlm par rotation : 0 + Fˆlm = Ru (ϕ) Fˆlm Ru (ϕ) (56)

Si nous introduisons également le point r 0 transformé de r par la rotation (Ru (ϕ))−1 dans l’espace habituel : r 0 = (Ru (ϕ))

−1

r

(57)

nous pouvons écrire : + Ru (ϕ) Fˆlm Ru (ϕ) |ri = Ru (ϕ) Fˆlm |r 0 i = (r0 )l Ylm (θ0 , ϕ0 ) Ru (ϕ) |r 0 i = (r0 )l Ylm (θ0 , ϕ0 ) |ri

(58a)

Or : Ylm (θ0 , ϕ0 ) =

X

R[j=l] (u, ϕ)



m0

0

m0 m

Ylm (θ, ϕ)

(58b)

(transformation par rotation d’un moment cinétique j = l), de sorte que l’égalité (58a), valable quel que soit le ket de base |ri, donne :  X + Ru (ϕ) Fˆlm Ru (ϕ) = R[j=l] (u, ϕ) 0 Fˆlm (59) mm

m0

Cette relation n’est autre que la définition même d’un opérateur tensoriel irréductible. En effectuant la somme des opérateurs Flm associés à chacune des particules, et agissant dans des espaces des états différents, on démontre que Qm l se transforme par rotation également suivant (59). l La parité de l’opérateur Qm l est (−1) . En effet, si S0 désigne l’opération de parité (complément DV ) : S0 Fˆlm S + |ri = S0 Fˆlm | − ri = S0 rl Y m (π − θ, ϕ + π) | − ri 0

l l

= (−1) r

l m Yl (θ, ϕ)

S0 | − ri = (−1)l Fˆlm |ri

l’opérateur Q0 (scalaire) est donc pair, Q1 (dipôle) est impair, etc. 386

(60)

• 2.

LES MOMENTS MULTIPOLAIRES

Moments multipolaires magnétiques

2-a.

Développement du champ magnétique statique B à l’extérieur d’un système de courants

Considérons maintenant un système de courants stationnaires de densité J (r) ; ce vecteur est nécessairement de divergence nulle, puisque : ∇ · J (r) = −

∂ρ =0 ∂t

(61)

Une première différence avec le problème d’électrostatique du § 1 précédent est le caractère vectoriel des sources de champs J . Une autre différence tient au fait que la condition de divergence nulle ne nous permet pas de choisir de façon indépendante les 3 composantes de J en chaque point de l’espace, alors que ρ(r) était quelconque à l’intérieur de S0 . Nous introduisons le potentiel vecteur A qui satisfait à : ∆A = −µ0 J

(62)

La solution de cette équation, compte tenu des conditions aux limites, est : µ0 A(r) = 4π

Z

d3 r 0

J (r 0 ) |r − r 0 |

(63)

Comme : J (r 0 ) 1 = ∇r × J (r 0 ) 0 |r − r | |r − r 0 | 

∇r ×



(64)

on en déduit l’expression du champ magnétique B (loi de Biot et Savart) : µ0 B(r) = ∇r × A(r) = 4π

Z

d3 r0

J (r 0 ) × [r − r 0 ] |r − r 0 |3

(65)

En utilisant le développement (31) de 1/|r − r 0 | nous obtenons alors : µ0 1 B(r) = d3 r0 J (r 0 ) × ∇r0 4π |r − r 0 | Z m h i µ0 X 4π Yl (θ, ϕ) m 3 0 0 0 l −m 0 0 0 = (−1) d r J (r ) × ∇ r Y θ , ϕ r l 4π lm 2l + 1 rl+1 Z





(66) Le problème est maintenant de ramener cette expression à un développement du même type que (27). Ce problème est a priori soluble : dans une région de l’espace où J est nul, le champ B obéit aux mêmes équations que 387



COMPLÉMENT CVIII

E (divergence et rotationnel nuls) dans des régions où ρ est nul. L’identification des développements nous conduira à introduire des constantes Mlm qui m jouent vis-à-vis de B le rôle des Qm l vis-à-vis du champ E ; les Ml sont les moments multipolaires magnétiques du système de courants stationnaires. Dans (66) apparaît le vecteur ∇[rl Ylm ], qu’il s’agit de transformer. C’est un vecteur à divergence nulle, puisque c’est le gradient d’une fonction harmonique. Nous pouvons donc l’écrire comme un rotationnel : h

i

∇ rl Ylm (θ, ϕ) = ∇ × Klm (r)

(67)

avec : Klm = −

h io 1 n r × ∇ rl Ylm (θ, ϕ) l+1

(68)

Démonstration : Utilisons la relation qui donne le rotationnel d’un produit vectoriel. Comme ∇ · r = 3 et ∆(rl Ylm ) = 0, nous obtenons :          ∇ × r × ∇ rl Ylm = −3 ∇ rl Ylm + ∇ rl Ylm − (r · ∇) ∇ rl Ylm (69) De même, la relation qui donne le gradient d’un produit scalaire de vecteurs conduit à (puisque ∇ × r = 0 et que le rotationnel d’un gradient est nul) :        ∇ r · ∇ rl Ylm = ∇ rl Ylm + (r · ∇) ∇ rl Ylm (70) Or on peut écrire :    ∂ r · ∇ rl Ylm = r rl Ylm = l rl Ylm ∂r

(71)

qui, reporté dans le membre de gauche de (70), permet de le mettre sous la forme l∇[rl Ylm ]. Cette égalité devient alors :     (l − 1) ∇ rl Ylm = (r · ∇) ∇ rl Ylm (72) Nous pouvons maintenant remplacer le dernier terme de (69) par cette expression. Tous les termes de droite contenant alors le gradient de rl Ylm , nous obtenons :      ∇ × r × ∇ rl Ylm = −(l + 1)∇ rl Ylm (73) et la relation (68) est démontrée.

Dans l’expression (66) de B apparaît alors l’intégrale : Z

Ilm = =−

h

d3 r0 J (r 0 ) × ∇r0 r0 l Ylm 1 l+1

Z

i

n

(74a) 

h

d3 r0 J (r 0 ) × ∇r0 × r 0 × ∇r0 r0 l Ylm

io

(74b)

qui s’écrit également : Ilm 388

1 =− l

Z

d3 r0 ∇r0 · r 0 × J 



h

∇r0 r0 l Ylm

i

(75)



LES MOMENTS MULTIPOLAIRES

Démonstration : La ième composante de Ilm est donnée par : Z X X   −(l + 1) [Ilm ]i = d3 r 0 εijk εknp εpqs Jj ∂n x0q ∂s r0 l Ylm jk npqs

Z =

d3 r 0

X X

d3 r 0

X

j

Z =

  [δin δjp − δip δjn ] εpqs Jj ∂n x0q ∂s r0 l Ylm

npqs

    εjqs Jj ∂i x0q ∂s r0 l Ylm − εiqs Jj ∂j x0q ∂s r0 l Ylm

(76)

jqs

Le second terme du second membre est nul puisque, par intégration par parties, on peut y faire apparaître l’expression : X ∂j Jj = ∇ · J = 0 (77) j

Dans le premier terme, ∂i x0q peut être remplacé par [x0q ∂i + δqi ]. Si nous revenons à la notation vectorielle, nous pouvons alors écrire : Z n o   −(l + 1) Ilm = d3 r0 ∇r0 · (r 0 × J ) ∇r0 r0 l Ylm Z   − d3 r0 J (r 0 ) × ∇r0 r0 l Ylm où le second terme du second membre redonne l’expression (74a) de Ilm . On obtient alors le résultat (75).

Le champ B se met donc sous la forme : B(r) =

Z h i  µ0 X (−1)m+1 Ylm (θ, ϕ) 3 0  0 0 l −m 0 0 d r ∇ · r × J ∇ r Y r r l 4π lm l(2l + 1) rl+1

(78) Cette expression peut également s’écrire : µ0 X B(r) = − 4π lm

s

4π Y m (θ, ϕ) (Mlm )? ∇ l l+1 2l + 1 r 



(79)

où les coefficients Mlm , appelés moments multipolaires magnétiques, sont définis par : Mlm

1 =− l+1

Z

d3 r0 ∇ · r 0 × J (r 0 ) r0 l Ylm θ0 , ϕ0 





(80)

Démonstration : Dans (78), le “terme source” introduit par le courant J est une divergence ∇ · (r × J ). Il est multiplié par le gradient de [r0 l Ylm ], qui est

389

COMPLÉMENT CVIII



une fonction harmonique homogène de degré (l − 1) des coordonnées. Selon la relation (4), cette harmonicité impose que ce gradient se développe sur des harmoniques sphériques d’ordre l − 1 uniquement. Après intégration, puisque les harmoniques sphériques sont orthonormées, seules interviennent donc dans le second membre de (78) les composantes du terme source d’ordre l − 1. Développons alors ce terme source selon les harmoniques sphériques : X 0 ∇ · (r × J ) = d?l0 m0 (r) Ylm (θ, ϕ) (81) 0 l0 m0

et introduisons la fonction intermédiaire : X 1 0 D(r) = d? (r) Ylm (θ, ϕ) 0 0 + 1 l 0 m0 l 0 0

(82)

lm

Il vient alors : B(r) =

Z   µ0 X (−1)m+1 Ylm d3 r0 D(r 0 ) ∇r0 r0 l Yl−m l+1 4π 2l + 1 r

(83)

lm

On reconnaît dans le second membre l’expression du gradient : ∇r0

1 1 = −∇r |r − r 0 | |r − r 0 |

(84)

Ceci permet de faire passer le gradient hors de l’intégrale, moyennant un changement de signe, et d’obtenir :  mZ   µ0 X (−1)m Yl B(r) = ∇ d3 r0 D(r 0 ) r0 l Yl−m (θ0 , ϕ0 ) (85) 4π 2l + 1 rl+1 lm

?

où l’on peut remplacer (−1)m Yl−m par Ylm . Dans l’intégrale sur d3 r0 , c’est uniquement la composante de la fonction D(r) sur l’harmonique sphérique Ylm qui intervient. Nous pouvons donc y effectuer la substitution : 1 ? 0 d (r ) Ylm (θ0 , ϕ0 ) l + 1 lm Z ? 1 = Ylm (θ0 , ϕ0 ) d2 Ω00 ∇ · [r 00 × J (r 00 )] Ylm (θ00 , ϕ00 ) l+1

D(r 0 ) ⇒

(86)

où Ω00 est l’angle polaire du vecteur r 00 . L’intégration sur les angles polaires de r 0 fait ensuite disparaître les deux harmoniques sphériques des variables θ0 et ϕ0 . On prend alors r02 dr0 d2 Ω00 comme différentielle d’intégration, ce qui fait apparaître l’opposée de la complexe conjuguée de la définition (80) du moment Mlm . On établit ainsi la relation (79).

Il existe d’autres expressions équivalentes du moment multipolaire magnétique Mlm . Une expression commode est : Mlm = 390

1 l+1

Z

h

d3 r0 r 0 × J (r 0 ) · ∇ r0 l Ylm θ0 , ϕ0 



i

(87)



LES MOMENTS MULTIPOLAIRES

Pour l’établir, on peut utiliser le théorème de la divervence : Z S0

n

o

d3 r0 ∇ · r0 l Ylm θ0 , ϕ0 r 0 × J (r 0 ) = 0 

(88)

où le membre de droite est nul puisqu’il exprime le flux à travers S0 d’un vecteur identiquement nul. Or le développement de la divergence dans cette intégrale introduit la fonction : h

r0 l Ylm θ0 , ϕ0 ∇ · r 0 × J (r 0 ) + [r 0 × J (r 0 )] · ∇ r0 l Ylm θ0 , ϕ0 





i

(89)

L’intégrale du premier terme de cette expression fait apparaître la définition (80) de −Mlm , et l’on démontre ainsi la relation (87). Remarque :

Nous nous sommes limités au cas où les sources du rayonnement, ρ(r) ou J (r), ne dépendent pas du temps. Comme mentionné dans l’introduction de ce complément, la dépendance du temps peut cependant être prise en compte dans le cadre plus général de l’électrodynamique. On peut alors définir des multipôles électriques et magnétiques dépendant du temps, qui sont la source d’ondes de Maxwell sphériques se propageant dans l’espace. Les expressions des moments multipolaires que nous avons écrites dans ce complément sont simplement la limite à basse fréquence de ces expressions plus générales ; elles restent valables tant que le volume qui contient les sources reste très petit devant la longueur d’onde du rayonnement. 2-b.

Cas de charges ponctuelles

Considérons un ensemble de charges ponctuelles, dont le mouvement donne lieu à une densité de courant J quasi-stationnaire. S0 est une surface à l’intérieur de laquelle se déplacent les particules. La relation (87) fournit la valeur de Mlm pour un système de charges en mouvement quasi-stationnaire :

Mlm

=

N  X 1 n=1

h i qn (rn × pn ) · ∇ rnl Ylm (θn , ϕn ) l + 1 mn 

(90)

Si, de plus, les particules ont un spin qui porte un moment magnétique dipolaire µn , le moment Mlm devient : Mlm

=

N X n=1

h i 1 qn [(rn × pn ) + µn ] · ∇ rnl Ylm (θn , ϕn ) l + 1 mn

(91)

Exercice : Démontrer cette relation. 391

COMPLÉMENT CVIII

2-c.



Discussion physique

Les moments multipolaires magnétiques Mlm sont les analogues des moments électriques Qm l , mais leurs propriétés ne sont toutefois pas exactement identiques. Examinons quelques cas simples. α.

Moment l = 0

On voit immédiatement sur (87) que le moment multipolaire d’ordre zéro M00 est identiquement nul. Il n’existe donc pas de monopôle magnétique 5 , c’est-à-dire de charge magnétique libre. Cette propriété différencie nettement les multipôles magnétiques des multipôles électriques. β.

Moment l = 1 Partant de (87), on obtient facilement : 1 M1 = 2

Z

d3 r0 r 0 × J (r 0 ) 



(92a)

Pour un système de charges ponctuelles en mouvement quasi-stationnaire, et de moment magnétique de spin µn , il vient : M1 =

1 X qn [rn × pn ] + µn 2 n mn

(92b)

Supposons que toutes les particules étudiées aient le même rapport q/m (ce sont par exemple toutes des électrons) ; le premier terme du second membre de (92b) donne le moment magnétique orbital : (orb.)

M1

=

q l 2m

(93)

où l est le moment cinétique orbital total : l=

X

[rn × pn ]

(94)

n

Pour la partie de spin, on écrit : µn = gS

q sn 2m

(95)

5. Cette non-existence est directement liée à l’équation de Maxwell ∇ · B = 0. Rien n’empêche cependant de postuler l’existence de charges magnétiques libres (monopôles magnétiques) ; il faut alors modifier la théorie de Maxwell en posant que ∇ · B est proportionnel à la densité de ces charges d’un nouveau type. L’équation ainsi écrite est l’analogue complet de l’équation électrique ∇ · E = −ρ/ε0 , et on rétablit ainsi une grande symétrie entre phénomènes électriques et magnétiques.

392



LES MOMENTS MULTIPOLAIRES

où sn est le spin de la nième particule et gS son facteur gyromagnétique (pour des électrons, gS ' 2). Alors : M1 =

q [l + gS s] 2m

(96)

P

où s est le spin total n sn . La discussion continuerait de même pour les moments multipolaires magnétiques d’ordre l = 2, 3, etc. 2-d.

Opérateurs quantiques

En mécanique quantique, on reprend les expressions précédentes, et on remplace rn par l’opérateur Rn , pn par l’opérateur Pn , et sn dans (95) par l’opérateur de spin Sn . Par exemple, M1 devient l’opérateur : M1 =

N X n=1

qn Sn Ln + gn µB 2mn ~

(97)

où le magnéton de Bohr µB est défini par : µB =

qel. ~ 2mel.

(98)

et où qel. et mel. sont les charge et masse de l’électron, et gn le facteur gyromagnétique de la particule n. Comme Q1 , le moment dipolaire magnétique M1 est vectoriel ; cependant, ce n’est pas un opérateur impair, mais pair. Cette propriété se généralise : les Mlm sont des opérateurs tensoriels irréductibles K = l, Q = m, de parité (−)l+1 , opposée à celle des multipôles électriques de même ordre 6 . 3.

3-a.

Moments multipolaires d’un système quantique dans une multiplicité de moment cinétique J donné Généralités

Considérons un système quantique (noyau, atome, molécule, . . .) isolé dont le moment cinétique J est donné ; son état appartient à un sous-espace de dimensions (2J +1) engendré par les kets |J, M i. Les propriétés électriques et magnétiques de ce système dépendent de ses moments multipolaires Qm l et Mlm , qui permettent de calculer les interactions du système avec des charges 6. Un tel résultat se comprend bien si l’on examine (90), où il apparaît des expressions du type L · ∇[ ] ; le groupe L · ∇ est scalaire et le second membre de (90) a la nature tensorielle de la fonction entre crochets, c’est-à-dire Rl Ylm . Or cette fonction est, nous (K=l) l’avons vu, un tenseur TQ=m . D’autre part, ∇{rl Ylm } a une parité (−1)l+1 , l’opérateur L est pair, ce qui explique la parité de Mlm .

393

COMPLÉMENT CVIII



m et courants extérieurs. Le fait que les Qm l et les Ml soient les opérateurs tensoriels irréductibles autorise à leur appliquer le théorème de Wigner-Eckart, et donc les règles de sélection correspondantes (en particulier la règle du triangle). Ceci permet de considérablement limiter le nombre de moments multipolaires à prendre en compte. De plus, si les états |J, M i ont une parité π = ±1 définie, la valeur moyenne des Qm l sera nulle chaque fois que l est impair ; celle des Mlm nulle chaque fois que l est pair [les moments non nuls seront donc M1 , E2 , M3 , etc.]. Examinons les cas les plus simples.

α.

Cas où J = 0

Le nombre quantique J est nul pour un certain nombre de systèmes physiques (particule α, atomes de gaz rares comme 4 He dans leur état fondamental, etc.). Le théorème de Wigner-Eckart impose alors K = 0 : les interactions électromagnétiques de tels systèmes avec l’extérieur sont donc entièrement caractérisées par un paramètre unique, leur charge totale Q0 . Les particules de spin nul n’ont de moment ni dipolaire, ni quadrupolaire, etc. Remarque :

Un atome de 4 He, dont l’état fondamental électronique 1 S0 est de moment cinétique J = 0 (et dont le spin nucléaire I est également nul) a une charge totale nulle. C’est donc, dans cet état, une particule totalement insensible aux interactions électromagnétiques. Il faut cependant garder à l’esprit qu’un champ électrique E (par exemple) peut mélanger l’état fondamental 1 S0 aux niveaux 1 P1 de l’atome, ce qui fait apparaître un dipôle électrique proportionnel à E (calcul de la polarisabilité de l’état fondamental 1 S0 dans le cadre de la théorie des perturbations du premier ordre). Il en résulte une énergie de couplage de l’atome avec le champ E qui est du second ordre en E (produit du champ par le dipôle induit). Par l’effet de la distorsion de ses couches électroniques, l’atome d’hélium redevient donc sensible aux interactions électromagnétiques, mais à un ordre plus élevé. Il est clair que les règles de sélection que nous énonçons ici tombent dès qu’on ne peut plus négliger le mélange des états |J, M i avec d’autres états de nombre quantique J différent. β.

Cas où J = 1/2

Beaucoup de particules ont un spin 1/2 : électron, proton, neutron, ion noyau de 3 He, etc. Ces particules sont caractérisées, du point de vue des interactions électromagnétiques avec l’extérieur, par leur charge (éventuellement nulle, comme dans le cas du neutron) et leur moment dipolaire 4 He+ ,

394



LES MOMENTS MULTIPOLAIRES

magnétique ; le moment dipolaire électrique est nul par parité.

Remarque :

L’opération de parité n’est cependant pas considérée comme loi de symétrie fondamentale en physique (complément DV , § 3). Ceci explique les recherches expérimentales pour mettre en évidence un moment dipolaire électrique du neutron ou du noyau de 3 He (l’isotope 4 He est exclu puisque la particule α, noyau de spin nul, ne peut pas avoir de dipôle d’après l’invariance par rotation). Un tel moment n’a jusqu’à maintenant jamais été observé (les limites supérieures expérimentales sont maintenant très faibles) ; il faut remarquer qu’un résultat expérimental positif impliquerait également une violation de la symétrie par renversement du temps. γ.

Cas où J = 1

On peut citer en exemple le niveau 63 P , du mercure, etc. Des particules de J = 1 sont caractérisées par leur charge, leur dipôle magnétique et leur quadrupôle électrique. 3-b.

Moment quadrupolaire électrique d’un noyau

Examinons plus en détail un cas important d’application, le moment quadrupolaire électrique d’un noyau de spin nucléaire I ≥ 1. Le fait de considérer I comme un nombre quantique fixé dans l’état fondamental du noyau revient à ignorer l’existence de ses niveaux excités. C’est justifié dans beaucoup de problèmes, du fait de la haute énergie des niveaux nucléaires excités. Cette approximation est par exemple très bonne en physique atomique ou nucléaire où l’échelle des énergies est de l’ordre de l’électron-volt. Si Xn , Yn et Zn désignent les coordonnées des nucléons, qp la charge du proton, les égalités (49) conduisent à : √

Q±2 2 Q±1 2

X 6 qp (Xn ± iYn )2 4 protons √ X 6 =∓ qp Zn (Xn ± iYn ) 2 protons

=

Q02 =

 X  1 qp 3 Zn2 − Rn2 2 protons

(99)

(où Rn2 = Xn2 + Yn2 + Zn2 ). Le théorème de Wigner-Eckart indique alors que 395

COMPLÉMENT CVIII



Figure 4 – Le quadrupôle Q est nul pour une répartition sphérique des charges dans un noyau, positif pour un ellipsoïde des charges allongé (semblable à un cigare), négatif pour un ellipsoïde aplati (semblable à un galet). le quadrupôle électrique Q est proportionnel à l’opérateur [cf. (VIII-125)] 1 (I± )2 2 ±1 1 I = ∓ (I± Iz + Iz I± ) 2  0 1  I = √ 3 Iz 2 − I 2 6 I

±2

=

(100)

On peut donc écrire : Q = α (τ, I) I

(101)

où la constante de proportionnalité est traditionnellement écrite sous la forme : √ 6 α (τ, I) = 2 qp Q (τ, I) (102) 2~ I (2I − 1) (rappelons que I 6= 0 et I 6= 1/2). La constante Q (τ, I), homogène à une surface, caractérise entièrement le moment quadrupolaire du noyau ; elle est généralement donnée en barns (1 barn = 10−24 cm2 ). Calculons la valeur moyenne de Q02 dans l’état |I, Ii où la valeur propre de Iz a sa valeur maximale ; les facteurs numériques de (102) se simplifient alors, et il vient : Q (τ, I) =

X

hI, I| 3 Zn2 − Rn2 |I, Ii

(103)

n

Le signe de Q (τ, I) dépend de la façon dont la charge des protons est répartie dans le noyau (figure 4) : Q (τ, I) est nul pour une répartition sphérique, positif pour un ellipsoïde des charges allongé (cigare), négatif pour un ellipsoïde aplati (galet). 396



LES MOMENTS MULTIPOLAIRES

Remarques :

(i) Un exemple d’application des considérations qui précèdent est le calcul de l’hamiltonien hyperfin d’un atome. Si le spin nucléaire I est nul, cet hamiltonien est nul. Si I = 1/2, l’hamiltonien hyperfin est constitué du terme dipolaire magnétique (cf. par exemple le complément AXII de [10]). Si I > 1, le potentiel électrique “vu” par les électrons dépend du quadrupôle électrique du noyau, ce qui se traduit par l’apparition d’un hamiltonien hyperfin quadrupolaire. (ii) Le calcul des probabilités de transitions électromagnétiques de systèmes quantiques entre multiplicités de nombres quantiques J différents fournit un autre exemple important de la théorie des moments multipolaires : évaluation de la polarisabilité des atomes, émission de photons quadrupolaires, etc.

397

Chapitre IX

Groupes SU (2) et SU (3) A

B

C

Système de particules discernables mais équivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . 401 A-1 Hypothèses générales . . . . . . . . . . . . . . . . . 401 A-2 Opérateurs commutant avec H . . . . . . . . . . . 402 A-3 La nature d’une particule peut être considérée comme un nombre quantique interne . . . . . . . . . . . . 414 Groupe SU (2) et symétrie d’isospin . . . . . . . . . 417 B-1 Algèbre de Lie . . . . . . . . . . . . . . . . . . . . 417 B-2 Similarité entre spin et isospin . . . . . . . . . . . 418 B-3 Multiplets d’isospin . . . . . . . . . . . . . . . . . 419 B-4 Exemples d’application . . . . . . . . . . . . . . . 422 Symétrie SU (3) . . . . . . . . . . . . . . . . . . . . . 423 C-1 Opérateur de symétrie . . . . . . . . . . . . . . . . 423 C-2 Matrices SU (3) . . . . . . . . . . . . . . . . . . . . 427 C-3 Construction des représentations irréductibles . . . 433

Introduction Nous allons dans ce chapitre étudier les niveaux d’énergie de systèmes physiques constitués par des particules de plusieurs espèces différentes, mais jouant toutes un rôle parfaitement symétrique dans l’hamiltonien du système. Le but est d’obtenir un classement général de ces niveaux qui soit indépendant de la répartition des particules entre chaque espèce, à nombre total de particules donné. Le raisonnement s’applique quelle que soit la nature des particules qui peuvent être, soit toutes des fermions, soit toutes des bosons, soit encore considérées comme discernables comme nous l’envisagerons dans un premier temps.

CHAPITRE IX

GROUPES SU (2) ET SU (3)

Les résultats que nous allons obtenir peuvent être utilisés dans de nombreux domaines d’application de la mécanique quantique, classification des niveaux en physique atomique ou moléculaire par exemple. Mais ils sont surtout essentiels en physique nucléaire et physique des particules élémentaires. Historiquement, c’est Heisenberg qui, le premier, a introduit la notion d’isospin 1 pour classer les niveaux d’énergie des noyaux dans le cadre d’une symétrie SU (2). Depuis, les symétries SU (n) “par substitution de particules équivalentes appartenant à n espèces différentes” ont joué un rôle d’importance croissante, non seulement en spectroscopie nucléaire, mais dans toute la physique des particules élémentaires. Ces symétries jouent un rôle essentiel dès qu’il s’agit d’examiner si des objets physiques peuvent être considérés comme l’assemblage de particules plus élémentaires. Une application importante est l’étude des régularités dans les interactions fortes grâce à la symétrie SU (3). Cette symétrie apparaît très simplement si l’on admet que mésons et baryons sont constitués de “quarks” élémentaires appartenant à trois espèces distinctes, caractérisées par un nombre quantique de “saveur” prenant trois valeurs distinctes 2 . Un autre but de la discussion qui suit est de donner l’occasion au lecteur de se familiariser avec l’utilisation des diagrammes des racines et diagrammes des poids associés à une algèbre de Lie, dans des cas simples. L’intérêt du groupe SU (3) est que, son algèbre de Lie étant de rang deux, les représentations planes des diagrammes symbolisant les représentations irréductibles sont particulièrement lisibles. Dans ce chapitre, on peut distinguer deux étapes dans le raisonnement. La première (§ A) consiste à introduire des opérateurs de symétrie K, à montrer qu’ils commutent avec l’hamiltonien H, et à calculer les relations de commutation entre les K (qui sont celles d’une algèbre de Lie). Dans cette première étape, on montre la profonde analogie qui existe en mécanique quantique entre la nature d’une particule (proton, neutron, etc.) et un nombre quantique qui serait associé à une variable interne de la particule, le spin par exemple. Tout ceci demande divers raisonnements un peu techniques sur les différentes symétries que peut avoir le vecteur d’état, les produits d’opérateur de symétrisation ou d’antisymétrisation, etc. En première lecture, le lecteur qui désire aller plus rapidement aux résultats physiques pourra donc sauter ce § A, et directement aborder la seconde étape : partir des relations de commutation des opérateurs K et construire les représenta1. Au lieu d’isospin, on parle quelquefois de “spin isotopique”. Ce n’est pas très heureux puisque la symétrie d’isospin regroupe en fait des noyaux ayant le même nombre total de nucléons (donc des masses voisines), alors que les différents isotopes d’un même élément ont un nombre fixe de protons et variable de neutrons. La dénomination “spin isobarique”, parfois utilisée, serait plus adéquate. 2. On pense actuellement que ce nombre est plus élevé, mais l’étude des symétries SU (3) n’en perd pas pour autant son intérêt !

400

A. SYSTÈME DE PARTICULES DISCERNABLES MAIS ÉQUIVALENTES

tions irréductibles associées. Le § B est consacré aux multiplets d’isospin de SU (2), le § C aux supermultiplets de SU (3). A.

Système de particules discernables mais équivalentes

A-1.

Hypothèses générales

Considérons donc un ensemble de N particules dont nα appartiennent à une première espèce α (ce sont par exemple des protons), nβ à une seconde espèce β (neutrons par exemple). Pour simplifier, nous nous limitons au cas où le nombre d’espèces est deux, mais il est possible de généraliser le raisonnement à 3, 4, ... espèces différentes. Considérons un opérateur H, qui en pratique sera généralement l’hamiltonien du système, et supposons que toutes les particules (de même espèce ou non) jouent un rôle symétrique dans H. Précisons d’emblée sur quelques cas particuliers le sens de cette hypothèse. Considérons par exemple l’opérateur d’énergie cinétique : T =

nβ nα X X Pj2 Pi2 + i=1

2mα

j=1

2mβ

(IX-1)

où P désigne l’impulsion des particules, mα et mβ la masse de chacune des particules d’espèce α et β respectivement. Lorsque : mα = mβ = m

(IX-2)

nous dirons que toutes les particules jouent le même rôle dans T . Dans ce cas, on peut écrire : T =

N 1 X P2 m i=1 i

(IX-3)

L’expression mathématique de l’opérateur T ne change pas si l’on transforme une (ou plusieurs) particules α en particules β (ou inversement), bien que l’interprétation physique de T devienne alors différente, puisque T concerne en fait un autre système physique. Si maintenant H inclut des termes d’énergie potentielle à deux particules : H=T+

X

Vij (Ri , Rj )

(IX-4)

i 0.

431

CHAPITRE IX

GROUPES SU (2) ET SU (3)

(1)

Figure 5 – Les deux opérateurs K± induisent un déplacement du point 1 , comme représentatif de plus ou moins une unité parallèlement à l’axe MK représenté par les deux flèches horizontales opposées. Les deux opérateurs (2) 2 , comme K± induisent un déplacement d’une unité parallèlement à l’axe MK (3) représenté par les deux flèches à 120 degrés. Enfin, les deux opérateurs K± induisent un déplacement selon l’axe à −120 degrés. Les axes Y1 , Y2 et Y3 en tiretés sont des axes de symétrie pour toute représentation du groupe SU (3).

(1)

à K , où M varie entre +J et −J, permet également de prévoir 1 , et une symétrie par rapport à l’axe Y1 , perpendiculaire à celui de MK passant par l’origine 0. De même, on prévoit des symétries par rapport aux axes Y2 et Y3 de la figure 5. (ii) Le diagramme des poids ne change pas si l’on fait un changement de base quelconque dans le sous-espace de la représentation considérée : les valeurs propres d’un opérateur sont invariantes dans un changement de base, ainsi que leurs degrés de dégénérescence. Deux diagrammes des poids distincts correspondent donc nécessairement à des représentations différentes (non équivalentes). (iii) Nous avons fait jouer dans notre analyse un rôle privilégié aux com(i) posantes Kz , en dépit d’une certaine symétrie entre les rôles joués par les composantes x, y ou z. La raison en est double. En premier lieu, la relation de (i) dépendance linéaire (IX-81) porte exclusivement sur les composantes Kz , les autres restant indépendantes. Ensuite, les opérateurs H qui nous intéressent (i) ne changent pas le nombre de particules nα , nβ ou nγ , comme Kz . Les vec(i) teurs de base des représentations sont donc, lorsque les Kz sont diagonaux, automatiquement des vecteurs propres “physiques” de H (appartenant à un sous-espace Enα nβ nγ donné).

432

C. SYMÉTRIE SU (3)

Figure 6 – A partir d’un point P dans le diagramme des poids, pour lequel 1 > 0, on peut construire par action de K (1) toute une sénous supposons MK − 1 diminue d’une, deux, etc. unités. rie de points P 0 , P 00 , etc. pour lesquels MK Ces points font partie de (2K (1) + 1) vecteurs non nuls de la représentation irréductible. Des constructions analogues sont également possibles le long des 2 et M 3 , de la figure 5. deux axes inclinés à ±120 degrés, MK K C-3.

Construction des représentations irréductibles

Examinons les dispositions possibles des points P qui constituent un diagramme des poids de SU (3). Nous en déduirons ensuite quelles sont les premières représentations irréductibles de SU (3), celles de dimensions les plus basses. C-3-a.

Remarques générales

Considérons un point P quelconque du diagramme des poids, et supposons qu’il soit distinct de l’origine 0. Il ne peut alors être à la fois sur plus d’un seul parmi les trois axes Y1 , Y2 , Y3 de la figure 5. Appelons Y(i) l’un des deux axes où il ne se trouve pas. (i) Si le point P a une projection orthogonale positive 19 sur l’axe MK , (i) l’action de K− sur un ket de base quelconque associé à P donne un autre ket non nul, la valeur propre des Kzi ayant diminué d’une unité. Par récurrence, à tout point N est associée une série de points P 0 , P 00 , . . . appartenant à un i multiplet d’isospin associé à une valeur propre K (i) [K i + 1] de [K ]2 . Par (i) action répétée de K± , on peut donc construire à partir du point initial P (i) une série de (2 MK + 1) points. Ces points font partie du diagramme des poids, comme illustré sur la figure 6 (où l’on a supposé que i = 1). Remarquons au passage que, dans un tel déplacement, les valeurs de MK varient par sauts entiers, mais celles des autres composantes par sauts demi-entiers (cf. figure 5). Il en découle que, en général, un diagramme des 19. Si elle est négative, un raisonnement symétrique utilisant K+ peut évidemment être mené.

433

CHAPITRE IX

GROUPES SU (2) ET SU (3)

Figure 7 – A un point P1 qui n’est sur aucun des axes Y1 , Y2 , Y3 , on peut faire correspondre cinq autres points P2 , . . . , P6 du diagramme des poids, symétriques du premier par rapport aux axes Y1,2,3 . Si le point P1 tombe sur l’un des axes Y1 , Y2 , Y3 , les 6 points se réduisent à 3.

poids regroupe des multiplets d’isospin pour lesquels K1 , K2 et K3 sont entiers et demi-entiers. Si donc l’on part d’un point P1 qui n’est sur aucun des axes Y1 , Y2 , Y3 , on sait qu’il existe nécessairement cinq autres points P2 , . . . , P6 du diagramme, symétriques du premier par rapport à ces axes (cf. figure 7) ; le produit de deux symétries par rapport à deux Yi distincts donne une rotation de ±120 degrés, de sorte que les six points forment les sommets de deux triangles équilatéraux égaux. Si maintenant P1 est sur l’un des axes Y1 , Y2 ou Y3 , les points se regroupent deux par deux et les deux triangles équilatéraux se confondent en un seul (par exemple, P1 et P6 , P2 et P3 , P4 et P5 se confondent sur la figure 7). Deux situations sont donc possibles pour les points distincts de l’origine 0 : ou bien ils se regroupent par ensembles de six points, ou bien par ensembles de trois points qui sont sur les axes de symétrie Y1 , Y2 et Y3 . Partant d’un des six points P1 , . . . , P6 , on peut ensuite en obtenir d’autres par action des opérateurs symbolisés sur le diagramme des racines de la figure 5 : tout déplacement de ±1, perpendiculairement à l’axe Yi , est autorisé lorsque le point obtenu n’est pas plus éloigné de l’axe (il existe au moins un ket non nul associé au nouveau point obtenu). On peut ainsi remplir le périmètre P1 P2 . . . P6 de la figure 7 de triangles isocèles de côté 1 et de côtés perpendiculaires aux axes Y1 , Y2 et Y3 (figure 8). 434

C. SYMÉTRIE SU (3)

Figure 8 – A partir des points de la figure 7, par action des opérateurs symbolisés sur le diagramme des racines de la figure 5, on peut construire toute une série d’autres points, qui tombent à l’intérieur du périmètre inscrit sur la figure 7.

C-3-b.

Diagrammes à un point : représentation {1}

La situation la plus simple est évidemment celle où le diagramme des poids comprend un seul point P , qui est alors nécessairement situé à l’ori(i) gine 0. Les seules valeurs propres possibles de Kz sont alors toutes nulles. Il en est de même de celles de [K (i) ]2 et l’on en déduit que toutes les matrices associées aux Kx,y,z sont nulles. La seule représentation irréductible dans ces conditions est celle de dimension 1 (le poids de 0 est 1) ; on la dénote par {1}. Le groupe G (isospin) est alors représenté uniquement par les matrices (1), ce qui donne la représentation dite “triviale”. C-3-c.

Diagrammes à trois points : représentations {3} et {3∗ }

Le nombre minimum de points distincts de l’origine est trois. D’après l’étude du § C-3-a précédent, deux dispositions sont possibles ; elles sont données sur les figures 9-a et 9-b (triangles isocèles à pointe vers le bas ou vers le haut). De tels diagrammes permettent de construire très directement les matrices de représentation. Commençons par supposer que le poids de chaque point P est 1 : nous cherchons alors des représentations de dimension 3. • Pour le diagramme de la figure 9-a, appelons |u1 i, |u2 i et |u3 i les vecteurs de base orthonormés associés respectivement à P1 , P2 et P3 . (i) On lit directement sur la figure les valeurs propres des opérateurs Kz qui sont associées à |u1 i, |u2 i et |u3 i : par exemple, la projection de P1 sur l’axe 1 est +1/2, ce qui indique que |u i est vecteur propre de K (1) avec la MK z 1 valeur propre +1/2 ; la projection de P2 sur ce même axe est −1/2, de sorte (1) que |u2 i est vecteur propre de Kz valeur propre −1/2 ; enfin |u3 i est vecteur 435

CHAPITRE IX

GROUPES SU (2) ET SU (3)

Figure 9 – La figure (a) montre le diagramme de la représentation à trois points {3} du groupe SU (3), la figure (b) la représentation {3∗ }. propre de valeur propre nulle. Ceci nous conduit à la matrice : 



Kz(1)





1 0 0 1  =  0 −1 0  2 0 0 0 (2)

(3)

Des expressions similaires pour Kz et Kz sont obtenues ; qui ne sont en fait autres que celles déjà écrites en (IX-87a). (1) Le diagramme des racines montre également que l’opérateur K+ fait passer de |u2 i à |u1 i ; une définition adéquate de la phase relative de ces vecteurs de base redonne l’expression donnée en (IX-87a). La matrice de (1) K− hermitique conjuguée a alors également l’expression de (IX-87a). La définition de la phase relative de |u2 i et |u3 i permet ensuite de retrouver (2) également les expressions de (K± ). Les relations de (IX-84e) peuvent alors (3) être utilisées et entraînent que les matrices (K± ) ne peuvent être que celles déjà écrites en (IX-87a). Pour finir, nous obtenons une représentation unique associée au diagramme de la figure 9-a ; celle qui est donnée directement par les matrices de SU (3). Nous la symboliserons par la notation {3}. • Examinons maintenant le diagramme de la figure 9-b. Il est différent du précédent ; donc s’il donne une représentation, elle ne sera pas équivalente à la précédente. Il existe une méthode immédiate pour attribuer une représentation irréductible à ce diagramme, puisque son triangle est obtenu à partir de celui de la figure 9-a par symétrie par rapport à l’axe horizontal, (2) (3) qui revient à une simple inversion du rôle joué par K et K . On échange donc dans (IX-87a) toutes les matrices d’indice i = 2 avec celles d’indice i = 3. La représentation correspondante existe donc, et elle sera notée {3∗ }. 436

C. SYMÉTRIE SU (3)

Lien entre les représentations {3} et {3∗ } : Pour la représentation {3∗ }, il est commode de numéroter autrement les vecteurs de base |u1 i, |u2 i et |u3 i ; un tel changement de base introduit une représentation équivalente. La numérotation adoptée est celle des points P10 , P20 et P30 de la figure 9-b ; elle se déduit de celle choisie par la figure 9-a par une symétrie par rapport à l’origine 0. Comparons alors les représentations {3} et {3∗ }. Dans la symétrie en question, les valeurs propres des opérateurs changent de signe et les matrices associées sont donc les opposées de celles de la représentation {3}. On voit de la même façon que les matrices associées (i) (i) aux opérateurs K+ s’interchangent avec celles des K− . Il faut cependant prendre garde à correctement définir les phases relatives des vecteurs de base car, dans leurs relations de commutation, les opérateurs K+ et K− jouent un rôle antisymétrique. Le raisonnement qui a été fait pour la représentation {3} ne s’applique donc que (i) si l’on prend le soin de définir les phases relatives des |up i de façon que K± soit (i) associé à l’opposé de la matrice précédemment associée à K± . Dans cette opération, les opérateurs hermitiques Kx,y,z subissent les transformations : (i) (i) Kx,z ↔ −Kx,z

;

Ky(i) ↔ +Ky(i)

(IX-90)

Pour finir, les matrices de la représentation {3∗ } peuvent être obtenues à partir des équations (IX-87c) par un changement de signe suivi d’une conjugaison complexe. En ce qui concerne les matrices associées aux opérateurs unitaires de G (hyperspin), l’égalité (IX-85a) montre que le passage de {3} à {3∗ } se traduit par une simple conjugaison complexe : ceci explique l’origine de la notation {3∗ }. Remarques : (i) Il est clair que si un ensemble de matrices fournit une représentation d’un groupe G , l’ensemble des matrices complexes conjuguées en donnera également une représentation (le produit de matrices complexes conjuguées est la matrice conjuguée du produit). Ici, nous avons des représentations conjuguées qui donnent des diagrammes des poids différents, et ne sont donc pas équivalentes. Pour le groupe SU (2), il existe également des représentations complexes, ne fût-ce que les matrices de SU (2) elles-mêmes. Mais nous avons vu, au chapitre VII, que les représentations irréductibles de SU (2) sont entièrement caractérisées par le nombre J, c’est-à-dire la dimension 2J + 1 de l’espace. Pour SU (2), contrairement à SU (3), deux représentations conjuguées sont donc toujours équivalentes. (ii) Les représentations {3} et {3∗ } fournissent automatiquement des représentations du sous-groupe SO(3). En fait, on obtient deux fois la même représentation (J = 1), puisque les matrices de rotation restent invariantes par conjugaison complexe. C-3-d.

Diagramme à plus de 3 points

Essayons d’ajouter l’origine aux diagrammes des figures 9-a et 9-b. Le point O ne peut alors être connecté par le diagramme des racines à aucun autre point (P1 , P2 et P3 ne sont pas à une distance unité de l’origine). Les 437

CHAPITRE IX

GROUPES SU (2) ET SU (3)

Figure 10 – Trois autres diagrammes possibles pour des représentations irréductibles de l’algèbre de Lie de SU (3). Ici, seules sont représentées les positions des points, pas leurs poids ; nous verrons plus bas que le point origine de la figure (a) a un poids égal à deux. représentations correspondantes sont donc réductibles : le poids du point O donne le nombre de fois qu’elles contiennent la représentation {1} en sus de l’une des représentations {3} ou {3∗ }. Si l’on cherche les diagrammes à plus de 3 points, deux situations doivent être envisagées : • si O est un point du diagramme, et si ce n’est pas le seul, on vérifie facilement que la disposition la plus simple possible des points est celle de la figure 10-a qui a 7 points ; • si O n’est pas un point du diagramme, il faut ajouter au minimum 3 points aux figures 9-a ou 9-b, et l’on aboutit aux schémas de la figure 10-b et 10-c. Nous allons voir que chacun de ces schémas est effectivement associé à une représentation irréductible. Pour cela, nous allons considérer les représentations de SU (3) obtenues par produit tensoriel des deux représentations à trois dimensions, que nous noterons (nous prenons une notation différente car nous verrons qu’elles sont réductibles) : (9) ≡ {3} ⊗ {3} (9)0 ≡ {3} ⊗ {3∗ } (9)00 ≡ {3∗ } ⊗ {3∗ }

(IX-91)

Ces représentations sont de dimension 9, et peuvent être calculées dans une base de kets obtenus par produit tensoriel des kets initiaux. Si l’on associe deux kets qui sont vecteurs propres d’un même opérateur de G (hyperspin), avec des valeurs propres λ1 et λ2 , le ket produit tensoriel est encore ket propre avec une valeur propre λ1 ×λ2 . Pour les kets propres d’opérateurs de l’algèbre 438

C. SYMÉTRIE SU (3)

Figure 11 – Diagrammes des poids associés aux représentations (9) produit {3} ⊗ {3}, (9)0 produit {3} ⊗ {3∗ }, et (9)00 produit {3∗ } ⊗ {3∗ }. Les points doubles ou triples indiquent un poids de 2 ou 3. de Lie L8 , la situation est semblable, mais il faut ajouter les valeurs propres (tout se passe comme lors de la composition de deux moments cinétiques). Le diagramme des poids de la représentation produit s’obtient donc de façon très simple. On associe deux à deux les points P1 et P2 de la représentation initiale, et on porte le point P défini par −−→ −−→ −−→ OP = OP 1 + OP 2 Il est bien sûr possible d’obtenir le même point P à partir de couples P1 , P2 différents ; on en tient alors compte lors du calcul des poids. Les figures 11-a, 11-b et 11-c donnent le résultat de cette opération pour les représentations produit (9), (9)0 et (9)00 ; les points doubles ou triples indiquent des poids égaux à 2 ou 3. Les représentations (9) et (9)00 sont en fait celles associées au changement de base unitaire pour des tenseurs d’ordre deux, lorsque la dimension de l’espace est 3 et que les deux composantes µ et µ0 sont toutes deux soit covariantes, soit contravariantes (cf. complément AVIII ). Or, nous connaissons deux ensembles de tenseurs qui sont invariants dans une telle opération, les tenseurs A complètement symétriques [Aµµ0 = Aµ0 µ ] et les tenseurs complètement antisymétriques [Aµµ0 = −Aµ0 µ ]. Ces deux ensembles constituent des espaces de dimensions 6 et 3 respectivement. Les représentations (9) et (9)00 se décomposent donc en deux représentations ayant ces dimensions. En conséquence, il faut séparer dans les diagrammes des figures 11-a et 11-c deux groupes de 3 et 6 points. La seule façon de le faire qui soit compatible avec les règles énoncées plus haut conduit à retrouver les diagrammes des figures 9-a et 9-b ainsi que deux autres représentés sur les 439

CHAPITRE IX

GROUPES SU (2) ET SU (3)

Figure 12 – Diagrammes de représentations irréductibles issues des représentations de la figure 11. Le diagramme de gauche est extrait de la partie (a) de cette figure, et il est noté {6} ; celui de droite de la partie (c), et il est noté {6∗ }. figures 12-a et 12-b. On vérifie sans difficulté qu’il n’est plus possible de décomposer plus loin ces diagrammes en ensemble de points qui aient les propriétés acceptables pour un diagramme de poids. Les représentations sont donc irréductibles et nous les noterons {6} et {6∗ }. La décomposition peut être symbolisée par les équations : {3} ⊗ {3} = {3∗ } ⊕ {6} {3∗ } ⊗ {3∗ } = {3} ⊕ {6∗ }

(IX-92)

Reste maintenant à examiner la représentation (9)0 . Elle donne la transformation d’un tenseur à deux indices dont l’un est covariant, l’autre contraP variant. Or nous savons que la trace µ Aµµ est invariante dans tout changement de base (unitaire ou non). Ceci nous permet de retirer de (9)0 une représentation qui ne peut être que {1}. Il reste alors le diagramme de la figure 13, qu’il n’est pas possible de décomposer en deux sous-ensembles de points qui donnent des diagrammes acceptables. La représentation qui reste, de dimension 8, sera notée {8}, et nous écrirons : {3} ⊗ {3∗ } = {1} ⊕ {8}

(IX-93)

On remarque que {8} est la première représentation irréductible que nous ayons trouvée dont tous les poids ne valent pas 1 (le poids de l’origine est 2). Un autre exemple : Effectuons maintenant le produit tensoriel (27) = {3} ⊗ {3} ⊗ {3} Le diagramme correspondant, obtenu comme plus haut, est représenté sur la figure 14 ; il comprend 10 points distincts dont certains (ceux des “coins”) ne figurent

440

C. SYMÉTRIE SU (3)

Figure 13 – Diagramme de représentation irréductible extraite de la partie (b) de la figure 11. Cette représentation est notée {8}. dans aucun des diagrammes déjà obtenus. La représentation (27) comprend donc une représentation irréductible nouvelle, de dimension 10 (si tous ses poids valent 1) ou plus. En termes de tenseurs, la représentation (27) est celle qui apparaît si l’on considère l’effet de changement de base unitaire sur les composantes 3 fois covariantes µ, µ0 et µ00 d’un tenseur du troisième ordre. Or nous savons qu’un tenseur B totalement symétrique : Bµµ0 µ00 = Bµ0 µµ00 = Bµ00 µµ0 = . . . garde cette propriété par changement de base. Il existe donc un sous-espace invariant dans l’espace de représentation. Un tenseur totalement symétrique dépend

Figure 14 – Diagramme des poids associé à la représentation produit tensoriel (27) = {3} ⊗ {3} ⊗ {3}, qui est réductible. 441

CHAPITRE IX

GROUPES SU (2) ET SU (3)

Figure 15 – Représentation irréductible notée {10} de 10 paramètres 20 . Il est d’autre part clair que cet espace comprend les vecteurs associés aux “coins” de la figure 14, correspondant à µ = µ0 = µ00 . Le diagramme de cette représentation est donc celui de la figure 15, où tous les poids valent 1, de sorte qu’il est totalement impossible de retrancher l’une des représentations irréductibles obtenues plus haut. La représentation en question, de dimension 10, est donc irréductible ; elle est notée {10}. D’autre part, utilisant (IX-92) et (IX-93), nous obtenons : {3} ⊗ {3} ⊗ {3} = [{3∗ } ⊕ {6}] ⊗ {3} = {1} ⊕ {8} ⊕ ({6} ⊗ {3})

(IX-94)

La représentation {10} ne peut être que contenue dans {6} ⊗ {3} ; un raisonnement simple montre alors que la représentation restante, de dimension 8, ne peut être que {8} : {3} ⊗ {6} = {8} ⊕ {10}

(IX-95)

Pour finir, l’équation (IX-93) devient : {3} ⊗ {3} ⊗ {3} = {1} ⊕ {8} ⊕ {8} ⊕ {10}

(IX-96)

et l’on peut vérifier que cette somme redonne bien les poids représentés sur la figure 14. 20. Les composantes Bµµ0 µ00 dépendent du choix de x, y ou z pour les indices µ, µ0 et µ , mais pas de leur ordre du fait de la symétrie. Le nombre de composantes indépendantes est donc égal au nombre de façons différentes dont on peut choisir x, y, z (avec des répétitions éventuelles). Ce nombre est la somme de : 00

1 (3 indices différents) 3 × 2 = 6 (un indice est pris deux fois, puis associé à l’un quelconque des deux autres) 3 (3 indices égaux). Il vaut donc 10.

442

C. SYMÉTRIE SU (3)

C-3-e.

Applications

Une application 21 importante de ce qui précède est le modèle des quarks : on considère que les hadrons (particules sensibles aux interactions fortes : baryons, mésons, ...) peuvent être construits à partir de constituants plus élémentaires, les quarks. Ces derniers sont supposés jouer le même rôle dans l’hamiltonien des interactions fortes. Lorsque le nombre de quarks distincts est trois (quarks u, d, s, de “saveurs” différentes), la symétrie SU (3) est satisfaite par tous les édifices qu’ils permettent de construire. Le cas le plus simple est celui où le nombre total n de particules est n = 1. On a alors trois états possibles du système : |ui |di

|si

qui engendrent une représentation irréductible de SU (3) ; ce groupe joue ici le rôle d’un “groupe de saveur”. On suppose que c’est la représentation {3} de la figure 9-a. Aux trois quarks sont associés trois “antiquarks” de nombres quantiques opposés ; les états correspondants sont notés : |ui |di

|si

et ils doivent également engendrer une représentation irréductible de SU (3). Si l’on change de signe les nombres quantiques MK , on passe de {3} à {3∗ } ; les antiquarks seront donc associés à la représentation {3∗ }. On voit ici un avantage du groupe SU (3) sur SU (2) : il possède des représentations irréductibles de même dimension non équivalentes, ce qui permet l’introduction des antiparticules. Quarks et antiquarks sont des particules de spin 1/2, donc des fermions obéissant au principe d’exclusion de Pauli (les quarks sont en cela analogues aux leptons : électrons et positrons, muons µ± , etc.) Examinons quelles sont les symétries possibles de divers assemblages de quarks et antiquarks. La formule (IX-93) montre quels sont les supermultiplets obtenus en combinant un quark et un antiquark : un octet de représentation {8} et un singulet {1}. L’octet est celui des mésons dits pseudo-

21. Il existe des applications de la symétrie SU (3) dans des domaines autres que la physique des particules. Par exemple, cette symétrie apparaît dans la classification des niveaux d’énergie des molécules polyatomiques, constituées par un nombre quelconque d’atomes de spin nucléaire I = 1 (trois états mI de spin nucléaires sont alors accessibles). On peut également supposer que les molécules polyatomiques sont constituées par des isotopes différents de masses très proches (et de même spin nucléaire, I = 0 par exemple). La symétrie SU (3) est alors obtenue dans les spectres de vibration-rotation lorsque l’on néglige les différences de masse entre les noyaux. Dans un deuxième temps, on peut introduire ces différences de masse qui correspondent à une brisure de symétrie (levée de certaines dégénérescences).

443

CHAPITRE IX

GROUPES SU (2) ET SU (3)

Figure 16 – Octet des mésons pseudoscalaires. L’axe des charges est représenté par Q. scalaires, de spin nul 22 et de parité négative, représenté sur la figure 16. Il existe également un octet de mésons pseudovecteurs, de spin 1 et de parité négative. Si maintenant nous associons trois quarks, la formule (IX-96) montre que l’on obtient un singulet, deux octets et un décuplet. Le singulet est associé au baryon Y ∗ (spin 1/2, parité négative). Un octet de baryons de spin 1/2 et de parité positive est représenté sur la figure 17. On y reconnaît en haut le doublet d’isospin du proton et du neutron. De façon générale, sur ce schéma comme sur ceux des autres figures, les particules appartenant à un même multiplet d’isospin sont rangées sur des mêmes segments horizontaux ; par déplacement d’une unité horizontale vers la droite, on obtient une particule dont la charge est augmentée du quantum de charge qp . La deuxième ligne du schéma de la figure 17 donne donc un triplet et un singulet d’isospin. Le décuplet des baryons de spin 3/2 et de parité positive, associé à la représentation {10}, est représenté sur la figure 18. Remarques :

(i) Si l’on ajoute aux trois quarks |ui, |di, |si un “quark charmé” |ci, la symétrie SU (3) de saveur devient SU (4) et les supermultiplets sont commodément représentés par des diagrammes tridimensionnels, dont ceux de SU (3) fournissent des sections planes 23 . Dans 22. Comme H, le moment cinétique total des quarks est un opérateur qui commute avec tous les opérateurs K de l’algèbre L8 [c’est un scalaire de SU (3)] ; il possède donc une valeur unique dans chaque supermultiplet. 23. De même, des segments horizontaux des diagrammes de SU (3) donnent des diagrammes de SU (2).

444

C. SYMÉTRIE SU (3)

Figure 17 – Octet de baryons de spin 1/2 avec, en première ligne, les particules les plus usuelles, neutron et proton. Les particules sur une même ligne ont un même nombre quantique d’étrangeté : S = 0 pour la ligne supérieure (neutron et proton), S = −1 pour la ligne médiane (trois particules Σ et une Λ), et S = −2 pour la ligne inférieure (deux particules Ξ). Les particules d’une même charge sont rangées sur une même diagonale. Toutes sont composées des quarks u, d et s. le cadre du “modèle standard” on introduit en fait 6 quarks de saveurs distinctes : u (up), d (down), c (charm), s (strange), t (top), b (bottom). La symétrie 24 devient alors SU (6). Il faut cependant garder à l’esprit que les symétries en question ne sont qu’approchées : seule “la partie la plus forte” des interactions fortes est invariante par permutation des quarks de saveur différente, de sorte que la symétrie SU (3) n’est qu’une première approximation 25 . Dans une théorie plus raffinée, on introduit une correction qui brise la symétrie SU (3), et qui peut être traitée par une théorie des perturbations au premier ordre. C’est de cette façon qu’est obtenue la formule de masse de Gell-Mann et Okubo, qui est vérifiée par les résultats expérimentaux avec une précision remarquable. (ii) Nous avons vu que, dans (IX-95), la représentation {10} provient de combinaisons complètement symétriques des indices associés à chacune des représentations initiales, c’est-à-dire des états des quarks. 24. La symétrie SU (n) entre n quarks équivalents n’épuise pas les invariances de la théorie. On a, par exemple, une invariance par rotation qui conduit à une symétrie du type SU (2). Le groupe de symétrie est alors le produit tensoriel SU (2) ⊗ SU (n), qui n’est qu’un sous-groupe de SU (n + 2). 25. La symétrie d’isospin est cependant considérée comme exacte pour les interactions fortes.

445

CHAPITRE IX

GROUPES SU (2) ET SU (3)

Elle correspond donc à des vecteurs d’état totalement symétriques par échange des particules. Comme l’état de spin est S = 3/2, c’està-dire symétrique, le principe de Pauli impose alors à l’état orbital des trois quarks identiques d’être totalement antisymétrique. Or ceci est peu plausible pour un ensemble de particules dans leur état fondamental : une fonction d’onde totalement antisymétrique possède plusieurs “nœuds” (plus précisément des hypersurfaces) où elle s’annule, ce qui implique une énergie cinétique élevée des particules. Cette difficulté a conduit à introduire un nombre quantique supplémentaire pour les quarks, nombre qui prend trois valeurs distinctes, et à définir leur “couleur” (cette opération multiplie par 3 le nombre total de quarks distincts). Les différentes couleurs jouent des rôles équivalents dans la théorie des interactions fortes appelée “chromodynamique quantique”. On est alors conduit à introduire un groupe “SU (3) de couleur”, qu’il ne faut bien sûr pas confondre avec le groupe “SU (3) de saveur” dont nous avons parlé jusqu’ici. Les 3 vecteurs de base de la représentation {3} de ce groupe de couleur sont associés à 3 quarks de couleurs différentes (mais de même saveur), les

Figure 18 – Décuplet de baryons de spin 3/2. Les axes de l’étrangeté et de la charge sont les mêmes que sur la figure 17, mais ici le point inférieur atteint la valeur d’étrangeté S = −3 (particule Ω− ). Les composants de ce décuplet sont, ici aussi, les quarks u, d et s.

446

C. SYMÉTRIE SU (3)

3 vecteurs de base de {3}∗ aux antiquarks correspondants. La chromodynamique quantique est une “théorie de jauge” présentant quelques analogies avec l’électrodynamique quantique. Dans ce dernier cas cependant, le groupe de jauge est U (1), c’est-à-dire un groupe très simple à un seul générateur, donc commutatif ; le champ de jauge correspondant est le champ électromagnétique, quantifié en photons. Dans le cas de la chromodynamique quantique, le groupe SU (3) de couleur possède 8 générateurs ne commutant pas tous entre eux ; c’est une théorie de jauge non abélienne. On est ainsi conduit à introduire 8 champs distincts par l’intermédiaire desquels interagissent les quarks de couleurs différentes (ces interactions assurent, par exemple, la liaison de 3 quarks dans un proton). A ces 8 champs sont associées 8 particules, appelées “gluons”. Exercices (i) Un sous-groupe R(3) de SU (3) a été introduit au § C-2-b. Calculer les valeurs de J associées aux représentations irréductibles {6}, {8} et {10} ; sont-elles irréductibles vis-à-vis de R(3) ? (ii) Reprendre les calculs du § B-4 (symétrie d’isospin) dans le cas de trois particules et de la symétrie SU (3). On supposera que les trois particules ont un spin 1/2. Examiner le cas où leur état orbital est décrit par une fonction d’onde totalement symétrique par échange ; obtient-on alors la représentation {10} ?

447

• NATURE D’UNE PARTICULE ET NOMBRE QUANTIQUE INTERNE

Complément AIX La nature d’une particule est équivalente à un nombre quantique interne 1 2

3

Antisymétrisation partielle ou totale d’un vecteur d’état . . . . . . . . . . . . . . . . . . . . . . . Correspondance entre les états de deux systèmes physiques . . . . . . . . . . . . . . . . . . . . . . . 2-a Espaces des états . . . . . . . . . . . . . . . . . . 2-b Une correspondance biunivoque . . . . . . . . . . 2-c Egalité des éléments de matrice . . . . . . . . . . Conséquences physiques . . . . . . . . . . . . . .

. 449 . . . . .

451 451 452 452 453

Dans le § A-3 du chapitre IX nous avons mentionné sans démonstration précise que, lorsqu’un système physique possède des propriétés d’invariance par échange entre particules de natures différentes, on peut les considérer toutes comme des particules identiques dont l’état interne serait caractérisé par deux valeurs différentes d’un certain nombre quantique. L’hamiltonien n’agit pas sur les variables internes en question. Nous allons voir dans ce complément de façon plus précise pourquoi il est effectivement équivalent de symétriser (ou antisymétriser) séparément le vecteur d’état par rapport, soit à autant de groupes de particules qu’il existe d’espèces distinctes, soit à l’ensemble de toutes les particules considérées comme identiques. 1.

Antisymétrisation partielle ou totale d’un vecteur d’état

Considérons un ensemble de nα particules de nature α associé à un autre ensemble de nβ particules identiques β obéissant à la même statistique (les deux ensembles sont, soit des bosons, soit des fermions). Les symétriseurs ou antisymétriseurs qui interviennent alors sont : (

)

1 X Snα (1, 2, . . . , nα ) = Anα nα ! λ

(

Snβ Anβ

)

1 X (nα + 1, . . . , n) = nβ ! λ

(

1 ελ

)

1 ελ

)

(

Pλ (1, 2, . . . , nα ) Pλ (nα + 1 . . . , n)

(1a)

où la ligne du haut de chacune des accolades s’applique au cas des bosons, celle du bas aux fermions (ελ est la parité de la permutation Pλ ). Pour un 449

COMPLÉMENT AIX



ensemble de n = nα + nβ particules identiques, le symétriseur ou antisymétriseur à appliquer est l’unique opérateur : (

)

1 X Sn (1, 2, . . . , n) = An n! λ

(

1 ελ

)

Pλ (1, 2, . . . , n)

(1b)

Nous désirons exprimer cet opérateur en fonction des antisymétriseurs partiels A écrits en (1a). De fait, nous allons montrer que : 

nα X nα !nβ !  Sn (1, 2, . . . , n) = 1+η An n!  i=1

(

)

+

nα X

n X

Pi,j

j=nα +1 n X

Pi1 ,j1 Pi2 ,j2 + . . .

i1