Physique statistique
 978-2-10-075611-7

Table of contents :
Couverture......Page 1
Table des matières......Page 3
Avant-propos......Page 9
1. Introduction......Page 13
3. Une théorie fondamentale au statut particulier......Page 14
4. Émergentisme......Page 16
1. Nécessité de l'approche probabiliste......Page 19
2. Probabilités et variables aléatoires......Page 21
3. Moyenne, variance, moments, cumulants, corrélations, .........Page 26
4. Quelques exemples de distributions......Page 32
5. Théorème de la limite centrale......Page 33
A. Remarques supplémentaires sur les fonctions génératrices et les cumulants......Page 37
B. Fluctuations typiques vs grandes déviations......Page 39
Exercices......Page 45
1. Équilibre macroscopique et ergodicité......Page 46
2. Microétats (état pur)......Page 50
3. Macroétats (mélange statistique)......Page 52
4. Le dénombrement des microétats : densité d'états......Page 54
A. Formulation classique......Page 61
B. Formulation quantique......Page 64
Exercices......Page 67
1. L'entropie en thermodynamique......Page 68
2. Information et entropie statistique......Page 70
A. La méthode des multiplicateurs de Lagrange......Page 78
Exercices......Page 80
1. La recherche d'un postulat fondamental......Page 81
2. Postulat fondamental de la physique statistique......Page 84
3. Relâchement de contraintes......Page 91
4. Irréversibilité......Page 103
Les points clés......Page 108
Exercices et problèmes......Page 109
VI. Systèmes non isolés - Ensembles canonique et grand-canonique......Page 116
1. Ensemble canonique......Page 117
2. Ensemble grand canonique......Page 130
3. Relâchement d'une contrainte......Page 137
A. Travaux élémentaires, forces généralisées et variables conjuguées......Page 140
B. Mouvements de rotation, moment cinétique et dipôles permanents en champs externes......Page 142
Exercices et problèmes......Page 147
1. L'équivalence des ensembles......Page 148
2. Transformations thermodynamique......Page 153
3. La physique statistique : mode d'emploi......Page 154
A. Potentiels thermodynamiques......Page 159
B. Transformations de Legendre : l'exemple des partitions d'un entier......Page 161
Exercices et problèmes......Page 164
1. Gaz parfait monoatomique......Page 168
2. Densité spatiale en présence d'un champ extérieur et distribution des vitesses......Page 170
3. Capacité calorifique des gaz parfaits moléculaires......Page 172
4. Rôle des interactions dans les gaz......Page 180
A. Moléculaires diatomiques homonucléaires - H2......Page 191
Exercices......Page 193
1. Oscillateur harmonique unidimensionnel......Page 195
2. Vibrations d'un corps solide......Page 198
3. Thermodynamique du rayonnement......Page 207
A. Modes propres d'une chaîne de ressorts......Page 215
B. Corde vibrante : « quantification classique » versus « quantification quantique »......Page 216
Exercices et problèmes......Page 219
X. Transitions de phase......Page 221
1. Transition liquide-gaz......Page 222
2. Transition paramagnétique-ferromagnétique......Page 231
3. Universalité......Page 244
Les points clés......Page 247
Exercices......Page 248
1. Particules indiscernables : fermions et bosons......Page 249
2. Les statistiques de Fermi-Dirac et Bose-Einstein......Page 256
A. Fermions de spin 1/2......Page 264
Exercices......Page 266
1. Introduction......Page 269
2. Gaz parfait de fermions libres dégénéré à T = 0......Page 273
3. Comportement à basse température......Page 276
Les points clés......Page 282
Exercices......Page 283
1. Introduction......Page 288
2. Le gaz parfait de bosons libres......Page 291
3. Bosons dans un piège harmonique......Page 299
Les points clés......Page 307
Exercices......Page 308
Formulaire......Page 311
Chapitre II......Page 315
Chapitre III......Page 319
Chapitre IV......Page 322
Chapitre V......Page 323
Chapitre VI......Page 330
Chapitre VII......Page 336
Chapitre VIII......Page 342
Chapitre IX......Page 345
Chapitre X......Page 347
Chapitre XI......Page 349
Chapitre XII......Page 355
Chapitre XIII......Page 359
Bibliographie......Page 363
Index......Page 365

Citation preview

Physique statistique Des processus élémentaires aux phénomènes collectifs Christophe Texier Professeur à l’université Paris-Sud

Guillaume Roux Maître de conférences à l’université Paris-Sud

Illustration de couverture : simultation Monte Carlo de la fusion à la surface d’un solide (les lignes correspondent aux trajectoires des atomes). D’aprés Farid F. Abraham, Two-dimensional melting, solid-state stability, and the Kosterlitz-Thouless-Feynman criterion, Physical Review B 23, p. 6145 (1981).

© Dunod, 2017 11, rue Paul Bert, 92240 Malakoff www.dunod.com ISBN 978-2-10-075611-7

Table des matières Avant-propos

IX

Partie 1

Fondements Chapitre 1

Le périmètre de la physique statistique

1

1. Introduction

1

2. Existence d’une échelle atomique

2

3. Une théorie fondamentale au statut particulier

2

4. Émergentisme

4

Chapitre 2

Probabilités

7

1. Nécessité de l’approche probabiliste

7

2. Probabilités et variables aléatoires

9

3. Moyenne, variance, moments, cumulants, corrélations,...

14

4. Quelques exemples de distributions

20

5. Théorème de la limite centrale

21

Les points clés

25

Les annexes

25

A. Remarques supplémentaires sur les fonctions génératrices et les cumulants

25

B. Fluctuations typiques vs grandes déviations

27

Exercices

33

Chapitre 3

Ergodicité

34

1. Équilibre macroscopique et ergodicité

34

2. Microétats (état pur)

38

3. Macroétats (mélange statistique)

40

4. Le dénombrement des microétats : densité d’états

42 III

Table des matières

Les points clés

49

Les annexes

49

A. Formulation classique

49

B. Formulation quantique

52

Exercices

55

Chapitre 4

56

1. L’entropie en thermodynamique

56

2. Information et entropie statistique

58

Les points clés

66

Les annexes

66

A. La méthode des multiplicateurs de Lagrange

66

Exercices

68

Chapitre 5

Systèmes isolés à l’équilibre – Postulat fondamental

69

1. La recherche d’un postulat fondamental

69

2. Postulat fondamental de la physique statistique

72

3. Relâchement de contraintes

79

4. Irréversibilité

91

Les points clés

96

Exercices et problèmes

97

Chapitre 6

IV

Entropie

Systèmes non isolés – Ensembles canonique et grand-canonique

104

1. Ensemble canonique

105

2. Ensemble grand canonique

118

3. Relâchement d’une contrainte

125

Les points clés

128

Les annexes

128

A. Travaux élémentaires, forces généralisées et variables conjuguées

128

Table des matières

B. Mouvements de rotation, moment cinétique et dipôles permanents en champs externes

130

Exercices et problèmes

135

Chapitre 7

Vue d’ensemble des outils de la physique statistique

136

1. L’équivalence des ensembles

136

2. Transformations thermodynamiques

141

3. La physique statistique : mode d’emploi

142

Les annexes

147

A. Potentiels thermodynamiques

147

B. Transformation de Legendre : l’exemple des partitions d’un entier

149

Exercices et problèmes

152

Partie 2

Applications Chapitre 8

Description classique des gaz

156

1. Gaz parfait monoatomique

156

2. Densité spatiale en présence d’un champ extérieur et distribution des vitesses

158

3. Capacité calorifique des gaz parfaits moléculaires

160

4. Rôle des interactions dans les gaz

168

Les points clés

179

Les annexes

179

A. Molécules diatomiques homonucléaires – H 2

179

Exercices

181

Chapitre 9

Thermodynamique des oscillateurs harmoniques

183

1. Oscillateur harmonique unidimensionnel

183

2. Vibrations d’un corps solide

186 V

Table des matières

3. Thermodynamique du rayonnement

195

Les points clés

203

Les annexes

203

A. Modes propres d’une chaîne de ressorts

203

B. Corde vibrante : « quantification classique » versus « quantification quantique »

204

Exercices et problèmes

207

Chapitre 10

Transitions de phase

209

1. Transition liquide-gaz

210

2. Transition paramagnétique-ferromagnétique

219

3. Universalité

232

Les points clés

235

Exercices

236

Partie 3

Gaz quantiques Chapitre 11

237

1. Particules indiscernables : fermions et bosons

237

2. Les statistiques de Fermi-Dirac et Bose-Einstein

244

Les points clés

252

Les annexes

252

A. Fermions de spin 1/2

252

Exercices

254

Chapitre 12

VI

Statistiques quantiques

Fermions

257

1. Introduction

257

2. Gaz parfait de fermions libres dégénéré à  = 0

261

3. Comportement à basse température

264

Les points clés

270

Exercices

271

Table des matières

Chapitre 13

Bosons

276

1. Introduction

276

2. Le gaz parfait de bosons libres

279

3. Bosons dans un piège harmonique

287

Les points clés

295

Exercices

296

Formulaire

299

Solutions

303

Bibliographie

351

Index

353

VII

Avant-propos Cet ouvrage propose un cours d’introduction à la physique statistique pour les étudiants de premier et deuxième cycles universitaires. Il est le fruit de plusieurs années d’un enseignement dispensé à l’Université Paris-Sud à travers le cours magistral et des séances de travaux dirigés. Le cœur du texte est basé sur des notes de cours rédigées par l’un d’entre nous dans les années 2011-2012, qui ont été profondément remaniées et complétées, notamment par de nombreux exercices et problèmes dont la plupart ont été posés en examen. L’ouvrage a été conçu pour être utilisé de façon autonome et ne requiert que des notions élémentaires de mécanique classique et de mécanique quantique (de niveau L3). Il été écrit avec le souci de rester assez compact, proche des réalités d’un enseignement pratique, et dans cette optique, a été divisé en trois parties, « Fondements », « Applications » et « Gaz quantiques », que nous allons maintenant présenter. La première partie s’ouvre sur quelques pages d’introduction (chapitre 1) dans lesquelles nous définirons notre objet d’étude et essayerons de dégager quelques idées directrices. En particulier, nous insisterons sur le statut très particulier de la physique statistique en tant que grande théorie fondamentale, puisque son objet n’est pas de décrire la dynamique à l’échelle élémentaire, mais de permettre de comprendre comment les phénomènes collectifs émergent. Le chapitre 2 introduit a quelques notions de théorie des probabilités nécessaires à notre présentation, i.e. le « langage » sur lequel est basée la physique statistique. Le chapitre 3 est un chapitre de transition qui expose comment le langage probabiliste sera appliqué dans le cadre des modèles physiques et introduit a le jargon propre à la physique statistique. Nous introduirons également un outil qui jouera un rôle très important par la suite : la densité d’états. Le concept d’entropie, dont nous mentionnerons les différentes interprétations au chapitre 4, sera central pour la suite. Le chapitre 5, qui introduit le postulat fondamental, correspond au cœur de la physique statistique. Si son application directe concerne l’étude des systèmes isolés et à l’équilibre (« ensemble microcanonique »), nous expliquerons au chapitre 6 comment étudier le cas des systèmes non-isolés, en contact avec un réservoir, d’énergie et/ou de particules (« ensembles canonique et grand canonique »). Le cas des systèmes en contact avec un réservoir de volume (« ensemble isotherme-isobare ») sera discuté dans un problème. Le chapitre 7 qui clôt la première partie donnera une vue d’ensemble pour insister sur la logique globale. Si la première partie illustre la construction et l’articulation des outils à travers les exemples les plus simples, la seconde partie « Applications » propose de les appliquer dans des cas réalistes, centrés sur l’interprétation des observations expérimentales. Trois sujets importants seront discutés : tout d’abord la théorie semiclassique des gaz (chapitre 8). Nous discuterons ensuite la thermodynamique des ensembles d’oscillateurs harmoniques (chapitre 9) à travers deux applications : les vibrations des atomes d’un réseau cristallin, puis la thermodynamique du rayonnement, un sujet d’importance historiquement puisqu’il initie l’émergence des idées quantiques, avec la loi de Planck en 1900. Pour clore cette seconde partie (chapitre 10), nous verrons comment des interactions sont responsables des phénomènes collectifs extrêmement spectaculaires que sont les transitions de phase. IX

Avant-propos

La troisième partie traite du rôle des corrélations quantiques, qui se manifestent dans le régime de « basse » température. Le chapitre 11 montrera comment l’ensemble grand canonique permet de traiter efficacement les problèmes d’indiscernabilité posés par la mécanique quantique. Les deux derniers chapitres appliquerons ces concepts aux deux types de particules existant, fermions (chapitres 12) et bosons (chapitre 13). Si l’observation des effets quantiques dans les gaz bosoniques requiert des conditions extrêmes (  quelques K), nous verrons que le comportement des électrons (des fermions) dans un métal à température ambiante est dominé par le principe de Pauli. Un dernier sujet d’importance est celui des phénomènes hors équilibre (dynamique, transport, etc). Il a cependant été laissé de côté faute de place. L’élaboration de ce cours a bénéficié très largement de notre environnement scientifique. D’abord au sein des équipes enseignantes : nous remercions chaleureusement Christian Boulet qui a dirigé l’équipe « physique statistique » au magistère d’Orsay jusqu’en 2011, ainsi que tous les collègues avec qui nous avons eu le plaisir d’y travailler : Meydi Ferrier, Giuseppe Foffi, Jean-Noël Fuchs, Henk Hilhorst, Roland Mastripolitto, Nicolas Pavloff, Alberto Rosso (qui y a enseigné bénévolement) et Bartjan van Tent. Nous remercions les étudiants du magistère à qui nous avons eu le plaisir de dispenser cet enseignement : plusieurs années de fructueux échanges ont fortement participé à façonner ce cours. Nous sommes particulièrement reconnaissants envers plusieurs collègues qui ont apporté des contributions assez directes : Alberto Rosso (pour les programmes python produisant les simulations du problème de Sinai, cf. les figures. 5.2 et 5.3), Giuseppe Foffi (qui a inspiré le problème 5.4), Emmanuel Trizac (l’exercice 10.3 sur la méthode variationnelle est basé sur un de ses articles), Jean-Noël Fuchs (qui avait rédigé une autre version du problème 12.1 sur le graphène) et Gilles Montambaux (le problème 11.2 a été imaginé comme application de la jolie relation (11.39) qu’il avait pointée). Être membres d’un laboratoire de recherche en physique statistique a certainement été un atout pour écrire ce livre, et nous avons bénéficié des conseils et remarques de plusieurs collègues que nous souhaitons remercier particulièrement : Eugène Bogomolny, Alain Comtet, Silvio Franz, Olivier Giraud, Hubert Krivine, Thierry Jolicœur, Martin Lenz, Satya Majumdar, Marc Mézard, Gilles Montambaux, Nicolas Pavloff, Alberto Rosso, Raoul Santachiara, Grégory Schehr, Emmanuel Trizac (qui aura la grande surprise d’être cité dans un livre de physique statistique pour ses travaux photographiques, cf. page 61 !) et Denis Ullmo. Au moment de clôturer ce projet, je souhaite (CT) exprimer ma gratitude aux trois professeurs exceptionnels, Bernard Diu, Alain Laverne et Bernard Roulet, qui m’ont enseigné les bases de cette théorie fondamentale fascinante. Enfin, nous remercions Laetitia Herin et Vanessa Beunèche pour leur patience et leur travail. Orsay, le 23 janvier 2017.

X

Notations def

= ≃ ou ≈ ∼ ∝ ∀ ℕ ℤ ℝ ℂ  ,  ( )

égal par définition approximativement égal à de l’ordre de proportionnel à quel que soit ens. des entiers naturels ens. des nombres relatifs ens. des nombres réels ens. des nombres complexes Symbole de Kronecker Distribution de Dirac

d d  ( ) Φ( ) Ω( ) ∗ ∗ ∗ ∗  

 H() Tr {⋯}    Var() 

Fonction de Heaviside trace Produit tensoriel Moyenne de  Variance (=  2 −   2)  Écart-type (= Var( ))

 C C C Ξ

moyenne canonique de l’énergie pression canonique entropie canonique potentiel chimique canonique fonction de partition grand canonique



fonction de partition pour l’état individuel  grand potentiel

C

 G

quantité infinitésimale de travail quantité infinitésimale de chaleur densité d’états densité d’états intégrée nombre de microétats accessibles entropie microcanonique température microcanonique pression microcanonique potentiel chimique microcanonique fonction de partition canonique énergie libre



Hamiltonien



 

spin d’une particule facteur gyromagnétique

 G

moyenne grand canonique de l’énergie pression grand canonique

constante de Planck réduite

G

potentiel chimique grand canonique

G

entropie grand canonique

=

 2

G

moyenne grand canonique du nombre de particules

Constantes fondamentales constante de Planck constante de Boltzmann nombre d’Avogadro constante des gaz parfaits vitesse de la lumière charge élémentaire masse de l’électron masse du proton magnéton de Bohr

 = 6.63 × 10−34 J.s et  = 1.05 × 10−34 J.s  = 1.38 × 10−23 J.K−1  = 6.02 × 1023 mol−1  = 8.31 J.mol−1.K−1  = 3.00 × 108 m.s−1  = 1.60 × 10−19 C  = 0.91 × 10−30 kg  = 1.67 × 10−27 kg   = = 0.93 × 10−23 J.T−1 2 XI

Des exercices et des problèmes pour tester ses connaissances et s’entraîner

Les solutions des exercices et problèmes

Chapitre

1

1

Le périmètre de la physique statistique

Définir à quoi sert la physique statistique

1

Introduction

Identifier la place de la physique statistique parmi les théories de la physique

2

Existence d’une échelle atomique

3

Une théorie fondamentale au statut particulier

4

Émergentisme

Introduction

Parmi les grandes théories fondamentales de la physique, la physique statistique est certainement l’une des plus importantes, puisqu’avec la mécanique quantique, elles forment le socle de la physique moderne. Elle a été fondée (dans sa version classique) pendant la seconde moitié du XIXe siècle par Clausius, Maxwell, Boltzmann et Gibbs, puis fertilisée par le développement de la mécanique quantique au cours de la première moitié du XX e siècle. Elle s’attelle à l’étude des systèmes à très grand nombre de degrés de liberté (typiquement le nombre d’Avogadro  ∼ 1023 pour les corps matériels aux échelles macroscopiques). Elle a des applications dans quasiment tous les domaines de la physique : matière diluée (gaz atomiques et moléculaires), matière condensée (solides, liquides, magnétisme, polymères, cristaux liquides, etc), thermo-chimie, biophysique, physique des plasmas, astrophysique, etc. Depuis sa fondation, elle a continué à voir son champ d’application s’élargir, pour déborder aujourd’hui très largement le champ de la physique : certains physiciens s’intéressent à des sujets tels que les réseaux (réseaux de communication, réseaux de neurones), des problèmes d’informatique théorique (optimisation combinatoire, satisfaisabilité de contraintes, etc) ou étudient même des modèles socioéconomiques (réseaux sociaux, propagation d’épidémies, modèles de vote, étude des marchés financiers, etc). Pour reprendre le titre d’un paragraphe de l’ouvrage de Roger Balian [3], elle permet une certaine forme d’unification des sciences macroscopiques. L’objet de ce chapitre introductif sera de continuer à cerner notre sujet d’étude et mieux situer la place de la physique statistique. 1

Chapitre 1 • Le périmètre de la physique statistique

2

Existence d’une échelle atomique

Dans notre perception courante nous sommes essentiellement confrontés à des solides, des liquides, des gaz, différentes organisations de la matière (des « phases ») qui présentent un caractère continu. Cependant, nous savons aujourd’hui qu’il existe une échelle « atomique » en deçà de laquelle émerge le caractère discret de la matière. Au XIXe siècle, la physique statistique a cherché, par le développement de la théorie cinétique des gaz (Clausius, Maxwell, Boltzmann, etc), à fonder la thermodynamique sur « l’hypothèse atomique ». Cette hypothèse a des racines qui remontent à l’antiquité : on peut mentionner les deux atomistes célèbres, Démocrite (∼ 460−370 av JC) qui semble avoir introduit la notion d’atome («  » pour « indivisible ») et Lucrèce (∼ 95−55 av JC), célèbre pour son ouvrage De rerum natura. Bien que les développements de la chimie au XIX e siècle en fournissaient de précieux indices, avec la loi des proportions définies, l’hypothèse atomique a rencontré une incroyable résistance dans la communauté des physiciens à la fin du XIXe siècle, dont une partie étaient en faveur d’une description purement continue. On peut dire que ce n’est qu’à l’orée du XXe siècle que l’hypothèse atomique fut validée définitivement par Jean Perrin (en 1908) grâce à son analyse du mouvement brownien (cf. figure 2.2). Il est intéressant de chercher à comprendre la raison de la résistance d’une partie des physiciens du XIX e siècle à la physique statistique : tout d’abord, les preuves expérimentales de l’existence des atomes ne sont venues qu’au début du XX e, mais plus profondément, l’idée que la description la plus fondamentale (la physique statistique) repose sur une formulation de nature probabiliste était inacceptable (d’un point de vue philosophique) pour de nombreux scientifiques. Si la physique statistique est justifiée par l’existence d’une « échelle atomique », nous devons toutefois prendre garde à ne pas prendre trop littéralement la distinction entre « microscopique (atomique) » et « macroscopique ». La diversité des exemples d’applications nous conduit à préciser cette opposition qui doit plutôt être comprise entre des processus élémentaires et des phénomènes collectifs.

3

Une théorie fondamentale au statut particulier

3.1 Réductionnisme Une logique qui a prévalu dans le développement de la physique moderne (depuis le XVII e siècle) est la logique réductionniste. Celle-ci procède par une approche top-down (descendante) visant à obtenir une description de plus en plus fine de la matière et une formulation de lois physiques au niveau de plus en plus élémentaire : homme ⟶ cellule ⟶ atome ⟶ noyau ⟶ particules élémentaires ⟶ ? approche réductionniste

2

3

Une théorie fondamentale au statut particulier

Si le développement ultime (au moins celui validé expérimentalement) est le modèle standard pour les trois interactions fondamentales (électro-faible et forte), il faut comprendre que la connaissance des lois qui régissent la dynamique au niveau le plus élémentaire ne donne aucune clé sur la complexité observée en remontant des petites aux grandes échelles. Nous comprenons aujourd’hui que l’idée que tout serait contenu dans les lois ultimes décrivant la dynamique aux échelles les plus élémentaires est profondément erronée :1 Élémentaire  Fondamental Par exemple, pour le cas d’un système simple comme un gaz, essayons de comprendre pourquoi la mécanique newtonienne décrivant le mouvement des atomes à l’échelle élémentaire échoue à expliquer les comportements du gaz à l’échelle macroscopique. Le point n’est pas que la mécanique newtonienne serait incorrecte, mais seulement qu’elle devient inefficace dès que le nombre de degrés de liberté devient trop grand. Dès que la dynamique est un tant soit peu complexe, ce qui peut se manifester déjà pour quelques degrés de liberté (et donc a fortiori pour ∼ 1023), à cause des phénomènes chaotiques, la mécanique classique perd tout caractère prédictif. Elle ne fournit pas le bon langage pour analyser de tels problèmes. De même que la validité de la mécanique newtonienne est limitée en allant vers les hautes énergies (mécanique newtonienne→relativité restreinte) et/ou les petites échelles (mécanique newtonienne→mécanique quantique), une autre limitation vient du cas des systèmes plus complexes (mécanique newtonienne→mécanique statistique).

3.2 Du microscopique au macroscopique La physique statistique occupe une place à part parmi les grandes théories fondamentales que sont la mécanique classique, l’électromagnétisme, la théorie de la relativité et la mécanique quantique. Si les objets d’étude de ces dernières sont plus ou moins distincts, toutes ces théories « cadres » présentent la même structure : au cœur de la théorie quelques règles très simples, ou postulats, gouvernant la dynamique élémentaire, comme les lois de Newton, les équations de Maxwell, le principe d’équivalence, ou encore les postulats de la mécanique quantique. Tout l’art du physicien est ensuite de les mettre en musique en construisant un modèle décrivant la situation d’intérêt. La physique statistique procède d’une logique assez différente puisqu’elle n’entreprend pas de mieux décrire les lois de la nature à l’échelle élémentaire. En revanche, elle fait appel aux concepts probabilistes pour jeter un pont en le microscopique et le macroscopique. Contrairement à toutes les théories sus-mentionnées, la physique statistique a donc le statut d’une « théorie sur-couche », requérant une autre théorie (mécanique newtonienne ou mécanique quantique ou autre) pour décrire les processus élémentaires. 1. Il faut entendre « fondamental » dans le sens de « fondation » ou « fondement ». 3

Chapitre 1 • Le périmètre de la physique statistique

Par l’utilisation de méthodes probabilistes, la physique statistique permet de déduire les propriétés des systèmes aux échelles macroscopiques à partir des lois qui gouvernent les constituants élémentaires aux échelles microscopiques.

Ces quelques remarques mettent déjà en lumière un certain nombre d’oppositions entre les deux niveaux : Microscopique

Macroscopique

∙ discret ∙ petit nombres de lois simples (postulats de la MQ, équations de Maxwell,...) ∙ comportement aléatoire ∙ équations réversibles

∙ continu ∙ diversité, complexité, grand nombre de théories effectives ∙ déterministe ∙ irréversibilité

Nous verrons dans l’ouvrage comment concilier ces antagonismes.

3.3 Thermodynamique et physique statistique Si le statut de théorie « sur-couche » place la physique statistique dans une position particulière parmi les grandes théories physiques, elle n’est pas la seule puisque la thermodynamique, la science des conversions d’énergie, occupe une place similaire. La thermodynamique est cependant une théorie axiomatique basée sur des principes opérant directement à l’échelle macroscopique. Elle permet de construire des modèles dits phénoménologiques (i.e. dont les ingrédients sont basés sur l’analyse des observations expérimentales), alors que la physique statistique est beaucoup plus ambitieuse puisqu’elle propose d’expliquer les phénomènes à l’échelle macroscopique à partir de modèles dits microscopiques, dont les ingrédients sont dans la dynamique au niveau élémentaire. Cette dernière a donc un pouvoir prédictif potentiellement beaucoup plus important. En outre, la physique statistique permettra de répondre à des questions plus subtiles, sur les fluctuations des observables ou leurs corrélations. C’est donc une théorie plus fondamentale, qui justifie et interprète, en particulier, la thermodynamique.

4

Émergentisme

Au lieu de suivre la voie top-down réductionniste, la physique statistique suit la voie bottom-up (ascendante). Dans sa démarche elle montre que la physique à l’échelle « macroscopique » est largement indépendante des détails de l’échelle « microscopique », il y a un découplage entre les différentes échelles. Elle démonte ainsi le mythe réductionniste et montre que chaque échelle requiert son propre niveau 4

4

Émergentisme

d’analyse. L’origine du découplage entre les échelles repose sur l’existence de puissants principes d’auto-organisation à l’échelle macroscopique, ce qui explique en grande partie la disparition de l’information sur l’échelle microscopique, et l’universalité de nombreuses propriétés à l’échelle macroscopique [1, 24]. La meilleure illustration de cette idée est probablement dans le phénomène de transition de phase. Discutons par exemple un système constitué d’un nombre macroscopique d’atomes,  ∼ 1023, dans un cadre classique où ils sont décrits comme des particules ponctuelles en interaction. Au niveau élémentaire, l’interaction entre les atomes est bien décrite par une interaction à deux corps du type potentiel de Lennard-Jones :  0 12  0  6  () = 0 , où 0 est une échelle d’énergie et 0 la portée de l’in−2   teraction. Les ingrédients microscopiques sont donc extrêmement simples : les lois de Newton avec ce potentiel d’interaction. L’expérience (de nombreux fluides sont bien décrits dans ce cadre) nous enseigne cependant que l’étude de ce problème est extrêmement riche : le système peut présenter à l’échelle macroscopique des comportements très différents et se présenter sous différentes « phases », gazeuse (à faible densité), liquide ou solide. L’origine de ces différentes organisations de la matière n’est donc pas à chercher dans les détails microscopiques. À l’échelle macroscopique, il y a émergence de phénomènes collectifs, imprévisibles avec la seule compréhension de la dynamique à l’échelle microscopique.

Ce courant de pensée, appelé émergentisme, prend donc l’exact contre-pied de l’approche réductionniste. Le projet est mené à bien par l’introduction de l’approche probabiliste, ce qui est apparu comme une révolution à la fin du XIXe siècle. Mais il faut comprendre que c’est aussi un changement de perspective complet. Pour appréhender cela, commençons par rappeler la logique qui avait prévalu jusque là en considérant l’exemple de l’étude du mouvement des planètes dans le système solaire : parallèlement aux avancées technologiques sur les moyens d’observation, les astronomes ont progressivement raffiné leurs modèles, ce qui a culminé au milieu du XIXe siècle avec la découverte de Neptune grâce aux « anomalies » observées sur la trajectoire d’Uranus. À l’inverse, le découplage entre microscopique et macroscopique dans les systèmes complexes montre que le physicien à tout intérêt à simplifier au maximum les modèles. La plus belle application de cette idée se trouve dans la théorie des phénomènes critiques où la détermination des exposants critiques peut être menée sur n’importe quel modèle représentant d’une certaine classe d’universalité.

5

Chapitre 1 • Le périmètre de la physique statistique

Pour en savoir plus : • Sur l’approche émergentiste, on pourra consulter l’article de P. Anderson [1] ou le livre de R. Laughlin [24]. • L’ouvrage de Balian [3] contient une multitude de remarques historiques passionnantes, ainsi que celui de Pathria [29]. • Quelques références générales : – Des ouvrages assez complets (donc volumineux) mais faciles d’accès sont ceux de : F. Reif [31], R. Pathria [29] et B. Diu, C. Guthman, D. Lederer et B. Roulet [15]. – Un ouvrage plus difficile est celui de R. Balian [3, 4].

6

Chapitre

2

Probabilités

Introduire quelques notions élémentaires de théorie des probabilités

1

1

Nécessité de l’approche probabiliste

2

Probabilités et variables aléatoires

3

Moyenne, variance, moments, cumulants, corrélations,...

4

Quelques exemples de distributions

5

Théorème de la limite centrale

Nécessité de l’approche probabiliste

La physique statistique s’intéresse aux systèmes ayant un très grand nombre de degrés de liberté. Par exemple dans un fluide ou un corps solide dans un volume macroscopique (taille ∼ 1 m), le nombre d’atomes est typiquement de l’ordre du nombre d’Avogadro   = 6.022 140 857 × 1023

(2.1)

qui représente le nombre de particules dans une mole. Loin de compliquer l’analyse, cette observation va se révéler être la source d’une grande simplification puisqu’elle va justifier l’utilisation de concepts probabilistes.

1.1 Une nécessité pratique Si l’impossibilité pratique d’analyser la dynamique (classique) de tous les constituants d’un gaz était évidente à la fin du XIXe siècle, examinons ce qu’il en est à l’heure de l’informatique. Considérons 1 cm3 de gaz parfait monoatomique dans les conditions normales de température et de pression ( = 300 K ≃ 27 ◦C et  = 1 atm = 10 5 Pa) et cherchons à caractériser l’état microscopique du système à un instant donné, entreprise dont les fruits semblent pourtant bien modestes ! Le nombre d’atomes dans le gaz est 10−3   ≃ 2.5 1020 . (2.2) 24 Si l’on fait une « photo » du gaz à un instant donné, son état sera défini par la donnée des positions et des vitesses des  atomes. La mémoire nécessaire est estimée à  ln  Mémoire ≃ octets . (2.3) 2 ln 2 =

7

Chapitre 2 • Probabilités

L’application numérique donne ≈ 1022 octets, soit 1010 disques durs de 1 To (un TéraOctet = 1000 GigaOctet). Conclusion : si chaque être humain sur terre (environ 7 × 109 personnes) possédait un disque dur de 1 To, cela suffirait à peine à stocker l’information (de la mécanique classique) correspondant à une « photographie » du gaz contenu dans 1 cm3 !

Exercice 2.1 Combien de chiffres significatifs sont-ils nécessaires pour repérer la position de chacun des  atomes dans le gaz ? Déduire l’expression (2.3). Indication : 1 octet = 8 bits, i.e. un chiffre entre 0 et 15. D’un point de vue pratique, il est exclu de chercher à prédire la dynamique de l’ensemble des constituants élémentaires d’un corps macroscopique. Non seulement l’objectif est hors de portée (la limite des expériences numériques de dynamique moléculaire correspond au million de particules) mais soulignons surtout qu’il n’a pas d’intérêt. En effet, le nombre d’informations « intéressantes » que l’on souhaite extraire est en général très faible : quelques propriétés telles la température, la pression, la densité, ou même des distributions (de la vitesse, des distances entre atomes), etc. La connaissance du nombre faramineux de données spécifiant les positions et les vitesses des particules ne nous dit pas clairement comment remonter à ces informations intéressantes.

1.2 Une nécessité de principe D’un point de vue plus fondamental remarquons que la capacité prédictive des lois microscopiques sur l’évolution d’un système complexe est très faible pour plusieurs raisons. • La dynamique classique d’un système à grand nombre de degrés de liberté en présence d’interaction est chaotique. L’absence d’intégrabilité (i.e. la faiblesse du nombre de constantes du mouvement) conduit à une extrême sensibilité de la dynamique dans les conditions initiales : des variations infimes sur l’état initial se répercutent extrêmement rapidement sur l’évolution, ce qui donne lieu à des trajectoires divergentes. • Pour insister encore sur la faiblesse prédictive des équations du mouvement, remarquons qu’il est difficile en pratique de définir précisément l’hamiltonien du système. Tout système « isolé » réel sera soumis à des perturbations extérieures résiduelles perturbant sa dynamique. • La seconde raison fondamentale a trait à la nature intrinsèquement probabiliste de la description quantique des constituants élémentaires.

8

2

2

Probabilités et variables aléatoires

Probabilités et variables aléatoires

2.1 Évènements et probabilités Lorsque l’occurrence d’un phénomène présente un caractère aléatoire, soit pour des raisons intrinsèques comme dans le cadre quantique, soit pour des raisons pratiques, parce que le résultat dépend d’un trop grand nombre de paramètres qu’on ne peut pas contrôler, il est plus efficace de raisonner en termes probabilistes. C’est par exemple le cas si l’on joue à pile ou face (pour la seconde raison) ou si l’on étudie la désintégration d’un noyau atomique instable (pour la première raison). Pour formaliser le problème on introduit l’espace des évènements (ou éventualités) pouvant se produire lors d’une expérience reproductible, E = {1 ,  2, ⋯ ,  }, que nous avons ici supposés dénombrables et en nombre fini (). Chaque évènement représente un résultat possible lors de la réalisation de l’expérience. Une analyse statistique peut nous donner les probabilités d’occurrence des  évènements. Considérons  réalisations de l’expérience telles que l’évènement  , choisi   parmi les  , se produise  fois (donc  =  ). Insistons : ce nombre est aléa=1

toire et si l’on réalise  autres fois l’expérience,  se produira ′ fois, a priori différent de  . La probabilité de l’évènement  est définie par def

 →∞ 

 = lim

(2.4)

Par construction on a 0 ⩽  ⩽ 1 et les  probabilités satisfont la condition  

 = 1

(normalisation) .

(2.5)

=1

Exemple : Pile ou face Si l’on jette une pièce de monnaie, la dynamique de ce corps solide dans le fluide (l’air) est extrêmement complexe aussi il est plus simple d’analyser le résultat du lancer en termes probabilistes. Deux résultats peuvent se produire (nous excluons le cas où la pièce tombe sur la tranche !), ce qui définit l’espace des  = 2 évènements E = {pile, face}. Les probabilités associées aux deux résultats peuvent être obtenues « expérimentalement » par une analyse statistique (fastidieuse) comme expliqué ci-dessus. Plus simplement, on peut faire appel à des considérations de symétrie : si la pièce est non truquée, les deux résultats sont équiprobables, pile = face = 1∕2. 9

Chapitre 2 • Probabilités

2.2 Variable aléatoire discrète Dans la pratique, on détermine quel évènement  est réalisé en effectuant la mesure d’une certaine grandeur  : pour chaque évènement  , la mesure de  donne une valeur () (un nombre entier ou réel ou complexe,...). On dira que  est une variable aléatoire. 1 Si les évènements sont dénombrables,  prend ses valeurs parmi un ensemble de valeurs {() }=1,⋯, (on peut avoir  = ∞) et on dit que la variable aléatoire est discrète. Afin de caractériser la variable aléatoire, on introduit sa distribution de probabilité :     () = Proba{ = } =  =  , () , def

 t .q. () =

(2.6)

=1

où le symbole de Kronecker , (0 si les arguments sont distincts, 1 s’ils sont égaux) nous a permis de déplacer la contrainte ailleurs que sur la sommation. Notons que plusieurs ′ évènements pourraient être associés à une même valeur  () =  ( ). Si les valeurs () sont toutes distinctes, on a simplement Proba{ = () } =   .

Exemple : Machine à sous On joue avec une machine à sous qui peut sortir aléatoirement trois chiffres entre 0 et 9, i.e.  = 103 = 1000 résultats. Les 1000 évènements sont équiprobables : 1 = ⋯ =  1000 = 1∕1000 (sinon le casino triche). • Les 10 évènements pour lesquels les trois chiffres sont identiques,  1  (000), 2  (111),... 10  (999), font gagner  3 = 10 €. • Les 10 × 9 × 3 = 270 évènements pour lesquels deux chiffres sont égaux sur les trois, notés  11  (100),  12  (200),... 19  (900), 20  (010),... ,  280  (998), font gagner 2 = 5 €. • Les 720 autres évènements ne font rien gagner,  1 = 0 €. Le gain  ∈ {1,  2 , 3} est donc une variable aléatoire dont la distribution est  (1 ) = 18∕25,  ( 2) = 27∕100 et  (3 ) = 1∕100 (figure 2.1)

2.3 Variable aléatoire continue – Densité de probabilité Une variable aléatoire discrète prend des valeurs parmi un ensemble dénombrable, {0 €, 5 €, 10 €} dans l’exemple précédent. Toutefois, dans de nombreux cas l’espace des évènements n’est pas un ensemble dénombrable et la variable aléatoire peut varier 1. Mathématiquement, une variable aléatoire est donc une application allant de l’espace des éventualités E vers l’ensemble des valeurs prises par la variable. Dans le chapitre, nous noterons les variables aléatoires en majuscules. 10

2

Probabilités et variables aléatoires

continûment dans un certain domaine de ℝ (ou de ℂ, ou de ℝ, etc) : on parle de variable aléatoire continue. w (x )

18/25

1.2

0.6

1.0 0.8

0.4 0.6

27/100

a

0.4

0.2

0.2

1/100 2

4

6

8

s

10

−1

0

1

2

3

4

x

Figure 2.1– Distributions. À gauche : distribution d’une variable aléatoire discrète prenant les valeurs {0 € , 5€, 10 €} . À droite : distribution d’une variable continue (loi exponentielle).

Un exemple de variable continue est donné par l’analyse du mouvement brownien d’une petite particule légère à la surface de l’eau. Sa position est une variable aléatoire de nature vectorielle (, ) ∈ ℝ 2, distribuée dans le plan (selon une loi gaussienne, comme l’a mesuré Jean Perrin en 1908) : cf. figure 2.2.

Figure 2.2 – Mouvement brownien. À gauche : Trajectoires de petites boules de mastic (taille ∼ 1 m) à la surface de l’eau (pointage toutes les 30s). À droite : Loi de répartition d’un grain (365 mesures). Figures tirées de : Jean Perrin, « Mouvement brownien et réalité moléculaire », Annales de Chimie et de Physique 9, p. 1 (1909).

Pour caractériser une variable aléatoire continue , on introduit la densité de probabilité (), mesurant la probabilité pour que  prenne la valeur  :   def (2.7) () d = Proba  ∈ [,  + d] . La condition de normalisation est alors 

() d = 1

(2.8)

où l’intégrale porte sur le « support de la distribution », son domaine de définition. 11

Chapitre 2 • Probabilités

Changement de variable dans une distribution Considérons une variable (aléatoire) fonction de la variable aléatoire  reliée à la variable  par  =  ( ) où la fonction inverse  −1 est supposée bijective sur le support de la distribution de . Question : étant donnée la distribution () de , quelle est la distribution () de  ?     () d = Proba  ∈ [ (),  () +  ′ ()d ] =  ( ()  ′ () d . (2.9)  d

Nous vérifions que cette transformation respecte la condition de normalisation () d = () d = 1 ; c’est même un bon moyen de se rappeler que l’on doit   écrire une égalité entre probabilités (et non entre densités) : (égalité des probabilités).

() d = () d

(2.10)

Exercice 2.2 Changement de variable avec une fonction non bijective Considérons une particule de masse  se déplaçant sur une ligne. La distribution de probabilité de son impulsion est  ( ) =  e− où  =  2 ∕(2) et  un coefficient inversement proportionnel à la température. Calculer la constante de normalisation . Déduire la distribution de son énergie .

2.4 Loi jointe versus loi marginale Considérons un exemple très simple : deux personnes (Alice et Bob) dont les positions   et  sont deux variables aléatoires prenant deux valeurs +1 ou −1. La distribution de ces deux variables, la « loi  de distribution jointe  », est donc une fonction de deux arguments  ,(, ) = Proba   =  &   =  , prenant quatre valeurs que nous pouvons placer dans un tableau :  , (, )

 = +1

 = +1

0.7

 = −1

 ()

 = −1 0.1



⟶ 

0.15 ↓

0.05 ↓



0.85

0.15



 () 0 .8 0 .2 ↓

 

1

Par exemple la probabilité de trouver Alice en +1 et Bob en −1 est , (+1, −1) = 0.1. Si l’on souhaite seulement l’information sur la position d’Alice, on doit additionner les probabilités sur les lignes, par exemple la probabilité de trouver Alice en +1 quelle que  (, ) = soit la position de Bob est 0.7 + 0.1 = 0. 8 =  (+1). Formellement  ,  () est la « loi marginale » de . 12

2

Probabilités et variables aléatoires

Plus généralement, considérons le cas de  variables scalaires aléatoires 1,  2,...,    La distribution (qui pourraient être regroupées pour former une variable vectorielle ). de ces  variables est une fonction à plusieurs variables, leur loi jointe  (1, ⋯ , ). I.e. par définition   (1 , ⋯ , ) d1 ⋯ d = Proba  1 ∈ [1, 1 + d1] & ⋯ &   ∈ [ ,  + d  ] . (2.11) Si seule une de ces variables nous intéresse, disons 1 , ses propriétés statistiques sont encodées dans sa loi marginale, obtenue en intégrant sur les autres variables : d2 ⋯ d (, 2, ⋯ ,  )   = Proba 1 ∈ [,  + d] sachant que les  − 1 autres variables

1()d = d



(2.12)

peuvent prendre n’importe quelles valeurs} .

2.5 Indépendance Considérons deux évènements  et . S’ils sont indépendants, la probabilité d’occurrence des deux évènements est donnée par le produit des probabilités Proba{ &  } = Proba{} × Proba{}

(indépendance statistique)

(2.13)

En revanche, l’égalité n’est pas respectée s’ils ne sont pas indépendants : Proba{ &  } > Proba{} × Proba{} si l’occurrence de  favorise celle de , ou Proba{ &  } < Proba{} × Proba{ } si  est défavorisé par . Par exemple, deux lancers successifs d’une pièce de monnaie (deux expériences de pile ou face) donnent deux résultats indépendants. De même, considérons deux variables aléatoires  et  . Nous notons (, ) leur loi jointe et  1() =



d (, ) et  2() =

(, ) =  1() × 2 ()



d (, ) les deux lois marginales :

pour des variables indépendantes

(2.14)

Exercice 2.3 Considérons deux variables aléatoires  et  décrites par leur loi jointe (, ) =   2 2  exp −   −   − 2  où ,  > 0. Quelle est la condition sur  pour que cette fonction soit bien une distribution ? Quelles sont les lois marginales de  et de  ? Pour quelle valeur de  les deux variables sont-elles indépendantes ?

13

Chapitre 2 • Probabilités

3

Moyenne, variance, moments, cumulants, corrélations,...

Considérons une expérience pouvant donner  résultats parmi E = {}=1,⋯, et une variable aléatoire  à valeurs dans {()} =1,⋯, . On réalise  fois l’expérience, i.e. on observe une succession de  évènements  1 ,...,  , auxquels nous pouvons associer  « mesures »  (1 ) ,..., (  ) . Comme précédemment, nous notons  le nombre d’occurrences de l’évènement  parmi les  réalisations.

3.1 Moyenne (ou « espérance ») Une information intéressante est donnée par la moyenne statistique sur un ensemble de  réalisations :   ( ) 1  ( ) 1    =  () . (2.15) =  =1  =1  La première somme porte sur les  évènements qui se sont effectivement réalisés (par exemple la suite : pile, face, face, pile, etc) : les valeurs sont toutes pondérées de la même manière dans la somme. La seconde porte sur l’ensemble des  évènements (les  = 2 possibilités pile ou face), et les différentes valeurs possibles sont pondérées par les rapports  ∕ . Notons que puisque la séquence des  expériences est aléatoire, la ( )

grandeur 

l’est également (une autre séquence serait décrite par des ′ distincts et ′()

une moyenne statistique 

différente).

Nous définissons maintenant la moyenne probabiliste comme la limite de la moyenne ( ) ′() def statistique pour  → ∞ :   = lim  = ⋯ (à la limite  → ∞, = lim  →∞

→∞

les moyennes statistiques obtenues pour toutes les suites distinctes d’évènements coïncident, ce qui sera prouvé plus bas, cf. § 5). La moyenne probabiliste est aussi appelée « espérance mathématique » par les probabilistes, notée 𝔼( ). Elle s’exprime comme une somme des valeurs possibles, pondérées par leurs probabilités   =

 

 () .

(2.16)

=1

Remarquons que lorsqu’on s’intéresse aux propriétés de la variable aléatoire, il est plus naturel d’exprimer la moyenne à l’aide de la distribution de la variable (plutôt que celle des évènements) :   =

  =1

    ()  Proba  =  ×  = 

(2.17)

=1

où la somme porte sur les valeurs distinctes prises par la variable aléatoire,  ∈ { 1, ⋯ ,   }. Il n’y a une distinction entre (2.16) et (2.17) que dans le cas où la même ′ valeur est réalisée pour plusieurs évènements, () = ( ) pour   ′ (i.e. si  <  ). 14

3

Moyenne, variance, moments, cumulants, corrélations,...

Exemple Reprenons l’étude de la machine à sous discuté ci-dessus. La variable  ne prend que  = 3 valeurs,  ∈ {0 € , 5 € , 10 €}. Sa distribution  ( ) a été donnée plus haut. On peut calculer la moyenne   = (18∕25) × 0 € + (27∕100) × 5 € + (1∕100) × 10 € = 29∕20 €.

Exercice 2.4 Comment le patron du casino choisit-il le coût d’utilisation de la machine à sous ? Dans le cas d’une variable continue distribuée selon la densité de probabilité (), la sommation fait intervenir une intégrale   =



  Proba  ∈ [,  + d] ×  =



d ()  .

(2.18)

Remarquons finalement que les formules (2.17) et (2.18) peuvent être généralisées pour calculer la moyenne de n’importe quelle fonction de la variable aléatoire,

 ( ) =

 

 (  )  (  )

(2.19)

d ()  ()

(2.20)

=1

pour une variable aléatoire discrète et  ( ) =



pour une variable aléatoire continue.

3.2 Variance et écart-type   nous dit en moyenne quelle valeur prendra la variable aléatoire si elle est mesurée un nombre  → ∞ de fois. Une autre question intéressante est de caractériser les écarts à la moyenne  −  . Pour cela nous définissons la variance2    def  Var() = ( −   )2 = 2 −   2

(2.21)

La seconde égalité est obtenue en écrivant ( −   )2  =  2 − 2    +   2 = 2  − 2    +  2 (n’oublions pas que    est un nombre et la moyenne une opération linéaire, i.e.   =    si  est un nombre). L’amplitude des fluctuations 2. Nous pourrions aussi considérer  −     pour estimer les écarts à la moyenne. Nous comprendrons plus tard pourquoi cet autre choix n’est pas très judicieux. 15

Chapitre 2 • Probabilités

de la variable aléatoire autour de sa moyenne est donnée par l’écart type def

 =



(2.22)

Var()

Ce dernier a la dimension de . Si l’on réalise une expérience, la variable prendra une valeur (en gros) () ≈   à des fluctuations (positives ou négatives) d’ordre ∼  .

Exemple : Loi exponentielle Considérons par exemple la loi exponentielle () = (1∕) e−∕ pour  > 0 (figure 2.1). Nous obtenons   = (1∕) Var() = 2 et  = .

0



d  e −∕ =  et  2 = 22, donc

3.3 Corrélations Nous avons insisté plus haut sur la notion d’indépendance, obtenue par l’analyse de la loi jointe de deux variables. Dans la pratique il est courant de chercher à révéler l’indépendance (ou non) par l’étude de propriétés simples de variables aléatoires plutôt que par l’analyse de la distribution complète. Considérons deux variables aléatoires  et   (par exemple les positions de Alice et Bob). Nous pouvons rencontrer trois situations, correspondant à trois types de distributions de ces deux variables : 1. Les deux variables sont indépendantes, la moyenne du produit est :     =   Proba{  =  &  = } =      , 

(2.23)

=Proba{ =}×Proba{ =}

 où la somme porte sur les différentes valeurs prises par les deux vari, ables aléatoires supposées discrètes (par exemple les positions d’Alice et Bob qui s’ignorent).

A

B

A

ou

B

ou

A

B

ou

A

B

x −1

0

x

0

+1

x

−1

0

+1

x −1

0

+1

2. Les positions sont corrélées : une fluctuation positive de la position d’Alice,   −   > 0, sera corrélée à une fluctuation de même signe pour Bob,  −  > 0 (Alice et Bob veulent rester ensemble) :   >      .

16

(2.24)

3

A

Moyenne, variance, moments, cumulants, corrélations,...

A

B

B

ou −1

x

0

0

x

+1

3. Les positions sont anti-corrélées : une fluctuation positive pour Alice   − > 0 sera corrélée à une fluctuation négative pour Bob  −   < 0 (Alice et Bob s’évitent) :   <      .

A

−1

B

0

+1

ou x

(2.25)

B

−1

A

0

+1

x

Exercice 2.5 En faisant l’hypothèse que pour chacune des situations représentées ci-dessus, les différentes éventualités sont équiprobables, calculer    dans les trois situations (les positions prennent deux valeurs −1 ou +1).

Covariances. De manière générale, si l’on considère  variables aléatoires, il est commode d’introduire la matrice des covariances    def    =  −      = ( −  )( −  ) (2.26) afin de caractériser les corrélations entre elles :  = 0  &   indépendantes     > 0  &   corrélées   < 0  &   anti-corrélées Remarquons que  = Var( ). En outre on peut montrer que la matrice  est symétrique définie positive, i.e. il existe une matrice orthogonale  telle que  = def  Σ2  T où Σ2 = diag(12, ⋯ , 2 ).

Exercice 2.6 Justifier que les nouvelles variables  =



   sont des variables décorrélées



de variances 2 (pour simplifier, considérer  = 0).

Remarque. On prendra toutefois garde au fait que la corrélation  =   −     ne donne qu’une mesure particulière de l’indépendance (ou de la non indépendance). 17

Chapitre 2 • Probabilités

I.e. indépendance ⇒  = 0, mais on peut trouver des cas où la réciproque n’est pas vraie.

3.4 Moments et cumulants La notion de « moment » généralise la notion de moyenne et de valeur quadratique moyenne, le ième moment étant défini comme def

 =  

(2.27)

(notons que 0 = 1). Deux remarques : • La donnée de l’ensemble des moments est aussi informative que la donnée de la distribution (sauf cas pathologique) : il s’agit de deux manières d’encoder l’information sur les propriétés statistiques de la variable aléatoire. • Les moments peuvent diverger si la distribution ne décroît pas assez vite. C’est par exemple le cas si la distribution décroît à l’infini en loi de puissance () ∼ −−1 : dans ce cas tous les moments d’ordre  >  sont infinis (cf. annexe A). Si les fluctuations relatives de la variable sont faibles     , nous voyons que le second moment est essentiellement dominé par le carré du premier moment : 2  =   2 + Var( ) ≃   2 . L’information intéressante (dans le sens « l’information apportée par  2  qui n’est pas contenue dans   ») est donc masquée. C’est ce qui rend la notion de variance pertinente dans ce cas. Il est également possible d’introduire des grandeurs, appelées « cumulants », généralisant cette idée pour les fluctuations def d’ordres supérieurs : le premier cumulant est la moyenne 1 =   =  1, le second la def variance 2 = Var( ) = 2 − 21 , puis le cumulant d’ordre , noté , caractérise une information sur la nature des fluctuations, qui n’est pas déjà contenue dans les cumulants précédents. Cette idée est précisée dans l’annexe A.

3.5 Fonctions génératrices L’intérêt de l’analyse des moments (ou des cumulants) est de proposer un autre éclairage sur les propriétés statistiques, souvent plus intuitif comme l’a montré la discussion sur la moyenne et l’écart type. Cette information est cependant codée dans une suite infinie de nombres, { 1, 2 , ⋯} ou {1,  2 , ⋯}. Aussi il est intéressant d’introduire la fonction génératrice des moments, que nous définissons dans un premier temps comme la fonction analytique dont les coefficients de Taylor correspondant aux moments (si les moments existent, i.e. si  < ∞ ∀ ) :  ( ) =

∞  (−)  ! =0



 = (−1) 

d  (0) . d 

(2.28)

C’est une fonction de  ∈ ℂ, appelé le « paramètre conjugué » de la variable aléatoire (nous considérons le cas d’une variable aléatoire continue ; nous aurions aussi bien pu discuter le cas discret). Notons que la condition de normalisation prend la 18

3

Moyenne, variance, moments, cumulants, corrélations,...

forme  (0) = 0 = 1. En substituant le moment par sa définition  =  , nous reconnaissons le développement de l’exponentielle : def

 ( ) = e−  =



(2.29)

d () e − .

La fonction génératrice est donc la transformée de Laplace de la distribution. Nous prendrons l’équation (2.29) comme la définition de la fonction génératrice puisque cette définition est plus générale et s’étend au cas où certains moments sont infinis. En outre, si l’intégrale ne converge pas pour  ∈ ℝ, lorsque la distribution décroît trop lentement, on peut choisir le paramètre conjugué imaginaire pur :  (i) avec  ∈ ℝ est alors la transformée de Fourier de la distribution, qui existe toujours. Dans les problèmes physiques, nous verrons que  n’a pas de « sens physique » clair (il faut comprendre qu’il n’y a rien à comprendre !). L’intérêt de l’outil est avant tout technique car les fonctions génératrices sont souvent les objets probabilistes les plus aisés à calculer ; la physique statistique nous en donnera de multiples illustrations.

Exercice 2.7 Reconstruction de la distribution à partir des moments Connaissant  ( ), on peut obtenir () par une transformation de Laplace inverse  ( ) =

B

d  ( ) e 2i

(2.30)

où l’intégrale porte sur le contour de Bromwich dans le plan complexe de  : la droite verticale allant de 0 − i ∞ à 0 + i ∞ où 0 est choisi pour que B soit à droite des singularités de  ( ). a) Déduire une méthode de reconstruction de la distribution à partir des moments. b) Appliquer la méthode aux moments  = !  . Si  ( ) permet de « générer » les moments (par dérivations), les cumulants sont générés par la fonction génératrice des cumulants ∞  (−)  ( ) = − ln  ( ) = −  !  =1



  = (−1)+1

d  (0) . d 

(2.31)

En identifiant les deux développements de  ( ) et − ln  ( ) jusqu’à l’ordre 2, on obtient 1 1 − 1+ 2 2 + (3 ) = ln[1−1+ 2 2 + (3)], d’où, en développant le logarithme, 2 2 1 2 1 3 − 1 + 2  + ( ) = − 1 + (2 − 21 )2 + ( 3). On retrouve la relation entre 2 2 cumulants et moments : 1 =  1 et  2 =  2 − 21, etc (cf. annexe A).

19

Chapitre 2 • Probabilités

4

Quelques exemples de distributions

4.1 Loi binomiale Considérons  évènements indépendants, chacun associé à deux éventualités possibles (par exemple pile ou face). L’évènement « pile » se produit avec probabilité  et l’évènement face avec probabilité 1 − . Une séquence particulière de  piles et  −  faces, (pile, pile, face, pile, ...), se produit avec probabilité  (1 − ) −. La probabilité pour que l’évènement pile se produise  fois parmi les   tirages est :    −  , où le facteur combinatoire  =  !∕ !( − )! corΠ () =    (1 − ) respond au nombre de manières d’ordonner les  piles et les  −  faces. Attention, dans la loi Π (),  est un paramètre fixé, tandis que  est la valeur prise par la variable aléatoire. def Il est commode de prendre la définition suivante pour la fonction génératrice :3  () =  . On obtient sans difficulté :  () = [1 + ( − 1)] . On peut trouver les deux premiers cumulants en utilisant  = ′ (1) et ( − 1) = ′′ (1), d’où  =  et Var() = (1 − ).

4.2 Loi de Poisson Considérons des évènements indépendants se produisant pendant un intervalle de temps [0,  ]. La probabilité pour qu’un évènement se produise pendant un intervalle de temps infinitésimal d est indépendante du temps, donnée par  d où  est un taux de probabilité. Par exemple, si l’on considère une matière radioactive (par exemple du radium qui se désintègre par émission ), des particules seront émises à des instants aléatoires et indépendants. La probabilité pour que  évènements se produisent pendant  − un temps  est donnée par la loi de Poisson  () = e où  =  . Les fonctions !  − () = exp (e − génératrices des moments et des cumulants sont respectivement    − () = (e − 1). La loi de Poisson présente donc la particularité que tous ses 1) et  cumulants sont égaux :  =  ∀ . En particulier  = Var() =  .

4.3 Distribution gaussienne Considérons une variable continue  distribuée selon la loi (à deux paramètres) : ( − )2 1  ,() =  . Nous calculons sans difficulté la fonction génératrice exp − 2 2 2 2 1 , () = exp[− + 2  2]. La fonction génératrice des cumulants est quadratique 2 1 2 2 , () = − +   . La loi gaussienne est donc caractérisée par la nullité de tous 2 3. Correspondance avec la convention introduite plus haut : on écrit  = e− et  () = (e − ). 20

5

Théorème de la limite centrale

les cumulants d’ordre supérieur à 2 : 1 =   = , 2 = Var( ) = 2 et   = 0 pour  > 2.

Exercice 2.8 Variables gaussiennes dans ℝ On considère  variables gaussiennes aléatoires, nulles en moyenne décrites par la matrice des corrélations  (i.e.    =  ). Montrer que ladistribution de ces variables est de la forme  (1 , ⋯ , ) ∝ exp − (1∕2)𝐱T  −1 𝐱 où 𝐱 est le vecteur colonne regroupant les  variables. T

Indication : Considérer la fonction génératrice (𝐛) = e𝐛 𝐱.

5

Théorème de la limite centrale

Un problème tout à fait générique est le suivant : considérons un ensemble de  variables aléatoires  1, ⋯ ,  • statistiquement indépendantes (hypothèse 1). • Identiques, i.e. toutes distribuées selon la même loi de probabilité que nous notons () (hypothèse 2). • Les deux premiers moments existent  < ∞ et  2 < ∞ (hypothèse 3), sans hypothèse supplémentaire sur la distribution (). Nous souhaitons déterminer la distribution de la somme de ces variables aléatoires =

 

(2.32)



=1

(qui est elle même une variable aléatoire).

Illustrations. Nous pouvons donner deux illustrations concrètes : 1  , qui coïn• Nous avons introduit plus haut la moyenne statistique  =  =1 cide en effet à la variable , à un facteur 1∕ près. Une question intéressante est de caractériser les fluctuations de la moyenne statistique (pour contrôler l’erreur faite en pratique lorsqu’on extrait la moyenne d’un échantillon de  données). ( )



• Si nous considérons un gaz d’atomes ou de molécules, son énergie est dominée par l’énergie cinétique (c’est presque la définition du gaz, l’énergie potentielle caractérisant l’interaction entre atomes/molécules est négligeable devant l’énergie cinétique). Une question intéressante est de caractériser la distribution de l’énergie du gaz   1 2  . atomique   = =1 2 21

Chapitre 2 • Probabilités

Détermination de la distribution de . Afin de déterminer la distribution   () de la variable , la manière la plus simple de procéder est de faire appel à la notion de fonction génératrice. Considérons la fonction génératrice de la somme   def  ( ) = exp(− ) = exp(−  ). En utilisant l’indépendance statistique des =1

variables (hyp.1), nous faisons apparaître le produit des fonctions génératrices  () =   e− . Le fait que les variables soient identiquement distribuées (hyp.2) nous =1

permet de relier simplement la fonction génératrice des variables à celle de leur somme : où

 () = [( )]

( ) = e−  .

(2.33)

Si nous introduisons les fonctions génératrices des cumulants  () = − ln  ( ) et  ( ) = − ln ( ), l’égalité (2.33) prend la forme  () =  ( ), i.e. fournit une relation entre cumulants : ∞  (−) =1

!

 = 

∞  (−) =1

!



∀ ⇒

  =  

(2.34)

Les cumulants de variables indépendantes sont des quantités additives (on pourra vérifier que c’est également vrai pour des variables aléatoires non distribuées par la même loi). Pour les premiers :   =    ,

(2.35)

Var() =  Var( ) .

(2.36)

En particulier la seconde relation montre que les écarts types (i.e. l’ordre de grandeur des fluctuations) sont reliés comme  =



 

(2.37)

Les fluctuations de la somme de  variables identiques et indépendantes se com√ portent typiquement4 comme 𝜹𝑺 ∼ 𝝈 𝑺 ∝ 𝑵 . Dans la limite  → ∞, nous pouvons négliger les autres cumulants de la variables  et simplement écrire   () ≃ e

−1 + 1 2 2 2

pour  → ∞ .

(2.38)

Nous justifions (2.38) : tous les cumulants de  croissent linéairement avec le nombre de variables,  ∝ . Or le cumulant d’ordre  caractérise des fluctuations de def  secomportant comme  = ( )1∕ ∝  1∕ (cette relation peut être comprise  4. Un point subtil : l’écart-type  ∝  caractérise des fluctuations typiques (i.e. les plus probables), ce qui n’interdit pas l’existence de fluctuations atypiques (très peu probables), sur une échelle plus grande,  . L’étude de ces dernières est dénommée l’étude des « grandes déviations » (cf. annexe B). 22

5

Théorème de la limite centrale

par analyse dimensionnelle puisque [ ] = []  ). Nous comparons les fluctuations encodées dans le cumulant d’ordre  et dans la variance, ( )1∕ ∕(2 )1∕2 ∝ −(−2)∕(2) ⟶ 0 , →∞

ce qui conduit à négliger tous les cumulants  avec  > 2 et justifie (2.38) (cette idée est formulée plus rigoureusement dans l’exercice 2.9). Ayant tronqué les contributions des cumulants au delà de la variance, nous obtenons évidemment la fonction génératrice de la distribution gaussienne, éq. (2.38) d’où    () ≃ 

1 2 Var( )

exp

( −   ) − 2 Var( )

2

 pour   1 .

(2.39)

Exercice 2.9 Démonstration du théorème de la limite centrale Une approche plus élégante consiste à « rescaler » la variable . Nous nous plaçons dans les conditions du théorème et supposons de plus que la moyenne des variables def est  nulle pour simplifier. On introduit la variable « rescalée » adimensionnée  = def ∕  Var(  ). Donner l’expression de la fonction génératrice  ( ) = e − . Analyser la limite  → ∞ et déduire la distribution de  dans cette limite.

Théorème de la limite centrale

Soit  =

 

 la somme de  variables aléatoires identiques et indépendantes

=1

dont les deux premiers moments sont finis,   < ∞ et  2 < ∞. Dans la limite  → ∞, la distribution de  tend vers une  loi gaussienne centrée sur   =    et d’écart type (i.e. de largeur)   =  . Ce théorème sera d’une importance cruciale pour la physique statistique où nous aurons très souvent à considérer des grandeurs physiques (macroscopiques) somme d’un très grand nombre ( ∼ ) d’autres grandeurs (microscopiques) ; par exemple l’énergie d’un gaz, somme des énergies des particules qui le constituent.

Exercice 2.10 Montrer que la loi binomiale Π () =   (1 − ) − étudiée plus haut coïncide avec la loi gaussienne dans la limite des grands nombres,   1. À quelle condition sur  cette approximation est-elle justifiée ?

23

Chapitre 2 • Probabilités

loi universelle

p(x) x

p(x)

PN(s)

x p(x)

~ N σX

x

p(x) x

0 pour N

s−N X

...

Figure 2.3 – Émergence de la loi gaussiennce (théorème de la limite centrale). Le théorème de la limite centrale offre une illustration assez simple de la notion d’émergence introduite dans le premier chapitre : quelle que soit la distribution (), pourvu que ses deux premiers moments soient finis, la distribution   () tend vers une loi gaussienne dans la limite  → ∞ (figure 2.3). L’émergence de cette loi universelle n’est pas contenue dans les détails « microscopiques » de départ, la loi (), mais dans le passage du microscopique au macroscopique (la limite  → ∞).

Pour en savoir plus : • Sur le mouvement brownien, on pourra lire le bel article de B. Duplantier, « Le mouvement brownien, divers et ondoyant », Séminaire Poincaré 1, p. 155 (2005).

24

Les points clés 1

2

ne ferons que calculer des fonctions génératrices...

Notions de base : distribution, moyennes, variance, écart-type, etc. La notion de fonction génératrice est centrale pour la physique statistique : nous

3

Loi jointe/marginale : la notion d’indépendance statistique.

4

Le théorème de la limite centrale jouera un rôle important.

Les annexes A

Remarques supplémentaires sur les fonctions génératrices et les cumulants

A.1 Interprétations des premiers cumulants L’introduction de la notion de cumulant est ici complétée par quelques remarques. Nous considérons une variable aléatoire dont les moments sont supposés finis,  < ∞. def

1. Moyenne.– La première information est donnée par la moyenne 1 =  1 =  . def

def

 2 , où   =  −  , 2. Variance.– Le second cumulant  2 =  2 −(1 )2 = Var() =  caractérise la largeur de la distribution (cf. figure 2.4).

0.3

2 σX

0.2

〈X 〉

0.1

2

4

6

8

10

12

x

Figure 2.4 L’écart type  

 = Var() donne une mesure de la largeur de la distribution.

3. Skewness.– Le second cumulant indique l’ordre de grandeur des fluctuations autour de la moyenne, mais ne dit pas si ces fluctuations sont préférentiellement positives def  3 caractérise ou négatives. Le troisième cumulant 3 = 3 − 31 2 + 2(1 ) 3 =   25

Chapitre 2 • Probabilités

l’asymétrie de la distribution autour de sa moyenne :  3 > 0 signifie que les fluctuations positives sont plus probables (figure 2.5). Il est d’usage de définir un coefficient def de dissymétrie adimensionné (« skewness ») : 1 = 3 ∕3∕2 . 2

0.3

0.3

c3 >0

0.2

0.1

−6

−4

c3 0 si les grandes fluctuations sont plus favorables que dans le cas d’une distribution gaussienne (figure 2.6). Le coefficient d’aplatissement def adimensionné (« kurtosis ») est 2 = 4 ∕22 . On prendra donc garde à ne pas confondre le cumulant  avec ( −  ) , puisque les deux quantités ne coïncident que pour  ⩽ 3. Si nous arrêtons cette discussion au quatrième cumulant, rappelons qu’ils sont obtenus comme les coefficients du développement de Taylor de leur fonction génératrice (§ 3.4). 1

1

0.100

0.100

0.010

0.010

c 4>0

0.001

10

−4

−6

c 4 1. Loi de Cauchy. Considérons par exemple la loi () =

2

Exercice 2.11 Nous considérons une variable continue positive distribuée selon la loi  ( ) =

1 e−1∕ , Γ( )  +1

(2.40)

où  > 0. Calculer ses moments. Calculer également la fonction génératrice  ( ) = e −  et discuter son développement pour  → 0. Indication : on donne la représentation intégrale de la fonction de MacDonald ∞   d −− 2 ∕4 1   (Bessel modifiée de 3ème espèce)  () = (pour Re  > e +1 2 2 0      −() −  () , 0). Son développement est donné par la relation  () = 2 sin  ∞  (∕2) 2+ valable si  ∉ ℤ, où  () = est la fonction de Bessel modifiée. !Γ( +  + 1) =0

B

Fluctuations typiques vs grandes déviations

Dans l’exercice 2.10, nous avons montré que la loi binomiale Π () =  (1 − ) − est bien approximée par une loi gaussienne dans la limite   1 (et  ni trop petit 27

Chapitre 2 • Probabilités

ni trop proche de 1). Bien entendu, cette observation ne peut être correcte que dans la région où la distribution est maximum, pour  ∼ ∗ =  (pic gaussien). Si l’on s’éloigne de ∗, en particulier si l’on s’approche des bords du support de la distribution, [0, ], la loi binomiale sera très différente de la forme gaussienne (cf. figure 2.7). Dans cette annexe, nous discutons comment comprendre la transition entre la forme gaussienne et la forme non-gaussienne.

1. × 10 -9

ΠN (n)

1. × 10 -19 0.08 1. × 10 -29

0.06 0.04

1. × 10 -39 1. × 10

0.02 0.00

-49

0

20

40

60

80

100

1. × 10 -59 0

20

40

60

80

100

n Figure 2.7 Comparaison entre la loi binomiale pour  = 0. 25 et  = 100 et son approximation gaussienne en tirets. Si les deux courbes sont indiscernables à l’œil lorsqu’elles sont représentées en échelle linéaire (en insert), la représentation en échelle semilogarithmique montre que l’approximation gaussienne dévie significativement de la loi lorsque  s’éloigne de la valeur typique  ∗ = .

B.1 Préliminaires : méthode du col Il arrive très souvent que l’on ait à considérer des intégrales de la forme  ( ) =





(2.41)

d e−()

où  ∈ ℝ+ est un « grand » paramètre et () une fonction réelle. Dans ce cas il est possible de trouver une bonne approximation de l’intégrale à l’aide la méthode du col, dont nous exposons l’idée lorsque la fonction () possède un unique minimum (absolu) en  ∗ ∈], [, « loin » des bords (on suppose de plus que ′′( ∗) > 0, non nul). Dans la limite  → ∞ l’intégrale est dominée par les contributions du voisinage du minimum :    − (∗ )+ 1 ′′ (∗ )(− ∗ ) 2 +((−∗ )3 ) 2  ( ) = d e (2.42)  =

e −(∗)



′′(∗ )

+

 ′′( ∗ )(− ∗)

−  ′′( )( −) ∗ ∗

d e− 2  +( 2

3

 −1∕2 )

 ⟶ −∞ d e +∞

→∞

28

1

− 1 2 2 =



2

(2.43)

B

Fluctuations typiques vs grandes déviations

Finalement, on obtient la formule très utile :   ( )



→+∞

2 e−( ∗) ′′  ( ∗ )

(2.44)

(les restrictions venant des hypothèses énoncées précédemment sont faciles à lever ; on pourra obtenir des généralisations de cette formule lorsque toutes ces hypothèses ne sont pas satisfaites, par exemple  = ∗ , etc).

Figure 2.8 – Méthode du col. En exponentiant la fonction (pondérée par un nombre grand), toute la complexité est gommée à l’échelle de la figure : le deuxième maximum local se manifeste par une toute petite bosse à droite du pic principal. Dans la limite  → ∞, l’intégrale dominée par le voisinage du minimum  ∗ de ().





d e− () est

La méthode du col peut-être étendue dans le plan complexe lorsque la fonction intégrée est analytique, ce qui sera utilisé plus bas.

B.2 Théorème de la limite centrale versus grandes déviations Nous revenons sur l’analyse très importante du problème de la distribution de  variables aléatoires { 1, ⋯ ,   } indépendantes et identiquement distribuées (i.i.d.) par une loi (). Nous avons montré que la somme de ces variables, =

 

 ,

(2.45)

=1

est distributée par une loi gaussienne centrée sur    =    et de variance Var() =  Var(  ), i.e. caractérisant des fluctuations d’ordre  ∼ . Ce résultat est très général : la forme de la distribution de  est universelle, i.e. est indépendante de la   forme particulière de la loi (), pourvu que ses deux premiers moments   et  2 soient finis. Ce résultat ignore toutefois que la distribution de  présente des queues caractérisant des évènements rares, sur deséchelles   , qui n’ont pas le caractère universel de la forme de la loi pour  ∼ illustrerons sur un cas simple.

. Nous allons discuter ce point que nous

29

Chapitre 2 • Probabilités

a) Fonction de grande déviation Nous avons vu que la fonction caractéristique de la somme des  variables est simple  ment e−  =  ( ) = e − ( ) où  ( ) = − lne − est la fonction génératrice des cumulants des variables { }, éq. (2.31). Nous déduisons que la distribution de la somme des  variables est donnée par la transformée de Laplace inverse de e−  : d −  ( ) d [− ()]  () = ( ∗ ⋯ ∗ )() = , (2.46) e = e  iℝ 2i  iℝ 2i   fois

où nous avons introduit la nouvelle variable  = ∕ . L’analyse de la limite  → ∞ correspond à l’étude des intégrales (2.41) avec5  →  et  →  −  ( ). Nous avons expliqué dans le paragraphe précédent que, dans la limite  → ∞, de telles intégrales sont dominées par un point col ∗ (en général dans le plan complexe de la variable conjuguée ). Le point col est le point où la fonction  −  ( ) est stationnaire : (2.47)

 ′( ∗ ) =  (∗ est donc une fonction de ). En appliquant (2.44), nous déduisons   ( = ) =

d [− ()] 1 e ≃  e− [ ( ∗)−∗ ] →∞ iℝ 2i ′′ −2 ( ∗)

(2.48)

Nous ne cherchons pas à exposer quelles sont les conditions générales qui autorisent ce type d’approximation. Nous allons illustrer plus bas la méthode sur un exemple concret. Le point important est d’avoir obtenu la forme d’échelle      () ∼ exp − Φ →∞ 



def

Φ() =  (∗ ) −  ∗

(2.49)

est appelée la fonction de grande déviation. Nous retrouverons ce type de structure plus tard et verrons que l’entropie pourra être interprétée comme une fonction de grande déviation (cf. équation (5.20) page 80). Le théorème de la limite centrale doit être compris comme une limite particulière de ce résultat. On peut en effet le retrouver de la manière suivante : dans la limite  → 0, la solution de (2.47) est obtenue en utilisant le développement de la fonction génératrice pour petit argument,  ( ) ≃  1 − (1∕2)2 2. La solution prend donc la forme ∗ ≃ (1 − )∕ 2. D’après (2.49) on retrouve bien que la fonction de grande déviation est parabolique au voisinage de 1 : ( − 1 )2 Φ() ≃ . → 1 22

(2.50)

5. Plutôt que d’écrire () comme la transformation de Laplace inverse de  ( ) , nous aurions pu considérer la transformée de Fourier () =  (i) et utiliser la transformée de Fourier inverse de  (i) . Cela aurait même été nécessaire si la distribution () décroît trop lentement (par exemple en loi de puissance). 30

B

Fluctuations typiques vs grandes déviations

PN (s) Non universel Grandes déviations

Universel : Gaussienne

~ N ~N

Non universel Grandes déviations évènements rares

s

Figure 2.9 – Allure schématique de la distribution de 𝑺. Au centre la distribution prend la forme gaussienne universelle (indépendante de ()) alors que les grandes déviations caractérisant les évènements rares dépendent des détails de la loi.

On peut vérifier que le préfacteur de la gaussienne apparaissant dans (2.48) est correct car  ′′ (∗) ≃ − 2 dans la limite  → 0. La fonction de grande déviation présente donc un comportement universel, quadratique, à  → 0 (théorème de la limite centrale),6 mais également un comportement non universel, i.e. dépendant de () via  ( ), pour   1, caractérisant les grandes déviations.

b) Application : loi exponentielle symétrique À titre d’illustration nous considérons une loi exponentielle symétrique  ( ) =

1 − . e 2

(2.51)

La fonction génératrice (des moments) correspondante est  ( ) = e−  = 1∕(1 −  2) pour Re[ ] < 1 et la fonction génératrice des cumulants :  ( ) = ln(1 − 2) .

(2.52)

Nous pouvons tirer les premiers cumulants du développement de la fonction caractérisdef tique  ( ) =  1  − 2  2∕2 + ⋯ = − 2 + ⋯ d’où 2 = 2. L’équation du col, éq. (2.47), déterminant le point dominant l’intégrale prend donc la forme  2 1 1 2  − −1=0 dont les solutions sont ± = ± +1 (2.53)   2 Supposons  > 0 (la loi recherchée est symétrique). Dans ce cas + est hors du domaine de définition de la fonction caractéristique,  + > 1, nous devons donc choisir l’autre solution ∗ =  − ∈] − 1, −1∕2]. Finalement nous obtenons Φ() =  ( ∗) − ∗ de la 6. On comprend mieux la terminologie « théorème de la limite centrale » puisque celui-ci caractérise le « centre » de la distribution  (). 31

Chapitre 2 • Probabilités

forme : Φ() =



   2+1−1  2 + 1 − 1 + ln 2 , 2

(2.54)

(cette expression est aussi valable pour  < 0 puisque la loi est symétrique). La fonction est tracée sur la figure 2.10. Nous vérifions bien que Φ() ≃  2∕4, qui est l’expression →0

du théorème de la limite centrale puisque 2 = 2, i.e.  () ≃

→∞

1 2 1 e− 4   4

pour

   .

(2.55)

D’autre part le comportement Φ() ≃  − 1 − ln(∕2) de la fonction de grande déviation pour   1 montre que la distribution de la somme présente le comportement    −  e  () ∼ e   pour    . (2.56)  →∞ 2  Ce comportement, qui est donc très différent de la décroissance gaussienne (figure 2.10), est en effet typique de la convolution de  lois exponentielles. 0 -1 -2 -3 -4 -5 -6 -6

-4

-2

0

2

4

6

Figure 2.10 Fonction de grandes déviations (2.54) ; comparaison avec la parabole (i.e. la distribution gaussienne).

En conclusion, retenons que si l’on s’intéresse à la statistique des évènements rares (grandes déviations), ceux-ci ne sont pas caractérisés par le théorème de la limite centrale qui ne décrit que les déviations « normales », ou « typiques », mais par une fonction de grande déviation non universelle.

Pour en savoir plus : L’article de revue de Touchette [36] discute les liens entre la théorie des grandes déviations et la physique statistique.

32

Entraînez-vous Exercice 2.12 Loi jointe versus loi marginale – Tavelures et loi de Rayleigh Nous discutons la distribution de l’intensité du champ électrique dans un milieu turbide (comme par exemple l’intensité d’un laser réfléchi sur un milieu désordonné). Le champ a une amplitude et une phase et sera traité comme un champ scalaire complexe (nous oublions les effets de polarisation)  =  + i . La loi jointe pour les deux composantes en un point est gaussienne (,  ) =  exp[−( 2 +  2 )∕0 ] (et il n’y a pas de corrélations entre deux points distincts). Calculer la constante de normalisation . Déduire la loi marginale de l’intensité du champ  = 2. Calculer la moyenne de l’intensité et interpréter le sens de la constante 0 .

Exercice 2.13 Séance de travaux pratiques Au cours d’une séance de travaux pratiques, des étudiants répètent  fois la mesure d’une grandeur physique  . Chaque étudiant obtient  données 1, ⋯ ,   et donne une analyse  1  statistique : il déduit une moyenne « empirique »  =  et une variance « empirique »  =1  1  ( − )2 . Ces deux grandeurs sont elles-mêmes aléatoires et diffèrent d’un  =1  étudiant à un autre. 

Σ2 =

a) Exprimer la moyenne et la variance de  et Σ2, qu’on exprimera en fonction des cumulants de . b) Discuter la limite  → ∞ de leurs distributions.

Exercice 2.14 Bruit de grenaille Le courant électrique est porté par des porteurs de charge à caractère discret (les électrons dans un métal), ce qui génère des fluctuations du courant électrique que nous allons étudier. Par exemple, dans une lampe à vide, en appliquant une différence de potentiel entre une anode et une cathode, les électrons sont arrachés avec un taux  à des instants  indépendants (qui ont donc une densité moyenne ). On peut écrire le courant électrique sous la forme  () =   ( − ) où  est la charge de l’électron.  a) On introduit la charge  ( ) = distribution de ( ) ?

0



d  () transférée pendant un temps  . Quelle est la def

b) Le courant moyen (moyenne temporelle et probabiliste) est défini comme  = (  ) ∕ . Dans les expériences, les fluctuations du courant sont caractérisées par le spectre de bruit def

défini comme  = Var(( ))∕ . Quel est l’intérêt de mesurer indépendamment  et   ?

33

Chapitre

3

Ergodicité

Exposer comment décrire les systèmes (« le langage »)

1

Équilibre macroscopique et ergodicité

Introduire la notion d’ergodicité

2

Microétats (état pur)

3

Macroétats (mélange statistique)

4

Le dénombrement des microétats : densité d’états

Les quelques notions probabilistes que nous avons exposées au chapitre 2 peuvent apparaître abstraites, aussi notre tâche sera d’établir la relation avec le vocabulaire de la physique statistique. À partir de ce chapitre, nous allons opérer un petit glissement sémantique : au lieu « d’événement », nous parlerons de « microétat », noté 𝓁, et une distribution {𝓁} sera dorénavant appelée un « macroétat » ou un « ensemble de la physique statistique ». Avant de discuter ces points de vocabulaire, il convient toutefois d’exposer plus en détail dans quelles situations et comment émergent ces notions probabilistes.

1

Équilibre macroscopique et ergodicité

1.1 Équilibre macroscopique En mécanique classique, la notion d’équilibre correspond à l’absence de mouvement du fait de la compensation de l’ensemble des forces sur un corps matériel. La notion d’équilibre macroscopique que nous allons introduire ici, absolument centrale pour notre sujet, est tout à fait différente. Pour bien la comprendre, considérons l’exemple précis d’un gaz atomique : dans les conditions de température et de pression normales ( = 300K ≃ 27 ◦C et  = 1 atm), les atomes se déplacent avec des vitesses très élevées, typiquement de l’ordre de plusieurs 100m∕s. Les variables microscopiques (par exemple les positions) varient au cours du temps. En revanche, à l’échelle macroscopique toutes les grandeurs qui définissent l’état thermodynamique (densité moyenne, température, pression) sont indépendantes du temps. Pour comprendre la relation entre ces deux observations, nous pouvons considérer un modèle simplifié de gaz dans une boîte dans laquelle se meuvent quelques atomes. Nous considérons une grandeur particulière : le nombre d’atomes   () occupant la moitié gauche du volume au temps . Nous faisons une simulation numérique pour étudier la dépendance temporelle de (). D’abord 34

1

Équilibre macroscopique et ergodicité

pour  = 10 atomes (partie gauche de la figure 3.1) : lorsque les atomes entrent ou sortent du volume, le processus saute d’un entier, ce qui produit de très fortes fluctuations. Si maintenant nous augmentons le nombre d’atomes jusqu’à  = 100 (partie droite de la figure 3.1), les fluctuations qui reflètent l’agitation au niveau microscopique sont très fortement réduites relativement à la valeur moyenne  = ∕2. D’après le théorème de la limite centrale (§ 5 du chapitre 2), nous pouvons estimer l’amplitude de ces fluctuations à  ∼    . L’examen de () est fait relativement à une échelle macroscopique : l’axe des ordonnées correspond à l’intervalle  ∈ [0,  ]. À cette aune, les fluctuations, qui traduisent l’agitation au niveau microscopique, sont « gommées » en passant à la limite d’un grand nombre d’atomes, ∕ ∼ 1∕  → 0, et la grandeur peut être simplement considérée stationnaire1   () ≃ ∕2.

nombre d'atomes

nombre d'atomes

10

100

8

80

6

60

4

40

2

20

0

10

20

30

40

50

temps

0

20

40

60

80

100

temps

Figure 3.1 En haut : « photographies » du gaz pour  = 10 et  = 100 atomes. En bas : Nombre d’atomes occupant une moitié du volume en fonction du temps : à gauche pour  = 10 atomes et à droite pour  = 100 atomes (simulation numérique).

Si la condition de stationnarité des grandeurs macroscopiques est une condition nécessaire, elle n’est toutefois pas suffisante pour assurer l’équilibre macroscopique, qui exige en sus que tous les flux macroscopiques soient nuls (flux de particules, flux d’énergie, etc). Considérons par exemple une résistance électrique branchée sur une batterie qui délivre un courant continu. Dans le régime permanent, les observables comme la tension électrique ou le courant électrique sont indépendantes du temps. Cependant l’existence du courant signale que le système n’est pas à l’équilibre puisque traversé 1. On pourrait objecter à cet argument que rien n’interdit de « zoomer » pour étudier ces fluctuations,  qui sont d’ordre   1. Cette question est tout à fait légitime et peut se poser dans certains cas. Le point est qu’étudier les propriétés thermodynamiques du système, comme nous le ferons par la suite, correspond à sélectionner l’échelle ∼ , à l’aune de laquelle les fluctuations apparaissent négligeables. 35

Chapitre 3 • Ergodicité

par un flot d’électrons : c’est une situation stationnaire et hors équilibre. En revanche à courant nul, on retrouve une situation stationnaire et à l’équilibre. Retenons que l’équilibre macroscopique est caractérisé par les deux conditions : () la stationnarité des observables macroscopiques, et () l’absence de flux macroscopiques.

Cet ouvrage dans son ensemble va concerner la physique statistique à l’équilibre.

1.2 Ergodicité Pour étudier les propriétés d’élasticité d’un polymère, comme un brin d’ADN, des expérimentateurs ont réussi il y a quelques années à fixer une petite bille à une des extrémités de la longue molécule, l’autre extrémité étant fixée sur un substrat. Le système ADN+bille, plongé dans un liquide, est soumis aux fluctuations au sein du liquide, l’ensemble étant à l’équilibre macroscopique. Si l’on enregistre la position de la bille en fonction du temps, (), on obtient typiquement une trajectoire du type de celle représentée sur la figure 3.2, ici produite par une simulation numérique. La trajectoire est extrêmement erratique, ce qui résulte de l’agitation thermique dans le fluide (mouvement des molécules). Plutôt que d’analyser des propriétés instantanées (position, vitesse, énergie, etc) qui sont fortement soumises aux fluctuations, il est plus judicieux de faire une analyse statistique de cette unique trajectoire afin d’extraire des propriétés intéressantes : on représente l’histogramme des positions (à droite).

x

Figure 3.2 Mouvement d’une petite bille accrochée à un polymère dans un fluide (simulation numérique). L’analyse statistique des positions donne l’histogramme tracé à droite, auquel on a superposée la distribution de probabilité (ligne continue) vers laquelle tend l’histogramme dans la limite  → ∞.

Par exemple, on pourrait étudier l’énergie potentielle et considérer la valeur moyenne qu’elle prend sur le temps  pendant lequel la trajectoire est enregistrée  36

( )

def

=

0



d  (()) . 

(3.1)

1

Équilibre macroscopique et ergodicité

Cette moyenne temporelle est réalisée sur une unique trajectoire ; elle correspond à la moyenne statistique (2.15). Si le processus est stationnaire (i.e. le système est à l’équilibre macroscopique), on peut également construire l’histogramme des positions ( )

enregistrées (à droite sur la figure) : la moyenne   peut être aussi bien calculée en pondérant les valeurs mesurées par leur fréquence (hauteur des barres de l’histogramme). Dans la limite  → ∞, l’histogramme tend vers la distribution  () de la position  de la bille (c’est la définition des probabilités du chapitre 2). La moyenne prend simplement la forme de la moyenne probabiliste 

  =



(3.2)

d  () () ,

correspondant à l’éq. (2.16). Les deux moyennes s’identifient donc dans la limite  → ∞, ce qui illustre la propriété d’ergodicité :  →∞

lim 

( )

  =  .

(3.3)

Dans la situation simple analysée ici, la justification de cette égalité repose sur l’hypothèse que le processus perd rapidement la mémoire de son histoire antérieure, disons sur un temps typique  (temps de corrélation du processus). On peut alors « découper » l’intégrale temporelle en morceaux de tailles équivalentes

0



d  (()) =

d  (()) où     =  ∕   : les  morceaux étant des variables (−1) aléatoires identiques et indépendantes, l’identification des moyennes, éq. (3.3), est alors justifiée par le théorème de la limite centrale (§ 5 du chapitre 2).  



=1

Pour rendre explicite l’intérêt d’une telle relation, nous poursuivons l’analyse. Le polymère exerce une force proportionnelle à son élongation (loi de Hooke) : nous notons  la constante de rappel de cette force. On pourra montrer dans quelques chapitres que la distribution de la position de la bille est contrôlée par la température  du fluide :       ( ) = 2 . (3.4) exp − 2  2  Il est donc clair qu’il est beaucoup plus simple du point de vue théorique de calculer la moyenne probabiliste (3.2) (c’est une intégrale élémentaire) que d’enregistrer une trajectoire afin de calculer la moyenne temporelle (3.1). Nous ne révélons néanmoins pas encore le principe qui nous permet de trouver la distribution  (), ce qui sera précisément l’objet des prochains chapitres.

Exercice 3.1 Calculer la moyenne de l’énergie potentielle () =

1 2  . 2

37

Chapitre 3 • Ergodicité

2

Microétats (état pur)

2.1 Systèmes classiques : espace des phases Au niveau le plus élémentaire, la dynamique des corps matériels est décrite par la mécanique, newtonienne ou quantique. Concentrons-nous d’abord sur le cas classique : l’évolution de proche en proche est gouvernée par une équation du mouvement, l’équation fondamentale de la dynamique. Par exemple, dans le cas très simple d’une particule de masse  soumise à une force dérivant d’une énergie potentielle  () : d () d  () 1 et = − ′ (()). (3.5) =  () d  d L’espace des coordonnées canoniquement conjuguées (, ) est appelé l’espace des phases. L’importance particulière des couples de variables canoniquement conjuguées est soulignée dans l’annexe A page 49. Afin de déterminer une évolution particulière, on doit se donner des conditions initiales, les valeurs (0) et   (0 ) à un instant initial 0 . Puisque l’évolution est déterminée de manière unique par un jeu de conditions initiales, d’une certaine manière, celles-ci « contiennent » l’évolution ultérieure. Pour un tel système conservatif, qui possède une intégrale première du mouvement  =  (, ) où def (, ) = 2 ∕(2)+ () est la fonction de Hamilton (« le hamiltonien »), la trajectoire ((), ()) est une paramétrisation d’une courbe appartenant à la « surface » de l’espace des phases définie par l’équation  =  (,  ). Deux exemples élémentaires sont représentés sur la figure 3.3 : à gauche, la trajectoire correspondant au mouvement d’une particule dans une boîte de taille , sur les bords de laquelle la particule rebondit (l’impulsion alterne entre ± 2). La figure du milieu montre la trajectoire correspondant au mouvement d’un oscillateur harmonique, (,  ) = 2∕(2) + (1∕2) 2 2.

Figure 3.3 – Trajectoires dans l’espace des phases. À gauche : la particule libre en une dimension confinée dans un intervalle de longueur  (avec réflexion sur les bords). Au centre : l’oscillateur harmonique 1D. À droite : une représentation schématique (la dimension de l’espace des phases est paire en principe) montrant deux trajectoires initialement proches et confinées sur la même surface d’énergie constante.

Cette discussion s’applique aussi bien à des systèmes simples qu’à grand nombre de degrés de liberté, comme un gaz d’atomes. Si nous considérons  atomes sans degré de liberté interne, l’espace des phases est un espace de dimension 6 , dont les 38

2

Microétats (état pur)

points correspondent à des vecteurs regroupant les 3 coordonnées spatiales et des 3 coordonnées d’impulsion, que nous désignons de manière compacte par le vecteur Γ  (1, ⋯ ,  , 1, ⋯ ,  ) .

La dynamique des atomes est gouvernée par un hamiltonien  (1 , ⋯ ,  , 1 , ⋯ ,  )   Une trajectoire physique Γ()  est confinée sur la « surface » définie par  =  (Γ)  (Γ). (une variété de dimension 6 − 1), que nous avons schématisée sur la figure 3.3. Partir d’un point de l’espace des phases détermine complètement l’évolution ultérieure, même s’il est exclu de la suivre en pratique. Un point Γ contient donc toute l’information microscopique sur le système (positions et impulsions de tous les atomes) et il est d’usage de parler de Microétat



Γ ∈ espace des phases

2.2 Systèmes quantiques : espace de Hilbert Dans certaines situations, il est indispensable de décrire la dynamique du système à l’aide de la mécanique quantique. Les aspects ondulatoires observés pour des particules matérielles ont conduit à l’idée de décrire l’état quantique en termes d’une fonction d’onde, solution d’une équation d’onde (l’équation de Schrödinger). La fonction d’onde peut être interprétée comme un élément d’un espace vectoriel et on parlera plus formellement de « vecteur d’état », qu’il est conventionnel de noter    (appelé un « ket »). L’état quantique est identifié avec la notion de microétat. On pourra consulter l’Annexe B page 52 dans laquelle les postulats de la mécanique quantique sont rappelés de manière succincte. Dans la pratique, l’identification de l’état quantique se fait à l’aide de « nombres quantiques », qui correspondent aux valeurs prises par certaines grandeurs physiques. Quelques exemples :

L’état de spin. En sus des degrés de liberté de translation, les particules sont en général  , dont le modcaractérisées par un moment cinétique intrinsèque appelé « spin », noté     =  ( + 1) où  est entier ou demi-entier (l’équivalent classique ule est fixé,   serait le moment cinétique caractérisant la rotation d’un corps matériel sur lui-même). Les états quantiques de spin peuvent être repérés par un unique nombre quantique associé à l’une des composantes du spin, par exemple  : le vecteur    décrit l’état où  = . Il peut prendre 2 + 1 valeurs :  ∈ {−, − + 1, ⋯ , + − 1, +} (on dit que «  est quantifiée »). Par exemple, l’électron, le proton et le neutron ont un spin  = 1∕2 ; l’espace des états de spin est donc de dimension deux, nous les noterons plus simplement  ↑  (pour  = +1∕2) et  ↓  (pour  = −1∕2). Une particule libre dans une boîte. L’état de la particule libre est spécifié par son impulsion  (conservée), à laquelle on peut associer un vecteur d’onde grâce à la relation de de Broglie :  = ∕. La fonction d’onde caractérisée par un vecteur d’onde est une 39

Chapitre 3 • Ergodicité

  onde plane  () = exp i  ⋅  . Dans une boîte, que nous supposons de forme cubique et de côté  pour simplifier, la fonction d’onde satisfait des conditions aux limites. Puisque la particule est confinée, sa fonction d’onde est nulle hors de la boîte et un choix naturel  est d’imposer la continuité à l’interface, i.e.  () = 0 (condition de Dirichlet). L’état  bord quantique satisfaisant ces conditions est un état qui combine plusieurs ondes planes et présente la forme factorisée  () = sin( ) sin( ) sin( ) où les composantes du vecteur d’onde sont quantifiées     =  ,   =  et  =  avec  , ,  ∈ ℕ ∗ . (3.6)    Les différents états quantiques   ,  ,   sont repérés par les trois nombres quantiques. Il sera commode de repérer les états par rapport à leur énergie  =

 2 = (2 +  2 + 2 )  2

(3.7)

def

où  =  2 2∕(22) est une échelle d’énergie caractérisant la quantification dans une boîte. Cet exemple fait apparaître un phénomène intéressant et très générique : plusieurs états quantiques sont associés à la même énergie. On dira que le niveau d’énergie est dégénéré. Par exemple : les états quantiques  5, 5, 1 ,  5, 1, 5 ,  1, 5, 5 ,  7, 1, 1 ,  1, 7, 1  et  1, 1, 7  ont tous l’énergie  = 51 . On dira que le niveau a une dégénérescence  = 6. Il est intéressant de remarquer que si la dégénérescence entre  7, 1, 1  et  1 , 7, 1  est clairement liée à la symétrie du problème, celle entre  5, 5, 1  et  7, 1, 1  ne l’est pas : on parle de dégénérescence accidentelle dans ce second cas. En conclusion, on retiendra que l’état quantique est un vecteur de l’espace de Hilbert, l’espace des états quantiques. Nous le notons { 𝓁 }, où 𝓁 regroupe l’ensemble des nombres quantiques permettant de spécifier un vecteur d’état (par exemple 𝓁  ( ,  , ) pour la particule dans la boîte tridimensionnelle discutée ci-dessus). Notons que si le volume du système est fini, il est toujours possible de trouver une base discrète. On retiendra : Microétat



  𝓁  ∈ espace de Hilbert

Comme l’opérateur hamiltonien contrôle l’évolution temporelle (cf. Annexe B), la base des états stationnaires (états propres de l’opérateur hamiltonien, i.e. pour lesquels l’énergie est bien définie) jouera un rôle particulièrement important.

3

Macroétats (mélange statistique)

Dans le paragraphe 1.2, nous avons exposé l’idée d’hypothèse ergodique sur un problème extrêmement simplifié. Cette idée peut être reformulée ici en des termes plus généraux dans le contexte classique (en reprenant notre exemple de gaz atomique) : l’évolution du gaz atomique est décrit par une certaine trajectoire Γ() dans l’espace des 40

3

Macroétats (mélange statistique)

 phases. Si l’on s’intéresse  à une certaine « observable » (Γ), par exemple l’énergie 2  ∕(2), une information simple concernant le système est cinétique  →  = donnée par la moyenne temporelle sur un temps d’observation  : 



( )

=

0



d  (Γ()) . 

(3.8)

Le résultat de la moyenne dépend a priori de la trajectoire suivie au cours du temps. Comme nous l’avons discuté sur le cas très simple de la bille dans un fluide, il est beau par la détermination coup facile en pratique de remplacer l’étude de la trajectoire Γ() de la probabilité d’occupation des microétats, encodée dans une densité de probabilité  dans l’espace des phases. La moyenne probabiliste est (Γ)   =



 (Γ) ( Γ) . d6 Γ

(3.9)

Les calculs des deux moyennes (3.8) et (3.9) requièrent des informations très différentes : la première demande l’ensemble de l’information microscopique, i.e. la connaissance de la solution des équations du mouvement, une masse d’information en pratique phénoménale et inaccessible. La seconde moyenne requiert une information probabiliste sur l’occupation des microétats, dont nous montrerons qu’elle découlera de règles très simples. Si le temps  est suffisamment « long » pour permettre au système d’explorer la majeure partie de son espace des phases accessible, nous pouvons supposer que la moyenne (3.8) tend vers une limite lorsque  → ∞. Une illustration concrète basée sur une « expérience numérique » sera donnée au § 1 du chapitre 5. Nous allons donc étendre l’hypothèse ergodique au cas des systèmes complexes : Hypothèse ergodique :

lim 

 →∞

( )

=   .

(3.10)

Cette hypothèse joue un rôle absolument central en physique statistique puisqu’elle nous permet d’oublier la dynamique temporelle : toutes les propriétés du système à l’équilibre macroscopique sont encodées dans la densité de probabilité dans l’espace des phases, qui sera appelée un Macroétat



densité de probabilité (Γ)

On parlera aussi de « mélange statistique ». L’objet des prochains chapitres sera précisément de montrer quelles règles simples permettent de déterminer la densité de probabilité. Nous rencontrerons diverses situations correspondant à plusieurs distributions (macroétats) définissant différents « ensembles de la physique statistique ».

Remarque. Dans le cas présenté au §1.2, le système n’est pas isolé et la présence du « bruit aléatoire » rend plus intuitive l’ergodicité, i.e. la possibilité d’utiliser une description probabiliste. Dans le cas d’un système isolé, c’est le comportement chaotique intrinsèque des systèmes complexes qui justifie l’ergodicité. La recherche de résultats 41

Chapitre 3 • Ergodicité

rigoureux sur l’ergodicité fait l’objet d’un domaine appelé « la théorie ergodique ». Toutefois assez peu de résultats exacts ont été prouvés (on peut citer la preuve de l’ergodicité pour le gaz classique de sphères dures par Ya. Sinai en 1963, problème discuté en ouverture du chapitre 5). Notons pour conclure que si l’ergodicité est une condition suffisante pour que l’égalité (3.10) soit satisfaite, ce n’est pas une condition nécessaire. Il suffit que la moyenne temporelle de l’observable soit assez indépendante de la sous partie de l’espace des phases accessible explorée pendant le temps  de l’expérience. Cette remarque est d’importance car, en pratique, le temps nécessaire pour explorer un espace des phases de grande dimension peut devenir comparable à l’âge de l’univers ! On trouvera une excellente introduction à ces questions dans l’ouvrage [32].

Le cas quantique. Dans le cas quantique, les microétats sont dénombrables, ce qui simplifie la discussion. En l’absence de contrôle de l’état quantique occupé par le système, nous introduisons un jeu de probabilités d’occupation des états d’une base de l’espace de Hilbert : nous notons 𝓁 la probabilité pour que le système occupe l’état quantique   𝓁 . La notion de macroétat (mélange statistique) s’identifie avec cet ensemble de probabilités d’occupation (cf. Annexe B page 52) : Macroétat

probabilités { 𝓁 }



Notation générique pour les cas classique et quantique. Par la suite, il sera souvent plus commode d’utiliser cette notation discrète (les microétats {𝓁 } et le macroétat {𝓁}) aussi bien dans le cas classique, 𝓁 → Γ = (1 , ⋯ , 1, ⋯), que dans le cas quantique, 𝓁 →   𝓁 . La moyenne de l’observable prend la forme  𝓁  𝓁 .   = (3.11) 𝓁

4

Le dénombrement des microétats : densité d’états

Une première question naturelle concerne le dénombrement des microétats, rendu possible par le caractère discret des états quantiques. Nous verrons plus tard (cf. les annexes A et B et les chapitres 5 et 6) que la probabilité d’occupation d’un microétat dépend de son énergie, aussi devrons nous compter les microétats ayant une certaine énergie. Pour cela, nous introduisons une grandeur qui jouera un rôle important par la suite : la densité des états quantiques ou plus simplement la « densité d’états ». Ce concept, purement lié à la mécanique quantique, encodera souvent toute l’information microscopique nécessaire sur le système pour l’étude de ses propriétés thermodynamiques. 42

4

Le dénombrement des microétats : densité d’états

4.1 Motivation et définitions Parce que nous allons analyser les propriétés thermodynamiques, nous rencontrerons  souvent des sommes d’une fonction des énergies des microétats, de la forme  ( 𝓁 ) 𝓁

où  est une fonction régulière. Dans les systèmes macroscopiques, le spectre des énergies des microétats est extrêmement dense, ce qui suggère de remplacer la somme discrète par une intégrale  d ( )  ( ) , (3.12)  (𝓁 ) =  𝓁

où ( ) est la densité d’états def

( ) d = nombre d’états dans [,  + d ] . Elle peut également être représentée à l’aide de la distribution de Dirac :   ( ) =  ( − 𝓁 ) ,

(3.13)

(3.14)

𝓁

où la somme porte sur les états quantiques. On fera attention à ne pas confondre les états quantiques avec les niveaux d’énergie, qui portent des dégénérescences en général : si l’on note  𝓁 la dégénérescence du niveau 𝓁 , la densité d’états sera représentée comme une somme sur les niveaux   ( ) = 𝓁  ( − 𝓁) . (3.15) 𝓁

La représentation (3.14) rend la relation (3.12) évidente, mais elle montre aussi que la densité d’états est un objet mathématique extrêmement singulier. Aussi il sera plus aisé de considérer la « densité d’états intégrée » def

Φ() = nombre d’états d’énergies inférieures à  =





( ′) d ′ ,

(3.16)

où nous n’avons pas précisé la borne inférieure de l’intégrale, qui correspond en principe à l’état fondamental du système. Elle peut encore être représentée par une somme de fonctions de Heaviside  Φ() = H( −  𝓁) , (3.17) 𝓁

plus régulière mathématiquement que la somme des fonctions de Dirac. Par exemple, nous représentons sur la figure 3.4 la densité d’états intégrée pour l’oscillateur harmonique unidimensionnel. À ce stade, toute la complexité du problème a été reportée dans la densité d’états. On peut cependant comprendre l’intérêt de cette notion en examinant plus en détail le cas de l’oscillateur harmonique, dont le spectre est régulier  = ( + 1∕2) pour  ∈ ℕ (figure 3.4). Si la fonction  varie « lentement » à l’échelle de l’écart entre niveaux, Δ = , la somme est très bien approximée par une intégrale, beaucoup plus simple 43

Chapitre 3 • Ergodicité nombre d'états

nombre d'états

4 3 2 1 0 0

1

2

3

4

Résolution « quantique »

Résolution « classique »

Figure 3.4 – Densité d’états intégrée de l’oscillateur harmonique 1D. Comparaison de la densité d’états intégrée Φ() avec son approximation semiclassique, notée ici Φ Weyl ( ). « Vue de près » (à gauche) et « vue de loin », sur une échelle Δ   « macroscopique » (à droite).

à calculer en pratique : ∞  =0



 ( ) ≃

1 d  ( ) ,   0

ce qui revient à écrire ( ) ≈ 1∕() (il y a un état par intervalle de largeur Δ = ). Remplacer la densité d’états par une constante revient à approximer la densité d’états intégrée par la droite Φ() ≈ ∕(), qui est la droite passant au milieu des « marches d’escalier » sur la figure 3.4. Cette fonction régulière porte le nom de terme de Weyl, ΦWeyl() = ∕() et Weyl () = 1∕(). Le point intéressant est que son calcul peut être formulé en termes purement classiques (i.e. ne requiert pas la connaissance précise du spectre quantique), comme nous allons le discuter maintenant.

4.2 Densité d’états à l’approximation semiclassique Nous introduisons une méthode efficace pour calculer le terme de Weyl de la densité d’états, que nous noterons dorénavant simplement ( ) (de même nous noterons Φ() le terme de Weyl de la densité d’états intégrée). Nous montrons que le calcul de cette quantité, qui caractérise la distribution des énergies des états quantiques, peut être formulé en termes classiques. Nous considérons l’exemple précis (et important) d’une particule libre, puis nous étendrons (sans démonstration) le résultat au cas général.

a) Particule libre dans une boîte cubique en dimension  Une particule de masse  se meut dans un espace de dimension  . Sa dynamique est décrite par l’hamiltonien libre  =  2∕(2), dont les vecteurs propres sont les ondes  planes  () ∝ e i⋅, associées aux énergies  = 2  2 ∕(2). Si la particule est confinée dans un volume fini, que nous supposerons de forme hypercubique et de volume  =  , les énergies sont quantifiées. Le problème spectral est défini en spécifiant des conditions aux limites. Le choix précis des conditions aux limites est sans importance 44

4

Le dénombrement des microétats : densité d’états

(cf. exercice 3.4) aussi nous allons faire le choix qui simplifiera l’analyse et considérer des conditions aux limites périodiques : (⋯ ,  + , ⋯) =  (⋯ ,  , ⋯), ce qui montre que le vecteur d’onde est quantifié comme  = 2 (1, ⋯ ,   ) avec  ∈ ℤ . (3.18)  Les vecteurs d’onde correspondant aux états quantiques de la boîte se placent donc sur les nœuds d’une grille de pas 2 ∕ (figure 3.5). La densité d’états intégrée est Φ() =

 

  2  2 H  − . 2

(3.19)

 La somme porte sur tous les vecteurs d’onde quantifiés selon (3.18) (i.e.     ⋯ ). La densité d’états intégrée compte ici tous les  à l’intérieur de  1∈ℤ ∈ℤ  l’hypersphère de rayon 2 ∕. Si le volume est « grand » (i.e.    2∕2 ), une estimation de Φ() est donnée par le volume de l’hypersphère de rayon 2 ∕, divisé par le volume (2 ∕) occupé par un état quantique dans l’espace des vecteurs d’onde  (figure 3.5). Cela revient à faire une approximation continue et remplacer la somme par une intégrale. Retenons la règle utile  ⟶ 

 d  (2) 

(3.20)

À ce stade, il est suggestif de substituer l’intégrale sur le vecteur d’onde par une intégrale sur l’impulsion  = , et le volume par une intégrale sur la position :    2 1   Φ() =  , (3.21) d  d  H  −  2   où  = 2 est la constante de Planck. L’intérêt du changement de variables est d’avoir reformulé le calcul de Φ(), une fonction comptant les énergies propres d’un problème quantique, en termes de grandeurs purement classiques :   volume de l’espace des phases occupé 1 Φ() =  × par les microétats d’énergies <  

(3.22)

 s’interprète comme le volume qu’occupe un état quantique dans l’espace des phases classique, une interprétation réminiscente de la relation de Heisenberg Δ Δ ⩾ ∕2.  correspond au nombre de degrés de liberté, i.e. la moitié de la dimension de l’espace des phases. Nous pouvons maintenant terminer le calcul de la densité d’états pour la particule  libre : (3.21) correspond au volume de l’hypersphère de rayon

2 dans un espace

45

Chapitre 3 • Ergodicité

ky

kx 2 mE h

Figure 3.5 Dans l’espace des vecteurs d’onde , chaque état quantique d’une particule libre est représenté par un nœud d’un réseau hypercubique de pas 2 ∕. Chaque état quantique occupe donc un volume (2∕)  dans l’espace des  = ∕. La densité d’états intégrée Φ() correspond au nombre de nœuds du réseau compris à l’intérieur de l’hypersphère  de rayon

2 ∕.

de dimension , éq. (A.7) : Φ() =

  Γ( + 1) 2



 22

∕2 =

1 Γ(  + 1) 2



 

∕2 ,

(3.23)

avec Γ la fonction gamma (cf formulaire page 299), et où nous avons introduit l’échelle def d’énergie caractérisant la quantification dans la boîte cubique  = 2 22 ∕( 2) (cette échelle diffère d’un facteur 4 de celle obtenue pour les conditions de Dirichlet). Le cas tridimensionnel sera important par la suite :    def 1 2 3∕2 ′  avec  = ( ) = Φ () =   4 2 2

(en  = 3).

(3.24)

b) Particule soumise à un potentiel Nous admettons que la formule (3.22) s’étend au cas où la particule est confinée par un potentiel arbitraire. Si nous considérons une particule en dimension  : Φ() =

  1     d     −  (,    ) . d H  

(3.25)

Oscillateur harmonique 1D. Le cas de l’oscillateur harmonique unidimensionnel fournit une illustration très  simple. L’intégrale (3.25)  correspond à la surface de l’el2 lipse de demi axes  = 2∕( ) et  = 2 (figure 3.3), d’où Φ() = (1∕) = ∕(). On a retrouvé le résultat donné plus haut (voir aussi la figure 3.4). 46

4

Le dénombrement des microétats : densité d’états

Ce calcul élémentaire a fait ressortir un aspect remarquable de la formule semiclassique (3.25). Elle relie le nombre d’états quantiques à une information de nature géométrique dans l’espace des phases classique.

c) Cas de N particules identiques Pour terminer, nous discutons le cas d’un système de  particules identiques, comme des atomes de même nature. La mécanique quantique pose un principe d’indiscernabilité des particules identiques et fournit une prescription pour la construction des états quantiques dans ce cas, qui doivent posséder une symétrie particulière sous l’échange de particules (postulat de symétrisation). Cette règle affecte le comptage des états quantiques. Considérons par exemple deux particules libres occupant deux ondes planes de vecteurs d’onde  et  ; le microétat est noté 𝓁  (  ,  ). Puisque l’état est symétrique en échangeant ces nombres quantiques, on ne doit compter chaque couple ( , ) qu’une fois, i.e. ( , ) et ( , ) correspondent au même état quantique. Nous reviendrons ultérieurement sur la question de l’indiscernabilité, qui sera discutée plus en détail (voir aussi les rappels de mécanique quantique, Annexe B page 52). Dans le cas plus général à  particules indiscernables, la formule semiclassique est affectée d’un facteur 1∕ ! pour ne compter qu’une fois tous les états équivalents par permutations. Considérons un hamiltonien à  particules en dimension 3 ( = 3 ) : =

   2 =1

2

+  (1 , ⋯ ,  )

(3.26)

où  comprend tous les termes d’énergie potentielle. On retiendra la règle générale : Φ() =

  1 3 3 3 3           −  ({   ,   d ⋯ d d ⋯ d })     1 1 H  ! 3 

(3.27)

Particules libres. Appliquons la formule (3.27) au cas du gaz de particules libres dans la boîte de volume  = 3. En remarquant que l’énergie cinétique des  particules a la même forme que l’énergie cinétique d’une particule en dimension  = 3 , il nous suffit de reprendre le résultat (3.23) en ajoutant le facteur 1∕! lié à l’indiscernabilité :       3∕2   3∕2 Stirling e 5∕2   1 Φ() = , ≃  ! Γ( 3 + 1) 22  32   6  2 (3.28) 3 où  =  est maintenant le volume dans l’espace tridimensionnel. En pratique le nombre  est macroscopique (typiquement  ∼ 1023 ) : on voit donc que la densité d’états est une fonction croissant formidablement vite avec l’énergie. Le facteur 1∕ ! est-il toujours présent pour un problème de  particules identiques ? Fluide versus solide. La formule (3.27) est absolument générale pour des particules identiques (donc indiscernables), quelle que soit la nature de l’hamiltonien. 47

Chapitre 3 • Ergodicité

Néanmoins, on rencontrera deux types de situations : (i) des fluides, pour lesquels on appliquera (3.27). (ii) Des solides dans lesquels les atomes (indiscernables) sont localisés sur des sites (discernables). Puisqu’il y a  ! façons d’attacher les  atomes sur les  nœuds du réseau cristallin, il y a une simplification  !∕ !. On verra une illustration de cette remarque dans l’étude du cristal paramagnétique au chapitre 5. Le mécanisme de simplification du 1∕ ! sera détaillé dans le problème 7.3 page 154. D’un point de vue conceptuel, il est important de comprendre que les atomes identiques sont toujours indiscernables (c’est une propriété très fondamentale, liée à la structure de leur espace de Hilbert). Ce sont les sites du réseau auxquels sont attachés les atomes qui sont discernables.

Pour en savoir plus : • Des ouvrages d’introduction sur la mécanique quantique : [5, 25, 35]. • On trouvera une démonstration simple (pour le cas 1D) de la formule semiclassique (3.25) à la fin du chapitre 13 de [35].

48

Les points clés 1

Les notions d’équilibre macroscopique et d’ergodicité.

3

La notion de macroétat et de moyenne d’ensemble.

2

Descriptions classique et quantique des microétats.

4

La règle de dénombrement des microétats dans l’espace des phases (calcul de la densité d’états).

Les annexes A

Formulation classique

A.1 Mécanique analytique Nous donnons des précisions et faisons des rappels de mécanique analytique dans le but de motiver la description classique dans l’espace des phases, mais aussi préparer la discussion d’autres systèmes classiques. En mécanique analytique, et plus particulièrement dans la description hamiltonienne, les coordonnées servant à la description de la dynamique du système sont notées  , avec  l’indice de la coordonnées, et   leur dérivée temporelle. Leurs moments canoniquement conjugués sont notés  et obtenus à partir def  du Lagrangien  par  = . L’espace des phases est par définition l’espace des coor données Γ = {,  }. La donnée de ces coordonnées caractérise entièrement l’évolution du système, contrôlée par les équations de Hamilton  () =

  ( Γ()) 

et

  () = −

  (Γ()) , 

(3.29)

 est l’hamiltonien (l’énergie sur une trajectoire physique). Deux trajectoires où (Γ) physiques sont représentées par deux lignes qui ne s’intersectent pas (figure 3.3).

A.2 Pourquoi l’espace des phases ? Le théorème de Liouville Rappelons que dans la description classique, un microétat correspond à un point dans l’espace des phases, de dimension 2, et un macroétat à la donnée d’une densité de probabilité (Γ) telle que (Γ) d2Γ est la probabilité que le système soit dans le volume  d 2Γ autour de Γ. Pourquoi l’espace des phases, i.e. les couples de variables canoniquement conjuguées, joue-t-il un rôle si important ? Pourquoi ne pas considérer les {,  } ou bien d’autres fonctions des  et   ? Ce point est éclairci par l’énoncé du théorème 49

Chapitre 3 • Ergodicité

de Liouville, que nous discutons maintenant. Il est naturel, pour décrire un équilibre  indépendante du temps. Cependant, thermodynamique, de considérer une densité (Γ) les systèmes réels évoluent dans le temps. Si nous partons d’une distribution initiale   = 0) la probabilité de retrouver ultérieurement le système autour de Γ() est don(Γ,  ) d 2 Γ()  car l’élément de volume d2 Γ()  évolue a priori lui aussi au née par (Γ(), cours du temps. Le théorème de Liouville stipule que le volume élémentaire d2 Γ() est conservé le long des trajectoires physiques si bien que toute l’évolution temporelle du système est encodée dans la seule fonction (Γ, ). On peut en particulier étudier si celleci tend vers une distribution stationnaire correspondant à celle attendue à l’équilibre, c’est-à-dire le processus de thermalisation ou d’approche de l’équilibre. Démonstration du théorème de Liouville. Nous interprétons l’évolution entre les temps  et  + , avec  infinitésimal, comme une transformation entre les coordonnées {,  } vers les coordonnées { ,  } définies par : def

(3.30)

 =  ( + ) ≃  () +  ()  def

(3.31)

 =  ( + ) ≃  () +   ()  D’après les équations de Hamilton, nous pouvons écrire :      =  + (Γ)  et  =  − ( Γ)    

(3.32)

 Lors du changement de variables, les volumes élémentaires sont reliés par d 2Γ  = d 2Γ où  est le Jacobien de la transformation, donné par

 =  det(1 +  )



⋱   = 0    0

2

 ∕   − 2∕ 2

0  2∕2 − 2∕   0

0    0    ⋱ 

la matrice 2 × 2, diagonale par blocs 2 × 2. En remarquant que2 det(1 +  ) ≃ 1 + Tr( ) , nous obtenons finalement    2   2   ≃1+  = 1 à l’ordre 1 en  . (3.33) −      =1     i.e. si l’on dd  = dd  = d 2 Γ, Autrement dit, nous avons bien d 2Γ = 



considère un domaine dans l’espace des phases, il évoluera au cours du temps de telle sorte que son volume soit conservé (figure 3.6). Une reformulation du théorème de Liouville une équation d’évo permet d’obtenir       ). On a en effet d =   +   lution pour (Γ, , ce que l’on peut + d      2. Cette relation provient de la définition du déterminant en identifiant les termes d’ordre 1 en , ou en écrivant det(1 + ) = exp ln det (1 +  ) = exp Tr ln(1+  ) ≃ exp(Tr ) ≃ 1 +Tr  . 50

A Formulation classique

t’>t

p

q t Figure 3.6 – Théorème de Liouville. On a représenté des trajectoires physiques dans l’espace des phases. L’évolution temporelle conserve le volume dans l’espace des phases, i.e. les deux volumes grisés, représentant un ensemble de microétats à deux instants de leur évolution, sont égaux.

     est un crochet −        d de Poisson (cf. cours de mécanique analytique). est une dérivée totale, analogue d à la dérivée particulaire de la mécanique des fluides, et calculée le long d’une trajec  solution des équations du mouvement. En revanche, toire physique Γ() correspond  à la variation locale de la densité de probabilité. On peut montrer que le théorème de d = 0 de la probabilité. On en tire Liouville équivaut à l’équation de conservation d immédiatement l’équation d’évolution locale pour  def  d  = {, } + , où {,  } = écrire comme d  



  (Γ, ) = { , ( Γ, )} . 

(3.34)

Distribution stationnaire. La densité caractérisant un état stationnaire doit satisfaire {, } = 0. Un choix naturel est de choisir la densité sous la forme d’une fonction de l’hamiltonien, s’il s’agit là de la seule intégrale du mouvement : ( Γ) =  ( (Γ))

(3.35)

Cette discussion est naturellement adaptée aux systèmes isolés. Un système en contact avec un thermostat aura également cette forme pour la distribution stationnaire : les ensembles de la physique statistique (les macroétats) correspondent à des distributions de  ∝  ( −  (Γ))  pour la distribution microcanonique (chapitre 5) la forme (3.35) : ∗ (Γ)  et  C (Γ) ∝ e− (Γ) pour la distribution canonique (chapitre 6). 51

Chapitre 3 • Ergodicité

B

Formulation quantique

B.1 Rappel des postulats de la mécanique quantique La mécanique quantique est le cadre définissant les lois de la physique aux échelles élémentaires. Rappelons les quelques règles qui régissent la dynamique quantique (les « postulats de la mécanique quantique ») ; voir par exemple les ouvrages [5, 11, 25, 35] pour plus de détails. (i) États quantiques. L’état quantique d’un système est décrit par un vecteur d’état   , élément d’un espace vectoriel des états, l’espace de Hilbert H , construit sur le corps des nombres complexes, et muni du produit scalaire satisfaisant      =     ∗ . (ii) Interprétation probabiliste. Le produit scalaire s’interprète comme l’amplitude de probabilité de transition (instantanée) entre deux états ( ← ) =     , i.e. la probabilité de transition3 est Proba( ← ) =     2 . Conséquence – Notation Bra et Ket : Il est d’usage d’interpréter le produit scalaire (« bracket »)      comme le produit d’un vecteur, un « ket »   , et son dual, un « bra »   . Nous faisons le lien entre le vecteur d’état et la fonction d’onde : soit    l’état quantique de la particule localisée en . La fonction d’onde s’écrit comme un produit scalaire  () =      et représente l’amplitude de (densité de) probabilité pour trouver la particule en . (iii) Observables et postulats de mesure. Les observables (grandeurs physiques) sont représentées par des opérateurs linéaires agissant dans l’espace de Hilbert. Une observable  est caractérisée par son spectre de valeurs propres et vecteurs propres { ,   }. Si le système est dans un état   , le résultat d’une mesure de  est une des valeurs propres   avec probabilité Proba(  ←  ) =     2. L’état du système après mesure est    (réduction du paquet d’onde). Le processus de mesure s’accompagne d’une évolution stochastique et irréversible de l’état quantique. (iv) Évolution temporelle. L’évolution temporelle du vecteur d’état est contrôlée par l’équation de Schrödinger d    ()  , (3.36) i   ()  =  d où  est « l’opérateur hamiltonien » (l’énergie). C’est donc une évolution déterministe et réversible d’un objet de nature probabiliste. (v) Permutabilité des particules identiques. La description de l’état quantique en terme d’amplitudes de probabilité conduit à postuler l’indiscernabilité des particules identiques, i.e. que les états à plusieurs particules possèdent une symétrie sous la permutation de deux particules. L’état à  particules est donné par une fonction d’onde 3. Autrement dit : Proba( ← ) =     2 est la probabilité pour observer le système dans l’état    , sachant qu’il se trouve initialement dans l’état   . 52

B

Formulation quantique

fonction de  coordonnées  (1,  2, ⋯ ,  ). Les particules sont classées en deux groupes : ∙ Les bosons (photon,...) dont l’état quantique est invariant sous la permutation. Pour deux bosons :  (1 , 2) = + (2,  1). ∙ Les fermions (électron, proton, neutron, ...) dont l’état quantique est antisymétrique sous la permutation. Pour deux fermions :  (1, 2) = − (2, 1 ). Le théorème spin-statistique montre que les propriétés de permutabilité sont liées au spin (moment cinétique intrinsèque) : les bosons ont un spin entier et les fermions un spin demi-entier. Puisque nous aurons à considérer un nombre macroscopique de particules identiques, le dernier point (postulat de symétrisation) jouera un rôle important.4

B.2 Macroétats et moyennes des observables Nous avons introduit la moyenne (3.11) dans un macroétat. Nous apportons ici une précision pour insister sur le fait que la moyenne statistique ne doit pas être confondue avec la moyenne quantique. Commençons par rappeler la règle de projection pour un état pur et sa généralisation pour un mélange statistique :   2 (3.37) Proba  ← état pur  =                  2 (3.38) Proba  ← mélange statistique { } = 

     2 est la probabilité pour que l’état initial étant   , le système soit observé dans l’état final    (cf. rappel des postulats plus haut), alors que  caractérise notre ignorance sur l’état quantique occupé par le système. La même observation s’applique aux moyennes d’observables. Considérons une grandeur physique . D’après le postulat de mesure, la moyenne quantique de l’observable est   =      : elle représente la moyenne de résultats de mesures répétées de , toujours réalisées à partir du même état   . Ces moyennes quantiques doivent être pondérées par les probabilités d’occupation des états, qui tiennent compte de notre ignorance sur l’état quantique du système moyenne statistique

           = mélange   statistique

(3.39)

moyenne quantique

4. En général les particules ne sont pas uniquement caractérisées par leur état dans l’espace physique mais possèdent aussi des dégrés de liberté interne, comme le spin (son moment cinétique intrinsèque). On doit alors introduire une « coordonnée de spin » que nous notons . La fonction d’onde dépend également de cette coordonnée. Si l’on regroupe les coordonnées   (,  ) alors on écrira en toute généralité pour deux particules  (1,  2 ) = ± (2 ,  1) (+ pour des bosons et − pour des fermions). 53

Chapitre 3 • Ergodicité

B.3 Matrice densité et équation de Liouville quantique Un outil mathématique très utile pour étudier la physique statistique quantique est la « matrice densité ». Celle-ci est définie à partir de l’ensemble des probabilités d’occupation des états quantiques comme   =  𝓁  𝓁   𝓁  . (3.40) 𝓁

La matrice densité décrivant un état pur (microétat)    est donc le projecteur  =      et le mélange statistique (macroétat) combine les projecteurs sur la base d’états quantiques, pondérés par les probabilités d’occupation. La condition de normalisation  =  𝓁 = 1. La moyenne d’une observable (3.11) peut être prend la forme Tr { } 𝓁

réécrite à l’aide de la matrice densité :

   = Tr  

(3.41)

ce qui fait comprendre l’intérêt de ce nouvel outil puisque l’expression est maintenant indépendante d’un choix de base d’états quantiques. Pour les problèmes dépendant du temps, la matrice densité porte une dépendance temporelle  → (). Son équation d’évolution est obtenue en utilisant la structure de projecteur et l’équation de Schrödinger (3.36).5 Nous déduisons d 1  () = [ , ()] , d i qui est l’analogue quantique de l’équation de Liouville (3.34).

(3.42)

Problèmes stationnaires. Une situation est décrite par une matrice densité qui com ] mute avec l’hamiltonien [,  = 0. Un choix spécifique qui assure cette propriété est une fonction de l’hamiltonien )  =  (

(3.43)

qui est l’analogue de (3.35). Autrement dit : si les états  𝓁  dans (3.40) sont des états   𝓁  = 𝓁  𝓁 , on aura 𝓁 =  (𝓁). Par exemple, la distribution stationnaires,   canonique qui sera introduite au chapitre 6 correspond à la matrice densité  ∝ e−  où  est un paramètre réel positif (i.e. 𝓁 ∝ e−𝓁 ).

5. L’équation d’évolution de () décrit un système isolé, i.e. les probabilités 𝓁 sont fixées et seuls les vecteurs d’états évoluent au cours du temps : () = 𝓁  𝓁 ()  𝓁 () . Cette observation est 𝓁

claire si nous considérons la base des états stationnaires, puisque changer les probabilités reviendrait à changer la distribution de l’énergie (système non isolé). 54

Entraînez-vous Exercice 3.2 Densité d’états de  systèmes à deux niveaux Nous considérons  systèmes sans interaction, pouvant chacun se trouver dans deux états  ± , d’énergies ±0. a) Décrire les microétats du système. Quel est le nombre total de microétats ? Quel est le spectre des énergies ? b) On note ± le nombre de systèmes dans l’état  ± . Exprimer  + et  − en fonction de  et l’énergie totale . c) Déduire la dégénérescence des niveaux d’énergie. En supposant  et ±  1, discuter la forme de la densité d’états.

Exercice 3.3 Densité d’états de  oscillateurs harmoniques unidimensionnels Nous considérons  oscillateurs identiques (de même pulsation ), indépendants et discernables. a) Analyse quantique : On rappelle que le spectre d’un oscillateur est  =  ( + 1∕2) pour  ∈ ℕ. Quels sont les microétats du système de  oscillateurs ? Quel est le spectre des énergies ? Calculer le nombre de microétats accessible Ω() pour  → 0 (i.e. la dégénérescences des niveaux d’énergie). INDICATION : le calcul de la dégénérescence des niveaux peut être reformulé comme le dénombrement des partitions d’un entier (relié à l’énergie) en  entiers (les excitations des  oscillateurs). b) Analyse semiclassique : Calculer la densité d’états intégrée à l’aide de la formule semiclassique. Comparer au résultat quantique.

Exercice 3.4 Terme de Weyl de la densité d’états et formules de trace On considère une particule en une dimension, décrite par l’hamiltonien  = 2 ∕(2). Le spectre des énergies est  = 2 2 ∕(2) (par la suite on posera 2∕(2) = 1 pour simplifier). La particule est confinée sur un intervalle [0, ], ce qui implique la quantification de l’énergie. On compare les densités d’états pour les conditions aux limites de Dirichlet,  (0) =  () = 0, et les conditions aux limites périodiques,  (0) =  () &  ′(0) =  ′(). a) Rappeler les spectres obtenus pour les deux types de conditions aux limites. b) En utilisant la propriété (A.16) et la formule de Poisson (A.18), déduire des représentations des densités d’états dans le deux cas, puis des densités d’états intégrées.

55

Chapitre

1

4

Entropie

Rappeler les différentes interprétations de l’entropie

1

L’entropie en thermodynamique

Introduire une mesure de l’information manquante associée à une distribution de probabilité (l’entropie statistique)

2

Information et entropie statistique

L’entropie en thermodynamique

1.1 Quantifier l’irréversibilité La notion d’entropie n’est pas inconnue au lecteur qui aura suivi un cours de thermodynamique. Bien que centrale dans cette théorie axiomatique, elle aura probablement laissé une impression assez abstraite. Citons le postulat fondamental de la thermodynamique : « il existe une fonction entropie, fonction des variables d’état primitives, qui détermine les propriétés macroscopiques du système à l’équilibre », autrement dit, cette fonction contient toutes les propriétés thermodynamiques (équation d’état, coefficients calorimétriques, etc). Nous pouvons également identifier une motivation extrêmement pratique dans le cadre de la théorie des machines thermiques, développée dans la première moitié du XIXe siècle (notamment suite à l’invention de la machine à vapeur au XVIII e). La découverte de l’équivalence entre travail et chaleur par Joule formalisait le processus de conversion d’énergie thermique en énergie mécanique : la variation de l’énergie interne d’un système est la somme du travail et de la chaleur reçus Δ =  +  (1er principe). C’est cependant le second principe de la thermodynamique qui encadre les conditions nécessaires à cette conversion. Dans son énoncé par Clausius : « est impossible un processus dont le seul résultat est le transfert de chaleur d’un corps froid vers un corps chaud ». L’irréversibilité implique l’interdiction de certains processus, le degré d’irréversibilité étant quantifié à l’aide de la fonction entropie dont la variation entre deux états d’équilibre (i) et (f) satisfait l’inégalité (écrite pour une transformation quasi-statique) d (4.1) (2 nd principe) , f −  i ⩾ i→f  - est la chaleur élémentaire reçue par le système et  sa température.1 L’écart à où d l’égalité, réalisée pour les processus réversibles, mesure donc le degré d’irréversibilité. - » pour désigner une quantité infinitésimale qui n’est pas 1. Notation : nous utilisons la notation «d la différentielle d’une fonction. 56

1

L’entropie en thermodynamique

Processus interdit!

effet de la dissipation

h

Figure 4.1 Une balle rebondit sur le sol. À cause de la dissipation, la hauteur maximale atteinte à chaque rebond diminue d’un rebond au suivant. Le second principe interdit le processus inverse où la chaleur de l’environnement serait convertie en énergie mécanique.

Discutons une illustration simple de cette idée : travail et chaleur sont deux formes d’énergie pouvant être converties l’une en l’autre, cependant les deux sens ne sont pas toujours autorisés pour cette conversion : du travail moteur ne peut pas être produit en présence d’une unique source de chaleur (thermostat), qui doit alors nécessairement absorber de l’énergie sous forme de chaleur. Par exemple, une balle est lâchée d’une hauteur  et rebondit sur le sol, l’expérience montre que la hauteur maximale atteinte par la balle à chaque rebond diminue. Au cours de son mouvement, l’énergie mécanique de la balle est dissipée à cause des frottements sur l’air et de la déformation au moment du rebond, qui n’est pas parfaitement élastique et produit de la chaleur transmise au sol et à la balle. Entre l’état initial où l’énergie de la balle est purement mécanique, balle = balle  si la balle est lâchée sans vitesse initiale, et l’état d’équilibre final où la balle est immobile sur le sol, balle = 0, le travail de la force gravitationnelle a été converti en chaleur, absorbée par l’environnement (sol et air) qui joue le rôle de thermostat. L’expérience que nous décrivons est purement régie par les lois de la mécanique classique, qui sont réversibles (même à l’échelle atomique, une description classique du mouvement des atomes du gaz et des solides est ici suffisante). Cependant, est interdit le processus inverse où l’environnement se refroidirait en fournissant de la chaleur convertie en travail, permettant à la balle de remonter de plus en plus haut (partie droite de la figure). La formalisation de cette idée est précisément l’objet du second principe de la thermodynamique.

1.2 Variable conjuguée de la température : une mesure du désordre Une notion très importante en thermodynamique et en physique statistique est celle de « variable conjuguée ». L’exemple le plus intuitif est fourni par le couple (volume, pression) : considérons un gaz dans une enceinte de volume  fermée par un piston mobile. À l’équilibre, le gaz exerce une force sur le piston, équilibrée par la pression - = −ext d . extérieure ext . Le travail reçu par le système (le gaz dans l’enceinte) estd 57

Chapitre 4 • Entropie

Lors d’une transformation réversible, pression interne et pression externe s’équilibrent, - rev = − d apporte une contribution à la variation d’énergie  = ext et le travail d interne d = − d +⋯. On dira que les deux variables sont « conjuguées » : la pression contrôle le volume. Lors d’une transformation infinitésimale réversible, la relation (4.1) - rev =  d, qui vient s’ajouter au travail infinitésimal prend la forme d - rev + d - rev =  d −  d (1er principe) , d = d

(4.2)

ce qui montre que la fonction fondamentale « énergie » est fonction des deux variables (,  ), dont la différentielle fait ressortir les couples de variables conjuguées, (,  ) et ( , ). Nous verrons que la température permet de quantifier l’agitation des atomes au niveau microscopique. De la même manière que la pression contrôle le volume, la température contrôle sa variable conjuguée, l’entropie, ce qui suggère que cette dernière fournit une mesure du désordre au niveau atomique/moléculaire.

2

Information et entropie statistique

2.1 Le rôle de l’entropie en physique statistique Nous allons maintenant proposer un troisième éclairage sur la notion d’entropie, comme mesure du manque d’information sur l’état d’un système. Nous inscrivant dans l’approche probabiliste, nous prenons le point de vue que l’analyse de l’évolution temporelle (approche « mécanique ») est remplacée par la donnée des probabilités d’occupation des différents états possibles. La notion d’entropie va jouer un rôle absolument central pour répondre à la question suivante : sachant comment décrire les degrés de liberté microscopiques du système, quel principe nous permet de déduire les probabilités d’occupation des microétats ? Par exemple, avec quelle probabilité les  atomes d’un fluide se trouvent-ils au point (1, ⋯ ,   ,  1, ⋯ ,  )  𝓁 de l’espace des phases ? La question est : « comment construire la distribution {𝑷𝓵 } ? » Examinons l’exemple de la pièce non truquée introduit au chapitre 2 page 9 : ce qui nous a guidé pour proposer la distribution uniforme pile = face = 1∕2 est l’absence totale d’information sur le résultat du lancer de pièce, c’est-à-dire que nous nous sommes implicitement reposés sur un principe d’information minimale. Dans le cas général d’un espace des microétats de dimension  , l’absence de toute information sur l’état du système conduit à postuler que tous les microétats sont équiprobables. La réponse à la question est claire dans les deux cas extrêmes : pour un état pur 𝓁 0 (cas trivial), 𝓁 =  𝓁,𝓁0 , l’information sur l’état du système est maximale, alors que l’information est minimale pour la distribution uniforme 𝓁 = cste ∀ 𝓁. Cependant pour 58

2

Information et entropie statistique

répondre à la question dans le cas général, nous devons disposer d’une mesure de l’information, ou du manque d’information. Si l’on considère une distribution quelconque { 𝓁 }, quelle est la fonction des  probabilités  (1 , ⋯ , ) mesurant le manque d’information ?

2.2 Entropie statistique pour la distribution uniforme Position du problème. Considérons un ensemble de microétats E = { 𝓁 } où l’indice 𝓁 ∈ {1, ⋯ , Ω} repère l’ensemble des microétats, supposés ici équiprobables, i.e. caractérisés par la distribution uniforme 1 . (4.3) Ω Dans ce paragraphe, pour des raisons qui seront clarifiées plus loin, nous notons Ω (et non  ) le nombre de microétats. 1 = ⋯ = Ω =

Dans cette situation, une mesure de l’information manquante ne peut être qu’une fonction du nombre de microétats, le seul paramètre caractérisant la distribution : (distribution unifor me) =  (Ω)

(4.4)

où  () est une fonction que nous allons maintenant déterminer. Pour cela, faisons quelques remarques.

Remarque 1. Si le nombre de microétats équiprobables croît, la distribution uniforme s’étale sur un nombre de plus en plus grand de microétats et nous perdons de l’information sur le système.  () est donc une fonction croissante de . Remarque 2. Dans le cas trivial où l’espace des états se réduit à un unique microétat (Ω = 1) celui-ci est occupé avec probabilité 1 = 1, i.e. nous disposons de l’information maximale sur le système. L’entropie est nulle, i.e.  (1) = 0. Remarque 3. Imaginons deux systèmes S et S ′ dont les macroétats sont caractérisés par deux distributions uniformes sur leurs espaces des états respectifs : 1 1 = ⋯ = Ω = pour S (4.5) Ω 1 1′ = ⋯ = Ω′ ′ = ′ pour S ′ (4.6) Ω Supposons que les deux systèmes sont indépendants (leurs états ne s’influencent pas mutuellement). Nous souhaitons les décrire comme un tout, i.e. comme un grand système S  S ′ . Les microétats du système global sont  𝓁 ∈ {1, ⋯ , Ω}  𝓁, = 𝓁   ′ pour (4.7)  ∈ {1, ⋯ , Ω′ } où nous utilisons la notation  (« produit tensoriel ») pour regrouper les deux éléments de deux espaces distincts (comme en mécanique quantique). Puisque le nombre 59

Chapitre 4 • Entropie

de microétats 𝓁, est Ω Ω′ , la distribution uniforme sur le système complet est 𝓁, =  𝓁  ′ =

1 . (4.8) Ω Ω′ Nous choisissons que le manque d’information soit extensif, notamment guidés par la correspondance avec l’entropie de la thermodynamique. Autrement dit, (S  S ′ ) = ( S ) + (S ′), i.e.  (Ω Ω′ ) =  (Ω) +  (Ω ′) .

(4.9)

Cette propriété assure que si le système est dupliqué, l’information manquante augmente dans les même proportions.

Conclusion : entropie de Boltzmann-Planck. Nous déduisons de ces trois remarques que la fonction est le logarithme,  () = 0 ln(), où 0 est une constante positive qui s’interprète comme le quantum d’information (une discussion plus précise, notamment sur l’unicité de la solution de l’équation fonctionnelle (4.9), est donnée dans le chapitre 3 de [3]). Dans le cadre de la théorie de l’information, il serait naturel de poser 0 = 1∕ ln 2, ainsi l’entropie associée à la distribution uniforme sur un bit (0 ou 1) est  = 1. Anticipant sur le prochain chapitre, nous verrons que le choix qui permet de faire coïncider l’entropie statistique avec celle de la thermodynamique est 0 =  où2  = 1.380 648 52 × 10−23 J.K−1

(4.10)

est la constante de Boltzmann. Elle est reliée à la constante des gaz parfaits  et au nombre d’Avogadro par  = ∕ . Puisqu’elle mesure une quantité élémentaire d’entropie, on parle parfois de « quantum d’entropie » (mais attention avec cette terminologie, l’entropie n’est pas une grandeur quantifiée). Enfin, nous remarquons que la constante de Boltzmann est une constante fondamentale au statut particulier puisqu’elle est inséparable de la définition de l’échelle des températures (autrement dit, on verra systématiquement apparaître la combinaison  : c’est déjà le cas dans l’équation (4.1) qui lie entropie, chaleur et température). Finalement, nous avons obtenu l’entropie de la distribution uniforme comme  (distribution uniforme) =  ln Ω

(4.11)

Si cette formule fondamentale est attribuée à Boltzmann (elle est d’ailleurs gravée sur sa tombe à Vienne, cf. figure 4.2), elle a été écrite pour la première fois sous cette forme par Planck dans le cadre de son étude de la thermodynamique du rayonnement. Cette expression de l’entropie est remarquable : elle fournit une méthode pour exprimer l’entropie d’un système en se ramenant à un problème de dénombrement des 2. valeur donnée sur le site http://physics.nist.gov/cuu/Constants/index.html (janvier 2017). 60

2

Information et entropie statistique

Figure 4.2 – La tombe de Ludwig Boltzmann (1844-1906) à Vienne. (crédit photographique : Emmanuel Trizac).

microétats autorisés, i.e. un problème combinatoire. De plus elle nous donne une définition absolue de l’entropie, contrairement à la thermodynamique, qui ne nous permet de caractériser que ses variations via le second principe, éq. (4.1).

2.3 Entropie d’une distribution arbitraire Nous revenons maintenant au problème général de la détermination de l’entropie (du manque d’information) associée à une distribution {𝓁 } quelconque. Par commodité et pour être concrets, nous raisonnons en termes d’une variable aléatoire , qui peut être la position d’une particule sur une ligne. Les  microétats correspondent aux cas où la particule se trouve dans un intervalle parmi . Une particule occupe donc l’intervalle numéro 𝓁 ∈ {1, ⋯ , }. Nous allons maintenant faire appel à « l’artifice de la théorie des ensembles » de la physique statistique : nous considérons (par la pensée)  copies équivalentes du système, i.e.  particules se distribuant dans les  intervalles et notons 𝓁 le nombre de particules dans l’intervalle 𝓁 (cf. figure 4.3). Dans la limite    on a donc 𝓁 ≃ 𝓁 ∕ où  𝓁 est la probabilité pour qu’une particule occupe l’intervalle numéro 𝓁. Puisque les  systèmes sont équivalents et indépendants (ce ne sont que des copies virtuelles), l’entropie totale de ces  systèmes est  =  ×  où  désigne l’entropie d’un système. L’état microscopique du système devrait être caractérisé par l’ensemble des coordonnées des  particules 1 , ⋯ ,  . En nous donnant plutôt les  nombres d’occupations 1 , ⋯ ,  , i.e. à la limite  → ∞ les probabilités 1 , ⋯ ,  , nous avons donc perdu de l’information. Cette perte d’information correspond au nombre de manières d’agencer les  particules en  paquets de 1 , ⋯ ,  particules : Ω=

! . 1! ⋯  !

(4.12) 61

Chapitre 4 • Entropie

M

x

Figure 4.3 – Distribution de 𝑵 particules dans 𝑴 intervalles et facteurs d’occupation caractérisant cette distribution.

Les  occupations étant fixées, ces Ω agencements sont équiprobables, i.e., d’après (4.11), caractérisés par l’entropie     !   =  ln ≃ − 𝓁 ln(𝓁 ∕ ) (4.13) 1 ! ⋯  ! 𝓁=1 où nous avons utilisé la formule de Stirling, (A.20). Nous cherchons à caractériser l’entropie associée à la distribution {𝓁 }, i.e. à quantifier la perte d’information qu’il y a à jeter une particule parmi les  cases. Cette entropie est donc    𝓁 = ≃ − ln(𝓁 ∕ )   𝓁=1

(4.14)

Cette grandeur possède en effet une limite finie lorsque  → ∞ : nous obtenons finalement l’expression de l’entropie statistique3  ({𝓁 }) = −



 𝓁 ln  𝓁

(4.15)

𝓁

Nous pouvons vérifier que, dans le cas de la distribution uniforme 𝓁 = 1∕Ω, nous retrouvons l’entropie de Boltzmann-Planck  =  ln Ω. Finalement, c’est une situation assez particulière où, par un raisonnement astucieux, nous avons déduit la formule générale (4.15) d’un cas particulier (4.11) !

2.4 Propriétés de l’entropie de Gibbs-Shannon Minimum. L’entropie est mimimum si l’on connait avec certitude le microétat qu’occupe le système : min = 0. On pourra vérifier que la distribution  = , 0 a bien une entropie nulle (on rappelle que lim  ln  = 0). →0

Maximum. Le cas où nous avons le moins d’information sur l’occupation des  microétats est lorsque ceux-ci sont équiprobables,  = 1∕ ∀ . Rappelons que dans 3. Cette expression est souvent appelée l’entropie de Boltzmann-Gibbs-Shannon. Pour la distinguer de (4.11), nous la désignerons comme « l’entropie statistique » ou de « Gibbs-Shannon ». 62

2

Information et entropie statistique

ce cas  max = (1∕, ⋯ , 1∕ ) =   ln  (une démonstration rigoureuse de cette propriété intuitive est donnée dans l’annexe A, page 66).

Croissance. L’entropie maximale croît avec le nombre de microétats  . Évènements inaccessibles. L’existence de microétats inaccessibles (i.e. d’évènements de probabilité nulle) ne change pas l’entropie :  (1 , ⋯ ,  , 0, ⋯ , 0) =  ( 1 , ⋯ , )

(4.16)

Concavité. Considérons deux distributions { 𝓁(0) } et {𝓁(1) }. Nous définissons les prob()

def

abilités 𝓁 = (1 − ) 𝓁(0) +  𝓁(1) avec  ∈ [0, 1], qui correspondent à une distribution interpolant entre les deux précédentes. On peut prouver la propriété ()

 ({ 𝓁 }) ⩾ (1 − )  ({ (0) }) +  ({𝓁(1) }) 𝓁

pour  ∈ [0, 1]

(4.17)

qui assure que l’entropie est une fonction concave vis-à-vis de n’importe lequel de ses arguments (figure 4.4).

S (1) S (λ)

S (0)

λ 0

1

Figure 4.4 – L’entropie est une fonction concave de n’importe lequel de ses arguments.

Additivité et sous-additivité. Considérons des microétats spécifiés par la donnée de deux informations. Par exemple si nous disposons de deux sous systèmes, l’un dans un microétat parmi  ∈ {1 , ⋯ ,  } et l’autre parmi  ∈ {′1, ⋯ ,  ′ }. L’état du système complet est spécifié par la donnée de l’état de chaque sous système : , =   ′ . Le microétat , est réalisé avec probabilité , . Nous introduisons la probabilité      , resp.  (4.18) = = ,   ∈

∈

pour que le système  (resp. ) se trouve dans le microétat  (resp. ′ ), indépendamment de toute information sur l’état du système  (resp. ). Rappelons qu’en général    ,      (l’égalité , =    est réalisée lorsque les deux systèmes sont indépendants, cf. chapitre 2). Nous les entropies des probabilités marginales  faisons  apparaître    , ln , ∕(   ) + ln( en écrivant  = −  )] puis en développant le ,

63

Chapitre 4 • Entropie

second logarithme :

  ({ , }) = ({  }) + ({ }) − (,  ) ,

où (,  ) = + def

 ,

 , ln

,

(4.19)



   

.

(4.20)

Schématiquement, (4.19) a la forme () =  ()+  ()− (,  ). En remarquant que le terme de corrélation est positif (cf. preuve plus bas), nous obtenons l’inégalité   ({ ,}) ⩽ ({  }) + ({ })

(4.21)

 Si les systèmes sont indépendants, , =     , alors les entropies s’ajoutent simplement et l’égalité est réalisée

  ({, }) = ({  }) + ({ })

si  et  sont indépendants

(4.22)

il y a alors autant d’information à les considérer comme un tout ou séparément. En revanche si les systèmes sont corrélés, les considérer comme un tout contient une information supplémentaire (sur les corrélations entre  et ) par rapport à la situation où ils sont séparés :    contient plus d’information (son entropie est plus petite) que  et  considérés séparément.

Preuve que (,  ) ⩾ 0 : Remarquons que (,  ) porte l’information sur les corrélations, ce qui explique le signe − devant le dernier terme de (4.19). Nous utilisons l’inégalité de convexité ln() ⩾ 1 − 1∕ :          )=0. (4.23)  , 1 − =  (, −   (,  ) ⩾     , , ,

Illustration (sous-additivité) : Alice et Bob décorrélés ou anti-corrélés. Nous considérons deux individus, Alice et Bob, se répartissant aléatoirement dans deux salles  ,  =  en  = +1 et  = −1 de manière équiprobable : , = 1∕2. L’entropie associée + −  ln(  à la distribution de la position d’Alice est  () = −  ) =  ln 2. De =±  même pour Bob :  ( ) =  ln 2. La loi jointe pour les deux individus est notée , = Proba{Alice en  & Bob en }. Par commodité, les quatre probabilités seront regroupées dans une matrice 2 × 2. • Considérons d’abord la situation où Alice et Bob sont non corrélés (1ère situation représentée dans le § p. 16). Nous choisissons la distribution (le « macroétat ») :   1 1 1 , ∶ (4.24) 4 1 1 64

2

Information et entropie statistique

 ,  autrement dit , =  = 1∕2. Alice et Bob se distribuent indépendam   avec  ment dans les deux salles. L’entropie du système complet est (  ) =  ln 4 =  () +  ( ).

• Considérons maintenant la situation où Alice et Bob s’évitent (3ième situation représentée dans le § p. 16), ce qui est décrit par la distribution (autre « macroétat ») :   1 0 1 , ∶ (4.25) 2 1 0 Remarquons que les lois marginales n’ont pas changé par rapport au cas précédent,  Alice et Bob occupent toujours les deux salles de manière équiprobable :    = , = 1∕2. L’entropie de la loi jointe est maintenant (  ) =  ln 2. 

L’interprétation est claire : puisque les deux individus sont parfaitement anti-corrélés (si Alice est en  = +1, Bob va en  = −1, et réciproquement) on a simplement  (  ) =  () =  ( ) < () +  ( ) (en considérant séparément Alice et Bob on perd l’information sur l’anti-corrélation).

Pour en savoir plus : • La discussion du début du chapitre est inspirée de [33]. L’excellent article de Kirone Mallick [27] sur les développements récents de la physique statistique hors de l’équilibre donne un aperçu très synthétique sur la thermodynamique et la physique statistique de l’équilibre. • Une très belle discussion sur l’entropie est donnée dans le livre de Ma [26]. • Sur le lien entre théorie de l’information et physique statistique, on pourra consulter le célèbre article de E. T. Jaynes [17]. Un ouvrage récent (très avancé) sur la physique statistique et la théorie de l’information est celui de M. Mézard et A. Montanari [28]. • Chapitre III du livre de R. Balian [3].

65

Les points clés 1

Les différentes interprétations de l’entropie

2

La définition de l’entropie statistique, équation (4.15).

3

La règle d’additivité (  ) =  () +  ( ) si A et B sont indépendants

Les annexes A

La méthode des multiplicateurs de Lagrange

La question. Trouver les points stationnaires d’une fonction  (1, ⋯ ,   ) de  variables lorsque les variables ne sont pas indépendantes, mais liées par une contrainte (4.26)

 (1 , ⋯ ,  ) = 0 . La méthode procède en trois étapes : (1) On introduit la fonction def

 ( 1, ⋯ ,   ) =  ( 1, ⋯ ,  ) +  ( 1, ⋯ ,  )

(4.27)

où  est un « multiplicateur de Lagrange ». (2) On cherche les points stationnaires de  , en considérant les  variables comme indépendantes. La solution est une fonction du multiplicateur : ∗1 (), ⋯ ,  ∗ (). (3) On injecte la solution dans l’équation (4.26),  (∗1 (), ⋯ , ∗ ()) = 0, ce qui nous donne une équation pour  dont nous notons la solution  . (4) Conclusion : la solution du problème est ∗1 ( ), ⋯ , ∗ ( ).

Généralisation. En présence de  contraintes  ( 1, ⋯ , ) = 0, avec  ∈ {1, ⋯ , } on doit introduire  multiplicateurs de Lagrange  et appliquer la même   def  logique à la fonction  ( 1, ⋯ ,   ) =  (1 , ⋯ ,  ) +   ( 1 , ⋯ ,  ). =1

Illustration : principe d’entropie maximale et postulat fondamental. Nous cherΩ chons le macroétat qui rend l’entropie statistique  (1 , ⋯ , Ω ) = − =1  ln  maximum (on pose  = 1), où Ω est le nombre de microétats accessibles. La conΩ  = 1. Appliquons la méthode : trainte est ici la contrainte de normalisation =1   Ω  def (1) On introduit la fonction auxiliaire (1 , ⋯ ,  Ω) =  (1, ⋯ ,  Ω)+ 1− =1   . 66

1

La méthode des multiplicateurs de Lagrange

  est donné par  = − ln  − 1 −  = 0 pour 1 ⩽  ⩽ Ω, i.e. (2) l’extremum de    toutes les probabilités sont égales − ln ∗ =  + 1 ∀ .  ∗ = Ω∗ = 1 i.e. parmi tous (3) On injecte la solution dans la contrainte : 

les macroétats, celui qui maximise l’entropie est celui correspondant à la distribution uniforme :  ∗ = 1∕Ω

(4.28)

(on obtient donc  + 1 = ln Ω). On retrouve la distribution uniforme à partir d’un « principe d’entropie maximum », i.e. d’information minimale.

67

Entraînez-vous Exercice 4.1 On considère une variable aléatoire continue  distribuée selon la loi  (). Justifier que l’entropie de la loi peut être écrite comme  = ln[1∕( )] (pour  = 1). Déduire une estimation de l’entropie de la loi du demi-cercle () = 2

(4.29)  2 − 2 ∕(2).

Exercice 4.2 Entropie de Rényi Une autre définition de l’entropie a été proposée par le mathématicien hongrois Alfréd Rényi (1921-1970) :      def  (4.30)  ({}) =  ln  1−  Quelle est la relation avec l’entropie de Gibbs-Shannon ? Montrer que l’entropie est maximum pour la distribution uniforme et calculer max  . Laquelle des propriétés importantes satisfaites par l’entropie de Gibbs-Shannon n’est pas vérifiée par l’entropie de Rényi ? Avec quelle(s) conséquence(s)?

68

Chapitre

5

Systèmes isolés à l’équilibre – Postulat fondamental

Introduire le postulat fondamental de la physique statistique (le « coeur » de la théorie) Montrer le rôle central de l’entropie microcanonique Établir le lien avec les grandeurs thermodynamiques (température, pression ...)

1

1

La recherche d’un postulat fondamental

2

Postulat fondamental de la physique statistique

3

Relâchement de contraintes

4

Irréversibilité

La recherche d’un postulat fondamental

Dans ce chapitre et le suivant, nous allons construire explicitement les distributions {𝓁 } dans l’espace des microétats, correspondant aux différents « ensembles de la physique statistique ». Dans un premier temps, nous nous plaçons dans la situation la plus épurée, cas d’un système isolé, ce qui va nous permettre d’introduire le postulat fondamental. Nous allons considérer une situation particulière dont l’analyse va nous permettre, par induction, d’énoncer un principe qui transcendera cette expérience spécifique. Nous nous plaçons ainsi dans une position analogue à celle de Galilée étudiant le mouvement de divers objets au fond de la cale d’un bateau, observations qui le conduiront à proposer le principe d’inertie de la mécanique classique. Nous analysons ici une expérience numérique sur le gaz de sphères dures (choix naturel puisque le gaz sera notre système modèle pour appliquer les nouveaux concepts rencontrés).

1.1 Le gaz de sphères dures et le problème de Sinai Une description simplifiée d’un gaz atomique est de modéliser les atomes comme des petites boules impénétrables (des « sphères dures ») de rayon fini . On prend ainsi en compte la partie fortement répulsive de l’interaction entre atomes. Les sphères s’entrechoquent en permanence et frappent les parois du volume qui les contient. Un des intérêts de ce modèle simplifié est de n’introduire aucune échelle d’énergie, puisque le 69

Chapitre 5 • Systèmes isolés à l’équilibre – Postulat fondamental

R

4R

Figure 5.1– Le gaz de sphères dures et le problème de Sinai. À gauche : nous pouvons grossièrement modéliser un gaz atomique comme un gaz de boules impénétrables (des « sphères dures ») de rayon , s’entrechoquant et frappant les parois. À droite : une sphère, placée dans un environnement de quatre autres sphères supposées immobiles aux coins d’un carré (problème de Sinai).

potentiel « inter-atomique » est soit nul soit infini : seule importe l’analyse des configurations spatiales possibles, ce qui offre un avantage certain pour visualiser la dynamique du système en profitant du découplage position-impulsion (figure 5.1). Ce problème reste néanmoins extrêmement riche et difficile. Aussi nous allons encore le simplifier en nous plaçant dans la situation bidimensionnelle, mais surtout en nous focalisant sur une unique sphère, dont nous supposerons l’environnement gelé. Afin de « forcer le destin » de cette sphère et induire de fréquentes collisions, nous la plaçons dans un carré de côté égal à 4, aux coins duquel sont placées quatre sphères immobiles (partie droite de la figure 5.1). Nous espérons ainsi rendre compte de l’histoire d’une sphère dure au sein du gaz et de l’effet des collisions avec les autres particules. Après avoir ainsi drastiquement simplifié le problème du gaz de sphères dures, nous allons pouvoir tirer des conclusions simples à l’aide d’un petit programme simulant le mouvement de la sphère.

a) Première « expérience » numérique

y

y

x

y

x

x

Figure 5.2 – Ergodicité dans le problème de Sinai. Trajectoire du centre de la sphère dure après 10, 50 et 500 chocs.

Nous lançons la sphère dans une direction quelconque et suivons le mouvement de son centre de masse. La première partie de la figure 5.2 montre la trajectoire obtenue après 10 chocs, la figure du centre après 50 chocs, et la figure de droite après 500 chocs. 70

1

La recherche d’un postulat fondamental

Après un temps assez long, la trajectoire a exploré tout l’espace que les contraintes lui permettent de visiter. Autrement dit, la densité de probabilité  () pour trouver la sphère en un endroit est non nulle partout où les contraintes stériques l’autorisent. Il nous reste à déterminer la valeur de la distribution sur son support.

b) Mesure de la densité

Un autre programme nous fournit toutefois cette information : pendant un temps  , la fraction du temps d (, ) passé par la trajectoire dans un petit élément de surface dd est mesurée. Le résultat de la simulation numérique est représenté sur la figure 5.3 pour une trajectoire faisant 106 chocs. On observe que, dans la région accessible, le temps de visite des cellules varie très peu : chaque cellule est visitée environ 400 fois, à des fluctuations d’ordre ∼ 20 près (les fluctuations relatives diminueraient si l’on faisait l’analyse statistique sur un temps  plus long). Nous pouvons finalement écrire d (, )∕ = dd∕, où  est l’aire de la région accessible, i.e. la densité de probabilité est uniforme : () = 1∕ pour  dans le domaine accessible (la zone sombre de la figure 5.2) et () = 0 ailleurs. 400 300

y

200 100 0

x

Figure 5.3 – Ergodicité dans le problème de Sinai. La densité de probabilité est uniforme dans la région accessible. (Remerciements à Alberto Rosso pour les programmes python ; cf. l’ouvrage [20]).

Analysons l’impulsion : à chaque rebond, celle-ci change de direction, tout en gardant le même module   = 0 (conservation de l’énergie cinétique). Une analyse numérique montrerait que le vecteur  finit par couvrir uniformément le cercle de rayon 0 après un temps suffisamment long, i.e. sa densité de probabilité est ∝  (  − 0). En conclusion, pour ce problème simplifié d’une sphère dans un espace bidimensionnel, en interaction avec quatre sphères immobiles, l’espace des phases accessible est visité uniformément. Le résultat des simulations numériques est compatible avec la distribution dans l’espace des phases : (,  ) =

1  ( 2 − 20 ) 

pour  ∈ domaine accessible ,

(5.1)

qui exprime (Γ) = cste pour tous les Γ = (, ) autorisés.

71

Chapitre 5 • Systèmes isolés à l’équilibre – Postulat fondamental

Exercice 5.1 Vérifier la normalisation de (5.1). Nous allons postuler que cette assertion reste vraie dans le cas général, pour tout système avec de nombreux degrés de liberté, arguant que la complexité de la dynamique (chaos, interactions,...) favorise une exploration efficace de l’espace des phases accessible. Le postulat sera validé par comparaison avec les expériences.

2

Postulat fondamental de la physique statistique

2.1 La distribution microcanonique a) Formulation classique Considérons un système isolé de  particules, dont les microétats sont les points de l’espace des phases, Γ = (1, ⋯ ,  , 1, ⋯ ,  ). Il sera plus commode (et plus physique) de supposer que l’énergie n’est fixée qu’avec une précision  près. Si nous étendons le résultat (5.1) au cas plus général, nous postulons que la densité dans l’espace des phases est uniforme dans la région accessible de l’espace des phases :  1   =  (, ) ∗ (Γ) 0 

 ⩽  +  si  ⩽  (Γ)

(5.2)

sinon

La constante assure la normalisation :  (,  ) est le volume de l’espace des phases délimité par les deux contraintes  ⩽  (Γ) ⩽  +  (cf. figure 5.4). La distribution (5.2) est appelée la « distribution microcanonique », repérée par l’exposant « ∗ ».

Γ2

ρ* (Γ) =cste

E

H

= (Γ)

H(Γ) =E+ δE Γ1

Figure 5.4 La densité de probabilité dans l’espace des phases est constante dans le domaine accessible (la région entre les deux « surfaces » définies par ( Γ) =  et  (Γ) =  + ).

En pratique il est plus facile de commencer par calculer le volume de l’espace des phases classique occupé par les microétats d’énergies inférieures à  :    () = (5.3) d6 Γ H  −  ( Γ) ,  72

2

Postulat fondamental de la physique statistique

où  H() est la fonction de Heaviside. On déduit ensuite  (, ) ≃  ′( ) .

Exercice 5.2 Que devient (5.2) si  → 0 ?

b) Formulation quantique La mécanique quantique nous offre la possibilité de dénombrer les microétats grâce au caractère discret des états quantiques. Introduisons Ω(), le nombre de microétats accessibles, i.e. dont l’énergie est  à  près). Il s’exprime en termes de la densité d’états (introduite au chapitre 3) : Ω() = ( ) 

(5.4)

La distribution microcanonique prend alors la forme  1  𝓁∗ =  Ω() 0 

si  ⩽ 𝓁 ⩽  + 

(5.5)

sinon

i.e. tous les microétats 𝓁 d’énergie  ⩽ 𝓁 ⩽  +  sont équiprobables. Retenons la formulation générale du postulat fondamental : Postulat fondamental de la physique statistique : Tous les microétats accessibles d’un système isolé et à l’équilibre (macroscopique) sont équiprobables.

Remarque 1 : Principe d’information minimale. Nous pouvons comprendre le postulat fondamental comme une conséquence d’un principe d’entropie maximale (information minimale) puisque nous avons montré que la distribution uniforme est celle qui maximise l’entropie. L’expression du postulat fondamental procède de la même manière que la construction de la distribution pile = face = 1∕2 dans l’expérience de pile ou face (§ 2.1 du chapitre 2) : en l’absence de toute information, nous supposons que les probabilités d’occupation des microétats accessibles correspondent à la distribution uniforme. Remarque 2 : Correspondance classique – quantique. Dans le cas du gaz, la discussion du chapitre 3 sur la densité d’états (§ p. 47) nous permet d’établir la correspondance précise entre les deux formulations. La règle semiclassique (3.27) nous a permis d’établir une relation entre le nombre d’états quantiques, Φ( ) ou Ω( ) = ( ) , et une information géométrique dans l’espace des phases dans lequel chaque état quantique occupe un volume élémentaire  3 . Nous pouvons écrire Ω() =  ′( ) ∕( ! 3 ). 73

Chapitre 5 • Systèmes isolés à l’équilibre – Postulat fondamental

2.2 Entropie microcanonique L’entropie (l’information manquante) de la distribution uniforme est simplement le logarithme du nombre de microétats accessibles (chapitre 4). Puisqu’elle est associée à la distribution microcanonique, nous appellerons  ∗ () =   ln Ω()

(5.6)

« l’entropie microcanonique ». Nous allons voir plus bas que cette fonction, qui dépend en général des différents paramètres définissant le problème (volume  , nombre de particules  , etc) est la fonction fondamentale permettant d’obtenir les propriétés thermodynamiques du système (c’est le sens du postulat fondamental de la thermodynamique rappelé au début du chapitre 4).  ∗(,  ,  , ⋯) jouera le rôle de fonction génératrice des propriétés thermodynamiques. Cette observation souligne le caractère remarquable de la relation fondamentale (5.6) qui relie Ω(), i.e. essentiellement la densité d’états qui dénombre les microétats d’énergie , à des propriétés thermodynamiques mesurables (équation d’état, coefficients calorimétriques, etc).

a) Hypothèse importante : interactions à courte portée et additivité Dans les situations que nous allons considérer (gaz, solide, etc) les interactions entre les constituants élémentaires du système ont une très courte portée. Deux exemples : dans un gaz d’atomes, l’énergie potentielle d’interaction entre deux atomes décroît comme −6 avec la distance (forces de van der Waals). Dans un métal, à cause de l’écrantage, l’interaction effective entre les électrons décroît exponentiellement sur une échelle microscopique. Cette remarque assure que l’énergie et d’autres grandeurs physiques importantes obéissent à des règles d’additivité. Discutons le cas de l’énergie : considérons deux sous-parties S1 et S 2 d’un système S = S1  S2. Nous notons  1, resp.  2 , l’énergie de S1 , resp. S2. L’énergie totale de S doit aussi tenir compte de l’énergie d’interaction entre les deux sous-systèmes :  = 1 + 2 + 1int ↔2 . Si les interactions entre les constituants élémentaires ont une courte portée,1 on s’attend à ce que l’énergie de chaque sous-système croisse proportionnellement au nombre de particules 1, 2 ∝  (supposé le même dans les deux sous-systèmes pour simplifier l’argument), alors que l’énergie d’interaction ne fait intervenir que les particules à la surface entre les deux ∝ 2∕3  1, 2 . Dans la limite où le nombre de particules est sous-systèmes, i.e. int 1↔2 macroscopique, on peut finalement écrire  = 1 + 2 + int ≃ 1 + 2 , 1↔2

(5.7)

ce qui assure l’additivité de l’énergie des sous-parties de tailles macroscopiques. 1. Une situation où cela n’est pas le cas : les systèmes de particules en interaction gravitationnelle. 74

2

Postulat fondamental de la physique statistique

Remarque : Sur le rôle des interactions. De nombreuses situations seront analysées en négligeant les interactions entre constituants élémentaires (c’est le cas pour le modèle du gaz parfait). Gardons en tête que les interactions sont cependant cruciales pour permettre les échanges d’énergie entre sous-parties et assurer la thermalisation (i.e. l’existence d’un état d’équilibre macroscopique).

b) Variables extensives et intensives : définitions L’hypothèse d’interactions à courte portée nous permet d’introduire une distinction entre deux types de variables : les variables extensives, comme l’énergie, le nombre de particules ou le volume, qui croissent proportionnellement au nombre de constituants élémentaires, et les variables intensives, comme la densité moyenne  =  ∕ , etc. Dans le cas intermédiaire, si une grandeur croît comme  ∝  avec  ∈]0, 1[ ou  ∝ ln , on dira que  est sous-extensif. Par exemple, considérons un système deux fois plus grand : les variables extensives sont doublées,  → 2 ,  → 2 ,  → 2 , etc, alors que les variables intensives sont inchangées,  → ,  →  (température),  →  (pression), etc.

c) Extensivité de l’entropie Considérons un système S séparé par la pensée en  sous-systèmes S1 ,..., S , de dimensions macroscopiques (figure 5.5). L’hypothèse d’interactions à courte portée nous permet de supposer que les sous-systèmes sont faiblement corrélés. En utilisant la propriété d’additivité de l’entropie, éq. (4.22) du chapitre 4, nous pouvons écrire  ∗ (S1  ⋯  S  ) ≈  ∗ (S1) + ⋯ +  ∗ (S ) .

(5.8)

Si toutes les sous-parties sont équivalentes, on pourra écrire  ∗(S ) ≈  ∗ (S1), i.e. l’entropie est une grandeur extensive. Étant fonction de deux grandeurs extensives,  et , elle prend nécessairement la forme :    ∗  (,  ) =  ×  (5.9)  où  () est une fonction d’une variable qui mesure l’entropie par sous-système, en unité de  . Remarquablement, la propriété d’extensivité permet de réduire le nombre d’arguments de la « fonction entropie » de deux à un. Nous pouvons maintenant revenir sur le nombre de microétats accessibles, i.e. la densité d’états. La propriété d’extensivité montre que la dépendance avec le nombre de constituants élémentaires est exponentielle :     Ω(,  ) =  ( )  ∼ exp   , (5.10)  On pourra confronter cette structure à (3.28). C’est donc un nombre faramineux en général (cf. § 1 du chapitre 8 sur les ordres de grandeur). 75

Chapitre 5 • Systèmes isolés à l’équilibre – Postulat fondamental

1

2

3

...

...

N

Figure 5.5 Un système S est subdivisé en  sous-systèmes S 1,..., S  de dimensions macroscopiques ; pour des interactions mutuelles à courte portée, les sous-parties sont (quasiment) indépendantes.

Remarque. Si nous réintroduisons la dépendance dans le volume, également extensif, nous obtenons la structure 

   (,  ,  ) =  ×  ,   ∗



(5.11)

.

d) Illustration 1 : Le cristal paramagnétique de spins 1/2 Dans un solide cristallin de  atomes formant un réseau cristallin, l’atome  porte un  () = moment magnétique, proportionnel au spin des électrons (ou au spin nucléaire) : 𝔪  (), où  est le facteur gyromagnétique [5, 35]. Pour simplifier, nous supposons ici que le spin est égal à  = 1∕2. Le spin  peut se trouver dans deux états quantiques,  ↑  ou  ↓  tels que  () = ±∕2 (cf. § 2.2 du chapitre 3). Les microétats du cristal sont donc des états produits tensoriels que nous noterons  ↑ 1  ↓ 2  ↓  3⋯  ↑    ↑↓↓ ⋯ ↑ . D’autre part nous négligeons les interactions entre les moments (le rôle des interactions sera discuté au chapitre 10) et nous supposons le cristal soumis à un champ magnétique  =  . Son énergie (magnétique) est  mag = −  = −   = où 

 

(5.12)

()

=1

 

 () est l’aimantation totale. L’énergie de chaque spin peut donc prendre 𝔪

deux valeurs : ± = ∓ où   = ∕2 (i.e. 𝔪 = ±𝔪0 avec 𝔪 0 = ∕2). L’état où le moment magnétique est aligné sur le champ est donc plus favorable énergétiquement (état  ↑  si   > 0). Ce problème est donc le plus simple auquel on puisse penser : un ensemble de  systèmes à deux niveaux. Nous avons étudié en détail la densité d’états du système (exercice 3.2), cependant il est utile de reprendre rapidement l’analyse de Ω. Nous supposons que le cristal est isolé, i.e. son énergie magnétique est fixée : mag = . Les nombres de spins dans les deux états, notés respectivement + et  −, sont donc fixés par les deux conditions 76

def

def

2

Postulat fondamental de la physique statistique

1  =  ++  − et  = (− + + − ) , d’où ± = ( ∓  ∕). Le nombre de microétats 2 accessibles correspond au nombre de manières de choisir + spins  ↑  parmi  , i.e Ω =   !∕  +! − ! . En utilisant la formule de Stirling (A.20), nous déduisons l’expression de l’entropie microcanonique   ∗ (, , ) ≃   ln  −  + ln  + −  − ln − (5.13)   (1 − ) ln (1 − ) + (1 + ) ln (1 + ) =  ln 2 − (5.14) 2 où  = ∕( ) ∈ [−1, +1]. L’expression est manifestement extensive. L’entropie ∗ ∗ ≃   ln 2 (figure 5.6). Discutons ce comportement : varie entre min = 0 et max def

• L’énergie minimale  = − correspond à un unique microétat (l’état fondamental  ↑↑ ⋯ ↑  où tous les moments sont alignés sur le champ) : Ω = 1 ⇒  ∗ = 0. L’état d’énergie maximale  = +  décrit la situation symétrique où tous les moments sont anti-alignés sur le champ  ↓↓ ⋯ ↓ . • La région des faibles énergies      , où l’entropie est maximale ( ∗ ∼  ), est plus intéressante à discuter : par exemple, pour  = 0, il y a autant de moments alignés et anti-alignés,  + = − =  ∕2. L’étude de la dynamique (en présence de faibles interactions) montrerait que l’état du système évolue au sein de l’ensemble des microétats accessibles : les spins échangent de l’énergie  ⋯ ↑ ⋯ ↓ ⋯  ↔  ⋯ ↓ ⋯ ↑ ⋯  (ce qui respecte la contrainte  = cste). Le système est donc soumis aux fluctuations thermiques, manifestation d’un effet entropique (l’existence d’un nombre exponentiel d’états accessibles).

Figure 5.6 – Entropie du cristal paramagnétique (par spin). ∗ ≃   ln 2 mérite d’être commentée : elle correspond à l’enLa valeur max tropie des  spins lorsque les deux polarisations sont équiprobables, l’entropie du cristal en l’absence de contrainte (Ω = 2 pour  = 0). À l’ordre dominant (terme ∝ ), tout se passe comme si la contrainte  = 0 était oubliée. Un examen plus détaillé montre quepour  = 0, le nombre de microétats accessibles est  2 Ω = !∕ (∕2)! ≃ 2  2∕() (en utilisant la formule de Stirling). L’effet de la contrainte se manifeste seulement sur le terme logarithmique sous dominant : ∗ max ∕ ≃  ln 2 − (1∕2) ln(∕2).

77

Chapitre 5 • Systèmes isolés à l’équilibre – Postulat fondamental

Exercice 5.3 Donner le sens de  ↑ = +∕ et ↓ = − ∕ . Montrer que l’entropie par spin def

 spin =  ∕ peut se mettre sous la forme    spin = −  ↑ ln ↑ + ↓ ln ↓

(5.15)

Comparer avec la formule de Gibbs-Shannon (4.15).

e) Illustration 2 : Formule de Sackur-Tetrode (gaz parfait monoatomique) Nous calculons maintenant l’entropie du gaz parfait de  atomes contenus dans une boîte de volume  . Le calcul part de la densité d’états intégrée (3.28). Il est rendu très direct grâce à l’observation suivante : l’entropie microcanonique (5.6) fait intervenir le nombre de microétats accessibles Ω() = ( ) = Φ′ ( ). En utilisant que  ∼  ,  l’exposant de Φ() ∝ 3∕2 est macroscopique, nous   pouvons écrire  ( ) = 3 3 3 Φ() ∝  2 −1, d’où  ∗ =  ln Φ() + ln . Si le premier terme est 2 2 extensif, ( ), nous constatons que le second terme est sous-extensif. On peut négliger le second terme d’où ∗ ≃   ln [Φ()] pour  → ∞ . (5.16) Finalement, d’après (3.28), on aboutit à        3∕2 5 ∗  (,  ,  ) =   + ln 2  32

(5.17)

 où nous avons encore négligé un terme sous-extensif − ln( 6  ). On peut vérifier que (5.17) présente les bonnes propriétés d’extensivité, discutées plus haut. L’expression (5.17) a été obtenue en 1912 (indépendamment) par Otto Sackur et Hugo Tetrode, en combinant des arguments théoriques et des données expérimentales sur la vapeur de mercure. C’était une avancée remarquable pour l’époque, puisque (5.17) est proposée à un moment où la mécanique quantique était encore dans les limbes (si les premières idées quantiques datent du tout début du XXe siècle, la mécanique quantique a émergé entre 1925 et 1927).

Remarque 1 : Validité de la formule de Sackur-Tetrode – régime dilué. L’examen de (5.17) permet d’identifier que sa validité est limitée. En effet, la formule fondamentale de Planck-Boltzmann  ∗ =   ln Ω fait intervenir un entier Ω, ce qui montre que l’entropie est nécessairement positive ∗ ⩾ 0 (cf. § 2.4 du chapitre 4). Or (5.17) ne satisfait cette propriété que dans un régime de basse densité et haute énergie,  3∕2 appelé limite diluée, pour laquelle ( ∕ ) ∕(32)  1. Ce point sera clarifié dans la troisième partie du livre où nous montrerons que lorsque cette condition n’est pas satisfaite, le système est dans un régime dominé par l’effet des corrélations quantiques (postulat de symétrisation). 78

3

Relâchement de contraintes

Remarque 2 : Mieux que la thermodynamique !. Nous pouvons comparer (5.17) avec le résultat obtenu dans le cadre de la thermodynamique. Des considérations générales permettent de montrer dans ce cadre que l’entropie du gaz parfait classique est       + 0 . La thermodynamique, qui permet de la forme (,  ,  ) =  ln   de construire un modèle phénoménologique, ne donne cependant aucune indication sur la valeur de l’exposant , ni sur la constante 0, qui doivent être déduits de l’expérience. À l’inverse, la physique statistique a fourni les outils pour passer de la description microscopique aux propriétés macroscopiques et prédire l’exposant  et la constante 0.

3

Relâchement de contraintes

Maintenant que nous avons défini une procédure pour calculer l’entropie microcanonique  ∗ à partir de la description microscopique (essentiellement encodée dans la densité d’états), la question que nous allons maintenant aborder est de savoir comment extraire l’information physique « intéressante » de cette fonction fondamentale. Par exemple, dans le cas du gaz décrit par la formule de Sackur-Tetrode (5.17), comment déduire son équation d’état, ses coefficients calorimétriques, etc ? Définition : Variables externes et variables internes Nous n’avons pour l’instant introduit que des variables fixées caractérisant le système isolé : son énergie, le nombre de particules, etc. On parle de « variables externes ». On peut aussi considérer des variables macroscopiques fluctuantes , comme le nombre d’atomes de la figure 3.1, ou l’énergie du système S1 dans le problème du contact thermique (figure 5.7). Dans ce cas on parle de « variables internes ».

3.1 Contact thermique – Température a) Position du problème Considérons deux systèmes S 1 et S 2 initialement isolés dont les énergies sont respectivement  (1) et 2() (figure 5.7). Chaque système est caractérisé par sa « fonction entropie » ∗1 ( 1) =  ln Ω 1( 1) et  ∗2(2 ) =  ln Ω 2(2 ), où Ω1, 2 sont les nombres d’états accessibles des systèmes lorsqu’ils sont isolés. À un certain instant on les met en contact thermique (la paroi isolante devient une paroi « diatherme » laissant passer la chaleur), puis on laisse évoluer le système S = S 1  S2 vers l’équilibre macroscopique.2 Lorsqu’ils sont en contact, les systèmes échangent de l’énergie, 1 et 2 2. Dans la pratique, il suffit de mettre en contact deux corps, puis d’attendre suffisamment longtemps car les échanges de chaleur mettent en jeu des processus de diffusion assez lents à l’échelle macroscopique. 79

Chapitre 5 • Systèmes isolés à l’équilibre – Postulat fondamental

deviennent des variables internes, bien que l’énergie totale  = (1) + 2() =  1 +  2 reste fixée (avant et après le contact), puisque l’ensemble reste isolé.

2

1

2

1

δE Figure 5.7 – Contact thermique. Deux systèmes initialement isolés sont mis en contact thermique ; ils peuvent alors échanger de l’énergie.

L’hypothèse d’interactions à courte portée simplifie le problème du comptage des états accessibles : puisque l’énergie 1 de S 1 est indépendante de l’état de S2 , ceci reste vrai pour le nombre de microétats accessibles Ω1(1 ). Avant le contact thermique, les deux énergies sont fixées et le nombre de microétats accessibles de S1  S2 est  Ω12 = Ω1 ( (1) ) Ω 2(2() ). Après le contact, dans le nouvel état d’équilibre, 1 et  2  avant sont des variables internes et nous devons additionner tous les nombres Ω1 (1 ) Ω 2(2) compatibles avec la contrainte 1 + 2 =  :  (5.18) Ω12 () = Ω 1( 1) Ω2 ( − 1) . 1

Clarifions le sens de la somme discrète sur l’énergie, en principe une variable continue. La densité d’états de S s’exprime comme une convolution des densités d’états des   ( − 𝓁1 − 𝓁2 ) = d1 d2  ( − 1 − deux sous-systèmes : 12 () =  𝓁1 , 𝓁2   2 )  (1 − 𝓁1 )  (2 − 𝓁 2 ) = d1 1 (1 ) 2( −  1 ). Nous déduisons  𝓁1

𝓁2

def

Ω 12( ) = 12 ( )  =

d1 Ω ( ) Ω ( −  1) .   1 1 2  «



1

(5.19)

»

b) Entropie réduite et distribution de  1 Nous étudions la distribution de l’énergie 1 (la variable interne). Nous utilisons le postulat fondamental : les Ω 12 microétats de S1  S2 sont tous équiprobables, occupés avec probabilité 𝓁∗ ,𝓁 = 1∕Ω12 . Parmi ceux-ci, Ω1(1) Ω 2( −  1 ) microétats 1 2 correspondent au cas où S1 a une énergie 1 . Nous déduisons donc la distribution de l’énergie de S1 :   1 Ω 1 (1) Ω 2( −  1) ∗ (1;)− ∗12( ) ∗  P (1 ) = , (5.20) =e Ω12 ( ) 80

3

Relâchement de contraintes

où nous avons introduit l’entropie réduite : def

 ∗( 1;  ) =  ∗ (1 ) +  ∗( − 1 ) ,  1 2

(5.21)

qui correspond à l’entropie de S1  S2, lorsque 1 est fixée. La condition de normaliP ∗ (1) = 1. Rappelons que l’additivité des entropies sation de (5.20) est évidente 1

repose sur l’hypothèse d’interaction à courte portée. Comme nous l’avons vu, les nombres d’états accessibles Ω1, 2 sont typiquement exponentiels en fonction du nombre de constituants élémentaires. D’autre part ils sont en général des fonctions croissantes de l’énergie (bien qu’il y ait des contre-exemples, nous allons faire cette hypothèse pour simplifier l’argumentation). La probabilité3 P ∗ ( 1) ∼ exp[∗ ∕] est donc proportionnelle au produit d’une fonction Ω1 (1) de 1, très rapidement croissante, et d’une fonction Ω2 ( − 1 ) très rapidement décroissante (figure 5.8). Nous notons max la 1 valeur de 1 pour laquelle les variations des deux fonctions se compensent, ce qui correspond au maximum de P ∗(1 ), et aussi de l’entropie réduite : 1∗ ∗2  ∗ max max i.e. (5.22) ( ; ) = 0 , ( ) = ( − 1max) .  1 1 1 1 2 Cette condition permet de trouver la valeur de  max la plus probable caractérisant 1 l’équilibre macroscopique.

c) Température microcanonique La discussion de l’équilibre après contact thermique a une histoire dans le cadre de la thermodynamique : il est bien connu qu’il correspond à l’égalité des températures, où celle-ci peut être reliée à l’entropie grâce à l’égalité fondamentale de la thermody  namique (4.2) :  =  ∕   , . La correspondance entre la physique statistique et la thermodynamique (dans une limite qui reste à préciser), nous conduit à introduire la définition :4 1 def ∗ ( ) =  ∗ ( ) 

(5.23)

Il s’agit de la température absolue (introduite en 1848 par William Thomson, futur Lord Kelvin), dont le zéro correspond à −273.15 oCelsius. Nous appelons  ∗ la « température microcanonique », puisqu’elle est définie à partir de l’entropie microcanonique associée à une distribution { 𝓁∗} particulière. Un autre choix de macroétat {𝓁} serait ∗ ∕ ] illustre que 3. Combinée aux propriétés d’extensivé de l’entropie, la forme P∗ ( 1 ) ∼ exp[ l’entropie s’interprète comme une fonction de grande déviation (cf. annexe B du chapitre 2 page 27). 4. Remarque sur les notations : dans le cadre de la thermodynamique, il est conventiel d’écrire ce type de relation 1∕ = ( ∕) , . Dans le cadre de la physique statistique, l’entropie microcanonique est naturellement une fonction de  ,  ,  (système isolé) et il sera donc superflu de préciser que la dérivation partielle de  ∗ se fait à  et  fixés. 81

Chapitre 5 • Systèmes isolés à l’équilibre – Postulat fondamental

caractérisé par une autre fonction entropie et conduirait à une autre définition de la température a priori. La question de l’équivalence des propriétés thermodynamiques associées à différents macroétats (« ensembles ») sera discutée au chapitre 7. (i)

E2

E2 (i)

(f)

~

S *( E1;E ) S *1 (E1) S *2 (E−E1 )

(i)

E1

max

E1

E1

Figure 5.8 – Contact thermique. À gauche : Nombres de microétats accessibles des sous-systèmes en fonction de  1 et distribution de l’énergie. À droite : L’entropie réduite atteint son maximum.

d) Condition d’équilibre thermique, fluctuations et stabilité Nous pouvons maintenant réécrire la condition d’équilibre (5.22) à l’aide des températures microcanoniques des deux sous-systèmes : ∗1 (max ) = 2∗ ( − 1max ) 1

(condition d’équilibre thermique)

(5.24)

Nous ne devons pas oublier que cette équation ne définit que la valeur la plus probable de la variable interne 1 , qui est sujette à des fluctuations. Le développement de l’entropie réduite au voisinage de son maximum prend la forme 2  ∗ ∗ ( max; ) + 1    (1 −  max) 2 , ∗(1 ; ) ≃  1 1 2 2  max 1

(5.25)

1

que nous pouvons injecter dans l’expression de la distribution (5.20), ce qui appelle plusieurs remarques. Tout d’abord l’existence d’un équilibre stable exige que  max soit un maximum de 1 l’entropie réduite. Puisque cette propriété est vraie dans toutes les situations, elle l’est notamment si 1∗ =  ∗2 , i.e. c’est une propriété générale de l’entropie microcanonique, qui implique que la température est une fonction croissante de l’énergie 2 ∗ 0 

(5.26)

On peut mettre cette remarque en relation avec la propriété générale (4.17). Si nous négligeons les termes suivants du développement (5.25), nous concluons que la distribution de 1 est gaussienne (manifestation du théorème de la limite centrale), 82

3

Relâchement de contraintes

 cf. figure 5.8. Sa variance est contrôlée par 2 ∗∕12  max . À ce stade il est intéres1 sant de clarifier le sens physique de la dérivée seconde : nous reconnaissons la capacité calorifique à volume constant, définie dans le cadre de la thermodynamique comme  def    =  ∕   , . Pour assurer la correspondance avec la thermodynamique, nous posons la définition suivante de la capacité calorifique microcanonique def

∗ =

1 1 . = −  ∗∕ ( ∗) 2 2  ∗ ∕2

(5.27)

La capacité calorifique caractérise la capacité du système soumis à un accroissement de température à augmenter son énergie,  ≃ ∗  (à  et  fixés). La stabilité de l’équilibre implique donc la positivité de la capacité calorifique.5 Reprenons l’analyse de la distribution : en introduisant le développement (5.25)  ∗ dans (5.20) et en comparant à la structure générique P (1 ) ∝ exp − (1 − 1max)2 ∕(2Var(1 )) , nous obtenons  −1   −1  21∗ max  2∗2 ∗  2   Var(1) =   − =  − (1 ) − ( − 1max) . 2  max 2 2  1  1 1 2 (5.28) D’après (5.27), on peut encore exprimer la variance en termes des capacités calorifiques  ∗ 1 et ∗ 2 des deux sous-systèmes :  2  1 = Var( 1) =   ∗ 2



1 1 + ∗ ∗  1   2

 −1 (5.29)

Cette expression montre que les fluctuations de l’énergie sont essentiellement contrôlées par le système ayant la plus petite capacité calorifique :   1 ≃    ∗ ∗ 1 ∕ pour ∗ 1   ∗ 2 . (5.30) Ce type de relation est intéressant : il établit le lien entre les fluctuations d’une grandeur et un coefficient calorimétrique. On rencontrera d’autres exemples de ce type plus loin.

Définition de la limite thermodynamique. Considérons la limite où le nombre de particules  est macroscopique : l’entropie et l’énergie sont des quantités extensives, 1∗,2 ∝  et  1,2 ∝  ; l’expression (5.28) montre donc que 1∕Var(1) ∝  ∕ 2  i.e.  1 ∝  (plus simplement : les capacités calorifiques sont des quantités exten sives). La variance est donc extensive, i.e. l’écart-type 1 ∼  est sous-extensif : les 5. Notons que ces propriétés reposent sur l’hypothèse d’interactions à courtes portées, centrale dans l’analyse du contact thermique. Lorsque cette hypothèse n’est pas satisfaite, il est possible de trouver des situations où ∗ < 0. 83

Chapitre 5 • Systèmes isolés à l’équilibre – Postulat fondamental

fluctuations relatives tendent donc vers zéro  1 ∝ 1∕  ⟶ 0. →∞ 1max

(5.31)

La limite  → ∞, où l’on peut négliger l’existence des fluctuations, est appelée la limite thermodynamique.

e) Augmentation de l’entropie et sens des échanges d’énergie La discussion a montré que l’entropie augmente lors du relâchement de contrainte, ce qui est une manifestation de l’irréversibilité. Calculons l’entropie finale, après établissement du contact thermique : notre point de départ est l’expression (5.19), dans laquelle nous faisons apparaître l’entropie réduite :   d1 1  ∗1( 1)+∗2 ( − 1 ) d1  1  ∗(1 ; ) . (5.32) Ω12 () = e  = e     La somme est dominée par le voisinage de max , la valeur qui maximise l’argument de 1 l’exponentielle. En injectant le développement (5.25) (équivalent à la méthode du col, cf. annexe B.1 du chapitre 2),      1 ∗ ( max ; ) 1  ∗ max 2   ( 1 ; ) 1  1   2 1 e   (5.33) Ω12 () ≃ e =   − 2 ∗ ( max;  )  1 2 1

où nous avons utilisé (5.28) et (5.29). On déduit l’expression de l’entropie totale du système ∗12() =  ln Ω 12( ) : entropie due aux fluctuations de  1 : entropie pour  1 fixée :

(ln )

 ( )    2  1 ∗ ∗ max ∗ max  12() =  1 (1 ) + 2 ( −  1 ) +   ln 

(5.34)

Le terme lié aux fluctuations de 1 traduit le manque d’information sur la variable interne, qui n’est pas exactement fixée. À la limite thermodynamique,  → ∞, on peut négliger cette dernière contribution : l’entropie coïncide avec l’entropie réduite 1∗2 () = ∗ (1max;  ) et l’on retrouve la règle d’additivité de l’entropie : ∗12 () = ∗1 (1max) + 2∗ ( − 1max) à la limite thermo

(5.35)

où 1max est la solution de (5.24).

Exercice 5.4 Calculer explicitement  1 dans le cas de deux gaz parfaits. Vérifier que le dernier terme de (5.34) est bien (ln  ).

84

3

Relâchement de contraintes

Les fonctions  1∗(1) et  2∗( −  1) sont respectivement croissante et décroissante en fonction de  1 et s’intersectent pour 1 =  max . La figure 5.9 illustre que le sys1 tème ayant initialement la température la plus haute cède de l’énergie à celui ayant initialement la température la plus basse (figure 5.9). E2 T2* (i)

(i)

E2

(i)

T1*(E1 )

(f)

T2*( E−E 1) T1* (i)

(i) (i) E1

E1 max E1

Figure 5.9 – Le sens des échanges d’énergie est gouverné par les températures initiales.

f) Conclusion En conclusion, nous pouvons formuler le « théorème » suivant qui nous permet de caractériser le nouvel équilibre (figure 5.8) : Lorsqu’une contrainte est relâchée dans un système isolé, celui-ci évolue spontanément vers un état d’équilibre macroscopique qui maximise son entropie.

g) Illustration 1 : Gaz parfait monoatomique Partant de l’entropie (5.17),  ∗ = (3 ∕2) ln  + (⋯), nous obtenons la température microcanonique du gaz parfait : 2 1 . (5.36) = ∗ = ∗  ∕ 3 Elle est indépendante du volume. Nous pouvons inverser la relation et écrire  = (3∕2)  ∗ . Nous obtenons la capacité calorifique ∗ = (3∕2) .

h) Illustration 2 : Cristal paramagnétique et températures (absolues) négatives L’application de ces idées au cas du cristal paramagnétique mérite une discussion plus approfondie. Il est commode d’introduire une notation pour l’inverse de la température def  ∗ = 1∕( ∗ ). On peut dériver facilement (5.13) en utilisant d = ∓2d± , d’où  def 1−  2 ∗  = ln + = ln où  = ∈ [−1, +1] . (5.37) − 1+  Cette fonction varie continûment de +∞ à −∞ (figure 5.10). Pour  = − on a  ∗ = +∞ ( ∗ = 0 + ), ce qui correspond à l’aimantation maximale  = ∕(−) =  𝔪0 , def

où 𝔪 0 = ∕2), i.e. tous les spins alignés sur le champ magnétique :  ↑↑ ⋯ ↑ . Pour 85

Chapitre 5 • Systèmes isolés à l’équilibre – Postulat fondamental

 = +, i.e.   = −𝔪0 , tous les spins sont anti-alignés sur le champ  ↓↓ ⋯ ↓ , on a  ∗ = −∞ ( ∗ = 0− ). T*

β*=1/(k BT * )

-1.0

-0.5

0.5

1.0

E/(N εB )

-1.0

-0.5

0.5

1.0

E/(N ε B)

Figure 5.10 def

Inverse de la température  ∗ = 1∕(  ∗) et température microcanonique pour le cristal paramagnétique.

La température est donnée par l’inverse de (5.37) :  ∗(, , ) =

ln

2∕    − 

(5.38)

 +

et présente donc une discontinuité autour de  = 0 ; elle est positive pour  < 0 et négative pour  > 0 (rappelons que  ∗ = 0 K est le « zéro absolu »). L’existence de températures (absolues) négatives, démontrée expérimentalement (figure 5.11), vient ici simplement du comportement non monotone de l’entropie microcanonique (figure 5.6). Cette propriété a pour origine une propriété du modèle assez atypique : le cristal possède un nombre fini de microétats, égal à 2 , et le spectre des énergies est borné supérieurement  ∈ [− , +]. Le sens des températures absolues négatives est discuté dans les exercices 5.6 et 5.7, dans lesquels nous montrons que les températures absolues négatives sont plus chaudes que les températures absolues positives. Pour finir, remarquons que la discontinuité de la température, qui passe de ∗ = +∞ à  ∗ = −∞, est uniquement liée à l’usage de quantifier l’agitation thermique à   l’aide de  ∗ = 1∕  ∗ ∕ . Si les thermomètres donnaient plutôt une mesure de ∗ = (1∕ )∗ ∕, il n’y aurait pas cet inconvénient (figure 5.10). T* >0

Mz T * 2∗ () S1 ⟶ S2 =  ∗1 = 2∗ ∗  volume ∗  ∗ 1∗ =  2∗ &  ∗1 = ∗2 si  ∗1() > ∗2() S 1 ⟵ S 2 = ∗   particules ∗  ∗ = − 1∗ =  2∗ & ∗1 = ∗2 si  ∗1 () > ∗2 () S1 ⟶ S 2 ∗ 

: les sens d’échange de volume et de particules sont donnés en supposant égalité des températures initiales  ∗1 () =  2∗ (). (∗)

La correspondance entre physique statistique et thermodynamique permet de donner un sens aux dérivées partielles de l’entropie microcanonique  ∗(,  ,  , ⋯) (la fonction fondamentale dans l’ensemble microcanonique) ∗ ∗ 1 d ∗ = ∗ d + ∗ d − ∗ d + ⋯ (physique statistique) . (5.50)   

4

Irréversibilité

Avoir compris comment établir le lien entre les lois de la mécanique newtonienne, et les lois de la thermodynamique est probablement le succès le plus remarquable de Boltzmann. Sa démarche a cependant rencontré une forte opposition parmi les physiciens contemporains et certaines objections de l’époque sont restées aujourd’hui sous le nom de « paradoxes ». Nous en évoquons deux dans cette section.

4.1 Paradoxe de l’irréversibilité Une première critique, connue sous le nom de « paradoxe de l’irréversibilité », est due à Thomson et Loschmidt (1874-1876) : puisque les lois de la mécanique newtonienne sont parfaitement réversibles dans le temps, i.e. l’évolution obtenue en faisant  → − est tout aussi acceptable, comment se fait-il que des phénomènes d’irréversibilité émergent au niveau macroscopique ? Autrement dit, d’où vient l’asymétrie entre le passé et le futur ? Par exemple, une goutte de colorant se dilue dans un liquide, mais on n’observe jamais qu’elle se re-concentre en un point. Nous n’allons pas répondre à cette question profonde ici, mais seulement clarifier ce que représente la notion d’irréversibilité dans le cadre de la physique statistique à l’équilibre. Les différents exemples de relâchement de contraintes que nous avons analysés nous ont montré que l’évolution spontanée du système isolé s’accompagne d’une augmentation de l’entropie (cf. figure 5.8 par exemple). C’est l’essence du second principe de la thermodynamique. Pour comprendre plus précisément l’origine de l’irréversibilité, nous considérons un autre cas précis : un récipient est séparé en deux volumes égaux () par une paroi amovible. Un volume contient initialement 1 =  molécules alors que 91

Chapitre 5 • Systèmes isolés à l’équilibre – Postulat fondamental

l’autre est vide  (2) = 0. À un instant on retire la paroi, les molécules se répartissent rapidement dans les deux volumes (figure 5.14). Puisqu’elles se déplacent dans tous les sens aléatoirement, le nombre de molécules 1 est une variable interne (fluctuante), qui vaut en moyenne ∕2. Une molécule ayant une probabilité 1∕2 de se trouver dans le volume de gauche, la distribution du nombre de molécules dans le volume de gauche est donnée par

P ∗ (1 ) =

2 

! . 1 !( −  1)!

(5.51) P *(N1)

0 N1

δN1

N/2

N

N1

N2

Figure 5.14 – Irréversibilité. À gauche : La séparation est retirée puis le gaz occupe tout le volume. À droite : Distribution du nombre d’atomes dans le volume de gauche.

La configuration la plus probable (la valeur de 1 qui maximise la distribution) est =  ∕2. Cependant, rien n’interdit a priori que les molécules se remettent toutes dans le volume de gauche à un instant donné, et reviennent dans leur état initial. La probabilité d’un tel évènement est P ∗() = 2− . Comparons cette probabilité avec la probabilité de la situation la plus probable : en utilisant la formule de Stirling (A.20), nous obtenons :  2  (∕2)! ln 2 min[P∗ (1 )] P ∗( )  − = = ≃ 2 ∼ 2 − = 10 − ln 10 . (5.52) ∗ ∗ max[P (1 )] P (∕2) ! 2 1max

L’application numérique pour  ∼ 1 cm3 de gaz parfait dans les conditions normales de température et de pression,  ∼ 3 × 1020 , donc

P ∗( ) 20 ∼ 10 −10 = 0. 000 ⋯ 0001 ∗ P (∕2) 

(5.53)

1020 chiffres

Si rien n’interdit la situation où 1 =  (configuration à gauche de la figure 5.14 où toutes les particules retourneraient dans la partie gauche), sa probabilité est si faible, relativement à la probabilité de l’état le plus probable, qu’on peut considérer qu’elle ne se réalise jamais en pratique. L’irréversibilité correspond à l’évolution d’un système d’une configuration très peu probable vers une configuration beaucoup plus probable.

92

4

Irréversibilité

Si l’entropie du système isolé augmente nécessairement, nous ne devons pas oublier qu’il est possible d’abaisser l’entropie du système à condition d’injecter de l’énergie (système non isolé). Pour employer une image familière : si la chambre d’un étudiant a une tendance naturelle à se désordonner (son entropie augmente), il pourra néanmoins remettre de l’ordre moyennant un petit effort (apport d’énergie).

Remarque : À propos du « principe d’entropie maximale ». Nous avons évoqué à plusieurs reprises qu’un principe pouvant être pris comme le cœur de la physique statistique des systèmes à l’équilibre est le « principe d’entropie maximale », permettant de construire le macroétat, i.e. de spécifier les probabilités d’occupation des microétats. Les considérations sur l’irréversibilité ont bien illustré pourquoi le système « choisit » l’état correspondant à une entropie maximale.

4.2 Entropie de mélange et paradoxe de Gibbs Au paragraphe 4.2.b du chapitre 3, nous avons discuté le rôle de l’indiscernabilité (postulat de symétrisation) qui impose d’introduire un facteur 1∕ ! dans le calcul semiclassique du nombre de microétats pour  atomes identiques. Pour aider la discussion, nous réécrivons (3.27) sous la forme Φindisc() = (1∕ !) Φdisc ( ) où Φdisc ( ) est la densité d’états intégrée des particules discernables. Si cette règle peut être aujourd’hui justifiée rigoureusement grâce à la mécanique quantique (nous y reviendrons au chapitre 11), tel n’était pas le cas à la fin du XIXe siècle. Dans le cadre de la mécanique classique, la notion de trajectoire permet en principe de distinguer les atomes et la justification de cette règle n’est pas évidente.7 Pour des particules discernables, on aurait         3 3∕2 ∗ = disc , qui ne présente pas les bonnes + ln   ln Φ disc =  2 32    propriétés d’extensivité, ce qui est souligné en écrivant ∗disc =  ln   ( ∗ ) où l’on a utilisé  = (3∕2)  ∗ . Cette expression conduit à une conclusion paradoxale lorsque l’on analyse le problème du mélange de deux gaz de même nature. Considérons l’expérience suivante : deux gaz, à mêmes température et pression, occupent deux volumes 1 et  2 initialement séparés. À un instant on retire la paroi pour permettre aux deux gaz de se mélanger (figure 5.15), ce qui occasionne une variation def (initial) d’entropie Δ melange =  (final) −  (initial) . Les entropies initiale et finale sont disc =       (final) ∗ ∗ ∗ 1   ln 1  ( ) +  2   ln  2  ( ) et disc =  1  ln (1 + 2 )  ( ) + ∗ 2   ln (1 +  2)  ( ) . En utilisant 1 ∕1 = 2 ∕ 2 = (1 + 2 )∕(1 + 2), on obtient :   Δmelange =  ( 1 + 2 ) ln(1 +  2 ) − 1 ln  1 − 2 ln  2 , (5.54) qui s’interprète   simplement comme l’entropie liée au nombre de façons (1 + 2 )!∕ 1 !2 ! pour répartir les atomes des deux gaz dans les deux volumes. Si les 7. Dans le cadre quantique, les particules sont décrites par une fonction d’onde et la notion de trajectoire disparaît. 93

Chapitre 5 • Systèmes isolés à l’équilibre – Postulat fondamental

deux gaz sont de natures différentes, la transformation est irréversible et l’entropie augmente. Ce n’est pas le cas si les deux gaz sont de même nature : la transformation est alors réversible puisque réintroduire la paroi correspond à revenir dans l’état initial (figure 5.15). Le problème soulevé ici, appelé « paradoxe de Gibbs » (1875), vient de ce que le calcul de Δmelange avec  ∗disc ne fait pas intervenir la nature des deux gaz. Irréversible :

Réversible :

Figure 5.15 – Entropie de mélange. On mélange deux gaz : s’ils sont de natures différentes (en haut), la transformation est irréversible, Δ melange > 0. S’ils sont de même nature (en bas) la transformation est réversible, Δ melange = 0.

On vérifie maintenant que le problème disparaît si Δmelange est calculée à partir de  ∗indisc, i.e. la formule de Sackur-Tetrode (5.17) qui tient correctement compte de ∗ l’indiscernabilité. Pour l’argument on a uniquement besoin retenir la structure indisc =   ∗  ln ( ∕ )  ( ) . Dans le premier cas (gaz de natures différentes), l’entropie finale est la somme des entropies des deux gaz de 1 et  2 atomes occupant le volume 1 + 2 , on obtient (5.54). Dans le cas où les gaz sont de même nature, l’entropie finale est celle d’un unique gaz de 1 + 2 atomes occupant le volume  1 + 2 et l’on déduit f inal ∶ 1 gaz dans  1 +2

Δmelange

       1 + 2 1 1  −1  ln  −  2  ln  =0 = (1 + 2) ln 1 + 2 1 2

comme il se doit. En conclusion, la nécessité de tenir compte de l’indiscernabilité dans la description classique est une réminiscence remarquable de la mécanique quantique dans un régime complètement classique. En effet, la réduction du nombre des microétats classiques par le facteur 1∕! s’interprète comme la réduction de la dimension de l’espace de Hilbert de  particules indiscernables par rapport au cas discernable, conséquence du postulat de symétrisation de la mécanique quantique, ce qu’on peut écrire très schématiquement : dim Hindisc ≈

94

1 dim Hdisc. !

4

Irréversibilité

Pour en savoir plus : • Sur le gaz de sphères dures : l’ouvrage (spécialisé) de Werner Krauth [20]. • Sur la formulation classique : début de l’ouvrage de Castaing [9]. ∗ • Une discussion approfondie sur la pression microcanonique ∗ =  ∗ , cf. complé ment II.D de [15]. • Sur l’histoire de la formule de Sackur-Tetrode : W. Grimus, « 100th anniversary of the Sackur-Tetrode equation », Ann. Phys. (Berlin) 512(3), A32–A35 (2013) ; disponible comme preprint arXiv:1112.3748.

95

Les points clés

96

1

Postulat fondamental : énoncé et distribution microcanonique (5.5).

4

Les problèmes de relâchement de contraintes, le « théorème » de maximisation de l’entropie.

2

Entropie microcanonique (5.6).

5

3

Pour retrouver les définitions (température, pression,...) : utiliser la correspondance avec la thermodynamique, i.e. éqs. (5.49) et (5.50).

Les deux illustrations discutées en détail (le gaz parfait monoatomique et le cristal de spin 1∕2).

6

La compétition énergie/entropie.

Entraînez-vous Exercice 5.6 Cristal paramagnétique et vibrations atomiques Au § page 76, nous avons étudié les propriétés thermodynamiques du cristal de spin 1∕2 et avons montré que la température absolue peut être négative (correspondant aux plus hautes énergies accessibles par le cristal magnétique). Cette conclusion repose toutefois sur l’hypothèse que les moments magnétiques sont isolés. En pratique, ils sont portés par les atomes, eux-mêmes soumis aux vibrations (agitation thermique) qui seront étudiées en détail au chapitre 9. L’énergie du cristal contient donc deux contributions : l’énergie magnétique mag = (−+ +  −) (notations du § page 76) et l’énergie de vibration vib > 0. Le modèle classique de cristal montre que la température microcanonique de vibration est proportion∗ nelle à l’énergie vib =  vib∕(3 ) > 0. Formellement, le problème est équivalent à deux systèmes à l’équilibre (l’aimantation et la vibration), mis en contact thermique (nous noterons ∗ mag la température magnétique donnée par l’éq. (5.38)). Nous supposons le cristal isolé :  = mag + vib est fixée. ∗ () < 0, quel est le signe de la a) Si le cristal est préparé dans un état initial tel que mag température finale ?

b) Expliquer pourquoi il est plus facile d’observer des températures négatives avec les spins nucléaires plutôt qu’avec les spins électroniques.

Exercice 5.7 Les températures (absolues) négatives sont les plus chaudes ! Considérons deux solides cristallins de spins 1∕2, identiques ou non (on oublie les vibrations des atomes discutées dans l’exercice précédent). Initialement, nous supposons les deux solides ∗ () ∗ () isolés, avec des températures 1 < 0 et 2 > 0 (où les deux températures sont données par l’éq. (5.38). Les deux solides sont mis en contact. Quel est le cristal qui cède de l’énergie à l’autre ?

Exercice 5.8 Distribution de Maxwell On considère un gaz parfait monoatomique dans une boîte de volume  . Le gaz est isolé. def

a) Montrer que l’entropie microcanonique peut s’exprimer à l’aide de l’intégrale Σ ( ) =     2  3 3 d 1 ⋯ d    − , dont on précisera la dépendance en . Calculer la tempéra 2 =1 ture du gaz.

b) Donner l’expression de la distribution microcanonique ∗(1, ⋯ ,   , 1 , ⋯ ,  ) dans l’espace des phases. Montrer que la normalisation est reliée à Σ ( ). c) Montrer que la loi marginale de l’impulsion de l’atome numéro  est  2  Σ −1  − 2 .  ( ) = Σ ( )

(5.55)

Analyser la limite  → ∞ à température fixée. 97

Chapitre 5 • Systèmes isolés à l’équilibre – Postulat fondamental

Problème 5.1 Extensivité et dilatations Nous considérons un gaz parfait de  atomes dans une boîte cubique de volume  = 3 .    2 Le système est isolé, décrit par son hamiltonien  = . Les états quantiques pour 2 =1 un atome sont les ondes planes. Dans un volume fini, les vecteurs d’onde sont quantifiés :  = (2 ∕)( ,  , ) (pour des conditions aux limites périodiques), et l’énergie de l’onde plane    est def 2  2 = (,  ,  ) ∈ ℤ3 où   (5.56) 2 2 et  = 2. Les états stationnaires du système de  atomes combinent donc  états individuels de type onde plane. L’objet du problème est de montrer que des arguments généraux permettent d’écrire l’entropie sous la forme d’une fonction  () d’un seul argument combinant les trois variables :    def  avec  = . (5.57) ∗ (,  ,  ) =  ()  

  =

1/ Extensivité.– Rappeler que la propriété d’extensivité permet d’exprimer l’entropie microcanonique  ∗(,  ,  ) comme une fonction de deux arguments combinant les trois variables. 2/ Dilatation adiabatique.– Par une expérience de pensée on dilate la boîte d’un facteur  : i.e. on passe d’une boîte de taille  à ′ =   (donc  ′ = 3  ). a) Justifier que l’énergie totale du gaz est changée comme ′ =  , où l’on donnera la valeur de l’exposant . b) Effectuée adiabatiquement, la dilatation ne change pas la nature des microétats, toujours repérés par  = ( ,  ,  ), ni les probabilités d’occupation de ces microétats. L’entropie est donc conservée : ∗ (′ ,  ′ , ) = ∗ (,  ,  ). Déduire la forme (5.57) et donner l’exposant . 3/ Pression.– Déduire des expressions pour la température et la pression. Montrer qu’on obtient en toute généralité ∗ =

2 3

(gaz monoatomique classique et quantique) .

(5.58)

Quel est l’exposant  contrôlant l’équation de l’isentrope ∗  = cste dans le diagramme - ? 4/ Gaz classique.– Montrer que la condition  ∗ ∕ = 0 (i.e. ( ∕ ), = 0) donne la fonction  (). 5/ Gaz de bosons et condensation de Bose-Einstein.– Dans un gaz parfait de bosons, il existe une température critique en dessous de laquelle le potentiel chimique s’annule, ∗ = 0. Dans ces conditions, montrer que la fonction est une loi de puissance  () =   , où l’on donnera la 98

Entraînez-vous

  valeur de l’exposant  ( est une constante inconnue). Montrer que la pression est ∗ ∝  ∗ et indépendante de la densité . Donner l’exposant .

Problème 5.2 Distributions de Fermi-Dirac et de Bose-Einstein On propose une dérivation des distributions de Fermi-Dirac et de Bose-Einstein caractérisant l’occupation d’un niveau d’énergie individuel par un fermion, ou un boson, respectivement. Nous nous plaçons dans la situation microcanonique où le système est isolé et utilisons un argument combinatoire :  particules identiques (donc indiscernables) peuvent occuper  états quantiques individuels d’un même niveau d’énergie  dégénéré ( fois, donc). 1/ Exprimer la différentielle d∗ (,  ) en fonction de la température microcanonique  ∗ et du potentiel chimique microcanonique ∗ . 2/ Fermions.– Les  particules sont des fermions. Le principe de Pauli impose que chaque état individuel ne peut être occupé que par une seule particule (figure 5.16). Fermions : Bosons : Figure 5.16 Deux configurations (microétats) possibles : en haut :  = 4 fermions dans  = 10 états individuels. En bas :  = 7 bosons.

a. L’énergie des  fermions est  = . Donner l’expression du nombre de microétats Ω pour  et  quelconques. b. Déduire l’expression de l’entropie microcanonique  ∗. En supposant que   1 et   1  ∗ trouver une forme approchée de  ∗. Déduire .  c. En utilisant que  = , écrire la différentielle d ∗ de la question 1 sous la forme d∗ = (⋯)d. Par identification avec le résultat de la question 4, déduire une relation entre ( − ∗ )∕ ∗ et (  − )∕. d. La distribution de Fermi-Dirac exprime l’occupation moyenne d’un état individuel d’énergie . Déduire son expression en fonction de ,  ∗ et  ∗. 3/ Bosons.– Reprendre les questions dans le cas où les particules sont des bosons, i.e. lorsque les particules peuvent occuper chaque état individuel en nombre arbitraire (figure 5.16). Constater l’existence d’une contrainte sur le potentiel chimique (c’est une différence avec le cas des fermions). INDICATION : on pourra utiliser un argument similaire à celui de l’exercice 3.3.

Problème 5.3 Gaz parfaits quantiques sur réseaux Modèle de gaz sur réseau : Nous considérons un gaz de  particules dans un volume  . L’espace des états est simplement identifié avec l’espace des configurations dans l’espace (i.e. 99

Chapitre 5 • Systèmes isolés à l’équilibre – Postulat fondamental

nous ignorons l’énergie cinétique des particules) et divisons par la pensée le volume  en  cellules de volume  (i.e.  = ). Les particules sautent de cellule en cellule et les différents microétats correspondent simplement aux différentes manières de remplir les  cellules avec les  particules. Cette idée offre une manière commode de discrétiser le modèle du gaz parfait, ce qui rend l’analyse numérique plus aisée. Les modèles de gaz sur réseau ont été beaucoup étudiés par les théoriciens, notamment pour considérer les effets d’interaction entre particules (pour une discussion élémentaire, cf. chapitre 8 de [21]). L’objectif du problème est d’analyser le rôle de l’indiscernabilité dans le modèle simplifié du gaz sur réseau. Nous supposons le système isolé et à l’équilibre thermodynamique. A. Préliminaire : particules discernables.– Nous considérons le cas où les  particules sont discernables. Donner l’expression du nombre de microétats Ωdisc(,  ) pour les  particules dans le volume  = . Déduire l’entropie microcanonique correspondante puis la pression microcanonique ∗disc, qu’on exprimera en fonction de la densité moyenne  =  ∕ . 1 2 ...

cellule m : n m particules ... M Figure 5.17 – Gaz de 𝑵 = 𝟒𝟏 bosons sur un réseau de 𝑴 = 𝟏𝟒𝟎 cellules.

B. Particules indiscernables.– Nous considérons maintenant le cas où les particules sont indiscernables. Nous devons alors comptabiliser les microétats en termes des facteurs d’occupation : un microétat est spécifié par la donnée {1, ⋯ ,  } de  facteurs d’occupation, où  représente le nombre de particules dans la cellule  (cf. figure 5.17). Les facteurs    =  . d’occupation doivent respecter la contrainte =1

1/ Gaz de fermions (supposés sans spin).– La nature fermionique est prise en compte en supposant que chaque cellule peut être occupée au maximum par un fermion, i.e.  ∈ {0, 1}. Donner l’expression du nombre de microétats accessibles ΩFerm (,  ) (nombre de manières ∗ de placer  fermions dans  cases). Déduire l’entropie microcanonique Ferm (,  ) dans ∗ la limite   1 et   1, puis la pression microcanonique Ferm. 2/ Gaz de bosons.– On reprend l’analyse dans le cas d’un gaz de bosons (de spin nul). Dans ce cas les facteurs d’occupation ne sont limités que par le nombre total de bosons :  ∈ {0, 1 , 2, ⋯ , }. Déduire ΩBos(,  ) puis l’entropie ∗Bos(,  ) dans la limite   1 et   1. Calculer la pression microcanonique ∗Bos. 3/ Conclusion.– Comparer les trois équations d’états, ∗disc ,  ∗Bos et  ∗Ferm . 100

Entraînez-vous

Problème 5.4 Force de déplétion Nous considérons une grosse particule dans une solution avec des objets de taille plus petite (figure 5.18). Nous montrons que lorsque la grosse particule s’approche d’une paroi du contenant, elle subit une force d’origine purement entropique.

a

d

Figure 5.18 Des « molécules » de volume  = (∕6)3 se trouvent dans une solution. Une grosse « molécule » de volume mol = 𝓁3 réduit le volume disponible pour ces molécules.

A. Effet du volume exclu sur la pression.– Nous commençons par considérer les « petites molécules » de volume , occupant un volume  (sans la grosse molécule) et étudions les effets de volume exclu. Nous décrivons les molécules classiquement. 1/ Le volume disponible pour une molécule en solution est  . Quel est le volume disponible pour une deuxième molécule ? 2/ En continuant le raisonnement (i.e. en ajoutant les particules successivement), justifier que le nombre de microétats accessibles est      − ( − 1) Ω ≈ 

(5.59)

=1

où  est une constante qui ne jouera pas de rôle par la suite. 3/ Montrer que l’on peut écrire l’entropie microcanonique sous la forme ( , ) =  ln  ef f , où l’on donnera l’expression du volume effectif  ef f (on supposera que   ). 4/ Équation d’état.– Déduire l’équation d’état. Tracer la pression en fonction de la densité moyenne  =  ∕ . Interpréter la divergence de la pression. B. Force entropique.– Les particules étudiées dans la partie A sont dans une solution. Une grosse particule de volume mol   est plongée dans la solution. Pour simplifier la discussion, nous considérons que la grosse molécule a une forme cubique :  =  (∕2)3 et  mol = 𝓁3 (avec 𝓁  ). 1/ Si la grosse molécule est dans le volume de la solution, loin des parois, quel est est le volume effectif accessible ef f pour les « petites molécules » de volume  ? 101

Chapitre 5 • Systèmes isolés à l’équilibre – Postulat fondamental

2/ Si la grosse molécule s’approche de la paroi, à une distance  < , comme sur la figure 5.18, que devient le volume effectif ? Déduire l’expression de l’entropie microcanonique des petites molécules en fonction de la distance ( , , ). Tracer l’entropie en fonction de  > 0. 3/ Montrer que la grosse molécule de volume mol = 𝓁 3 subit une force lorsqu’elle se rapproche de la paroi. Dans quelle sens est dirigée cette force ? Interpréter physiquement le résultat. 4/ Par analogie avec la définition de la pression, nous définissons la force comme  =

 ∗ . 

(5.60)

Tracer  en fonction de  (distinguer 0 <  <  et  > ).

Problème 5.5 Pression osmotique On rappelle que pour un gaz parfait de variables macroscopiques (,  ,  ) a un nombre de  Ω (,  ) avec Ω la contribution cinétique. microétats accessibles Ω(,  ,  ) = !  1/ Membrane semi-perméable fixe.– On considère la situation représentée sur la figure 5.19a). Un récipient de volume total  est séparé en deux compartiments 1 et 2 séparés par une paroi immobile et perméable au solvant dont on note  le nombre de particules. On rajoute à gauche  particules de soluté dans 1 , discernables du solvant et pour lesquelles la membrane est imperméable. On notera Ω,∕ les contributions cinétiques pour le solvant () ou le soluté () ; on supposera qu’elle ne dépend pas du volume. L’ensemble est isolé et les états initial et final sont à l’équilibre. a. Exprimer le nombre de microétats initial Ω en fonction de  ,  et Ω, . b. La pression dans le compartiment de gauche (resp. droite) est donnée par une dérivée par rapport à 1 (resp.  2). Montrer que les pressions initiales autour de la membrane sont identiques, i.e. 1 = 2 . a)

solvant

soluté

b)

Figure 5.19 a) Une membrane perméable au solvant mais imperméable au soluté sépare les deux compartiments. On rajoute du soluté dans le compartiment de gauche. b) La paroi est maintenant imperméable mais mobile.

c. Exprimer le nombre de microétats final en fonction de 1 ,  2,  ,   et les Ω,∕.  , appelée pression os1 motique dans le compartiment de gauche. Argumenter que les potentiels chimiques du solvant 1∕2 à gauche et à droite sont cependant égaux. d. Montrer qu’il apparaît alors une surpression Δ = 2 − 1 = 

102

Entraînez-vous

2/ Membrane imperméable mobile.– On considère maintenant la situation représentée sur la figure 5.19b) qui est similaire sauf que les compartiments sont maintenant séparés par une paroi totalement imperméable au solvant et au soluté. Cependant, elle est mobile et les volumes 1 et 2 peuvent varier (on note toujours  =  1 + 2 ). On note  1∕2 le nombre de particules de solvant dans chacun des compartiments. a. Écrire le nombre de microétats initial et montrer qu’il y a égalité des pressions 1 = 2. En déduire une relation entre les 1∕2 et les volumes initiaux 1∕2,. b. Après ajout du soluté, exprimer la pression dans le compartiment de gauche en fonction de 1,  ,   et 1, . De même pour 2 en fonction de 2 , 2, et   . c. Dans quel sens se déplace la paroi ? Calculer la différence de volume Δ1 =  1, − 1, en fonction de  et des 1∕2∕. Simplifier l’expression en faisant l’hypothèse    1∕2 et montrer comment la mesure de Δ 1 permet d’accéder à la concentration en soluté.

103

Chapitre

6

Systèmes non isolés – Ensembles canonique et grand-canonique

Obtenir les nouvelles règles d’occupation des microétats lorsque le système n’est pas isolé. Introduire de nouveaux modes opératoires pour étudier les systèmes à l’équilibre.

1

Ensemble canonique

2

Ensemble grand canonique

3

Relâchement des contraintes (cas canonique)

Dans le chapitre précédent, nous avons défini un mode opératoire efficace pour partir de la description microscopique (informations encodées dans la densité d’états) et déduire les propriétés thermodynamiques des systèmes isolés (via la détermination de l’entropie microcanonique). Plutôt que de poursuivre plus avant les applications de ce formalisme, plusieurs raisons nous poussent à développer de nouveaux outils et introduire deux autres « ensembles » (macroétats) de la physique statistique. La première est que les systèmes isolés sont peu courants et difficiles à réaliser en pratique. La situation rencontrée plus fréquemment est celle où le système est maintenu à température fixée grâce au contact avec un thermostat, un « gros » système, avec lequel il peut échanger de l’énergie. Une deuxième raison qui nous pousse à chercher d’autres distributions que la distribution microcanonique : cette dernière repose plus ou moins implicitement sur l’hypothèse que le système est suffisamment « grand », proche de la limite thermodynamique, afin d’assurer l’existence d’un équilibre thermodynamique grâce à l’ergodicité. La situation « canonique » où le système est en contact avec un thermostat va nous permettre d’échapper à cette restriction puisque même un « petit » système pourra atteindre un état d’équilibre grâce aux échanges avec le thermostat. Finalement, une dernière raison est d’ordre technique : lorsque le système est isolé, la contrainte de conservation de l’énergie fait apparaître des problèmes combinatoires qui peuvent être extrêmement difficiles à résoudre. Relâcher cette contrainte va conduire à d’importantes simplifications dans les calculs. Nous allons introduire dans ce chapitre deux nouvelles distributions correspondant aux ensembles « canonique » (système en contact avec un thermostat, i.e. un réservoir 104

1

Ensemble canonique

d’énergie) et « grand canonique » (système en contact avec un réservoir d’énergie et de particules). Une vue d’ensemble sur ces différentes situations et leurs relations sera donnée au chapitre suivant.

1

Ensemble canonique

1.1 Distribution canonique a) Notion de thermostat La discussion qui permet de déterminer les probabilités 𝓁C est très proche de celle concernant le contact thermique (§ 3.1 du chapitre 5) : le système S considéré est supposé en contact avec un thermostat T , un autre système suffisamment « gros » pour que les échanges d’énergies avec S n’affectent pas ses propriétés thermodynamiques (comme par exemple sa température microcanonique). Si nous notons S et T les énergies des deux systèmes, cette condition sera respectée pour T  S . Thermostat

,T

δE

Figure 6.1– Situation canonique. Le système S en contact avec un thermostat T fixant la température  .

b) Distribution canonique Quelle est la probabilité 𝓁C pour que S soit dans un microétat 𝓁 ? Notons 𝓁 les microétats de S et  ceux de T . Le nombre total de microétats accessibles pour S  T est noté Ωtot . D’après le postulat fondamental, les microétats de S  T sont équiprobables, ∗ 𝓁 = 1∕Ωtot . La détermination de 𝓁C requiert donc d’identifier le nombre de microétats  de T compatibles avec le fait que S soit dans le microétat 𝓁. Ces états  satisfont à  tot ⩽ 𝓁 +  ⩽ tot+, ce que l’on peut réécrire tot −𝓁 ⩽   ⩽  tot − 𝓁 +. Par définition, le nombre recherché est donc le nombre de microétats accessibles pour T autour de l’énergie tot − 𝓁 , soit ΩT (tot − 𝓁), d’où finalement 𝓁C =

1 Ω T (tot − 𝓁 )  ∗ ( − ) ∝ e T tot 𝓁 , Ω tot

(6.1)

que nous avons exprimée en fonction de l’entropie microcanonique du thermostat T∗ =   ln Ω T (le facteur de normalisation Ωtot est indépendant de 𝓁). En utilisant 105

Chapitre 6 • Systèmes non isolés – Ensembles canonique et grand-canonique

les hypothèses sur le thermostat, nous pouvons développer son entropie  ∗T (tot

− 𝓁 ) ≃

 ∗T ( tot)

− 𝓁

∗T

( ) + ⋯  T tot  1∕T∗

(6.2)

C’est donc le second terme du développement qui porte toute la dépendance en 𝓁, seulement via l’énergie du microétat, ce qui se reflète également dans la probabilité recherchée 𝓁C ∝ e−𝓁 ∕  , où nous définissons la température canonique comme def

(6.3)

 = T∗ (tot ) .

En introduisant un facteur de normalisation 1∕ où  est appelée la fonction de partition, nous écrivons finalement la distribution canonique  𝓁C =

1 − 𝓁 e 

e −𝓁

et

(6.4)

où def

=



def

=

𝓁

1  

(6.5)

est une notation conventionnelle. L’expression de la fonction de partition est déduite 𝓁C = 1. Les probabilités (6.4) définissent de noude la condition de normalisation 𝓁

velles règles d’occupation des microétats du système S , indépendamment de l’état du thermostat qui n’intervient qu’à travers le paramètre  = 1∕(  ).

1.2 Grandeurs thermodynamiques a) Énergie moyenne et capacité calorifique L’énergie de S n’est pas fixée mais fluctue. La première propriété que nous pouvons déterminer est l’énergie moyenne, qui peut être déduite de la fonction de partition comme suit :     C 1  1  1  −𝓁 −𝓁 C  =  𝓁 𝓁 = 𝓁 e (6.6) = − e =−  𝓁     𝓁 𝓁 autrement dit C

 =−

 ln   C

(6.7)

À partir de maintenant, les deux notations ⋯ ou ⋯ désigneront la moyenne probabiliste. L’équation (6.7) donne une première illustration de la logique qui apparaîtra 106

1

Ensemble canonique

plusieurs fois : ln  génère les propriétés thermodynamiques par de simples dérivations vis-à-vis de ses arguments. L’origine de cette observation est dans l’identification de  avec la notion de fonction génératrice introduite au chapitre 2 (§ 3.5). À ce stade nous pouvons faire le lien avec la capacité calorifique, déjà introdef duite au chapitre précédent : celle-ci est définie en thermodynamique comme  =    ∕   , , puisque les grandeurs  et  sont supposés fixées dans l’ensemble canonique, la capacité calorifique sera simplement donnée par def

 =

 C  ( ,  ,  , ⋯) 

(6.8)

b) Entropie canonique et énergie libre Nous pouvons maintenant déterminer l’entropie statistique, formule de GibbsShannon (4.15), caractérisant le manque d’information associée à la distribution canonique :  C = −

  C 𝓁C ln 𝓁C =  𝓁C (ln  + 𝓁) =  ln  +  ∕ . 𝓁

(6.9)

𝓁 C

L’examen de l’équation fait apparaître la combinaison − ln  =  −  C , qui s’interprète en thermodynamique comme l’énergie libre, ou fonction de Helmholtz (notée  =  −   en thermodynamique). Nous adopterons donc la même définition : def

 ( , , ⋯) = −  ln  ( ,  , ⋯)

(6.10)

La connaissance de  est donc équivalente à la connaissance de  ce qui donne un sens physique plus clair à la fonction de partition. La relation entre  et  = − ln  est donc l’analogue de la relation entre Ω et  ∗ =   ln Ω. L’énergie libre jouera le même rôle de fonction génératrice des propriétés thermodynamiques que l’entropie microcanonique. Retenons finalement que l’entropie canonique s’exprime comme C

 −   ( ,  , ⋯) = =−   C

(6.11)

Une manière simple de retrouver ce type de relation est de partir de l’égalité de la thermodynamique (4.2), combinée à une transformation de Legendre  =  −  , d’où d = − d −  d +  d + ⋯ (cf. annexe A du chapitre 7 page 147).

107

Chapitre 6 • Systèmes non isolés – Ensembles canonique et grand-canonique

Exercice 6.1 Vérifier l’égalité  C = −

 puis montrer que    = −

2 C = .   2

(6.12)

Remarquons que cette relation fournit un moyen pratique pour déduire l’entropie de    ( ′ ) d ′ la capacité calorifique, qui est mesurable :  ( ) =  (0) + .  0 ′

Extensivité de  . Parmi les arguments de l’énergie libre,  est intensive alors que  et  sont extensifs. Par conséquent, la propriété d’extensivité est  ( ,  ,  ) =   ( ,  , ) ,

(6.13)

où  est un facteur de dilatation sans dimension. Autrement dit, cette propriété montre que, bien qu’elle ait trois arguments (pour un fluide simple), l’énergie libre s’exprime à l’aide d’une fonction de deux variables :  ( ,  ,  ) =   ( ,  ∕ ).

Interprétation thermodynamique de l’énergie libre. Nous pouvons rappeler une autre interprétation, de nature thermodynamique [27]. L’énergie libre intervient dans la théorie des potentiels thermodynamiques où elle est définie comme  =  −  . Rappelons l’énoncé du second principe de la thermodynamique Δ ⩾ d-∕ où d  est une quantité infinitésimale de chaleur reçue par le système. - =0 Si le système est isolé thermiquement (situation du précédent chapitre), on ad et on déduit Δ ⩾ 0. Si le système a une température fixée par un thermostat (présent chapitre), le second principe prend la forme Δ ⩾ ∕ : il fournit une borne supérieure à la quantité totale de chaleur reçue,  ⩽  Δ , i.e. une borne inférieure à la chaleur cédée par le système. Nous pouvons alors relier la variation d’énergie libre à la variation d’entropie Δ = Δ( −   ) = Δ −  Δ . En utilisant le premier principe, Δ =  +  , nous obtenons Δ =  +  −  Δ

d’où Δ ⩽ 

(6.14)

Du point de vue de la théorie des machines thermiques (Carnot), la question intéressante est de quantifier le travail qu’une machine thermique (une locomotive, etc) peut fournir, disponible = − . La variation de l’énergie libre fixe donc une borne supérieure sur la quantité de travail disponible disponible ⩽ −Δ . 108

1

Ensemble canonique

c) Potentiel chimique canonique Nous définissons le potentiel chimique canonique comme le coût en énergie libre pour rajouter une particule dans le système, soit def

C =  ( , , ⋯) −  ( ,  − 1, ⋯)

(6.15)

Dans la plupart des cas on considèrera des systèmes à la limite thermodynamique et il sera plus pratique d’écrire def

C =

 

(6.16)

en accord avec l’identité fondamentale de la thermodynamique d = − d + d +⋯. Le potentiel chimique est donc une grandeur intensive ayant la dimension d’une énergie. C Cependant il faudra prendre garde :  n’est pas l’énergie moyenne par particule  ∕ . C’est une quantité moins intuitive car elle combine deux contributions, énergétique et   − entropique :  = . Le potentiel chimique va jouer un rôle très important   par la suite et régir les échanges de particules entre systèmes et contrôler, entre autres, les phénomènes de transport, les processus d’équilibre et de changement de phases, ou encore les réactions chimiques (problème 6.1 page 135).

d) Moyennes des grandeurs physiques – variables conjuguées Considérons une grandeur physique, notée  , et introduisons son paramètre conjugué   tel que l’on puisse écrire 𝓁 = − 𝓁. Une discussion plus précise sur l’iden tification des variables conjuguées et travaux élémentaires est donnée en annexe A  C page 128. Dans ce cas, l’expression de la moyenne canonique donne  =  C 𝓁 = 𝓁 𝓁 1   −𝓁 1  , i.e. e =  𝓁    C

 =− L’expression 

C

=



 . 

(6.17)

𝓁C 𝓁 pourrait laisser penser que le calcul de la moyenne re-

𝓁

quiert de nombreuses informations microscopiques : les probabilités 𝓁C (i.e. les énergies 𝓁) et la connaissance de la valeur de l’observable 𝓁 dans chaque microétat. Au conC

traire, nous voyons que  peut être obtenu par une simple opération de dérivation sur l’énergie libre  . Cette remarque permet de mieux comprendre le rôle central de l’énergie libre dans l’ensemble canonique et illustre toute la puissance des outils de la physique statistique (l’annexe A page 128 complète cette discussion). 109

Chapitre 6 • Systèmes non isolés – Ensembles canonique et grand-canonique

1.3 Fluctuations de l’énergie Nous avons déjà souligné au chapitre 3 (§ 4) que les sommes portent sur les microétats (états quantiques) et non sur les niveaux d’énergie, cf. équations (3.14) et (3.15). La même observation s’applique pour la fonction de partition, qui peut être réécrite comme une somme sur les niveaux d’énergie à condition de tenir compte de leurs dégénéresdef  𝓁 e−𝓁 . Cette observation peut être formulée en termes de la densité cences :  = 𝓁

d’états, (3.14), ce qui établit la relation ∞

 ( ) =

0

(6.18)

d () e− ,

où 0 désigne l’énergie de l’état fondamental. Autrement dit la fonction de partition est la transformée de Laplace de la densité d’états. En particulier, cette expression fait ressortir que la distribution de l’énergie combine la décroissance exponentielle e− (qui traduit la tendance à minimiser l’énergie) avec la croissance de la densité d’états (effet entropique) : e− . (6.19)  ( ) Nous rediscuterons la structure de cette distribution dans le chapitre 7. Contentons-nous ici de remarquer que, non seulement la moyenne de l’énergie, mais aussi tous ses cumulants peuvent être obtenus à partir de ln . En particulier, on obtient la variance

PC () = ( )

 2 ln     Var() = . (6.20) =− 2    C 𝓁C 𝓁2 ). La dernière égalité (on peut le vérifier par une analyse directe de  2 = 

C

2

𝓁

nous fournit une relation intéressante entre les fluctuations de l’énergie et la capacité   = − , il vient calorifique. En utilisant     =

1  2    2

(6.21)

réminiscente de la relation (5.29) (elle correspond précisément à la limite discutée juste après cette équation, i.e. à (5.30)). Ce type de relation est appelée une relation fluctuation-dissipation, reliant un coefficient de réponse, le coefficient calorimétrique   , aux fluctuations d’une grandeur, ou plus généralement une fonction de corrélation. Rappelons que la capacité calorifique caractérise la « réponse » de l’énergie à une augmentation de la température. On notera enfin que dans la situation canonique, on a donc nécessairement   > 0. On peut rapprocher cette observation du cas microcanonique, éq. (5.27) : dans les deux cas la capacité calorifique s’exprime comme une dérivée seconde du potentiel fondamental (l’entropie dans le cas microcanonique et l’énergie libre 110

1

Ensemble canonique

dans le cas canonique). On vérifiera plus bas sur l’exemple du gaz parfait que les deux définitions de la capacité calorifique coïncident dans la limite thermodynamique.

Exercice 6.2 Démontrer la formule (6.20).

1.4 Sous-systèmes indépendants Nous discutons le cas de  sous-systèmes indépendants, i.e. un problème séparable, ce qui va conduire à une représentation factorisée de la fonction de partition canonique et mettre en lumière tout l’intérêt du formalisme canonique. Considérons de plus que les systèmes sont identiques pour simplifier l’analyse (la généralisation ne pose aucune difficulté). Les sous-systèmes sont indépendants si l’état de l’un ne dépend pas de celui des autres. L’état du sous-système  est repéré par un nombre quantique  (un « état individuel ») et le microétat des  sous-systèmes par la donnée de ces  nombres quantiques : 𝓁 = (1 , 2, ⋯ ,   ). La séparabilité montre que l’énergie totale est la somme des énergies individuelles et la somme sur les microétats se décompose en somme séparable sur les états individuels :      ⋯ 𝓁 =   et . = =1

𝓁

1

2

(6.22)



La fonction de partition s’écrit donc =

 1

2





 

−

e

=1



=





1



2

 

− 

e

=

 =1

    =1



− 

e

=  ,



où  est la fonction de partition d’un sous-système. Il y a donc factorisation de la fonction de partition :  = 

avec

=



(6.23)

e −  .



Ce résultat offre donc un moyen extrêmement direct pour passer du problème d’un sous-système à  sous-systèmes (potentiellement 1023 ). Cette discussion peut être appliquée à la distribution canonique elle-même, ce qui conduit à ce qui est communément appelé la loi de Boltzmann pour des systèmes indépendants. La probabilité C que l’état individuel  soit occupé et la probabilité C ( ) pour que le système se trouve dans le niveau d’énergie  sont données par C =

e − 

ou

C ( ) = 

e−  , 

avec  la dégénérescence du niveau  . Avec ces notations 𝓁C =

(6.24)  

 C . 

111

Chapitre 6 • Systèmes non isolés – Ensembles canonique et grand-canonique

L’énergie libre peut s’écrire comme la somme d’énergies libres individuelles,  ( , , ⋯) =   ( , ⋯) où  = −  ln . Cette propriété s’applique également au cas de toutes les grandeurs thermodynamiques extensives. L’énergie totale s’obtient par C  ln  C  =   avec  = − l’énergie individuelle moyenne et l’entropie individuelle  vaut donc C = (C −  )∕ .

Remarque 1. La forme  ( , , ⋯) =   ( , ⋯) pour l’énergie libre conduit à identifier l’énergie libre individuelle avec le potentiel chimique  =  = C −  C . Cette relation est assez particulière. Le potentiel chimique s’identifie en général avec l’enthalpie libre car  =  +  =  (cf. annexe A page 147), ce qui suggère que  =  (donc  =  ) est valable lorsque le volume ne joue aucun rôle. Remarque 2 : Indiscernabilité. La règle de factorisation (6.23) s’applique à des systèmes identiques mais discernables. Si les sous-systèmes sont des particules indiscernables (par exemple les atomes dans un gaz), la fonction de partition des  particules sera de la forme def

 ≃ MB =

1   !

(approximation de Maxwell-Boltzmann) .

(6.25)

Cette forme correspond à un traitement approché de l’indiscernabilité des atomes et porte le nom « d’approximation de Maxwell-Boltzmann ». Le 1∕ ! a exactement la même origine que dans (3.27), ce qui n’est pas surprenant puisque ( ) = Φ′ ( ) et  ( ) sont reliées par (6.18). Nous y reviendrons dans le chapitre 11, où les conséquences du postulat de symétrisation de la mécanique quantique seront étudiées en détail. Pour reprendre la discussion de la page 47, il faut retenir la règle simple : () Si l’on considère les  atomes (indiscernables) d’un gaz parfait, on écrira gaz = 1 (atome ) . ! () Si l’on considère les  atomes d’un solide, attachés aux  nœuds (discernables) du réseau cristallin, on écrira cristal = (noeud ) . Par exemple, dans l’étude du paramagnétisme où chaque atome du réseau porte un spin attaché à un nœud.

Remarque 3. Si les sous-systèmes ne sont pas identiques mais restent indépendants (problème séparable), la factorisation prendra la forme

=

 



(problème séparable)

=1

où   est la fonction de partition du sous-système . 112

(6.26)

1

Ensemble canonique

1.5 Exemples d’applications a) Le cristal paramagnétique ( systèmes à deux niveaux) Nous avons déjà décrit les aspects microscopiques du problème au chapitre 5 (§ 2.2.d page 76). Nous reprenons l’analyse du problème plus efficacement. Le calcul de la fonction de partition pour un spin est particulièrement simple :  = e  + e−  = 2 ch( ) ,

(6.27)

qui nous donne immédiatement les propriétés du cristal via sa fonction de partition cristal =  . Puisque les propriétés du cristal se déduisent directement de celles d’un unique moment magnétique grâce à l’extensivité, notre analyse pourra rester au niveau d’un seul spin, dont l’énergie libre, l’énergie moyenne et l’entropie sont données par   (6.28)  ( , ) = −  ln 2 ch(  ) , C ( , ) = − th( ) ,     C ( , ) =  ln 2 ch() −   th() . L’énergie peut être reliée à l’aimantation moyenne d’un spin, 𝔪 𝔪 = 𝔪0 th( ) = 𝔪0 th( ∕  ) . C

C

(6.29) (6.30)

= −C∕ : (6.31)

def

où 𝔪 0 = ∕2 est l’aimantation maximale. Cette expression fait apparaître la compétition entre l’énergie, caractérisée par l’échelle  = 𝔪0 , qui tend à faire s’aligner le moment sur le champ, et l’agitation thermique (l’entropie), caractérisée par l’échelle    , qui traduit le désalignement à cause des fluctuations thermiques (cf. exercice 5.5). C Pour     , l’agitation thermique est négligeable, 𝔪 ≃ 𝔪0. Pour     , l’agitation thermique domine, 𝔪 C ≃ 𝔪0 ( ∕ )  𝔪 0 (cf. figure 6.2). +1 l’entropie domine

...

mzc/m 0

...

...

...

l’énergie domine

B /T

l’énergie domine

...

...

−1

Figure 6.2

Aimantation du cristal de spins 1∕2 en fonction du rapport ∕ . À fort champ magnétique/basse température (     ), l’énergie domine et le cristal se trouve dans l’état d’énergie minimale (spins alignés sur le champ). À faible champ/haute température (     ), l’entropie domine et le cristal explore un grand nombre de microétats d’énergie ∼ 0 (les spins fluctuent).

113

Chapitre 6 • Systèmes non isolés – Ensembles canonique et grand-canonique

Exercice 6.3 C

Retrouver l’expression de l’aimantation individuelle moyenne 𝔪 à partir de la loi de Boltzmann appliquée à un moment magnétique, puis à partir du couple de variables thermodynamiques conjuguées (, ) avec   l’aimantation totale.

b) Oscillateur harmonique unidimensionnel On considère ici un système constitué d’un seul oscillateur harmonique unidimensionnel traité quantiquement. Nous rappelons que le spectre des énergies est donné par  =  ( + 1∕2) pour  ∈ ℕ [5 , 35]. On déduit   ∞ ∞    −   e−∕2 1 − + 12 −∕2 = . (6.32) e =e e = = − 2 sh(∕2) 1−e =0 =0 Le calcul de la somme s’identifie à celui d’une série géométrique dont le résultat est ∞  1  = pour  < 1. L’équation (6.7) donne l’énergie moyenne 1− =0      1 1 C =  C =   + i.e. avec  =  . (6.33) coth 2 2 2 e −1

Exercice 6.4 Montrer les deux formules ci-dessus.

1.6 Description semiclassique On discute ici le calcul de la fonction de partition pour des systèmes classiques. Après avoir reformulé ce calcul dans l’espace des phases, nous établirons deux résultats assez généraux et fort utiles, avant de terminer par les deux exemples les plus simples.

a) Formulation semiclassique du calcul de la fonction de partition D’après les règles de dénombrement des microétats synthétisés au chapitre 3 (§ 4), nous pouvons écrire la somme sur les microétats en intégrale sur l’espace des phases selon : =

d2 Γ − ( Γ ) e   ! 

(6.34)

 ) est l’hamiltonien des  particules et où le facteur ! décrit le cas de particules où ( Γ indiscernables. La distribution canonique est exponentielle dans l’énergie du microétat, ce qui correspond à la densité de probabilité dans l’espace des phases C (Γ ) = 114



e− (Γ ) .  !  

(6.35)

1

Ensemble canonique

La valeur moyenne canonique de la grandeur  s’éxprime comme : − (Γ) C d2 Γ  )e  = ( . Γ   !  

(6.36)

b) Théorème d’équipartition de l’énergie Ce théorème classique repose sur une propriété des intégrales gaussiennes. Commençons par discuter le cas très simple où l’hamiltonien a un unique degré de liberté  ∈ ℝ et est quadratique,  =   2, où  est une constante positive. La loi de Boltzmann nous permet de nous focaliser sur ce degré de liberté : ∞  2     2 e−  d  × 1 2   1 −∞  2 = . (6.37) = = =  ∞  2 2 2 −  d  e  −∞

Ce résultat très simple est complètement indépendant de la nature de la variable (coordonnée ou impulsion) et surtout, du paramètre . Dans de nombreuses applications, il se révèlera très utile pour caractériser les fluctuations 2  =   ∕2. Nous discutons la généralisation à des hamiltoniens plus complexes. Considérons (6.38)

 (,  ) = ( )  2 +  ( ) ,

où en sus de , l’hamiltonien dépend d’autres degrés de libertés, regroupés dans le vecteur  à  composantes.  ( ) et  ( ) sont deux fonctions de ces variables qu’il n’est pas besoin de spécifier. Le calcul de la contribution à l’énergie moyenne s’écrit ( )   = 2

  )2 e− (,)  d  d (   d  d  e − (,)

 d  e−( ) ( )  d 2 e −( ) 

2

=

 d e −( )  d e−( ) 2

  1  d  e−( ) ( ) 2( ) ( ) 1 . = =   2  d   e−( ) ( )

(6.39)

Finalement : 1 ( )  2 =    2

(6.40)

Ce résultat porte le nom de « théorème d’équipartition de l’énergie » : Chaque terme quadratique dans l’hamiltonien apporte une contribution l’énergie moyenne.

𝟏 𝒌 𝑻 à 𝟐 𝑩

Gardons en tête que ce résultat est limité aux hypothèses de validité de la description semiclassique. 115

Chapitre 6 • Systèmes non isolés – Ensembles canonique et grand-canonique

Illustration. Nous pouvons appliquer le théorème au cas de l’oscillateur harmonique, 1 2 1 (,  ) =  +  2 2. Nous obtenons immédiatement l’énergie moyenne, que 2  2 1 1 nous noterons C =  +  =    . 2 2 c) Particules indépendantes Dans l’approche semiclassique, il suffit que l’hamiltonien se décompose comme une somme d’hamiltoniens individuels, notés (,  ), pour que la factorisation se produise. Prenons l’exemple de particules indiscernables à 3 dimensions :  (1 , 1, ⋯ ,  ,  ) =

 

−

( ,  ) donne e

=1

  =1

( ,  )

=

 

e −( ,)

(6.41)

=1

qui conduit à    d3 d 3  −( , ) d3  d3  −( , ) 1 1      = e = e !  =1 ! =1  3 3

(6.42)

soit finalement =

 !

avec  =

d3 d3  −(, ) , e  3

(6.43)

dont la structure coïncide avec (6.25). On retrouve qu’il est suffisant de calculer la fonction de partition individuelle  pour déduire directement la fonction de partition des  particules . Utilisant la formule de Stirling ln  ! ≃  ln  −  , nous obtenons l’énergie libre       =  avec  = −  ln +1 . 

(6.44)

L’énergie libre par particule  ne correspond pas alors à −  ln . En revanche, C

l’énergietotale est toujours donnée par  =  C . Le potentiel chimique  =   −  ln est lui aussi affecté par l’indiscernabilité et diffère de l’énergie libre par  particule    (on pourra comparer cette discussion avec celle du § 1.4).

Loi de Boltzmann. Dans le cas de particules indépendantes, la densité de probabilité (6.35) dans l’espace des phases se factorise comme pour la description discrète. On a   C  C( ,  ), avec  C la densité de probabilité dans l’espace des phases alors  ( Γ ) = =1

116

1

Ensemble canonique

à une particule qui s’exprime ainsi (le ! disparaît de (6.35) car  ! =  ) :  C(,  ) =

e−(, ) . 3

(6.45)

Le gaz parfait. Appliquons ce résultat au cas du gaz parfait. Nous avons donc

  d3  2 d3d 3  − 2 − 2 3 2 = =   e , (6.46) e d  3  3 ℝ 3 L’intégrale sur les positions donne le volume  tandis que l’intégrale sur les impulsions fait apparaître des intégrales gaussiennes  +∞ 3  +∞ +∞ +∞ 3 2  2 2 2 2 − 2 − 2 − 2 − 2 d e d e d  e d e . = =       −∞

−∞

−∞

−∞

Au final, nous pouvons écrire =

 Λ3



def

ou

Λ = 

(6.47)

2 

est appelée la longueur thermique de de Broglie. Elle correspond à l’échelle de longueur d’onde associée à l’énergie   .

Exercice 6.5 Longueur thermique ultrarelativiste Quelle serait l’expression de la longueur thermique pour une particule ultrarelativiste, i.e. telle que  =   ? L’énergie libre, d’après (6.44), vaut 



  ( , ,  ) = − ln Λ3



 +1

.

(6.48)

Le calcul de l’énergie moyenne correspond au résultat attendu par le théorème d’équipartition : il y a trois degrés de liberté quadratiques  ,   et  par particules,  C 3 C ce qui donne  = 3 × puis  =   . Le calcul direct se fait en notant que 2 2    C   3 1∕2 ln −3∕2 =  ∕  . Pour la pression Λ ∝  , d’où  = − ln  ∕ ! = −   2 canonique, nous utilisons le résultat de thermodynamique que le travail élémentaire des forces de pression s’écrit −Cd . Ce faisant, la pression étant la variable conjuguée du volume, il est naturel de définir def

C = −

 . 

(6.49)

117

Chapitre 6 • Systèmes non isolés – Ensembles canonique et grand-canonique

 ln  =   ∕  . Nous reviendrons en détail sur l’analyse  du gaz parfait au chapitre 8. Pour terminer, nous remarquons que l’entropie       5 C ( ,  , ) = − =  ln (6.50) + 3 2  Λ Il vient alors C = 

coïncide avec la formule de Sackur-Tetrode (5.17) obtenue dans le cadre microcanonique.

2

Ensemble grand canonique

Dans l’ensemble canonique, seuls les échanges d’énergie par contact thermique sont autorisés entre le système et le thermostat. Nous généralisons maintenant la situation en autorisant les échanges de particules entre le système étudié et un grand système qui sert à la fois de réservoir de particules1 et de thermostat (réservoir d’énergie). Ce faisant, nous fixons les variables thermodynamiques conjuguées de l’énergie et du nombre de particules, respectivement la température  et le potentiel chimique . Du point de vue physique, de nombreuses situations à l’équilibre correspondent à cette hypothèse grand canonique. C’est le cas du phénomène d’adsorption de molécules sur une paroi, un conducteur relié à une batterie (figure 6.3), d’une phase en équilibre avec une autre phase (de l’eau en équilibre avec sa vapeur saturante), de réactions chimiques dans lesquelles le nombre de constituants d’une espèce n’est pas fixé (problème 6.1). Les systèmes traversés par des flux de particules, ou « systèmes ouverts », n’ont pas de nombre de particules fixé mais sont en général hors d’équilibre. Nous avons observé que relâcher la contrainte de l’énergie totale fixée, en passant du microcanonique au canonique, avait permis dans bien des cas de se ramener à un calcul à une particule, simplifiant à la fois les calculs et l’interprétation. Nous verrons au chapitre 11 que relâcher la contrainte sur le nombre de particules permettra une simplification analogue dans le cas de particules quantiques identiques. L’objectif de ce chapitre est de fournir les relations générales de l’ensemble grand canonique.

2.1 Distribution grand canonique a) Probabilités d’occupation des microétats Nous suivons la même démarche que pour l’ensemble canonique et cherchons l’expression de la probabilité d’occupation  𝓁G d’un microétat 𝓁, l’indice G se rapportant à la situation grand canonique. Notons S le système et R le réservoir, supposé suffisamment grand pour que l’on puisse considérer sa température et son potentiel chimique 1. Notons que les particules transportant de l’énergie, le réservoir de particules se comporte nécessairement comme un thermostat. 118

2

Ensemble grand canonique

δq

Q V Figure 6.3Un conducteur relié à une batterie. Une batterie peut fournir ou prendre des électrons d’un conducteur métallique, dont elle fixe le potentiel électrostatique. À l’équilibre, seul la charge moyenne est fixée et les fluctuations thermiques sont responsables de fluctuations de la charge.

fixés. Définissons la température et le potentiel chimique grand canonique comme def

et

 = R∗

def

(6.51)

∗  = R .

L’énergie totale et le nombre de particules du système total isolé R  S sont notés respectivement tot et tot . Nous cherchons la probabilité d’occupation du microétat 𝓁 du système S d’énergie 𝓁 ayant 𝓁 particules. Appliquons le postulat fondamental au système isolé R  S , ce qui conduit à la probabilité d’occupation  𝓁G =

1 ΩR(tot − 𝓁,  tot −  𝓁)  ∗ ( − , − ) ∝ e  R tot 𝓁 tot 𝓁 Ω tot

(6.52)

(le raisonnement est analogue à celui qui a conduit à l’équation (6.1)). L’hypothèse que le réservoir est beaucoup plus grand que le système permet de développer son entropie microcanonique : ∗ ∗ R ( tot− 𝓁, tot −𝓁 ) ≃  R (tot ,  tot)− 𝓁

∗  R

(tot,  tot) − 𝓁

R  1∕

R∗

( ,  )  R tot tot  −  ∕

Dès lors, nous pouvons écrire :  𝓁G

   1 − 𝓁 + 𝓁 .  

1 ∝ exp 

(6.53)

Après normalisation, la distribution grand-canonique prend la forme  𝓁G =

1 − (𝓁 −𝓁 ) e Ξ

(6.54)

où la constante de normalisation Ξ est appelée la « grande fonction de partition » : def

Ξ=



e − (𝓁 −𝓁 )

(6.55)

𝓁

C’est la fonction génératrice de l’ensemble grand canonique. 119

Chapitre 6 • Systèmes non isolés – Ensembles canonique et grand-canonique

b) Relation entre les fonctions de partitions canonique et grand canonique Remarquons que Ξ se réexprime en fonction de (, ). En effet, en classant les microétats par paquets de même  𝓁, nous pouvons réécrire la somme sur les microétats sous la forme ∞   (6.56) e e −𝓁 . Ξ(, ) = =0

𝓁 tq. 𝓁 =

Un microétat sans particule n’ayant pas d’énergie, il est légitime de prendre la convention (, 0) = 1. Nous retiendrons ainsi le résultat suivant : Ξ(, ) =

∞ 

e



(,  ) =

=0

∞ 

  (,  ) .

(6.57)

=0

avec dans la seconde égalité l’introduction de la fugacité  = e .

Remarque. Dans certaines situations, le système ne peut accepter qu’un nombre max

maximum de particules max . Dans ce cas on écrira Ξ(, ) =



e  (,  ).

=0

2.2 Grandeurs thermodynamiques a) Le grand potentiel Nous introduisons un nouveau potentiel thermodynamique, appelé « grand potentiel » def

 ( , , ⋯) = − ln Ξ( , , ⋯) ,

(6.58)

et nous montrons comment en tirer les grandeurs thermodynamiques. Le parallèle avec le choix de la définition (6.10) est clair. Notons que là-aussi, les « ⋯ » signalent la possible dépendance dans d’autres paramètres (volume, champ magnétique, etc. . . ).

b) Nombre moyen de particules et énergie moyenne Commençons par le nombre moyen de particules et l’énergie moyenne. Pour appliquer G le même procédé que pour l’énergie moyenne canonique, nous observons que  = 𝓁G  𝓁 avec  𝓁G ∝ e𝓁 . Ainsi, par dérivation de la grande fonction de partition par 𝓁

rapport au paramètre conjugué de  qui est , nous avons : G

 =

120

 1  . ln Ξ = −   

(6.59)

2

Ensemble grand canonique

Si nous dérivons ln Ξ par rapport à , mais comme 𝓁G ∝ e− ( 𝓁− 𝓁) , nous n’obtenons G

G

pas uniquement l’énergie moyenne mais plutôt  −  , au signe près. Connaissant G

 , l’énergie moyenne est alors donnée par   −  = − ln Ξ  G

G

G

ou



   −   

 ln Ξ

(6.60)

Partons de la formule de l’entropie statistique appliquée à (6.54) :   G G = − G ln  =    𝓁G (𝓁 −  𝓁 ) +  ln Ξ  𝓁 𝓁

(6.61)

 =

Ces relations doivent pouvoir être rapidement retrouvées.

c) Entropie grand canonique

𝓁

𝓁

soit G

G

 − −   = . =−   G

(6.62)

La seconde égalité se vérifie par un calcul analogue à celui de l’exercice 6.1.

Identité thermodynamique. Réunissons les définitions obtenues pour écrire l’identité thermodynamique suivante pour le grand potentiel : G

G

d = − G d −  d −  d + ⋯

(6.63)

où  est la force conjuguée de l’observable .

d) Pression grand canonique Nous discutons le cas particulier d’un système de volume  variable pour lequel une pression peut être définie. Suivant la forme du travail élémentaire des forces de pressions, la pression grand canonique se définit comme la dérivée du grand potentiel : def

G = −

 . 

(6.64)

Dans le cas d’un fluide simple, il existe un lien entre le grand potentiel et la pression. En effet, supposons que le grand potentiel n’est fonction que de  ,  et du volume  , ce dernier étant la seule grandeur extensive, le grand potentiel lui est forcément 121

Chapitre 6 • Systèmes non isolés – Ensembles canonique et grand-canonique

proportionnel et donc  ( , ,  ) = −G( , )  .

(6.65)

La « densité volumique de grand potentiel » est donc la pression (au signe près).

Exercice 6.6 En considérant une dilatation d’un système par un facteur  réel et en considérant le grand potentiel est une fonction extensive, justifier proprement la relation (6.65).

2.3 Fluctuations du nombre de particules et de l’énergie Nombre de particules et énergie n’étant pas fixés, il est intéressant d’étudier leurs variances. Nous obtenons  2  G 2  G 2    1 2  = 2 2 ln Ξ et  = ln Ξ , (6.66) −      où, dans la seconde formule, le carré signifie d’appliquer deux fois l’opérateur différentiel entre les parenthèses. La première est obtenue selon la méthode de l’exercice 6.2. La seconde s’obtient à partir de la deuxième forme de l’équation (6.60).

2.4 Exemples d’application Discutons deux applications classiques de l’ensemble grand-canonique dans lesquelles le lecteur sera mis à contribution pour une partie des calculs intermédiaires.

a) Le gaz parfait Dans l’approximation semiclassique, la fonction de partition de particules indiscern ables est de la forme  = . Introduite dans (6.57), il vient alors : ! Ξ(, ) =

∞  =0



e

∞    (e  )  = = exp e  . ! =0 !

(6.67)

Dans l’expression, notons que  dépend de  et du volume  supposé fixe et éventuelle 1 ment d’autre paramètres. Nous déduisons immédiatement  = − ln Ξ = − e  et     G la pression  = − ∕ = e . Pour le nombre moyen de particules, nous avons  G   =− =  e . Nous retrouvons donc en toute généralité l’équation d’état des gaz  G

parfaits G  =     sans autre hypothèse que celle faite sur la forme de . 122

2

Ensemble grand canonique

b) Le modèle de Langmuir pour l’adsorption Nous discutons le problème de l’adsorption des atomes d’un gaz à la surface d’un solide. Les surfaces des solides sont extrêmement rugueuses à l’échelle atomique, et d’autre part inhomogènes chimiquement, ce qui se traduit par l’existence de pièges sur lesquels les atomes du gaz peuvent venir s’accrocher. Cet effet est particulièrement désagréable si l’on souhaite faire une expérience sous vide : des atomes piégés à la surface de la chambre à vide pourraient être relâchés et polluer l’expérience, d’où l’intérêt de bien comprendre le phénomène d’adsorption afin de contrôler la quantité d’atomes de surface. On trouve des applications plus bénéfiques du phénomène comme dans le procédé de chromatographie en chimie ou le filtrage par charbon actif présent les hottes de cuisine. Le système physique étudié est l’ensemble des  atomes piégés à la surface du solide (cf. figure 6.4). Leur nombre varie constamment à cause de la compétition entre les forces de piégeages et l’agitation thermique. En dehors de la surface, les atomes sont à l’état gazeux dans un volume  et on supposera ce volume suffisamment grand pour que le nombre d’atomes dans le gaz gaz reste beaucoup plus grand que le nombre d’atomes piégés, gaz  . L’ensemble est placé à température  contrôlée par un thermostat. Ainsi, le gaz en contact avec la paroi joue le rôle de « réservoir » d’atomes pour le système. Il est donc naturel d’étudier les atomes adsorbés à la surface à l’aide de la distribution grand canonique, où la température et le potentiel chimique sont fixés par le gaz. Nous noterons  le nombre de pièges (ou sites d’adsorption) présents sur la surface, chaque piège contenant au plus un atome. L’interaction favorable d’un atome avec la paroi est sommairement modélisée en attribuant une énergie −0 < 0 pour un atome piégé, en une énergie nulle à un piège vide. L’objectif est d’obtenir la fraction moyenne def

G

de pièges occupés, notée  =  ∕, en fonction de la pression  et température  du gaz, les paramètres contrôlables expérimentalement. Calculons la grande fonction de partition Ξ pour les atomes adsorbés. Pour décrire les microétats, introduisons des facteurs d’occupation  ∈ {0, 1} pour les  pièges. Le microétat décrivant l’état de surface correspond à l’ensemble des facteurs d’occupation,   𝓁 = ( 1, ⋯ , ). Le nombre d’atomes dans 𝓁 est simplement donné par 𝓁 =   . Si =1

tous les pièges sont supposés identiques et indépendants, l’énergie des atomes adsorbés    = − 0𝓁 . est 𝓁 = −0 =1

Exercice 6.7 Montrer que Ξ( , , ) =  où  = 1 + e (+ 0 ) est la grande fonction de partition réduite à un piège.

123

Chapitre 6 • Systèmes non isolés – Ensembles canonique et grand-canonique 1

0.5

0

0

1

2

Figure 6.4 – Adsorption – Isothermes de Langmuir. À gauche : modèle simplifié d’adsorption sur une surface. À droite : les courbes donnant la fraction occupée  en fonction de la pression  pour différentes températures  .

Nous pouvons retrouver ce résultat à partir de la fonction de partition canonique ( , ,  ) décrivant  atomes piégés parmi les  pièges.

Exercice 6.8 Après avoir donné l’expression de ( , ,  ), retrouver l’expression de Ξ à l’aide de la variante de (6.57) donnée dans la remarque suivant cette équation. Préciser le choix de max . La fraction moyenne d’atomes adsorbés =

G    11  1  1 = ln Ξ = ln 1 + e (+0 ) = − (+ 0) + 1       e

(6.68)

est contrôlée par la température et le potentiel chimique du gaz. Il est naturel de re-exprimer le résultat en terme de la pression, qui est un paramètre plus intuitif.  G Pour cela nous utilisons les résultats du § a), en particulier  = ∕( ) e− =     ∕Λ3 e− . Nous obtenons   def  2 3∕2 (,  ) = (  ) 5∕2 e−0 ∕(  ) . où 0( ) = (6.69) 2 0( ) +   est une échelle caractéristique de pression. Pour différentes températures, cette relation définit un ensemble de lignes dans un diagramme (, ) appelées isothermes de Langmuir, tracées sur la figure 6.4.

Exercice 6.9 Démontrer (6.69). À  donnée, l’adsorption est une fonction croissante de la pression ce qui est physiquement intuitif étant donné que la densité du gaz augmente. Cela illustre simplement que 124

3

Relâchement d’une contrainte

faire le vide favorise la désorption. D’autre part, 0( ) est une fonction croissante de la température si bien qu’à  fixée, augmenter la température favorise la désorption des atomes. Pendant qu’on pompe le gaz contenu dans une chambre à vide, on aura donc intérêt à augmenter la température afin de favoriser la désorption et créer un « bon vide ». Si ce modèle assez rudimentaire n’est pas pertinent pour une bonne partie des processus d’adsorption pour lesquels d’autres ingrédients doivent être pris en compte, son analyse a cependant une nouvelle fois illustré comment les outils de la physique statistique ont permis le passage de la description microscopique aux propriétés thermodynamiques.

3

Relâchement des contraintes (cas canonique)

3.1 Contexte physique Nous discutons le problème du relâchement d’une contrainte entre deux sous systèmes S1 et S 2 dans le cadre de l’ensemble canonique. Considérons que les deux sous systèmes (avec interactions à courte portée) sont dans deux microétats 𝓁1 et 𝓁 2. Nous notons 𝓁1 𝓁2 le microétat de l’ensemble. Si les deux sous-systèmes sont très faiblement corrélés, la probabilité de cet état est  𝓁C 𝓁 =  C𝓁 𝓁C ∝ e 1

2

1

− ( 𝓁 + 𝓁 ) 1

(6.70)

2

2

Considérons une variable interne échangée lors du relâchement d’une contrainte entre S1 et S2 . Par exemple • La détente de Joule : 1 et  2 fluctuent avec  = 1 + 2 fixé. • L’échange de particules : 1 et 2 fluctuent avec  = 1 +  2 fixé.

3.2 Relâchement de la contrainte Considérons un cas générique où nous notons 1 et 2 deux variables extensives associées aux deux sous systèmes isolés (par exemple les volumes dans la détente de Joule). Après relâchement de la contrainte, seule la somme de ces deux variables est fixée  tot = 1+2 alors que 1 et  2 deviennent des variables internes. Nous pouvons écrire la fonction de partition de S1  S 2 sous la forme     12( ,  tot ) = (6.71) e− ( 𝓁 1 +𝓁2 ) = e−𝓁 1 e− 𝓁 2 1

𝓁 1 𝓁2

=



𝓁1 tq. 𝓁1 =  1

1( ,  1 ) 2 ( ,  tot − 1 )

 𝓁2

𝓁2 tq. = tot −  1

(6.72)

1

où 𝓁 1 est la valeur prise par la grandeur physique  dans le microétat 𝓁1 . Le calcul de la distribution de 1 suit la même logique. P C(1) est donné par la somme des probabilités canoniques 𝓁C 𝓁 sur tous les microétats qui réalisent la valeur 1 . Si nous 1

2

125

Chapitre 6 • Systèmes non isolés – Ensembles canonique et grand-canonique

notons 𝓁1 la valeur prise par la grandeur dans le microétat (𝓁1), nous pouvons écrire  P C( 1) = 𝓁C 𝓁  1, 𝓁 tot − 1 ,𝓁 . (6.73) 1

𝓁 1 𝓁2

2

1

2

Nous obtenons   ( , 1 ) 2( , tot − 1 ) e− ( 1 +2 ) e − ( 1 ; ,tot ) P C (1 ) = 1 , (6.74) = = 12( ,  tot ) 12( ,  tot) 12( , tot ) où nous avons introduit l’énergie libre réduite def  (1;  ,  tot ) = 1( , 1 ) + 2 ( ,  tot − 1 ) , (6.75) qui représente l’énergie libre du système lorsque 1 est fixé. La probabilité PC (1) est maximale lorsque l’énergie réduite est mimimum  (max;  ,  )  1  2 tot 1 ( max ( − max ) . (6.76) =0 ⇒ )= 1 1 1 1 2 tot Comme dans le chapitre précédent, nous pouvons donner un sens plus clair à cette condition d’équilibre, à condition d’introduire le paramètre conjugué (intensif) de la variable def def   (extensive) : C = − (par exemple si  →  est le volume alors  → C = −   est la pression canonique). La condition d’équilibre s’interprète alors comme une égalité entre les paramètres conjugués intensifs :  C1 =  C2

(condition d’équilibre)

(6.77)

(par exemple l’égalité des pressions canoniques C1 =  C2 lors d’un échange de volume, ou l’égalité des potentiels chimiques lors d’un échange de particules C1 = 2C ).

3.3 Théorème de minimisation de l’énergie libre Nous en tirons donc le principe général sur les transformations irréversibles : Lorsqu’une contrainte est relachée dans un système en contact avec un thermostat, celui-ci évolue spontanément vers un état d’équilibre macroscopique qui minimise son énergie libre.

Une autre démonstration du théorème. Calculons l’entropie microcanonique du système global (isolé) T  S : 1

e 

 ∗T S ( tot) =  ln ΩT S

∗ ( tot− 𝓁 ) T ≃Ω

≃  ln Ω T ( tot) +  ln



𝓁

ΩS (𝓁 ) e

𝓁

 

𝓁

126

− 𝓁

T (tot ) e

    (tot ) =  ln Ω T (tot − 𝓁 ) Ω S (𝓁 ) (6.78) −𝓁



=  ∗T (tot) +  ln 

3

Relâchement d’une contrainte

Finalement on aboutit à

 . (6.79)  Le théorème de maximisation de l’entropie du système (global) isolé (section 3), conduit donc au théorème de la minimisation de l’énergie libre du système thermostaté.  ∗T S (tot) ≃ T∗ (tot ) −

3.4 Discussion Nous pouvons poursuivre l’analyse du problème de relâchement de contrainte en suivant les lignes du cas microcanonique. Terminons par quelques observations :

Structure de la distribution. La distribution de la variable interne obtenue plus haut P C (1 ) ∝ e− ( 1+ 2 )

(6.80)

fait écho à celle obtenue dans l’analyse du problème de relâchement de contrainte dans 1

le cadre microcanonique, équation (5.20) : P ∗ (1 ) ∝ e 

( ∗1 + ∗2)

.

Stabilité. La stabilité de l’équilibre impose que l’énergie libre soit une fonction convexe (à dérivée seconde positive) 2  >0 (6.81)  2    C  2  (par exemple > 0 et donc < 0, ce qui assure la positivité de la    ,  2 def 1    compressibilité   = − ).   

Forme de la distribution. Les propriétés d’extensivité de  1 et 2 impliquent que la distribution P C (1 ) est une gaussienne extrêmement étroite : si 1 ≃ max ∝  alors 1  que 1 ∝ . Énergie libre. L’énergie libre après relâchement de contrainte

 ( , tot) =  1 ( , 1max) + 2 ( , tot − 1max ) + (ln  )

(6.82)

coïncide avec l’énergie libre réduite à des termes venant des fluctuations de 1 près, négligeables dans la limite thermodynamique.

Pour en savoir plus : • Une présentation plus détaillée de la relation avec la thermodynamique : compléments II.D & III.L de [15]. • Sur la construction de ces distributions à partir du principe d’entropie maximale, consulter le § 4.3 du livre [3]

127

Les points clés 1

2

Distribution canonique (démonstration simple conduisant à 𝓁C ). La définition de la fonction de partition  et de l’énergie libre . Retrouver les grandeurs thermodynamiques (énergie moyenne, entropie, potentiel chimique, etc. . . ) à partir de leur définition statistique et/ou de l’identité fondamentale de la thermodynamique d = − d − d +  d + ⋯ (déduite de  =  −  ).

3

Factorisation de la fonction de partition pour des soussystèmes indépendantes.

4

Le théorème d’équipartition est utile, même s’il est de portée limitée (régime classique).

5

Distribution grand canonique, définitions de Ξ et du grand potentiel  . Savoir retrouver le lien entre Ξ et  et calculer Ξ dans les exemples simples.

6

Retrouver les fonctions thermodynamiques à partir de l’identité thermodynamique d = − d  − d −  d + ⋯ (déduite de  =  −   −  ).

Les annexes A

Travaux élémentaires, forces généralisées et variables conjuguées

Nous considérons une grandeur physique générique, notée . Introduisons son  paramètre conjugué , tel que  est obtenue par dérivation de l’hamiltonien  = − .  La différentielle de l’énergie contient alors un terme d = ⋯ −  d  .

(6.83)

L’énergie étant extensive, l’une des deux variables conjuguées (, ) est en général extensive tandis que l’autre est intensive. Un exemple de variables conjuguées est une force − et une élongation  pour lesquelles le travail élémentaire est d- =  d.  ⋅ d avec   Dans le cas d’un système magnétique, le travail élémentaire est d- =  l’excitation magnétique et  le champ magnétique. On peut montrer qu’il peut se réécrire - = − ⋅d  avec   l’aimantation du système et  le champ magnétique présent en d 0 0 - = − d l’absence du système (voir [32] page 373). En pratique, nous prendrons d en interprétant abusivement  comme étant le champ magnétique. 128

A Travaux élémentaires, forces généralisées et variables conjuguées

Dans un problème quantique, la moyenne quantique de la variable  peut être def calculée à l’aide du théorème de Feynman-Hellmann [35] 𝓁 =  𝓁   𝓁  =    − 𝓁   𝓁  = −  𝓁   𝓁  = − 𝓁 (en ayant supposé que 𝓁 est un état pro   C

pre de l’énergie). Nous obtenons donc l’expression de la moyenne canonique  =  1   − 𝓁 : e 𝓁C 𝓁 =  𝓁  𝓁 C   =− (6.84)  Pour calculer la moyenne, il n’est donc pas nécessaire de faire appel à tous les détails microscopiques, énergies 𝓁 et valeurs moyennes 𝓁 , mais seulement de pouvoir identifier la dépendance du potentiel thermodynamique dans le paramètre conjugué . Cette relation générale nous fait mieux comprendre le rôle central de l’énergie libre et se révélera très utile par la suite.

Exercice 6.10 Relation pression-énergie du gaz parfait Utilisons les niveaux d’énergie (3.7) d’une particule dans une boîte cubique de côté  en dimension  , si bien que le volume est donné par  =  . On prend comme  définition de la pression dans un microétat par 𝓁 = − 𝓁 , montrer la relation  C 2 . Vérifier ce résultat à partir du théorème d’équipartition et de l’équation C =   d’état des gaz parfait. Nous aurions pu établir de façon analogue ce type de relations générales dans le cadre microcanonique, comme (5.41) et (5.46) sans passer par les considérations sur les systèmes en contact. En effet, nous pouvons montrer que ∗  ∗ . = ∗ 

(6.85)

Exercice 6.11 Travaux élémentaires En considérant

𝓁C

avec  C𝓁 la distribution canonique, montrer que l’on  retrouve (6.84). Avec la même méthode, montrer (6.85) après avoir exprimé 𝓁∗ en fonction de  ∗ (𝓁 , ).

129

Chapitre 6 • Systèmes non isolés – Ensembles canonique et grand-canonique

B

Mouvements de rotation, moment cinétique et dipôles permanents en champs externes

Nous présentons dans cette annexe la modélisation de mouvements de rotations. Après quelques rappels sur le mouvement autour d’un axe fixe, nous présenterons les résultats sur le rotateur rigide qui correspond au mouvement d’un vecteur à trois dimensions et qui est paramétré par les deux angles des coordonnées sphériques  et . Ce dernier présente de nombreuses applications physiques.

Figure 6.5 – À gauche : dipôle libre de tourner à trois dimensions, en présence du ⃗ À droite : dipôle astreint à tourner autour de l’axe 𝒛 et dans le plan 𝒙𝒚. champ 𝑬.

B.1 Rotation autour d’un axe fixe Le mouvement d’un solide autour d’un axe fixe est paramétré par un seul angle noté   ∈ [0, 2 ]. L’énergie cinétique de rotation s’écrit cin =  2 avec  le moment d’in2 ertie du solide par rapport à l’axe de rotation. Cela est formellement très proche de l’énergie cinétique de translation d’un mouvement unidimensionnel. Pour une description semiclassique, il faut se placer dans l’espace des phases et introduire le moment conjugué à  défini selon  =  cin ∕ =   . Dès lors, la partie cinétique de l’hamil2 tonien prend la forme cin =  qui est quadratique et pour laquelle le théorème 2 d’équipartition s’applique. Notons que les intégrales sur l’espace des phases s’exprid d ment avec ce jeu de variables. On pourra vérifier que la constante de Planck    a bien la même dimension que  tandis que  est sans dimension.

Exercice 6.12 Soit un dipôle électrique permanent  astreint à se déplacer dans le plan  et dont on repère l’orientation avec l’angle  par rapport à l’axe  (voir figure 6.5 à droite). Il porte un moment d’inertie  et est soumis à une force dérivant d’une énergie potentielle  pot = − ⋅  avec  =   un champ électrique externe et on notera

130

B

Mouvements de rotation, moment cinétique et dipôles permanents en champs externes

Exercice 6.12  Montrer que la fonction de partition canonique d’un seul dipôle se fac = . torise en  = cin pot et donner l’expression de pot sous forme intégrale. Montrer que la moyenne   s’exprime comme une dérivée de l’énergie libre  du dipôle. Le point de vue quantique est également très simple dans cette situation. En effet, le mouvement de rotation est décrit par les opérateurs du moment cinétique mais l’énergie 2 cinétique de rotation se résume à  . Rappelons que les valeurs propres de  sont  2 avec  ∈ ℤ.

Exercice 6.13 Écrire la fonction de partition canonique cin dans le cas quantique comme une somme sur les nombres quantiques  qu’on ne cherchera pas à calculer. Montrer que l’on retrouve le résultat classique dans la limite de température grande par rapport à une température rot dont on donnera l’expression.

B.2 Traitement semiclassique du rotateur rigide La plupart des situations en physique statistique correspondent à la description de vecteurs libres de s’orienter dans l’espace à trois dimensions et non pas à deux dimensions (molécules diatomiques ou linéaires, dipôles électriques ou magnétiques, voir figure 6.5 à gauche). Pour repérer l’orientation d’un vecteur, nous utilisons les deux angles  ∈ [0, ] et  ∈ [0, 2 ] des coordonnées sphériques. La mécanique classique nous donne l’expression de l’énergie cinétique de rotation en fonction de ces coordonnées  selon cin = [ 2 +  2 sin 2  ] avec  le moment d’inertie par rapport aux axes orthog2 onaux au vecteur2. Le mouvement de rotation autour de l’axe du vecteur, qui pourrait être pertinent physiquement pour les molécules linéaires par exemple, n’est pas pris en compte dans la limite du rotateur rigide. Cette approximation sera brièvement discutée à la fin de l’appendice. Pour une description dans l’espace des phases, il faut calculer les moments conjugués, ce qui donne  =  cin∕  =   et  = cin ∕  =   sin2 , si bien que l’hamiltonien prend la forme   2  1 2 cin =  + . (6.86) 2  sin 2  Bien que la géométrie sphérique fasse apparaître le terme non-trivial sin2  pour le terme en  , celui-ci est bien quadratique dans les moments conjugués.

2. Pour une molécule diatomique, en forme d’altères, de longueur  pour deux atomes de masses , nous aurons  = 2 ∕4. 131

Chapitre 6 • Systèmes non isolés – Ensembles canonique et grand-canonique

Exercice 6.14 Raisonnement dans l’espace des phases Appliquons ce résultat au calcul de la moyenne thermique de l’orientation d’un  =   . Comme dipôle électrique en présence d’un champ électrique externe   Notons que le volà l’exercice 6.12, son énergie potentielle est donnée par − ⋅ . ume élémentaire d’intégration dans l’espace des phases est ici d dd d . 1/ Donner sous forme d’une intégrale la fonction de partition  d’un seul dipôle, puis la calculer. En déduire son énergie libre  .  2/ Après avoir montré que le dipôle moyen vaut   = − , l’exprimer en fonction  de ∕   à l’aide de la fonction de Langevin () = coth() − 1∕ (représentée sur la figure 6.6). Discuter physiquement les comportements limites    et 1      . Au voisinage de l’origine on donne coth() ≃ + .  3

Exercice 6.15 Raisonnement avec la loi de Boltzmann Retrouvons ce résultat par un argument basé sur la loi de Boltzmann. Cette présentation est assez courante car ne faisant pas appel à la partie cinétique de l’énergie. 1/ Lorsque  = 0, quelle est la probabilité d’avoir les angles (,  ) ? 2/ Utiliser la loi de Boltzmann restreinte à l’énergie potentielle pour déterminer la densité de probabilité ( ) d’avoir l’angle  pour   0. 3/ Retrouver le résultat de l’exercice 6.14 pour   et comparer les deux approches.

B.3 Traitement quantique du rotateur rigide L’étude du rotateur rigide est un exemple classique d’application de la théorie du moment cinétique en mécanique quantique. En effet, l’énergie cinétique s’exprime dans 2  selon cin =  . Rappelons ce cas simplement en fonction du moment cinétique  2 2 que le moment cinétique est quantifié de la façon suivante : les valeurs possibles de  sont 2 𝓁 (𝓁 + 1) pour 𝓁 = 0, 1, 2, ⋯ entier et les valeurs possibles de la projection de  selon un axe (souvent choisi pour être ) sont  pour −𝓁 ⩽  ⩽ 𝓁 à 𝓁 donné, soit 2𝓁 + 1 valeurs possibles. Dès lors, les valeurs possibles de l’énergie cinétique sont 2 cin,𝓁 = 𝓁 (𝓁 + 1). Une première application de ce résultat sera la contribution du 2 degré de liberté de rotation des molécules diatomiques (traité au chapitre 8). Dans ce qui suit, nous allons plutôt étudier le rôle de l’énergie potentielle d’un dipôle en présence d’un champ externe. Dans ce cadre, l’exemple incontournable est l’étude de l’aimantation d’un dipôle magnétique noté  en fonction de la température et d’un champ magnétique externe  (on néglige la contribution du champ dipolaire au champ magnétique total). Au niveau microscopique, un exemple de dipôle magnétique permanent est souvent un ion soit en solution, soit appartenant à un réseau cristallin. Dans 132

B

Mouvements de rotation, moment cinétique et dipôles permanents en champs externes

aimantation par ion / μ B

7 1

0.5

6

5

10

15

20

Fe 3+

5 4

Cr 3+

3

1.30 K 2.00 K 3.00 K 4.21 K

2 1 0

0 0

Gd 3+

0

10

20

30

40

B / T ( mGauss/K )

Figure 6.6

À gauche : fonction de Langevin (). À droite : Aimantation moyenne par ion en fonction de  ∕ pour trois sels paramagnétiques. Dans tous les cas  = 2 (car  = 0). On a  = 3∕2 (Cr3+ ),  = 5∕2 (Fe 3+) et  = 7∕2 (Gd 3+ ). Les points sont les données expérimentales et les courbes en traits pleins correspondent aux résultats obtenus en utilisant des fonctions de Brillouin (6.88) [données tirées : de W. E. Henry, Physical Review 88, 559 (1952)].

un atome ou un ion, les moments magnétiques appréciables sont dus aux électrons en orbite autour du noyau. Leur moment cinétique  associé au mouvement de rotation est  des électrons, le une première source qui s’ajoute au moment cinétique intrinsèque  spin-1∕2. Les deux s’additionnent pour donner le moment cinétique total souvent noté  Les protons et neutrons portent également un spin 1∕2 qui peut entrer en  =  + . compte mais reste en général sous-dominant. Le moment cinétique  suit les mêmes rè à ceci près que les spin demi-entier gles de quantification mentionnées ci-dessus pour  sont autorisées. Nous utiliserons 2  ( + 1) avec  entier ou demi-entier et  avec − ⩽  ⩽  les valeurs possibles de  2 et   . Pour un atome dans l’état fondamental, la valeur de  est déterminée par la configuration électronique et reste fixée :  est donné  d’un atome est relié à  par : mais  varie. De plus, le moment magnétique 𝔪  =   = 𝔪

   , 

où  est le facteur gyromagnétique,  le facteur de Landé et 

(6.87) =

 

≃ 2 −9, 27.10−24 A.m 2 le magnéton de Bohr. Le facteur de Landé  est une constante sans dimension, typiquement de l’ordre de l’unité.3 . L’énergie (potentielle) magnétique s’écrit 3. Si le moment angulaire du dipôle est seulement causé par le spin électronique, alors  = 2. Si il est seulement causé par le mouvement orbital, alors  = 1. Si son origine est mixte on a  = 3∕2 + [( + 1) −  ( + 1)]∕[2 ( + 1)] où  et  sont les nombres quantiques angulaires intrinsèque et  i.e. les trois nombres orbital.  est le nombre quantique associé au moment cinétique total  =  + , satisfont la règle du triangle (cf. par exemple le problème 13.1 de [35]). 133

Chapitre 6 • Systèmes non isolés – Ensembles canonique et grand-canonique

mag = −𝔪  ⋅  (énergie Zeeman). Les valeurs possibles de l’énergie sont donc de la forme   = −  , avec  ∈ {−, − + 1, ⋯ , +  }.

Exercice 6.16 Paramagnétisme de Brillouin Nous étudions la réponse d’un ensemble de moments magnétiques quantiques, supposés indépendants. Ce problème a été considéré originellement par Brillouin. 1/ En posant  =  , exprimer sous forme d’une somme la fonction de partition  d’un seul moment. Faire d’abord le calcul explicitement pour le cas du spin 1∕2 ( = 1∕2), puis dans le cas général en utilisant l’astuce de considérer e. Vérifiez que vous retrouver bien le résultat précédent. 2/ La mécanique quantique assure que les contributions au moment moyen selon  et  sont nulles. Montrer que l’aimantation moyenne selon  est reliée à une dérivée de l’énergie libre  . Effectuer le calcul pour exprimer 𝔪 C à l’aide de la fonction de Brillouin         1 1 1  − coth   () =  + coth  + . (6.88) 2 2 2 2  1 3/ Pour  → 0, on a coth() ≃ + . Analyser les comportements limites en  3 fonction de   ∕  puis déterminer pour chaque ion la valeur de  dans les résultats expérimentaux de la figure 6.6.

134

Entraînez-vous Exercice 6.17 Distribution canonique et principe d’entropie maximale Une autre approche pour obtenir la distribution canonique est de partir du « principe d’entropie maximale » et d’utiliser la méthode des multiplicateurs de Lagrange (Annexe A du chapitre 4 page 66). Chercher la distribution  {𝓁 } qui maximise l’entropie de Gibbs-Shannon sous les 𝓁 = 1 et 𝓁 𝓁 = . deux contraintes 𝓁

𝓁

Exercice 6.18 Entropie de Rényi – Un autre ensemble canonique ? On a introduit l’entropie de Rényi dans l’exercice 4.2, éq. (4.30), et avons montré que sa maximisation (sans autre contrainte que la normalisation) conduit à la distribution uniforme. a) Reprendre la logique de l’exercice 6.17 en appliquant la méthode des multiplicateurs de Lagrange (Annexe A du chapitre 4 page 66), déduire la « distribution de Rényi canonique ». Vérifier qu’on peut retrouver la distribution canonique standard pour  → 1. b) Nous considérons un système caractérisé par un spectre des énergies borné seulement inférieurement et décrit par une densité d’états  ( ) ∝ −1 . Montrer que l’exposant  est alors contraint.

Problème 6.1 Équilibre chimique et loi d’action de masse On considère un gaz de 0 molécules de chlore Cl2 dans une enceinte de volume  maintenue à température  . À cause de l’agitation thermique les molécules peuvent se dissocier en deux atomes de chlore : Cl2 ⇋ 2 Cl Nous étudions l’équilibre entre les deux gaz (d’atomes et de molécules), qui seront traités dans l’approximation semiclassique. 1/ Nous notons 1 le nombre d’atomes de chlore et  2 le nombre de molécules de dichlore non dissociées. Nous supposons connues les énergies libres 1( 1) et  2 (2) des deux gaz (monoatomique et moléculaire). Justifier que la fonction de partition canonique du mélange s’écrit comme 0    −  1(2(0− 2 ))+2 (2 ) = e (6.89)  2=0

2/ Dans la limite thermodynamique, quelles valeurs de 2 minimisent-elles la somme ? Déduire une équation qui relie les deux potentiels chimiques 1 et 2. 3/ Loi d’action de masse.– Discuter la dépendance en 1,2 des fonctions de partitions  1,2 des gaz monoatomique et moléculaires. On introduit les densités 1,2 = 1,2 ∕ . Déduire que la condition obtenue dans la question précédente peut se mettre sous la forme 21 =  ( ) (6.90) 2 où  ( ) est une fonction de la température et des paramètres microscopiques (qui sera calculée dans l’exercice 8.9). 135

Chapitre

7

Vue d’ensemble des outils de la physique statistique

Donner une vue d’ensemble sur les différents « modes opératoires » de la physique statistique

1

L’équivalence des ensembles

2

Transformations thermodynamiques

Comprendre le lien entre les différents ensembles

3

La physique statistique : mode d’emploi

Les deux chapitres précédents ont présenté trois principaux « ensembles » de la physique statistique : microcanonique, canonique et grand canonique. Chacun correspond à des occupations des microétats particulières, i.e. des macroétats {𝓁∗ }, {𝓁C } ou { 𝓁G }. À ce stade, plusieurs questions se posent : quel ensemble doit-on choisir ? Est-il nécessairement déterminé par la situation physique ou bien pour simplifier les calculs ? Les résultats obtenus dans les différents ensembles seront-ils différents ? Ce chapitre va répondre à cet ensemble de questions et montrer qu’à la limite thermodynamique, les résultats sur les fonctions thermodynamiques sont indépendants du choix de l’ensemble. La démonstration permettra d’identifier les relations entre ensembles et de revenir sur les liens entre physique statistique et thermodynamique. Nous conclurons par une présentation synthétique des principaux outils maintenant à notre disposition.

1

L’équivalence des ensembles

1.1 Relation entre les ensembles microcanonique et canonique Nous avons rencontré les mêmes notions (pression, température, entropie, etc) dans deux cadres assez différents : l’ensemble microcanonique et l’ensemble canonique. L’existence de plusieurs « boîtes à outils » permettant d’analyser un système macroscopique soulève donc la question de la comparaison entre les prédictions obtenues dans les divers cadres. Cette comparaison est d’autant plus nécessaire que les distributions 136

1

L’équivalence des ensembles

sont très différentes. Si nous introduisons la fonction  (𝓁 −  ) telle que, pour  donnée,  (𝓁 − ) = 1 si  ⩽  𝓁 ⩽  +  et ( 𝓁 − ) = 0 sinon, nous pouvons écrire la distribution microcanonique comme 𝓁∗ ∝  (𝓁 −  ). Au contraire, la distribution canonique, 𝓁C ∝ e− 𝓁 , est non nulle pour toute énergie. Résumons les deux constructions microcanonique et canonique : () un comptage des microétats, affectés d’un poids, correspondant à Ω() ou à  ( ), () l’obtention d’un potentiel thermodynamique, ∗ ou  , () la déduction des propriétés thermodynamiques par dérivation partielle de ∗ et  par rapport à leurs arguments. Ensemble microcanonique

Ensemble canonique

Système isolé,  fixée à  près

système thermostaté,  fixée Thermostat

,T

δE

Ω() =



( 𝓁 − ) =  ( )

(  ) =

𝓁

 ∗𝓁 =

1   ( 𝓁 −  ) Ω()





e −𝓁

𝓁

Pl C

Pl * E

El

𝓁C =

1 −𝓁 e 

kB T

 () =  ln Ω( )

 (  ) = −  ln  ( )

1∕ ∗() =  ∗ ∕

 ( ) = −

C

El

 ln  ( ) 

L’étude d’un exemple va nous conduire à l’assertion suivante, qui sera justifiée plus généralement par la suite : les propriétés thermodynamiques obtenues dans les différents ensembles sont les mêmes. On parlera de l’équivalence des ensembles, qui est valable dans la limite thermodynamique  → ∞. Nous pouvons donc garder en tête que l’équivalence ne sera pas strictement réalisée pour les systèmes de taille finie avec  petit, comme les agrégats ou les noyaux atomiques, mais également en présence de forces à longue portée comme en astrophysique avec la loi de la gravitation.

1.2 Analyse d’un exemple : le cristal paramagnétique Le cristal paramagnétique de spin 1∕2, un système à deux niveaux introduit page 39 (cf. § 2.2 du chapitre 3), nous a servi d’exemple d’application. Comparons les résultats des analyses microcanonique et canonique. Dans le traitement microcanonique des 137

Chapitre 7 • Vue d’ensemble des outils de la physique statistique

sections 2.2.d et 3.1.h du chapitre 5, l’entropie prenait la forme         1 − ∗ 1 − ∗ 1 + ∗ 1 + ∗ ∗ ln + ln  () = − 2 2 2 2

(7.1)

où  ∗ =  ∕ , impliquant que la température microcanonique est donnée par   ∗  1 −  1  ∗ = . (7.2) = ln    ∗ ( ) 2 1 + ∗ def

L’analyse canonique correspondante (§ 1.5.a du chapitre 6) donne l’énergie moyenne C

C

 ( ) = − th  C =  

def

avec C =

 .  

(7.3)

Il est évident que l’inversion de (7.2) prend la forme ∗ = − th ∗ équivalente à (7.3). Le cas de l’entropie, la fonction fondamentale dans l’ensemble microcanonique, mérite également d’être discuté : nous partons de (6.30),  C∕() = ln(2 ch  C)− C th  C = C  C + ln(1 + e−2 ) − C th  C . Réexprimant  C en fonction de C , nous arrivons 1−C  C 1 − C 1 2 à  C∕(  ) = ), qui donne finalement ln( ) + ln( ) − ln( 2 2 1+C 1 − C 1 + C (1 −  C ) (1 −  C ) (1 + C ) (1 +  C)  C ∕() = − , qui coïncide avec (7.1). ln − ln 2 2 2 2 C Autrement dit,  =  ( ) comme fonction de  est la fonction réciproque de  =  ∗ ( ) comme fonction de . Sous les mêmes conditions d’identification, les entropies sont égales. Soulignons que si le calcul canonique est exact quel que soit , le résultat microcanonique repose sur l’hypothèse   1.

1.3 Analyse générale de l’équivalence entre ensembles Nous cherchons maintenant à donner une preuve générale de l’identité des résultats obtenus dans le cadre des deux ensembles. Nous considérons un système avec   1 (typiquement  ∼ 1023 ), pour pouvoir travailler avec l’ensemble microcanonique.

a) La compétition entropie-énergie Puisque la distinction entre les deux ensembles concerne l’existence ou non d’une contrainte sur l’énergie, il est naturel d’analyser la distribution de l’énergie dans l’ensemble ∗ canonique, éq. (6.19). En utilisant ( ) = e ()∕ ∕, nous voyons qu’elle s’exprime à l’aide de l’entropie microcanonique

P C () = ( )

 e− − + 1  ∗ ( ) ∝ e   ∝ e − ( ; ) , 

(7.4)

où nous avons introduit une « énergie libre »  ( ;  ) =  −   ∗( ) (stricto sensu ( ;  ) n’est pas l’énergie libre microcanonique, qui serait plutôt  ∗() =  ( ;  ∗ ()) =  −  ∗( )  ∗( )). La valeur max de l’énergie qui maximise PC ( ) def

138

1

satisfait la condition

  ( ;  )   =  



 1 ∗  −  ( ) = 0 



L’équivalence des ensembles

 ∗(max ) =  .

(7.5)

D’après la figure 5.8, la valeur la plus probable  max est le point où, dans le produit ( )e− , la forte croissance de la densité d’états (effet entropique) et la forte décroissance de l’exponentielle s’équilibrent. Cela se traduit par l’égalité des températures canonique et microcanonique. Dans le cadre de l’ensemble canonique, l’énergie est autorisée à fluctuer. Nous pourrions analyser plus en détail la distribution P C ( ), répétant ainsi l’analyse de la section 3.1 du chapitre 5 dans laquelle nous avons obtenu une distribution gaussienne    très étroite P C () ∝ exp − ( −  max)2∕(2 2 ) , avec  max ∝  et   ∝ . Puisque les fluctuations sont négligeables devant les valeurs moyennes dans la limite thermodynamique,  → ∞, on est presque dans la situation où l’énergie est fixée (distribution de l’énergie dans l’ensemble microcanonique) :

P C( ;  ) ⟶ P∗ ( ; max) = ( −  max)  →∞  canonique

(7.6)

microcanonique

Remarquons que (7.6) est uniquement schématique : la largeur de P C ( ) croît comme  , donc la distribution ne peut pas tendre vers un Dirac. Une écriture mathématiquedef ment plus correcte est d’introduire la variable aléatoire  =  ∕  dont la moyenne tend vers une limite finie  = lim  max∕ , tandis que ses fluctuations s’annulent à la limite →∞

 → ∞ ; on a bien alors () ⟶  ( − ). →∞

Le principe de minimisation de l’énergie libre et l’analyse de la distribution de l’énergie illustrent un point intéressant que nous pouvons appeler la « compétition énergie–entropie ». Puisque l’énergie libre s’exprime en fonction de l’énergie et de l’entropie comme  =  −  , sa minimisation procède d’un compromis entre énergie et entropie : le principe de maximisation de l’entropie, à combiner avec la minimisation usuelle de l’énergie. Ceci est rendu explicite dans l’expression de la distribution (7.4) de l’énergie PC ( ) dont la maximisation procède du même compromis énergie-entropie.

b) Limite thermodynamique Afin d’établir une correspondance entre les propriétés thermodynamiques déduites des deux approches, nous devons examiner le lien entre les fonctions génératrices,  ( ) et  ∗ ( ). Analysons la fonction de partition canonique :  ( ) =

 𝓁

e−𝓁 =



d () e − =

− + 1 ∗ ( ) 1  d e .  

(7.7) 139

Chapitre 7 • Vue d’ensemble des outils de la physique statistique

Dans la limite thermodynamique l’intégrale est dominée par le voisinage de max. On obtient par la méthode du col (voir page 28) :    2   −max + 1  ∗ (max ) − max+ 1  ∗ (max ) 1   2 ∗     ( ) ≃ 2 , (7.8) e = e  −   ( max)  2

d’où l’expression de l’énergie libre  ( ) = −  ln  ( ) :     ( ) = max −   ∗ (max ) −   ln 2  ≃ max −   ∗ ( max) =  (max ,  )   (ln )

où  max ( ) est implicitement une fonction de  . D’après (6.11) nous écrivons  −  ( )  − max  ( ) = +  ∗ (max) + (ln  ) . (7.9) =   Si nous passons formellement à la limite thermodynamique en faisant «  → ∞ » : l’énergie totale en valeurs rel présente des fluctuations qui deviennent négligeables C max = ( 1∕3) atives (∼ ) si bien que l’on peut négliger le premier terme  −  sous extensif.1 Finalement nous pouvons écrire C

C

C

C

C ( ) =  ∗ ( ( )) ou  ∗() =  C( ∗ ())

(à la limite thermo.) . (7.10)

De même, les prédictions de chacun des ensembles deviennent exactement égales, en particulier ∗ =  C,  ∗ = C , etc. Sans redérouler un raisonnement similaire, on se convaincra que la même équivalence se produit avec l’ensemble grand-canonique et l’ensemble canonique. Le raisonnement se fera sur les valeurs de  et  qui maximisent la loi jointe de l’énergie et du nombre ∗ de particules P G (,  ) ∝ e− ( −  ()− ) . À la limite thermodynamique où les fluctuations des grandeurs thermodynamiques sont négligeables devant leurs valeurs moyennes, il y a correspondance entre les moyennes de ces grandeurs obtenues dans le cadre des ensembles microcanonique, canonique et grand-canonique.

Remarque 1. Si les grandeurs thermodynamiques (moyennes) coïncident, il n’en est pas de même pour les fluctuations. Par exemple : les fluctuations de l’énergie dans les trois ensembles sont Var()∗ = 0, Var()C =   2  et Var()G = Var()C +  C 2  Var( )G . Voir aussi le problème 7.1 page 152.  C

1. La différence entre  et  max ne peut venir que du troisième cumulant, d’où le scaling. 140

2

Transformations thermodynamiques

Remarque 2. Si l’on peut trouver la distribution microcanonique 𝓁∗ ∝  (𝓁 −  ) un peu artificielle, ce résultat essentiel justifie que le choix d’une distribution plus régulière (comme une gaussienne centrée sur  et de largeur ) conduirait aux mêmes résultats.

2

Transformations thermodynamiques

2.1 Transformations élémentaires : point de vue microscopique Reprenons la notion de force généralisée introduite dans l’annexe A du chapitre 6. Nous considérons un système pour lequel l’entropie ne dépend que de l’énergie  et d’une grandeur  (comme le volume), soit (, ) pour l’entropie et  ( , ) pour l’énC ergie libre. Nous avons pour les différentielles d = −C d −  d en canonique et d =  ∗d ∗ − ∗ d en microcanonique (voir (6.84) et (6.85)). À la limite thermodynamique, nous pouvons utiliser l’équivalence des ensembles et identifier les grandeurs C C apparaissant dans ces expressions, en particulier prendre  =  ∗ =  et  = . Considérons maintenant une transformation quasi-statique, c’est-à-dire une transformation infinitésimale entre deux états d’équilibre macroscopique, correspondant à une variation d du paramètre . Elle n’est pas nécessairement réversible (il peut y avoir création infinitésimale d’entropie). Plaçons-nous dans l’ensemble canonique, avec une  C  𝓁 𝓁 , on tire transformation qui est donc à  constante. De  = d =



𝓁 d 𝓁 +

𝓁



𝓁

(7.11)

 𝓁 d 𝓁 .

𝓁

Le fait que d𝓁 = − 𝓁d, avec  𝓁 la force généralisée dans le microétat 𝓁, permet C

d’identifier le second terme à − d = − d , soit  −  d = 𝓁 d𝓁 . 𝓁

Calculons la différentielle de l’entropie statistique  = −

(7.12) 

 𝓁 ln 𝓁 , correspondant 𝓁  à la variation d’entropie lors d’une transformation infinitésimale. Comme d𝓁 = 𝓁  0, nous obtenons d = − ln  𝓁d 𝓁 . En remarquant que pour la distribution 𝓁

canonique − ln  𝓁 = ln  +  𝓁, il vient  d =



 𝓁d 𝓁 .

(7.13)

𝓁

Le travail élémentaire de la force généralisée -d = − d est dû microscopiquement à la modification des niveaux d’énergies. La variation d’entropie d est associée à la modification des occupations des niveaux. Pour une transformation non quasi-statique 141

Chapitre 7 • Vue d’ensemble des outils de la physique statistique

entre états d’équilibre éloignés, cette interprétation perd tout sens. Il faut alors développer une physique statistique hors de l’équilibre (cf. [22] par exemple, ou [4, 26, 29] ou les notes de cours de Master 2 [34]) pour décrire les états intermédiaires.

2.2 Le premier principe retrouvé Nous avons discuté en détail une interprétation statistique du second principe de la thermodynamique au chapitre 5. Nous voudrions maintenant avoir une interprétation statistique du travail et surtout de la chaleur reçus par le système, apparaissant dans - ext + d - ext le premier principe de la thermodynamique. Ce dernier s’écrit d = d - ext = − ext d le travail pour une transformation infinitésimale quelconque, avec d - reçue la chaleur élémentaire reçu de la force extérieure ext imposée au système et d - ext + reçue par le système. En général et comme en thermodynamique, bien que d - ext = − d +  d , on ne peut identifier les contributions termes à termes :d - ext  d - ext   d . En particulier, dans cette étude à  fixée entre le système et − d et d - ext∕ . Cependant, l’extérieure, le second principe se traduit par l’inégalité d ⩾ d pour une transformation réversible uniquement, les forces généralisées s’équilibrent - rev = − d, et par conséquence, le second à tout instant  = ext , si bien que d - rev =  d. Dans ce cas, le travail élémentaire est associé à la terme s’identifie aussi d variation des niveaux et la chaleur à la variation des populations.

3

La physique statistique : mode d’emploi

Pour clore cette première partie sur les « Fondements », prenons un peu de recul afin de percevoir la cohérence globale du cours de physique statistique. L’objet de ce résumé est de donner une vue synthétique des aspects techniques : quel est le minimum de choses vraiment essentielles à retenir ? Que doit-on calculer ? Quelle est la logique ? Le résumé est complété par le tableau de la page 146.

3.1 La description microscopique Microétats. (chapitre 3 et exemples des autres chapitres). Toute analyse doit commencer par définir la nature des microétats, notés génériquement 𝓁. Quels sont les degrés de liberté pertinents ? La description est-elle classique ou quantique ? Le problème estil séparable ? Peut-on introduire une base d’états individuels (systèmes indépendants et identiques) ? Les particules sont-elles indiscernables ? Hamiltonien. (chapitre 3). Une fois clairifiée la nature des microétats {𝓁 }, on déterminera leurs énergies {𝓁 }. 142

3

La physique statistique : mode d’emploi

Densité d’états. (chapitre 3). Cette fonction, notée ( ), permet d’effectuer le comptage des microétats d’énergie . Elle encodera souvent toute l’information microscopique qui est pertinente pour les propriétés thermodynamiques. Si les microétats peuvent être décrits classiquement, la règle de calcul semiclassique (3.28) est extrêmement efficace. Pour les problèmes de particules indiscernables, la densité des états individuels sera utile.

3.2 Le passage au macroscopique L’équilibre macroscopique. (chapitre 3). La partie de la physique statistique que nous avons présentée s’intéresse aux systèmes à l’équilibre macroscopique. Macroétat. (chapitre 3). Un système à l’équilibre est décrit par un macroétat, caractérisé par l’ensemble {𝓁 } des probabilités d’occupation des microétats. Les ensembles de la physique statistique. La construction explicite du macroétat est effectuée dans différentes situations correspondant à un choix des quantités thermodynamiques fixées qui est guidé soit par la situation physique, soit par des motivations techniques (facilité des calculs). Les différentes distributions qui en résultent sont désignées comme « les ensembles de la physique statistique », les trois plus importantes correspondant aux choix possibles entre les deux couples de variables conjuguées (,  ) et (, ) (on ne peut pas fixer  et  en même temps) : • L’ensemble microcanonique (chapitre 5) : description d’un système isolé ⇒ (,  , ⋯) fixés. Limité aux systèmes suffisamment grands (  1) afin d’assurer l’ergodicité. On retiendra 𝓁∗ = cste pour ⩽ 𝓁 ⩽  + 

(7.14)

• L’ensemble canonique (chapitre 6) : description d’un système en contact avec un thermostat ⇒ ( , , ⋯) fixés. On retiendra 𝓁C ∝ e− 𝓁

(7.15)

• L’ensemble grand-canonique (chapitre 6) : description d’un système en contact avec un réservoir de particules ⇒ ( , , ⋯) fixés (deviendra indispensable pour l’étude des statistiques quantiques dans la dernière partie du livre). On retiendra 𝓁G ∝ e − (𝓁−𝓁 )

(7.16)

Les fonctions de partition. Chacun des ensembles introduit une fonction qui dénombre les microétats en leur affectant un poids particulier, qui sont donc les inverses des constantes de normalisation des distributions (7.14,7.15,7.16). Ces fonctions s’interprètent comme des fonctions génératrices : 143

Chapitre 7 • Vue d’ensemble des outils de la physique statistique

Microcanonique : le nombre de microétats accessibles Ω(,  , ⋯). Canonique : la fonction de partition ( , , ⋯). Grand-canonique : la grande fonction de partition Ξ( , , ⋯). Les définitions des trois fonctions de partitions découlent simplement des formes (7.14), (7.15)et (7.16), qui sont finalement les seules informations à retenir. Par exemple, = e− 𝓁 permet de normaliser (7.15). 𝓁

Évolution de l’équilibre. La physique statistique permet de prédire et d’interpréter microscopiquement le sens de l’évolution des états d’équilibre lorsque les contraintes sur le système sont modifiées.

3.3 Les grandeurs thermodynamiques Les potentiels thermodynamiques. Chacun des ensembles introduit une fonction génératrice des propriétés thermodynamiques Microcanonique : l’entropie ∗ (,  , ⋯) =  ln Ω(,  , ⋯) Canonique : l’énergie libre  ( , , ⋯) = −  ln  ( ,  , ⋯) Grand-canonique : le grand potentiel  ( , , ⋯) = −  ln Ξ( , , ⋯) Les identités/relations thermodynamiques. Les autres grandeurs thermodynamiques s’obtiennent par dérivation des potentiels. Pour retrouver rapidement leurs définitions, on pourra se rappeler le lien avec la thermodynamique et effectuer une transformation de Legendre sur la relation fondamentale d =  d −  d +  d + ⋯ (cf. annexe A). Par exemple, pour retrouver la définition du potentiel chimique canonique C on procède comme suit : l’ensemble canonique correspond à  et  fixés, on doit donc considérer le potentiel fonction de ( ,  , , ⋯), qui est donc relié à l’énergie par la transformation de Legendre  =  −   ⇒ d ( ,  ,  , ⋯) = − d  −  d + def  d  + ⋯, qui montre que  C =  ∕ . Équivalence des ensembles. Le choix de l’ensemble approprié peut être motivé par des raisons techniques (exemple : l’analyse des particules indépendantes se fait naturellement dans l’ensemble canonique où la fonction de partition se factorise). Une idée importante est de retenir qu’à la limite thermodynamique (pour les systèmes possédant les bonnes propriétés d’extensivité), comme les résultats obtenus dans les différents ensembles coïncident, on pourra choisir l’ensemble qui simplifie les calculs, puis on utilisera l’équivalence des ensembles pour revenir à la situation d’intérêt. Modèles incontournables. Trois modèles sont incontournables, le gaz parfait, les oscillateurs harmoniques et le cristal paramagnétique (ou système à deux niveaux). Il faudra maîtriser parfaitement l’application des principes exposés ci-dessus dans ces situations très simples. 144

3

La physique statistique : mode d’emploi

3.4 Au delà des propriétés thermodynamiques Un lien avec les paramètres microscopiques. Les résultats gardent une trace des paramètres microscopiques et des constantes fondamentales. Cela permet soit d’accéder à ces paramètres microscopiques, à partir des propriétés observées à l’échelle macroscopique, soit de voir en principe comment le changement de ces paramètres pourrait affecter le comportement à l’échelle macroscopique. Les distributions et les fluctuations. La physique statistique permet de prédire les fluctuations de grandeurs et même leur distribution. Ces quantités sont parfois mesurables expérimentalement, ce qui fournit aussi un moyen pratique de mesurer précisément la température. Le fluctuations ont également une signification physique profonde comme en atteste par exemple (6.21) ou (10.56).

145

146

contact avec

canonique

(**)

contact avec

un réservoir

isobare

1 = e − (𝓁 +𝓁 ) 

1 − (𝓁 −𝓁 ) = e Ξ

= 1 e −𝓁  𝓁

e

−𝓁

𝓁

e 𝓁

𝓁

− ( − )

 = 𝓁

 e

− (𝓁 +𝓁 )

fct de grand partition

Ξ=



fct de partition

=



microétats accessibles

Ω(,  ,  , ⋯) : # de

Fonction génératrice

(fonction de Gibbs)

enthalpie libre

( , , , ⋯) = −   ln 

grand potentiel

( ,  , , ⋯) = −  ln Ξ

(fonction de Helmholtz)

 ( ,  , , ⋯) = −  ln  énergie libre

entropie

 ∗ (,  ,  , ⋯) =  ln Ω

Potentiel thermodynamique

(**) On traite le volume comme une variable prenant des valeurs discrètes pour simplifier les notations.

(*) pour  ⩽ 𝓁 ⩽  + 

Etc...

 𝓁ii

 , , , ...

G 𝓁

𝓁C

1  𝓁∗ = (*) Ω (postulat fond.)

Distribution

Isotherme-

de particules

un réservoir

 ,  , , ...

thermostaté

 ,  , , ... système

système isolé

,  , , ...

Paramètres extérieurs fixés

Grand

Canonique

canonique

Micro-

Ensemble

d = − d +  d +  d + ⋯  ii def  ii def d’où  = − , = , etc  

Legendre :  =  + 

d = − d − d −  d + ⋯ def def   d’où  G = − ,  G = − , etc  

Legendre :  =  − 

Legendre :  =  −   d = − d − d +  d + ⋯ def  C def  d’où  C = − , = − , etc  

d =  d − d +  d + ⋯   1 ou d = d + d − d + ⋯    1 def  ∗ ∗ def  ∗ = = d’où , , etc ∗   ∗ 

Relation thermodynamique

Chapitre 7 • Vue d’ensemble des outils de la physique statistique

Les annexes A

Potentiels thermodynamiques

Nous montrons comment retrouver rapidement les définitions des grandeurs thermodynamiques dans chacun des ensembles en utilisant les potentiels thermodynamiques construits dans le cadre de la thermodynamique classique. Considérons un fluide simple dont on note  l’énergie interne,  le volume et  le nombre de particules. Nous nous plaçons à la limite thermodynamique où ∗ =  C =  G, etc, en utilisant l’équivalence des ensembles. Les différents potentiels thermodynamiques jouent le rôle de fonctions fondamentales : la connaissance de la fonction d’état (,  ,  ), ou (,  , ), (fonction de ces trois arguments précisément et obtenue pour le gaz parfait en inversant la formule de Sackur-Tétrode (5.17)), encode toutes les propriétés thermodynamiques. Il en est de même pour la fonction  ( ,  , ), donnée par la physique statistique, dont on tire l’ensemble des propriétés 3 thermodynamiques. En revanche ( ,  ,  ) =   (l’énergie moyenne canon2 ique) ne donne aucune information sur l’équation d’état par exemple. Si d’autres paramètres entrent en jeu (un champ magnétique, un champ électrique, etc) les potentiels thermodynamiques se construisent de façon analogue.

A.1 Transformations de Legendre Partons de l’égalité fondamentale de la thermodynamique pour la fonction (,  , ) : d =  d −  d +  d .

(7.17)

Elle met en évidence trois couples de variables conjuguées ( ,  ), (,  ) et (,  ). Chaque potentiel thermodynamique est construit pour passer d’une variable à sa variable conjuguée. Pour ce faire, on part de (7.17) et on utilise une transformation de Legendre, ce qui revient ici à soustraire le produit des variables conjuguées : on définit l’Enthalpie , l’Énergie libre  , l’Enthalpie libre , le Grand potentiel  selon  =  + 



d =  d  +  d +  d

(7.18)

 =  − 



d = − d − d +  d

(7.19)

 =  +  =  −   + 



d = − d +  d  +  d

(7.20)

 =  −  =  −   − 



d = − d − d −  d

(7.21)

Les arguments des potentiels correspondent aux paramètres extérieurs fixés des ensembles de la physique statistique. Les différentielles redonnent rapidement les définitions des grandeurs thermodynamiques dans chacun des ensembles. Par exemple, dans l’ensemble canonique ayant pour jeu de variable ( ,  , ), nous voyons que l’entropie    s’écrit  C = − , la pression C = − et le potentiel chimique C = .    147

Chapitre 7 • Vue d’ensemble des outils de la physique statistique

Tableau 7.1– Les différents potentiels thermodynamiques et leurs relations. Ensemble

Variables

Potentiel thermodynamique

Relation thermodynamique   1 d = d + d − d   

microcanonique

,  , 

entropie  (,  , )

isobare

, , 

enthalpie ( , ,  )

d =  d +  d +  d

canonique

,  , 

énergie libre  ( ,  , ) (fct de Helmholtz)

d = − d − d +  d

isobareisotherme

 , , 

enthalpie libre ( , ,  ) (fct de Gibbs)

d = − d +  d +  d

grandcanonique

,  , 

grand potentiel  ( ,  , )

d = − d − d −  d

A.2 Extensivité et relation de Gibbs-Duhem Remarquons que l’extensivité de ( , ,  ), fonction d’une seule variable extensive et deux variables intensives, implique que  =  . De même,  = − (voir l’exercice 6.6 pour une démonstration). D’où les relations  = − +  ,

 =   +  ,

(7.22)

 =   −  +  .

Il faut se méfier de l’apparente simplicité de ces relations : en explicitant les dépendances dans le jeu de variables du potentiel thermodynamique, on voit qu’elles contiennent en fait peu d’information utile. Par exemple, nous avons  ( ,  , ) = −( ,  ,  )  + ( ,  ,  )  . Malgré tout, ces considérations sur l’extensivité impliquent une relation utile en thermodynamique, liant les variations des différentes quantités intensives :  ,  et  dans un fluide simple. La relation de Gibbs-Duhem d = −

  d + d  

(7.23)

s’obtient en écrivant par exemple d = − d +  d +  d =  d  +  d .

A.3 Relations de Maxwell En écrivant l’égalité des dérivées croisées pour les différentielles des potentiels thermodynamiques, nous obtenons des relations non triviales entre dérivées partielles. Par exemple, comme d = − d − d  +  d est une différentielle exacte, nous avons 

148

 





 =   ,

  ,



 , − 





 =   ,



 , −  ,

 



 =  ,

 

 .  ,

(7.24)

B

B

Transformation de Legendre : l’exemple des partitions d’un entier

Transformation de Legendre : l’exemple des partitions d’un entier

Nous donnons un éclairage probabiliste sur l’équivalence entre ensembles de la physique statistique en considérant le problème combinatoire de la partition des entiers. L’étude de cette question sera l’occasion d’insister sur le rôle de la transformation de Legendre. Considérons le problème des partitions d’un entier : combien y a-t-il de manières d’écrire l’entier  ∈ ℕ comme somme de nombres entiers ? Par exemple, nous pouvons écrire 4=1+3 =2+2 =1+1+2 =1+1+1+1,

(7.25)

i.e. il y a 5 façons de décomposer 4 (n’oublions pas la première qui correspond à 4 + 0). Dans une partition, chaque entier plus petit peut apparaître plusieurs fois : nous notons   le nombre d’occurrences de l’entier . Une partition est donc caractérisée par l’ensemble { }∈ℕ ∗ de ces facteurs, que nous appellerons des « facteurs d’occupation », en cohérence avec le chapitre 11. L’entier s’exprime comme : =

∞ 

(7.26)

 

=1

(notons que nous aurions aussi bien pu limiter la somme à  plutôt que l’infini puisque  = 0 pour  > ). Considérons un exemple : 1 + 1 + 2 = 2 × 1 + 1 × 2, i.e. la partition est décrite par les facteurs 1 = 2,  2 = 1 et   = 0 pour  > 2. Nous pouvons maintenant écrire une formule pour le nombre de partitions de  : Ω( ) =



 ,



{ }

  



 {}



∞  ∞ 



(7.27)

1=0 2 =0

dénote la sommation sur toutes les partitions. Le calcul de la somme multiple est rendu difficile à cause de la contrainte (7.26). Pour contourner le problème, nous introduisons la fonction génératrice  ∞ ∞ ∞ ∞  ∞     def          ⋯  Ω( ) = ⋯  () = , (7.28) = 1 =0

=0

 =0

=1

  =0

dont le calcul est rendu élémentaire grâce à la factorisation. L’idée maîtresse, en introduisant la fonction génératrice, a été de lever la contrainte sur  qui rendait le calcul direct de la somme (7.27) inextricable. Finalement () =

∞ 

1  =1 1 − 

pour  < 1 .

(7.29)

149

Chapitre 7 • Vue d’ensemble des outils de la physique statistique

Exercice 7.1

On introduit  () = − ln (). Pour  → 1− , on peut transformer la somme en ∞ ∞    d. Déduire que  () ≃ 2 ∕ 6 ln  . Indication : utiliser intégrale → 0 =1 (A.11) pour  = 2 avec une intégration par parties. def

Le problème est maintenant de revenir au nombre de partitions Ω( ), connaissant (). Puisque Ω( ) est le coefficient du terme  de la fonction analytique (), nous pouvons écrire Ω( ) =

d () d () = e +1  2i   2i

avec  () = − () − ( + 1) ln 

(7.30) où le contour d’intégration dans le plan complexe de la variable  entoure une fois l’origine dans le sens direct (en respectant  < 1). Une analyse détaillée montrerait que, dans la limite   1, l’intégrale est dom() est stationnaire (le contour peut toujours être inée par le point ∗ où la fonction   ′ () = 0 est ∗ ≃ exp[−∕ 6 ]. déformé pour visiter ce point). La solution de   Finalement on obtient sans peine 

Ω( ) ∼ e  (∗ ) ≃ e →∞



2∕3

(7.31)

.

Exercice 7.2 Facteur pré-exponentiel (Hardy & Ramanujan, 1918)

Un développement plus précis de la fonction  () est   2 2 1 +⋯ + ln  () = 6 ln  2 − ln 

(7.32)

Déduire l’expression Ω( ) ≃

→∞

 1  2∕3 . e  4 3

(7.33)

La formule (7.33) a été obtenue en 1918 par deux mathématiciens ayant apporté des contributions importantes à la théorie des nombres, Godfrey H. Hardy et Srinivasa Ramanujan.

Interprétation physique. Le problème que nous analysons ici correspond à un problème de bosons dans un puits harmonique 1D, sans loi de conservation sur le nombre  ( ) = ln Ω( ) = debosons.  s’interprète comme l’énergie d’excitation et  ∗  2 ∕3 correspond à l’entropie. Introduisons une échelle d’énergie , nous écrivons ∗ ∗   =  , d’où  =   ln Ω() =    2∕(3). Nous déduisons  = 6∕ ce qui permet de reécrire l’entropie sous la forme ∗ = (2 ∕3)2 ∗ ∕() (cf. problème 11.1 page 254). 150

2

Transformation de Legendre : l’exemple des partitions d’un entier

Ce qui est utile de retenir pour la suite : origine de la transformation de Legendre. Pour la suite du cours, le point le plus intéressant de l’analyse que nous venons de présenter est l’obtention du résultat (7.31). Afin de souligner ce point, nous reprenons le schéma de la discussion en utilisant des notations plus proches de celles qui sont apparues aux chapitres 5 et 6. Nous rebaptisons le nombre partitionné  →  ∈ ℕ ainsi que le paramètre conjugué  →  = − ln . Le problème de la détermination du nombre de partitions Ω() a été décomposé en deux étapes : d’une part l’introduction de la fonction génératrice   ( ) = Ω() e − , (7.34) 

i.e.  ( ) = ( = e− ), a conduit au calcul élémentaire  ( ) = − ln  ( ) =

∞ 

  2 . ln 1 − e − ≃ − 6 =1

(7.35)

Dans ces nouvelles variables, la transformation inverse (7.30) prend la forme 0 +i

Ω() =

 0−i

d − ( ) e ∼ e  ( ) →∞ 2i

(7.36)

(ce qui correspond à intégrer sur un cercle de rayon  = e− 0 < 1 dans le plan complexe de ). « L’entropie » est reliée à « l’énergie libre » par la transformation de Legendre  ( ) =  ∗  −  (∗ )



  ( −  ( ))  = 0 ∗ 

(7.37)

 L’application, élémentaire, donne  6 , qui nous conduit bien à  () ≃ ≃  ∕ ∗   2∕3, un résultat non trivial.

151

Entraînez-vous Exercice 7.3 Gaz parfait ultrarelativiste Nous étudions les propriétés thermodynamiques d’un gaz de   1 particules indiscernables ultra-relativistes confinées dans un volume  avec  fixé. L’hamiltonien du système est de la forme =

 

   

pour  ∈ volume  ∀  .

(7.38)

=1

 est la célérité de la lumière. On adopte une description semiclassique. Passer par la description canonique permettra de déduire facilement la densité d’états. 1/ Exprimer la densité d’états intégrée Φ() comme une intégrale dans l’espace des phases. Déduire que la densité d’états ( ) est de la forme ( ) = 



    d 1 ⋯ d    −    3

3

(7.39)

=1

où  est une constante à déterminer. Peut-on mener à bien le calcul ? 2/ La fonction de partition et la densité d’états sont reliées par une transformation de Laplace, éq. (6.18) : () =

0



d () e−

(7.40)

Montrer que  ( ) s’écrit en termes d’intégrales séparables. Exprimer la fonction de partition pour une particule sous la forme  =  ∕3 , où   est la longueur thermique ultrarelativiste. Déduire  ( ). 3/ En utilisant l’identité − =

∞ 1 d  −1 e− , montrer que Γ() 0

Φ() =

(8 )     3 . ! (3)! 

(7.41)

4/ Microcanonique. Donner l’expression de l’entropie ∗ (,  ,  ). Déduire la température et la pression. 5/ Canonique. Comparer à l’équation d’état calculée dans l’ensemble canonique.

Problème 7.1 Équivalence des ensembles (moyennes) mais inéquivalence des fluctuations Si les propriétés thermodynamiques obtenues dans le cadre des différents ensembles de la physique statistiques sont équivalentes (les moyennes des grandeurs physiques), il n’en est pas de même pour les fluctuations en général. Nous étudions un gaz parfait d’atomes de masse  contenu dans une enceinte fermée par un piston de section , sur lequel s’exerce une force 152

Entraînez-vous

extérieure constante  (figure 7.1). L’hamiltonien (pour les  atomes et le piston) est =

2 2

++

   2 =1

(7.42)

2

où  et  sont la position et l’impulsion du piston, supposé glisser sans frottement.

f 0

X

Figure 7.1– Enceinte fermée par un piston sur lequel une force 𝒇 est exercée.

A. Description canonique. 1/ Quelle est la probabilité canonique d’occupation d’un microétat ? 2/ À  ∈ ℝ+ fixée, quel volume est accessible à un atome ? Calculer la fonction de partition canonique  du système . On exprimera  en fonction de la longueur thermique des atomes, notée  . Déduire l’énergie libre  ( , , ). C

C

3/ Calculer la moyenne de l’énergie cinétique cin et de l’énergie  . C

4/ Montrer que la position moyenne du piston est donnée par  = + est le sens physique de l’équation obtenue ?

 et la calculer. Quel 

 C 2 5/ Montrer que les fluctuations de la position de la paroi sont données par  = Var() = 2 1  ln  et les calculer. Que peut-on dire des fluctuations relatives ?  2  2 B. Analyse microcanonique.– L’énergie est séparée en deux contributions  = cin + pot , ce qu’on peut considérer formellement de la même manière qu’un « contact thermique » entre ∗ et  ∗ (chap. 5). deux systèmes, caractérisés par deux entropies cin pot 1/ En utilisant l’équivalence des ensembles, donner la dépendance en énergie des deux entropies. 2/ En utilisant l’analyse des fluctuations du § 3.1 du chapitre 5, montrer que les fluctuations ∗ 3     2 de la paroi sont données par (∗ ) 2 ≃ (pour   1). Quelle est l’origine de la 5  différence entre C et ∗ ?

153

Chapitre 7 • Vue d’ensemble des outils de la physique statistique

Problème 7.2 Ensemble isotherme-isobare Nous étudions l’équilibre entre deux gaz en contact avec le même thermostat à température  , contenus dans deux parties d’un récipient séparé en deux volumes  1 =   et 2 =  ( − ), où  est la section de la paroi mobile (figure 5.12 page 87 où  ∈ [0, ] est la position de la paroi). 1/ Exprimer la fonction de partition canonique 12 en fonction des fonctions de partition des deux gaz 1 ( 1) et  2(2 ), supposées connues. 2/ Donner l’expression de la probabilité d’occupation d’un microétat 𝓁 du gaz 1. 3/ Par la suite, nous considérons la limite 2  1, i.e. une situation où l’échange de volume entre les deux sous systèmes affecte peu le gaz 2 qui peut ainsi être considéré comme un « réservoir de volume ». Nous notons   2 la pression du réservoir de volume. Montrer que la probabilité d’occupation d’un microétat du système 1 est  ii𝓁 =

1 − (𝓁 + 𝓁) e 

(7.43)

où 𝓁 est le volume caractérisant le microétat. Donner l’expression de  . def

4/ Nous introduisons l’enthalpie libre  = −  ln  . Exprimer le volume moyen en fonction de  . Calculer l’entropie  ii dans l’ensemble isobare-isotherme.

Problème 7.3 Gaz 1D de particules en interaction Nous montrons l’intérêt de l’ensemble isotherme-isobare, qui permet d’étudier (sans approximation) un problème de particules en interaction. Considérons  particules se mouvant sur une ligne (par commodité nous plaçons aussi une particule numéro 0 à l’origine, 0 = 0). Les particules voisines interagissent via le potentiel à deux corps ( −  −1) (figure 7.2).

L ξn 0 1 2

...

x 0=0 x1 x 2 ...

n

... N

xn

... xN

p

Figure 7.2 – Particules en interaction se déplaçant sur une ligne.

A. Ensemble canonique. Plaçons-nous dans la situation canonique où le « volume »  =   est fixé. La ème particule est immobile et l’hamiltonien du gaz est =

 −1  =1

2 2

+

 

( − −1 ) .

(7.44)

=1

Donner l’expression de la fonction de partition canonique  ( ) sous la forme d’une intégrale multiple sur les coordonnées des particules. On introduira la longueur d’onde thermique Λ  =  22 ∕  . Peut-on calculer cette intégrale ? 154

Entraînez-vous

B. Ensemble isotherme-isobare. On libère la contrainte sur le « volume »  =  en considérant la situation où la pression  est fixée (notons que dans la situation unidimensionnelle, « une pression est une force »). 1/ Soit  () la fonction de partition de l’ensemble isotherme-isobare. Montrer que  ( ) =

0



d  ( ) e− . Λ

(7.45)

Montrer que l’intégrale multiple est maintenant séparable. def

2/ On introduit l’enthalpie libre  = −  ln  . Justifier que le « volume » moyen est donné par  = ∕. 3/ « Sphères » dures. On considère la situation où le potentiel d’interaction décrit des « sphères dures » de « diamètre » , i.e. ( ) = 0 pour  >  et ( ) = +∞ pour  < . Déduire l’équation d’état du gaz. Tracer la pression  en fonction de la densité moyenne  =  ∕.

155

Chapitre

8

Description classique des gaz

Cerner les différents aspects de l’étude des phases diluées.

1

Gaz parfait monoatomique

2

Densité spatiale en présence d’un champ extérieur et distribution des vitesses

3

Capacité calorifique des gaz parfaits moléculaires

4

Rôle des interactions dans les gaz

Insister sur le découplage des degrés de liberté dans les gaz moléculaires. Introduire la notion de gel (quantique) de certains degrés de liberté. Étudier les corrélations induites par les interactions.

Dans la première partie, l’exposé des grands principes de la physique statistique a été illustré sur un certain nombre d’exemples. Bien que ces quelques modèles étaient très élémentaires, ils ont néanmoins fourni une grille d’analyse pertinente de plusieurs phénomènes (paramagnétisme des solides, thermodynamique des gaz,...). Le bagage acquis dans la première partie nous permet maintenant de voyager dans de grands domaines de la physique : les états fluides, le magnétisme, les cristaux et leurs vibrations, et enfin la thermodynamique du rayonnement électromagnétique. Ces résultats constituent autant de grands succès de la physique statistique de la première moitié de XXe siècle et sont essentiels à aborder car ils servent de socle à une compréhension plus fine de ces systèmes et de leurs extensions contemporaines. Le premier domaine d’application, que nous abordons dans ce chapitre, est celui des gaz, qui a systématiquement à la fois inspiré et servi de banc d’essai pour la thermodynamique et la physique statistique. Ce chapitre présente les résultats obtenus lorsque le mouvement de translation des particules est traité classiquement, ce qui est toujours justifié dans les conditions de température et de pression normales des gaz atomiques ou moléculaires (les effets quantiques d’échanges entre particules seront discutés dans la troisième partie, au chapitre 11). L’étude des gaz moléculaires révèlera cependant des effets de la quantification des degrés de liberté internes à la molécule (rotation et vibration) qui se manifestent même à température ambiante (§ 3).

1

Gaz parfait monoatomique

Nous commençons par rappeler les propriétés du gaz parfait monoatomique. L’hamiltonien décrivant le mouvement des atomes de masse  est la somme de leurs énergies 156

1

Gaz parfait monoatomique

cinétiques. Le modèle du gaz parfait a servi d’illustration aux formalismes associées aux différents ensembles. Nous nous placerons ici dans le cadre canonique, qui est le plus simple techniquement et conceptuellement. Certaines propriétés thermodynamiques ont été obtenues dans le § 1.6 du chapitre 6, basées sur le calcul de la fonction de partition canonique associée au degré de liberté de translation des atomes   1   = trans avec  trans = (8.1) ! Λ 3  def où Λ = ∕ 2 est la longueur thermique. On a déduit les différentes grandeurs thermodynamiques : énergie libre, énergie, entropie, potentiel chimique et pression,    =   ln( Λ3 ) − 1 , (8.2) 3   , 2    e5∕2  =  ln ,  Λ 3

(8.3)

 =   ln( Λ3 ) ,

(8.5)

 =    ,

(8.6)

=

(8.4)

où  =  ∕ est la densité moyenne (nous utiliserons des notations allégées pour C décrire la limite thermodynamique :  →  ,  C → , etc). L’expression de l’énergie nous permet d’obtenir la capacité calorifique du gaz monoatomique 3  . (8.7) 2 En utilisant la relation de Mayer  −  =  , nous déduisons le paramètre con =

def

trôlant les transformations isentropiques  =  ∕ = 5∕3 (l’équation de l’isentrope est   = cste). Rappelons que tous ces résultats ne sont valables que dans la limite diluée Λ3  1 (à l’exception notable de l’équation de l’isentrope   = cste qui décrit également le régime quantique, cf. problème 5.1 page 98).

Ordres de grandeur dans un gaz d’Argon Considérons une mole,  ≃ 6 × 1023, de gaz parfait monoatomique, par exemple de l’argon 40 18Ar, dans les conditions normales de température et de pression ( = 300 K et  = 1 atm). La longueur thermique est Λ ≃ 0.15 Å.

Volumes. Le gaz occupe un volume  = 24 𝓁. Nous pouvons introduire un volume def disponible par atome Δ3 =  ∕ = 1∕ ≃ 40 000 Å 3. La distance typique entre atomes est Δ ≃ 34 Å Λ , ce qui justifie de considérer le régime dilué. 157

Chapitre 8 • Description classique des gaz

3   ≃ 2  40meV, à laquelle nous faisons correspondre une échelle de vitesse ( ∕  = (1∕2)2 ) : 1 Δ 2, nous introduisons le volume Δ 3  ≃ 430 m/s. En écrivant plutôt  ∕ = 2 disponible par atome dans l’espace des impulsions.

Énergie et vitesse. L’énergie (cinétique) moyenne d’un atome est  ∕  =

Entropie et nombre d’états accessibles. Il est intéressant de  réécrire l’entropie (8.4)   sous la forme suggestive  = 3 ln  ΔΔ∕ où  = 6 e5∕6 ≃ 9.98. L’application numérique donne ΔΔ∕ ≃ 160, ce qui permet d’estimer l’entropie par atome et le nombre de microétats accessibles du gaz isolé : 23  ≃ 3 ln(1600) ≃ 22 et Ω = e ∕ ∼ 10 8×10 . (8.8) 

2

Densité spatiale en présence d’un champ extérieur et distribution des vitesses

2.1 Densité spatiale La situation où le système est soumis à un champ de force extérieur est courante. Quelques exemples sont : un gaz dans le champ de gravitation, des particules chargées soumises à un champ électrique, des atomes dans un piège harmonique (chapitre 13). Dans ce cas une première question est de déterminer la densité moyenne de particules () en fonction de la position . Nous considérons dans un premier temps le cas de particules sans interaction décrites par l’hamiltonien  2      (1 , … , ) = +  ( ) (8.9) 2 =1 (l’effet des interactions sur la densité sera discuté brièvement à la fin du paragraphe). Les particules étant indépendantes, on peut appliquer la loi de Boltzmann donnant la densité de probabilité dans l’espace des phases d’une seule particule 2

e− ( 2 + ( )) C (,  ) = 3 



=

d3 d3  − ( 2 + ( )) d 3 − ( ) . (8.10) e 2 = e   Λ3 3 

La densité de particules est proportionelle à la loi marginale de la position : () = 



d3  C (,  ) =

 − ( ) e− ( ) = , e  d3  e− ( ) Λ3 

(8.11)

Si l’on prend comme référence la densité 0 dans le fluide lorsque le potentiel s’annule, nous pouvons écrire plus simplement () = 0 e− () .

158

(8.12)

2

Densité spatiale en présence d’un champ extérieur et distribution des vitesses

Exercice 8.1 Atmosphère isotherme Pour un gaz soumis au champ gravitationnel  à  constante, déterminer le profil de la densité du gaz  () en fonction de l’altitude .

Effet des interactions. Dans le cas d’un fluide de particules en interaction, la discussion devient bien plus compliquée car les positions des particules ne sont plus indépendantes et il y aura une compétition entre énergie potentielle et énergie d’interaction. Cependant, dans la limite où le potentiel extérieur varie lentement par rapport aux échelles où le fluide apparaît localement homogène ( ( ) = 0), l’approximation de la densité locale est généralement valide. Elle consiste à considérer le fluide à l’équilibre à température  avec un potentiel chimique fixé  et utiliser la courbe 0 ( ;  ) qui donne la densité 0 en fonction de  pour le système homogène. On notera 0 (;  ) l’inverse de cette courbe. L’approximation consiste à dire que la densité locale ( ) s’ajuste pour assurer la constance du potentiel chimique à travers le fluide (ce qui est nécessaire à l’équilibre) selon 0 (( );  ) +  ( ) =  . Le profil de densité est obtenu en inversant cette relation ( ) = 0 ( −  ( );  ).

Exercice 8.2 Approximation de la densité locale Montrer que pour un gaz parfait, l’approximation de la densité locale redonne (8.12).

2.2 La distribution de Maxwell-Boltzmann Un raisonnement similaire permet d’obtenir la distribution des vitesses des atomes. La loi marginale de l’impulsion est donnée en intégrant la loi de Boltzmann (8.10) cette fois sur la position, ce qui conduit à la densité de probabilité des vitesses dans le gaz

( ) = 

3



 3

C

d   (,  )



( ) =

 2

3∕2 

− 1  2 2

(8.13)

Notons que la factorisation de la gaussienne permet de conclure à l’indépendance des composantes de la vitesse, i.e. distribution de la forme ( ) =  ( ) ( ) ( ) avec     () = ∕(2) exp − (∕2) 2 . On déduit les propriétés élémentaires    ,, = 0 et  ,, = . (8.14)  La distribution de l’une des composante est représentée sur la figure 8.1.

Remarques. • La loi de Maxwell (8.13) s’applique également au gaz moléculaire (§ 3), dont l’énergie cinétique de translation prend la même forme que celle du gaz atomique. Elle décrit alors la distribution des vitesses des centres de masse des molécules. 159

Chapitre 8 • Description classique des gaz 0.6 0.4

150 K 300 K 600 K

0.5

0.3 0.4 0.3

0.2

0.2 0.1 0.1 0

0 -1000 -500

0

500

m.s

1000

0

500

1000

1500

m.s-1

-1

Figure 8.1 Distributions de la composante   et du module  de la vitesse des particules dans le diazote N2 pour trois températures typiques.

• La présence d’interaction dans le gaz n’altère en rien le résultat (8.13). On pourra s’en convaincre aisément par inspection de la structure de la distribution canonique C (1, ⋯ ,  , 1 , ⋯ , ) ∝ e−  cin ({ }) e− ({  })

(8.15)

où  est l’énergie d’interaction, par exemple (8.33) plus bas. La loi de Maxwell repose essentiellement sur le découplage classique entre les positions et les impulsions.

Exercice 8.3 Montrer que la loi marginale du module  =   de la vitesse est donnée par  3∕2     2 2 (8.16)  ( ) = 4 exp −  . 2  2  Déduire différentes propriétés du module de la vitesse : sa valeur typique (la plus probable) ∗ , sa valeur moyenne  et son écart-type  .

3

Capacité calorifique des gaz parfaits moléculaires

Le modèle du gaz parfait monoatomique étudié dans la section précédente s’applique aux gaz nobles (Hélium, Néon, Argon, etc. . . ). Dans cette section nous allons discuter le cas des gaz diatomiques (par exemple le dihydrogène H2, dioxygène O 2, diazote N 2 pour les molécules homonucléaires, et le chlorure d’hydrogène HCl ou de brôme HBr, les monoxydes de carbone CO ou d’azote NO pour des molécules hétéronucléaires). Si la physique statistique explique comment se répartit l’énergie dans les différents degrés de liberté, encore faut-il identifier ces derniers et les modéliser au niveau microscopique.

3.1 Degrés de liberté pertinents Une molécule diatomique peut être simplement modélisée comme un objet en forme d’haltères, dont les différents degrés de liberté sont alors : le mouvement de translation du centre de masse, le mouvement de rotation de la molécule, le mouvement 160

3

Capacité calorifique des gaz parfaits moléculaires

de vibration de la liaison qui n’est pas complètement rigide. Une quantité accessible expérimentalement et simple à analyser théoriquement est la capacité calorifique. Elle est d’autant plus importante qu’elle renseigne sur la capacité du système à emmagasiner de l’énergie, et intervient à ce titre dans de nombreux bilans énergétiques. Son comportement en température ne peut pas être prédit par la seule thermodynamique et seule la physique statistique donne les outils pour construire un modèle microscopique permettant de prédire le comportement de cette grandeur macroscopique. In fine, bien que plusieurs propriétés obtenues ont un caractère universel (indépendant de la nature de la molécule diatomique), nous allons voir que la compréhension profonde de sa dépendance en température  ( ) révèle des informations très précises sur le comportement des molécules et leurs caractéristiques au niveau microscopique.

3.2 Aspects microscopiques : cas des molécules diatomiques Des atomes forment une molécule si leurs configurations électroniques leur permettent de former une(des) liaison(s) chimique(s). Quelques exemples de molécules diatomiques courantes sont : H 2, O2, CO, NaCl, etc. La nature microscopique de la liaison chimique correspond à la mise en commun de certains électrons des atomes, qui trouvent plus favorable énergétiquement de se délocaliser autour de plusieurs noyaux (il y a une compétition entre la délocalisation des électrons sur les deux noyaux, qui minimise l’énergie cinétique des électrons, et leur localisation autour des noyaux, qui minimise l’énergie potentielle). Les électrons étant beaucoup plus légers que les noyaux,  ∼  ∕2000, leur dynamique est extrêmement rapide comparativement à celle des noyaux atomiques. Par exemple si nous considérons une énergie Coulomb ∼ 10 eV (l’échelle d’énergie typique pour l’énergie coulombienne dans un atome ou une molécule) nous obtenons que la vitesse d’un électron est electron ∼ 1300 km/s, à comparer à la vitesse du noyau dans le référentiel de la molécule 2 km/s  noyau  30 km/s. Nous pouvons donc supposer que les dynamiques des électrons et des noyaux sont (approximativement) découplées. La présence du nuage d’électrons rapides autour des noyaux est ressentie par ces derniers via un potentiel effectif, caractérisé par un minimum associé à l’état lié entre atomes (la molécule). Ce découplage est l’essence de l’approximation de Born-Oppenheimer [4, 11]. L’hamiltonien effectif entre les deux noyaux est de la forme molécule

1 2 2 2 = + 21 22 

énergie cinétique des noyaux

+  liaison (1 − 2 ) 

(8.17)

Coulomb + énergie des  −

liaison () possède un minimum absolu en  = ∗ . Reécrit dans les coordonnées du centre  de masse,  =  1 +  2 et  = 11 + 2 2 ∕, et relatives, ∕ =  1∕ 1 − 2∕ 2 et  = 1 − 2 : molécule =

 2  2 +  liaison( ) + 2 2

(8.18) 161

Chapitre 8 • Description classique des gaz

Figure 8.2 – Représentation schématique des spectres de rotation et de vibration.

où  = 1 +  2 est la masse totale et  = (1∕ 1 + 1∕2) −1 est la masse réduite. On obtient un nouveau découplage (exact) entre variables du centre de masse (mouvement de translation) et variables relatives (pour la rotation et la vibration). L’énergie cinétique  2∕(2 ) peut être décomposée en énergie cinétique de rotation 2  2 𝓁2 et radiale = +  où 𝓁 est le moment cinétique orbital et   l’impulsion 2  2 2 2  radiale. Si nous supposons que le potentiel est très piqué autour de ∗ (liaison rigide), 1 ′′ liaison () ≃ −0 +   2( −  ∗)2 avec «  grand » ( 2 = liaison ( ∗ )), nous pouvons 2 découpler (approximativement) rotation et vibration. Ces différentes étapes ont conduit au découplage des degrés de liberté de translation, rotation et vibration :  molécule =

2 𝓁 2  2 1 + +  +  2 ( − ∗ )2 −0 2 2 2 2   

translation

rotation

(8.19)

vibration

où  = 2∗ est le moment d’inertie de la molécule. L’énergie de liaison est liaison = 0 − ∕2 (énergie minimum à fournir pour dissocier la molécule, si liaison  (∞) = 0). 2 La validité du découplage rotation-vibration est  ∕  , i.e. ∗  ∕ : le quantum d’énergie de vibration est beaucoup plus grand que le quantum d’énergie de rotation. Les échelles de temps caractéristiques sont en rapport inverse, i.e. la vibration est très rapide et la rotation lente. Tandis que le mouvement du centre de masse est traité classiquement comme nous l’avons fait jusqu’à présent, il est pertinent de prendre en compte la quantification des énergies pour la rotation et la vibration. Le problème est séparable ; les hamiltoniens de rotation et de vibration sont caractérisés par les spectres quantiques suivants : Hamiltonien 𝓁 2 2  2  2 ( −  ∗) 2 + vib = 2 2  rot =

162

Valeurs propres 2 𝓁 (𝓁 + 1) 2  1 =   + 2

nb. quantique dégénérescence

rot 𝓁 =

𝓁∈ℕ

 𝓁 = 2𝓁 + 1

vib 

∈ℕ

1

3

Capacité calorifique des gaz parfaits moléculaires

3.3 Le gaz de molécules diatomiques hétéronucléaires a) Factorisation de la fonction de partition La séparabilité du problème nous permet de passer directement de la fonction de partition d’une molécule à celle du gaz. Les microétats pour une molécule sont caractérisés par une impulsion  (centre de masse), et trois nombres quantiques (deux pour la rotation et un pour la vibration) : (, 𝓁, , ) avec 𝓁 ∈ ℕ,  ∈ {−𝓁 , ⋯ , +𝓁 } et  ∈ ℕ : =

 molécule !

 2  ∞ ∞  rot − 2 +vib d 3d 3    + 𝓁 − 0 avec  molécule = . (8.20) (2𝓁 +1) e  3 =0 𝓁=0

L’étude d’une molécule fait elle aussi apparaître un problème séparable et la fonction de partition est de la forme (6.26). Finalement, on a la factorisation : molécule =  trans vib  rot e 0

(8.21)

où  trans est donnée par (8.1), et vib =

∞ 

−(+ 1 )

e

(8.22)

2

=0 ∞

rot =

 2 (2𝓁 + 1) e− 2 𝓁(𝓁 +1)

(8.23)

𝓁=0

Ces deux fonctions de partition ne nous sont pas inconnues : nous les avons rencontrées à la page 114 et dans l’annexe B du chapitre 6, page 130. Ce sont deux fonctions d’un unique argument qui, pour la première, s’écrit  = vib∕ et, pour la seconde, 2∕(2) =  rot ∕ , où nous avons introduit deux températures caractéristiques : def

vib =

 

et

def

rot =

2 . 2 

(8.24)

La factorisation (8.21) implique que les contributions à l’énergie moyenne et à la capacité calorique s’additionnent. L’énergie du gaz est  = molécule avec trans

molécule = 

vib

+

+

rot

− 0

d’où

 =  trans + vib + rot .

(8.25)

Nous pouvons donc discuter séparément chacune des contributions. Si (8.22) se calcule facilement (voir page 114), il n’en est pas de même pour la série (8.23). Aussi, nous allons discuter les cas limites en fonction de rot ∕ et  vib∕ .

b) Haute température : limite classique Le régime classique correspond à la situation où les effets de la quantification du spectre sont « gommés » (à l’échelle considérée, le spectre est très dense). Prenons le cas 163

Chapitre 8 • Description classique des gaz

de l’oscillateur harmonique. Lorsque   vib, les exponentielles dans (8.22) varient lentement avec  et on peut remplacer la somme par une intégrale :  vib ≃

0



d e−

vib  

=

   =  . vib 

(8.26)

  ln vib ≃ ln  =      (ce résultat découle du théorème d’équipartition de l’énergie, cf. chapitre 6). La contribution de la vibration à la capacité calorifique est donc vib ≃  . Nous déduisons l’énergie moyenne par molécule 

vib

≃ −

Procédons de même pour  rot. Lorsque   rot , nous avons  rot ≃

0





d𝓁 (2𝓁 + 1) e

rot 𝓁(𝓁 +1) 

=

0



d e−

 rot  

=

   . = 2  rot  ∕2

(8.27)

Puisque rot ∝ 1∕ , on obtient rot ≃ . Le résultat est en accord avec celui du calcul purement classique présenté dans l’annexe 6.B, page 131. Notons enfin que ce résultat est plus directement donné par le théorème d’équipartition. Au total, en tenant compte de la contribution (8.7), la prédiction classique pour les gaz parfaits diatomiques est donc une capacité calorifique complètement universelle  = (7∕2) .

c) Basse température : gel (quantique) des degrés de liberté Discutons le degré de liberté de vibration. La formule (6.33) pour l’énergie moyenne d’un oscillateur harmonique conduit à la capacité calorifique  2  ∕2 vib   vib (8.28)  ( ) =   sh vib∕2 Lorsque   vib, celle-ci s’annule extrêmement rapidement avec la température :   2 vib( ) ≃   vib e−vib ∕ . (8.29)  Ce comportement correspond à la contribution du premier état excité de l’oscillateur : retenant uniquement les deux premiers termes de (8.22) (état fondamental et premier état excité), nous avons vib ≃ 1 + e −vib ∕ , qui conduit à (8.29). Dans la limite   vib, l’énergie typique fournie par le thermostat à la molécule est très inférieure au gap def d’excitation     =  1 − 0 =  et l’oscillateur est excité avec une très faible probabilité ∼ exp(−∕  ). On peut considèrer que l’oscillateur harmonique reste essentiellement dans son état fondamental, i.e. le degré de liberté de vibration est gelé. Autrement dit, pour   vib on peut considérer que la molécule se comporte comme un rotateur rigide. Considérons maintenant la rotation. rot n’a pas d’expression simple mais nous pouvons utiliser le même argument : en ne conservant que le premier terme dépendant 164

3

Capacité calorifique des gaz parfaits moléculaires

de la température dans (8.23), nous obtenons rot ≃ 1 + 3 e−2 rot∕ et déduisons   2 rot   ( ) ≃  × 12 rot e−2 rot∕ . (8.30)  Le même phénomène de gel des degrés de liberté se produit pour la rotation. Lorsque la température du gaz est   rot , les degrés de liberté de rotation ne sont pas excités, i.e. la molécule reste dans son état fondamental 𝓁 = 0 et ne tourne plus : elle se comporte comme un objet invariant par rotation (comme un atome).

Exercice 8.4 vib∕rot

Faire les calculs de basse température permettant de passer de vib∕rot à 

.

Soulignons qu’il est remarquable que l’analyse du comportement de la capacité calorifique, une grandeur macroscopique, nous renseigne sur la dynamique des molécules au niveau microscopique (si elle tourne et/ou si elle vibre), ce qui est représenté par les petit schémas de la figure 8.4.

d) Discussion des ordres de grandeur et des courbes expérimentales Quel est le régime pertinent pour une plage de température autour de la température ambiante ? Pour y répondre, essayons d’estimer l’ordre de grandeur de rot et vib. Commençons par  rot, qui est contrôlée par le moment d’inertie  . Un ordre de grandeur de ce dernier peut être obtenu en considérant une liaison de longueur ∗ reliant deux masses ponctuelles donnant une masse réduite  :  vaut alors   2∗ . Si l’on considère H2 , ∗ ∼ 10 −10m = 1 Å et  ∼ 10 −27 kg donne  ∼ 10−47 kg ⋅ m 2 et  rot ∼ 50 K. De plus, plus les atomes sont lourds, plus  est grand et plus rot va être petite. Les données rassemblées dans le tableau 8.1 correspondent bien à ces ordres de grandeurs. Pour vib , il est difficile d’estimer les paramètres du potentiel de liaison. Cependant, un moyen de faire vibrer une liaison est de la déformer à l’aide d’un champ électromagnétique externe : c’est le principe de la spectroscopie infrarouge très utilisée en chimie. Comme son nom l’indique, cette spectroscopie d’absorption correspond à des fréquences de vibration dans l’infrarouge,  ∼ 1014 Hz soit une température vib =  ∕ ∼ 4 000K. Cet ordre de grandeur de quelques milliers de Kelvins correspond bien aux valeurs du tableau 8.1. Tableau 8.1 – Températures caractéristiques de gaz diatomiques d’après [15]. Molécule H2 HD O2 N2 CO Cl2

𝑻𝐫𝐨𝐭

𝑻𝐯𝐢𝐛

85.3 K 64.0 K 2.1 K 2.9 K 2.8 K 0.35 K

6215 K 5382 K 2256 K 3374 K 3103 K 808 K

165

Chapitre 8 • Description classique des gaz

Ainsi, à température ambiante  ≃ 300K, nous avons typiquement rot     vib de sorte que   ≃ (5∕2) . Le degré de liberté de vibration est en général gelé tandis que la rotation se comporte classiquement et contribue pleinement. En chauffant suffisamment un gaz, on peut observer le dégel du degré de liberté de vibration, comme on le voit sur la figure 8.3, où on compare les données expérimentales avec l’expression théorique (8.28). Cette comparaison est faite pour des gaz diatomiques de différentes natures. Chacun étant caractérisé par une température caractéristique vib propre (cf. tableau 8.1), on trace vib  ( ) en fonction de  ∕ vib : on constate que tous les points tombent parfaitement sur la même courbe universelle (le paramètre vib est l’unique paramètre non universel qui dépend de la molécule). Il est tout à fait remarquable que ces calculs simples, accessibles dans un cours d’introduction à la physique statistique, aient permis de comprendre quantitativement la courbe de capacité calorifique de cet ensemble de gaz diatomiques, avec un unique paramètre libre vib .

02 N2 CO Cl2

Figure 8.3 Contribution vibrationnelle à la capacité calorifique de divers gaz (O 2, N2, CO, Cl 2), en fonction de  ∕ vib. Données du livre de R. Balian [3].

En général, le gel du degré de liberté de rotation se produit à trop basse température pour être facilement observé (cf. table 8.1), car la liquéfaction du gaz se produit au-dessus de  rot. Néanmoins, le dihydrogène est suffisamment léger pour que le phénomène soit observé : la capacité calorifique du dihydrogène deutéré HD est représentée sur la figure 8.4. On y voit apparaître clairement les plateaux correspon+ rot dant à trans = (3∕2) et  trans   = (5∕2) , mais aussi une structure plus riche que celle attendue par cette seule analyse à haute température. La courbe théorique de la figure 8.4 utilise le calcul exact de rot ( ) à partir de (8.23) (calculé numériquement), qui décrit remarquablement bien les données expérimentales. La présence du maximum local au voisinage de  = rot mérite d’être souligné. Une étude soigneuse du comportement de haute température de la série (8.23) montre que   2 −3  rot ( ) =  1 + (1∕45)( ∕  ) +  (  , qui préfigure l’apparition de la bosse )  rot  (cf. § 6.5 de [29] ou chapitre III de [15]). Il est tout à fait remarquable de souligner que des mesures de quantités thermodynamiques, comme une capacité calorifique, permettent de remonter à des propriétés microscopiques. La rotation en donne une nouvelle illustration : les données expérimentales peuvent être ajustées par une courbe à un paramètre, la température de rotation rot . 166

3

Capacité calorifique des gaz parfaits moléculaires

expérience théorie 3

2

1

0

5

Tvib

Trot

10

50

100

500 1000

5000

T (K)

Figure 8.4 – Capacité calorifique du dihydrogène deutéré (HD ≡ 𝟏𝟏 H–𝟐𝟏 H). Partant des hautes températures, la décroissance de la capacité calorifique correspond aux gels successifs des degrés de liberté de vibration puis de rotation. Les petits schémas représentent l’état des molécules : rotation et vibration excitées pour  >  vib ; rotation seule excitée pour rot <  < vib (la molécule se comporte comme un bâtonnet rigide en rotation) ; rotation et vibration gelées pour  <  rot (la molécule est un objet invariant par rotation). Données tirées du livre de R. Balian [3].

Expérimentalement, on trouve par exemple rot = 64 K pour les molécules HD. Faisons le chemin inverse de la discussion sur les ordres de grandeurs. Pour HD,  ≃ (2∕3)proton et de  rot on tire  ≃ 5.7 × 10 −48 kg.m 2. On déduit la quantité la plus difficile à estimer microscopiquement ∗ ≃ 0.7 Å, à comparer avec la valeur tabulée ∗ = 0.7414 Å. Nous avons donné une nouvelle illustration du fait que notre modèle microscopique nous permet de remonter de la capacité calorifique  ( ) à une propriété microscopique.

Exercice 8.5 Comparaison entre isotopes Montrer que les rapports des températures caractéristiques rot et vib prises entre les isotopes H2 et HD dans le tableau 8.1 correspondent bien au modèle développé dans cette section, en supposant que le potentiel de liaison est le même.

e) Limites du modèle Maintenant que nous avons analysé en détail le rôle des degrés de liberté interne sur ces deux exemples, nous pouvons revenir sur la question des degrés de liberté électroniques, qui avaient été laissés de côté. Les électrons liés à l’atome ou à la molécule sont caractérisés par un spectre de niveaux d’énergie. Si la température est suffisante, ces degrés de liberté peuvent être excités grâce aux fluctuations thermiques. Dans la pratique les énergies (i.e. les températures) sont très élevées : les échelles typiques pour l’interaction coulombienne dans un atome ou une molécule sont 1 à 10 eV, or 1 eV correspond à 11 600 K. C’est probablement ce qui explique l’écart entre les courbes de capacité 167

Chapitre 8 • Description classique des gaz

calorifique théorique et expérimentale pour HD (figure 8.4), puisqu’on attendrait l’excitation des degrés de vibration pour des températures   vib ≃ 5 400 K devenant comparables aux énergies électroniques. Le cas des molécules homonucléaires, comme H2 , requiert une discussion spécifique : l’effet de l’indiscernabilité des deux noyaux identiques affecte la construction des états quantiques. Ce cas particulier est discuté dans l’annexe A page 179. Notons enfin que les interactions peuvent elles aussi contribuer à la capacité calorifique comme on va le discuter dans la dernière section.

3.4 Molécules polyatomiques Sans rentrer dans les détails nous pouvons faire deux observations sur le cas des molécules polyatomiques, pour lesquelles on attend aussi le découplage rotation/vibration.

Rotation. Les molécules linéaires sont caractérisées par deux degrés de liberté de rotation (deux angles sont nécessaires pour définir l’orientation), ce qui conduit donc à  rot  =  dans le régime classique. En revanche il faut trois angles d’Euler pour spécifier l’orientation d’un objet tridimensionnel (par exemple H2O, CH 4,...) et on trouve  rot  = (3∕2)  associée aux trois degrés de liberté de rotation. Vibration. Les molécules polyatomiques sont caractérisées par un nombre plus grand de degrés de liberté de vibration, associés aux déformations de la molécule. Un comptage du nombre de degrés de liberté permet d’identifier le nombre de modes de vibration. Considérons une molécule formée à partir de  atomes ; elle est caractérisée par 3 degrés de liberté, dont 3 de translation, 3 de rotation (molécules non linéaire) et donc 3( − 2) de vibration. Dans le régime classique on aura dans ce cas vib = 3( − 2) si tous les modes de vibrations sont activés.

4

Rôle des interactions dans les gaz

Dans cette dernière section, nous revenons à une description complètement classique afin d’analyser l’effet des interactions entre atomes. S’il est en général légitime de négliger les interactions dans les gaz dilués (cf. ordres de grandeurs à la fin de cette section), rappelons que l’existence d’interaction résiduelles est cruciale à l’établissement d’un équilibre thermodynamique (on doit comprendre que le modèle du gaz parfait correspond à une approximation d’interactions négligeables plutôt qu’inexistantes). Si les interactions affectent peu les propriétés thermodynamiques dans l’état gazeux dilué, elles sont cependant à l’origine de la formation des états condensés tels que les états solide et liquide qui seront étudiés aux chapitres 9 et 10. Dans cette partie, 168

4

Rôle des interactions dans les gaz

nous allons voir les interactions entraînent des corrélations dans les positions des particules qui apportent des contributions aux grandeurs thermodynamiques. En particulier, elles induisent une modification de l’équation d’état. Puisque le modèle du gaz parfait décrit la limite diluée de faible densité, il est naturel de chercher un développement de l’équation d’état sous la forme d’un développement   

=  + 2( )  2 +  3( )  3 + ⋯

(8.31)

qui porte le nom de développement du viriel (qui suppose que la pression est une fonction analytique de ). Le premier terme correspond à la limite du gaz parfait. Les coefficients ( ), fonctions de la température, sont appelés les coefficients du viriel, et décrivent l’effet des corrélations entre atomes. Ces corrélations peuvent avoir une origine quantique (corrélations quantiques induites par le postulat de symétrisation, cf. problème 11.2 page 255) ou classique (les interactions étudiées dans ce chapitre). Les coefficients du viriel peuvent être calculés systématiquement [29], même si nous allons essentiellement nous concentrer sur l’analyse du second coefficient 2( ) plus bas.

4.1 Aspects microscopiques – Interaction à deux corps De façon assez générale, il est raisonnable de considérer que les interactions ne dépendent que des variables de positions . Par la suite, nous considérons un corps pur, de particules identiques et traitées classiquement. L’hamiltonien se sépare en contribution cinétique et terme d’interaction :  ( 1, … ,  , 1 , … ,  ) =

   2 =1

2

+  (1 , … ,  ) .

(8.32)

Il est souvent légitime d’écrire l’interaction comme une somme de termes d’interactions à deux corps dépendant des distances  =  −   entre atomes1  1  ( 1 , … ,  ) = ( ) = () , (8.33) 2   0 et une distance caractéristique 0 . La partie en −12 correspond à la modélisation de la répulsion à courtes distances tandis que la partie en −−6 est la partie attractive. Ce potentiel, représenté sur la figure 8.5, passe par le minimum ( ∗) = − 0 pour ∗ =  0 . Pour l’Argon, un gaz rare très bien modélisé par ce potentiel, les mesures expérimentales donnent 0 ≃ 3.35 Å et 0 ≃ 2.5meV. La figure 8.5 présente également un modèle simplifié dit de van der Waals dans lequel le potentiel est infini en-dessous de 0 et dont la partie attractive correspond aux valeurs négatives du potentiel.

0

0

-1

-1

0

1

2

3

0

1

2

3

Figure 8.5 À gauche : Le potentiel d’interaction de type Lennard-Jones. À droite : Le modèle de van der Waals avec un cœur dur.

4.2 Intégrale de configuration On a déjà souligné la factorisation (classique) de la distribution canonique (8.15) entre impulsions et positions. La fonction de partition présente la même forme factorisée  1  = !

 1 Λ 3





 =



d3 1 ⋯ d3 e− (1 ,…, ) , (8.35)

est appelée l’intégrale de configuration, qui ne se factorise pas en présence d’interaction. Pour le gaz parfait,  = 0 redonne  =   . Son analyse est en général un problème extrêmement difficile qui requiert des méthodes d’approximation (sauf dans le cas unidimensionnel, cf. problème 7.3 page 154), dont nous donnerons un aperçu. 170

4

Rôle des interactions dans les gaz

La factorisation de la distribution dans l’espace des phases, (8.15), nous permet de nous concentrer uniquement sur les coordonnées des atomes. Nous introduisons la densité de probabilité pour que les  atomes soient dans la configuration spatiale (1, … ,  ) : (1 , … ,  ) =



d 31 ⋯ d3  C(1 , … ,  , 1 , … , ) ,

(8.36)

(la loi marginale des positions). Autrement dit, elle donne la probabilité d’avoir une « photo » correspondant à une configuration spatiale, sans s’intéresser aux vitesses. Après simplifications des termes cinétiques, nous obtenons ( 1, … ,  ) =

e− (1 ,…, ) . 

(8.37)

La probabilité d’une configuration spatiale ne dépend que de l’énergie potentielle d’interaction. Deux cas limites se présentent : (i) à haute température     0 et/ou faible densité  −1∕3   0, on peut considérer que  (1 , … , ) ≃ 0, ce qui donne (1 , … ,  ) ≃ 1∕  , comme attendu pour le gaz parfait ; (ii) à basse température, ce sont les configurations qui vont minimiser le potentiel d’interaction qui ont le plus grand poids et dominent les moyennes statistiques. À  = 0, c’est même a priori la configuration qui minimise  que va choisir le système à l’équilibre, par exemple une organisation cristalline. Un dernier point important pour la suite : (1, … ,  ) est invariant si l’on permute les numéros des particules puisque c’est le cas pour  (1, … ,  ).

4.3 Organisation microscopique Comme le potentiel d’interaction ne dépend que de la distance relative, l’information pertinente pour décrire les quantités moyennées est dans la distribution des distances entre atomes. Plus précisément, étant donnée une particule à une certaine position, quelle est la probabilité d’en avoir une autre à une distance relative  ? Ainsi, il nous faut décrire comment les particules se répartissent, s’organisent les unes par rapport aux autres.

a) Densité locale La densité locale à la position  s’écrit, pour une configuration des positions (1, … ,  )   ( −  ). Par définition, la valeur moyenne de cette donnée, sous la forme () = =1 quantité vaut ( ) =



3

3

d 1 ⋯ d  (1, … ,  )

 

 ( −  )

(8.38)

=1

171

Chapitre 8 • Description classique des gaz

où ⋯ désigne la moyenne canonique. L’action de la fonction delta donne ( ) =

 

 =1

=



d31 ⋯ d 3−1 d3 +1 ⋯ d3 (1 , … , −1, , +1, … ,  ) (8.39)

 2 , … ,  ) , d3 2 ⋯ d 3 (,

où l’on a utilisé l’invariance par permutation des arguments de  dans la seconde égalité et choisit de mettre la première particule en  puis de moyenner sur les positions des autres. Dans un solide, la densité locale présente des maxima aux nœuds du cristal, élargis par les fluctuations thermiques, tandis que dans une phase fluide, liquide ou gaz, la densité locale est homogène ( ) =  dès qu’on s’éloigne des bords, car les particules sont libres d’explorer tout le volume de façon homogène, et le font.

b) Corrélations de densité et fonction de corrélation de paires La notion de corrélation a été introduite dans le chapitre 2, ce qui conduit à définir la fonction de corrélation de la densité def

C (,  ′ ) = () (′ ) − () ( ′ ) .

(8.40)

Si les particules sont indépendantes, comme dans le gaz parfait, on a alors ()(′ ) = () ( ′ ). En présence d’interactions, ce n’est plus le cas : si une particule est en , il y a peu de chances d’en trouver une autre à une distance  =  −  ′ <  0 en raison de la répulsion. Dans le contexte de l’étude des fluides, il est d’usage de caractériser les corrélations dans le fluide non pas avec C (,  ′), mais en termes d’une autre fonction  (,   ′ ) appelée fonction de corrélation de paires, que nous introduisons : tout d’abord nous écrivons le produit de deux densités associée à une même configuration : =( )

    ′ ′ ′ () ( ) =  ( −  ) ( −  ) = ( −  )  ( − ) +  ( − ) ( ′ −  ) 



=1 =1





(8.41) où l’on a isolé la contribution  =  de la double somme. On a pu sortir le dirac de la somme en utilisant la propriété ( − 1) ( ′ − 1 ) = ( − ′) ( −  1). La moyenne du premier terme de (8.41) fait apparaître la moyenne (8.39), i.e.  ( −  ′ ) si le fluide est homogène, () = . La moyenne du second terme de (8.41) est par définition la fonction de corrélation de paires   def 2  (,   ′ ) =  ( − ) ( ′ −  ) (8.42)  ( − 1) 

172

4

Rôle des interactions dans les gaz

d’où ()( ′ ) =  ( −  ′) + 2  (,   ′)

(8.43)

On comprend alors le choix de la définition (8.42) ou (8.44) qui assure que  est sans dimension. Par ailleurs, lorsque  − ′   , avec  =  −1∕3 la distance moyenne entre particules, les positions des particules peuvent être considérées comme décorrélées, de sorte que ()( ′) ≃ () × ( ′) =  2. Dans cette limite, on voit donc que  tend vers 1. Bien que purement local, le terme  ( − ′ ) de (8.43) jouera un rôle important dans les règles de somme, comme pour exprimer la compressibilité (cf. exercice 8.8). Finalement, en utilisant les mêmes arguments que pour la moyennes (8.39) (propriété de la fonction delta et symétrie de la distribution (8.37) sous les permutations de ses arguments), on vérifie sans peine qu’elle s’exprime en fonction de la densité de probabilité des configurations

 (,   ′ ) =  2



  ′ , 3, … ,  ) d 33 ⋯ d3 (,

(8.44)

Une grande partie de l’information sur la structure du fluide est contenue dans cette fonction  qui contrôle les grandeurs thermodynamiques.

Interprétation physique de la fonction de corrélation de paires. Dans une phase fluide, le milieu est homogène et isotrope. Dès lors, il est naturel de considérer que la fonction de corrélation de paires ne dépend que de la distance relative entre particules, notée  =  −  ′ . Le nombre moyen de particules se trouvant dans un volume élémentaire d () = 42 d autour d’une particule est donné par d () =  () d () .

(8.45)

La fonction  renseigne donc bien sur la structure à l’intérieur du fluide, ce qui est illustré sur la figure 8.6. Enfin, il est crucial de voir que le comportement de  () dépend de la densité  et de la température  via la moyenne thermique.

4.4 Fonctions thermodynamiques Énergie moyenne. La moyenne de l’hamiltonien (8.32) montre que l’énergie est la somme du terme cinétique et du terme d’interaction =

3  +   , 2

(8.46) 173

Chapitre 8 • Description classique des gaz

cristal

liquide

4

gaz

2

3

1

2

1

1 0

0

1

2

3

4

5

0

0

1

2

3

4

5

0

0

1

2

3

4

5

Figure 8.6 – Comportement typique de la fonction de corrélation de paires 𝒈(𝑹) dans les trois états d’un corps pur.

où   = − =

1  ( −  ) ln   = d 3 1 ⋯ d 3 (1, … ,  )   2 

 ( − 1) d3 1d3 2  ( 1 , 2) (1 − 2) 2  2

(8.47) (8.48)

(on a utilisé la forme (8.37) dans la première équation). En écrivant ( − 1)∕ ≃  ∕  =  et en utilisant l’isotropie de la phase fluide, on obtient une forme extensive pour la contribution des interactions à l’énergie moyenne :   =  2 

0



d 2 ()  () .

(8.49)

Capacité calorifique. Utilisons que  () dépend de la température tandis que () n’en dépend pas : ∞     1  3 d 2 () () . (8.50) = =  + 2  0    ,  2

Pression. Le calcul est plus compliqué, et utilise le théorème du viriel. On obtient  =   − 174

2 2  0 3



d 3

d ( )  ( ) . d

(8.51)

4

Rôle des interactions dans les gaz

Notons que le second terme ne correspond pas simplement avec   2 2 ( ), le second terme du développement du viriel (8.31), car  () dépend de la densité .

Exercice 8.6 La pression par le viriel Cherchons à montrer la relation (8.51). 1/ Exprimer la pression  comme une dérivée partielle de ln  . En exprimant   sous une dilatation des coordonnées  →  avec  réel, puis en dérivant le logarithme de cette relation par rapport à  de deux manières, montrer :  ln         .  ⋅ ∇ (8.52) = −    3     ⋅  avec  la force 2/ En mécanique, le viriel est la quantité définie par  = particule. Montrer que  =   +  ∕3. De plus, d 1   (  ). En déduire le justifier que, avec les notations du cours,  = −    2 d résultat (8.51). 

ème

qui s’exerce sur la 

Compressibilité. De même, on a la relation suivante donnant la compressibilité isotherme  du fluide    = 1 + 4 

0



d  2( () − 1)

(8.53)

Rappelons que pour un gaz parfait, on a simplement  = 1∕ = 1∕( ), qui correspond au premier terme.

Exercice 8.7 Compressibilité d’un gaz Pour montrer (8.53), partons de la situation de l’exercice 8.8 page 181 dans lequel nous montrons la relation (8.68). 1/ Après avoir exprimé le nombre de particules  et son carré 2 comme des intégrales sur le volume  , montrer que les fluctuations du nombre de particules sont reliées aux corrélations de densité par la relation :    G 2 3 3 ′ ′ ′  (   )  (   )  −  (   )  (   )  =     (8.54) d d   2/ Utiliser (8.43) et les propriétés de  () pour établir (8.53).

4.5 Limite de faible densité Comportement de  () dans la limite de basse densité. La fonction de corrélation de paires  () est une quantité mesurable expérimentalement et dans les simulations numériques. Cependant, il est difficile de calculer  () analytiquement, sauf dans la limite de basse densité . Cette limite est très importante car elle permet une interprétation 175

Chapitre 8 • Description classique des gaz

physique simple de l’effet des interactions. Le résultat est le suivant (8.55)

 () ≃ e−() .

Autrement dit,  () vue comme une probabilité se ramène simplement au « poids de Boltzmann » avec l’énergie (). Il est d’ailleurs facile de la tracer. Ce comportent correspond bien à ce à quoi on s’attend intuitivement et décrit sur la figure 8.6 (phase fluide). Dans la limite  → ∞, () → 0 et donc  () → 1, comme discuté plus haut. Lorsque  → 0, () → ∞ (partie répulsive) et donc  () → 0 . L’effet de la partie () > 0 est donc bien de diminuer la probabilité pour que deux particules se rapprochent. Au contraire, lorsque () < 0, on a ( ) > 1, et se manifeste par une accumulation de particules par rapport à la densité moyenne ce qui se traduit par une bosse dans  (). Remarquons que c’est le signe de () qui compte et non celui de la force −d∕d. def

Justification du comportement à basse densité. Introduisons   = e −( ) −1, une fonction qui prend des valeurs significatives jusqu’à  ≃  0 et qui s’annule rapidement lorsque  → ∞. De plus, dans la limite basse densité et haute température on peut prendre  ≃  0  1. Dès lors,     (1 +  ) ≃ 1 +  . (8.56) e− (1 ,…, ) = e−  0 , alors que att() = 0 pour  < 0 et () pour  > 0 . De manière équivalente, l’énergie d’interaction dans le gaz est séparée en deux  = rep + att . Dans un premier temps, nous étudions l’effet de la répulsion. Nous introduisons par la pensée les atomes un par un dans le volume : le premier atome dispose d’un volume  , le second d’un volume  − , le troisième ≈  − 2 (figure 10.2), etc : 

    ( − ) ≃  −  2 =0



−1 3

3

− rep

d 1 ⋯ d  e



(10.2)

où nous avons supposé que    (le calcul a déjà été présenté dans la question 3 du problème 5.4 page 101). Bien que chaque atome exclut un volume  pour les autres, tout se passe comme si chaque atome disposait d’un volume effectif eff =  − ∕2 =  − , où  = ∕2 est le paramètre de van der Waals (chapitre 8). Dans un deuxième temps, nous utilisons un argument de champ moyen pour traiter l’effet de la partie attractive du potentiel. Pour une configuration donnée, le potentiel « vu » par l’atome en  1 est   =2

 att(1 ) ≃



()→

d3  () att( −  1) ⟶  4

où nous avons substitué la densité () =





 0

d 2 () = −2  

 (− ) par sa moyenne . Nous reconnais-



sons le double de l’énergie d’interaction par particule (8.63), où le facteur 2 s’explique par le double comptage. Finalement, nous avons retrouvé   ≃ −  . Combinées, ces deux observations nous suggèrent d’écrire l’intégrale de configuration comme une intégrale séparable pour  atomes indépendants, occupant chacun un volume  eff =  −  et soumis à un potentiel homogène   ∕ ≃ −  :   2 − (− ) 3  ≃ = ( − ) e   . (10.3) d  e   eff En réintroduisant la contribution cinétique, la fonction de partition est  =

 1 ( − )  2  . e ! Λ3 

(10.4)

Bien que cette approximation paraisse assez grossière, elle capture à la fois les effets répulsifs et attractifs à travers les deux paramètres microscopiques  et . Nous verrons que les deux effets doivent être conservés pour expliquer la transition dans ce modèle. 212

1

Transition liquide-gaz

1.3 Fonctions thermodynamiques a) Énergie et entropie Nous déduisons l’énergie libre  = −  ln   sous la forme   = − 

1 + ln

  −  Λ 3



 2 

(10.5)

C 2 3 L’énergie moyenne =  −  est la somme de l’énergie cinétique moyenne  2 et de l’énergie d’interaction attractive moyenne (cf. chapitre 8). Remarquons que la ca3 pacité calorifique  =  est la même que celle du gaz parfait, cependant  2 5 (G.P.) diffère de  = . L’entropie s’obtient facilement 2    −  5  =   . (10.6) + ln 2 Λ 3

Elle ne dépend que de  qui contrôle le nombre de configurations spatiales accessibles.

b) Équation d’état de van der Waals La dérivation de l’énergie libre par rapport à  nous donne la pression =

  − 2  1 − 

pour  =

 < 1∕ 

(10.7)

Nous avons retrouvé l’équation d’état de van der Waals (1873) proposée sur la base 2 d’arguments heuristiques, et écrite sous la forme ( + 2 )( − ) =  . 

Exercice 10.1 Coefficients du viriel de l’équation de van der Waals

a) Interpréter physiquement les deux contributions à la pression dans (10.7). b) À partir de la définition (8.31), déterminer les coefficients du viriel du modèle de van der Waals. Commenter.

1.4 Isothermes de van der Waals – Analyse de la transition a) Stabilité et compressibilité négative Les isothermes associées à l’équation (10.7) sont tracées sur la figure 10.3 et présentent un comportement non-monotone pour les basses températures. Par ailleurs, la stabilité du système requiert une compressibilité positive (chapitre 6 § 3) :   def 1  1 1  = − >0. (10.8) =     2   2

213

Chapitre 10 • Transitions de phase

T >Tc

p

TTc C

V1

V2

T  −  .  2

(10.9)

Une analyse graphique (figure 10.3) montre qu’il existe une température critique  sous laquelle la condition n’est pas satisfaite pour toute valeur du volume : dans ce cas, il existe des valeurs de  telles que  < 0 pour  ∈ [1 , 2 ]. Nous concluons que l’équation de van der Waals ne donne pas directement la pression dans le domaine [1,  2 ]. Nous allons voir plus bas comment interpréter cette équation. Le point critique correspond à la température   telle que l’isotherme a un point d’inflexion (le point  sur la figure 10.3).

b) Transition liquide-gaz pour  <   Les pathologies mathématiques dans la fonction de partition conduisant ici à une compressibilité négative, signalent l’existence d’une transition de phase. L’isotherme de la   2 figure 10.3 présente une zone non physique lorsque > 0 (ou < 0) entre le   2 minimum D1 et le maximum local D2. L’allure typique de  pour  <  est donnée sur la figure 10.4. Les observations expérimentales suggèrent que pour  ∈ [1,  2], il y a séparation de phase avec coexistence. Faisons l’hypothèse que le système est diphasique, séparé en une phase liquide contenant  particules, de volume par particule  =  ∕ et d’énergie libre par particule  =  ( ,  )∕ , et une phase gazeuse de paramètres ,  = ∕ et   =  ( ,   )∕ . Notons d’abord que  +  =  et  =   +   donne  =  ( −  )∕(  −  ) et  =  ( − )∕(  −  ), avec  ⩽  ⩽  (règle des moments). L’énergie libre du système diphasique est  =   +   , qui s’exprime selon les variables extensives :  −   −   ( ,  ) =  ( ,  ) +  ( ,   ) pour  ∈ [ ,  ]. (10.10)  −   −   214

1

Transition liquide-gaz

p

F

vapeur sur−saturée

homogène diphasique

A

A liquide sur−chauffé

B

Nb VA

V

VB

aires égales

Nb

V

B

plateau de liquéfaction

V

Figure 10.4 À Gauche : Énergie libre pour  <  . L’énergie libre du mélange des phases A (liquide) et B (gaz) est plus basse que celle du système homogène pour   ⩽  ⩽  . À droite : Construction de Maxwell. La ligne épaisse est la ligne d’équilibre thermodynamique. Les deux branches AD1 et D 2B sont deux lignes de métastabilité. L’ensemble des points 1 et 2 pour différentes températures correspond à la courbe spinodale.

C’est une droite passant par deux points  et  appartenant à la courbe (10.5). Comment trouver les positions des points  et  ? On voit graphiquement que l’énergie libre diphasique la plus basse possible à  donné est obtenue en prenant la double tangente à la courbe (10.5). Sur la portion entre  et , (10.10) donne une pression constante, qui  −   n’est autre que la pression de vapeur saturante ( ) = − . =−   − 

c) Construction de Maxwell Graphiquement, il est plus simple de trouver les volumes  et  par une analyse des isothermes due à Maxwell plutôt que par la méthode de la double tangente. Écrivons la relation de Gibbs-Duhem (7.23) (annexe A du chapitre 7) pour  constante :  d =  d, puis intégrons entre les points  et . Il vient →

 () d =  ( −  ) = 0 .

(10.11)

Nous retrouvons que l’équilibre entre les phases impose l’égalité des potentiels chimiques  =  . L’intégrale ci-dessus est égale à l’intégrale sur un circuit fermé reliant  à  sur l’isotherme ( ) (voir figure 10.4) : 

 d = 0 .

(10.12)

Graphiquement, la position du plateau de liquéfaction AB est définie en imposant l’égalité des aires entre l’isotherme de van der Waals et le plateau (figure 10.4). C’est la construction de Maxwell . Notons que les deux branches AD1 et 2 B ne sont pas interdites. Dans certaines conditions, le liquide peut exister à des densités plus basses que celle du point A (« liquide sur-chauffé »), cependant il s’agit d’un état métastable. Le gaz peut suivre la branche de « vapeur sur-saturée », mais une petite perturbation (par exemple la nucléation de gouttes d’eau sur des impuretés) lui fera rejoindre rapidement le plateau de liquéfaction. 215

Chapitre 10 • Transitions de phase

d) Chaleur latente de vaporisation Une information intéressante est le coût (énergétique), appelé chaleur latente, pour effectuer un changement de phase. Considérons la transformation à  fixée consistant à faire passer le système de l’état liquide en A à l’état gazeux en B. La pression est aussi constante sur le plateau AB. La chaleur nécessaire pour évaporer tout le liquide est dondef née par la variation d’enthalpie : Δ =  vap. En effet, si nous reprenons le tableau de l’Annexe A du chapitre 7, nous constatons bien qu’à  et  constants, la chaleur - rev =  d correspond à la différentielle de l’enthalpie : d =  d +  d +  d = d  d  . Cette remarque nous permet de relier la chaleur latente à la variation d’entropie def vap =  Δvap =  ( ,  , ) − ( ,  , ). D’après (10.6),    −   vap =   ln . (10.13)  −  L’existence d’une chaleur latente s’interprète comme une discontinuité de l’entropie    , une dérivée première de l’énergie libre  = − . La discontinuité de la  densité associée à    , correspond à une discontinuité d’un autre potentiel ther modynamique, puisque  = + . D’après la classification de l’introduction, cette  transition est donc une transition du premier ordre.

1.5 Le voisinage du point critique a) Le point critique Nous déterminons la position du point critique ( ,  ,  ) en écrivant que le point  est   2   =  = 0 (voir figure 10.3). un point d’inflexion de l’isotherme critique soit     2  Avec l’équation d’état, nous obtenons les trois équations :       2 2 2 −  2 =  , − 2 = 0 , − 3 =0  −   (  − )2 3 ( − )3 4 (10.14) Le rapport des deux dernières équations conduit à  = 3. La deuxième équation 8 nous donne alors la température critique  = ∕. Puisque  ∼ 030 et  ∼ 30 , 27 nous obtenons que la température critique est de l’ordre de l’énergie d’interaction 8 ∼ 0 . (10.15) 27 Les valeurs du tableau 10.1 montrent que 0 est de l’ordre de 100 K soit  0 ≃ 10 meV. Soulignons une nouvelle fois le lien direct entre le microscopique ( et ) et le macroscopique (). Il apparaît clairement que les deux effets encodés dans  et  (attraction et répulsion de cœur dur) sont nécessaires afin de définir une échelle d’énergie, i.e. une température de transition. Le modèle de van der Waals est donc un modèle « minimal » pour décrire la transition liquide-gaz.   =

216

1

Transition liquide-gaz

Tableau 10.1 – Positions du point critique pour divers gaz (pour une mole). Données tirées de [15] citant N. Lange, « Lange’s handbook of chemistry », McGraw-Hill (1967).

He H2 N2 O2 CO2 H2 O

 (K)

  (cm 3)

 (atm)

     

5.2 33.1 126.1 154.4 304.2 647.4

57.8 65.0 90.1 74.4 94.0 56.3

2.26 12.8 33.5 49.7 72.9 218.3

0.30 0.31 0.29 0.29 0.27 0.23

Finalement nous obtenons la pression à l’aide de la première des équations (10.14). En conclusion, le point critique a pour position :  8 et    = . 27 272 Remarquons que la théorie de van der Waals prédit que le rapport  = 3 ,

 =

   3 =   8

(10.16)

(10.17)

est universel, ce qui est assez bien vérifié en pratique (voir tableau 10.1).

b) Développement autour du point critique Nous avons remarqué au début de la discussion qu’au-dessus de  , l’isotherme de van der Waals est parfaitement monotone (figure 10.9). Autrement dit, la chaleur latente vap = 0 s’annule au point critique, les dérivées premières des potentiels sont continues. Pour étudier plus précisément les propriétés au voisinage du point critique, il est utile d’introduire des variables adimensionnées def  def  def   = −1, = − 1 et  = −1, (10.18)    mesurant les écarts au point critique. On vérifie que l’équation d’état prend la forme   3 1++ (10.19) (2 + 3) = 8(1 + ) (1 + )2 ou encore 33 + 82 ( − ) + (7 − 16) + 2( − 4) = 0 .

(10.20)

On trace sur la figure 10.5 les isothermes dans ces variables adimensionnées. L’étude du voisinage est un petit peu délicate et peut être trouvée dans le chapitre 12 de [29]. Les conclusions sont : • Sur la ligne de coexistence des phases (dans le plan ( , )), la pression est proportionnelle à l’écart à la température critique  ≃ 4. Combinée à (10.20), nous obtenons 217

Chapitre 10 • Transitions de phase

spinodale isotherme critique

1

0

C

0

1

Figure 10.5 – Isothermes de van der Waals En termes des variables adimensionnées (, ). La spinodale est la courbe à l’intérieur de laquelle la compressibilité est négative.

que les deux densités dépendent de la température comme   ≃ ±2 − pour  < 0 .

(10.21)

• À la température critique ( = 0), nous déduisons de (10.20) que 3  ( ) ≃ −  3 2

i.e.



2   ( ) ≃ 3

1∕3 .

(10.22)

Les dérivées première et seconde de  () s’annulent bien. Le volume ( ) selon cette ligne est continu mais sa dérivée présente une singularité. • Nous déduisons facilement la compressibilité isotherme en dérivant la pression  (10.20) : = −6 + () + (2), d’où une divergence de la compressibilité    def 1  1   = − pour  > 0 , (10.23) ≃    6 associée au phénomène d’opalescence critique : le milieu devient opaque en raison des larges fluctuations de densité (cf. (8.68)) qui diffusent la lumière. • La capacité calorifique présente une discontinuité au point critique :   (+) −  (−) =

9   . 2

(10.24)

Toutes ces remarques montrent que le point critique est caractérisé par des comportements singuliers des dérivées secondes des potentiels thermodynamiques (capacité calorifique discontinue, divergence de la compressibilité,..). Pour cette raison, on dira qu’une transition de phase du second ordre se produit au point critique. 218

2

2

Transition paramagnétique-ferromagnétique

Transition paramagnétique-ferromagnétique

2.1 Introduction a) Description du phénomène Certains matériaux, comme les composés à base de fer, cobalt ou nickel, présentent une aimantation spontanée même en l’absence d’un champ magnétique extérieur (dans les aimants). On parle de phase ferromagnétique. Si ces matériaux sont chauffés au-delà d’une température appelée température critique  , aussi appelée la température de Curie, leur aimantation disparaît. Ils entrent dans une phase paramagnétique (figure 10.6). En général,  est grande par rapport à la température ambiante, typiquement de l’ordre de 1 000 K (Fe :  = 1 043 K, Co :  = 1 388 K, Ni :  = 627 K). L’existence d’une aimantation spontanée s’interprète microscopiquement comme l’alignement des moments magnétiques locaux, dans le matériau, sous l’effet des interactions microscopiques générant un effet coopératif à l’échelle macroscopique. C’est une nouvelle manifestation de la compétition entre énergie et entropie, où l’une ou l’autre domine suivant la température.

champ moyen

M (T ) / M 0

1.0 0.8 0.6

Nickel Cobalt Fer Magnetite Pyrrhotite

0.4 0.2 0

0

0.2

0.4

0.6

0.8

1.0

T / Tc Figure 10.6 Aimantation en fonction de  ∕  pour divers matériaux ( est la température de Curie). Données tirées de : F. Bitter, Physical Review 39, p. 337 (1932).

Les moments locaux s’alignent sur des distances mésoscopiques (intermédiaires entre l’échelle atomique et l’échelle macroscopique) pour former des domaines, appelés « domaines de Weiss », au sein desquels l’aimantation est homogène. L’alignement des aimantations des domaines à l’échelle du matériau fait intervenir des mécanismes que nous n’étudierons pas, mais importants pour comprendre le phénomène d’hystérésis.

b) L’interaction microscopique entre spins L’aimantation locale trouve son origine dans les boucles de courants microscopiques (mouvement orbital) ou dans les moments magnétiques permanents, i.e. le spin des électrons (sauf si les moments magnétiques électroniques ont une raison de s’annuler, 219

Chapitre 10 • Transitions de phase

ils dominent très largement les moments nucléaires, d’un facteur ∼ 1000). On parle de magnétisme localisé lorsque les électrons qui participent à l’aimantation restent localisés aux nœuds d’un réseau cristallin et de magnétisme itinérant lorsque les électrons sont délocalisés (électrons de conduction, comme dans les métaux cités plus haut ; cf. problème 12.3 page 274 qui présente un modèle simple). Quelle est la nature de l’interaction entre moments ? On pourrait penser à l’interac tion dipolaire magnétique DM ∼ 0   ⋅   ∕3 entre deux moments   et   distants de 4  . Cependant une estimation montre que cette interaction est trop petite de plusieurs ordres de grandeurs pour expliquer les températures critiques  ∼ 1000 K : pour des distances interatomiques on trouve DM ∼ 10−5 eV, soit 0.1 K en échelle de température. L’explication pertinente fait intervenir le mécanisme d’échange, où interaction coulombienne et principe de Pauli se combinent pour produire une interaction effective entre les spins voisins, de la forme 4    ⋅ . (10.25) 2   Rappelons que les états propres de  eff sont les états singulet (spins anti-alignés) et triplets (spins alignés) ; voir l’annexe A du chapitre 11. Assez souvent, cette interaction d’échange tend à aligner les spins (comme dans la règle de Hund) : dans les états triplets (fonction d’onde symétrique en spin et antisymétrique dans l’espace) la probabilité pour que les deux électrons soient proches spatialement est plus faible que dans l’état singulet (fonction d’onde antisymétrique en spin et symétrique dans l’espace). L’énergie coulombienne est alors plus basse si les spins sont alignés, ce qui correspond à  > 0. Dans le cas de magnétisme localisé, les mêmes ingrédients, par des mécanismes différents, peuvent également conduire à des interactions antiferromagnétiques  < 0 favorisant l’anti-alignement des spins (le chapitre 13 de [35] donne une discussion simple des deux cas). Puisque l’interaction effective trouve son origine dans l’interaction coulombienne, son ordre de grandeur est  ∼ 1 eV (1000 K), ce qui correspond aux températures critiques observées. eff = −

c) Modèles : de Heisenberg à Ising Si les spins sont localisés aux nœuds d’un réseau cristallin indicés par , la sommation des interactions à deux spins (10.25) conduit à l’hamiltonien de Heisenberg  4  Heisenberg = − 2    ⋅  −  ⋅  , (10.26)    , la phase paramagnétique ∗ = 0 est stable, pour  <   , ∗ = 0 est instable et les phases ferromagnétiques  ∗  0 sont stables.

est remplacé par  cm = 

  2  − (  +  )  . 2 

(10.34)

L’effet de l’interaction est maintenant également dans le paramètre . Le nouvel hamiltonien étant séparable, la fonction de partition associée est élémentaire à calculer cm =  cm

avec



cm = e − 2  [2 ch (  + )] . 2

(10.35)

« L’énergie libre » effective par spin cm = −(1∕) ln cm s’écrit donc : 1 1 cm ( , , ) =  2 − ln [2 ch (  + )] .  2

(10.36)

Il est essentiel pour la suite de constater que l’équation auto-cohérente (10.31) correspond aux extrema de cm ( , , ) par rapport au paramètre inconnu  : cm =0 



 = th[(  + )] .

(10.37)

L’approximation de champ moyen est aussi appelée « approximation de BraggWilliams »

2.3 Analyse de la transition a) Diagramme des solutions en l’absence de champ La résolution de l’équation auto-cohérente (10.31) fournit l’expression de l’aimantation en fonction de la température, que nous notons ∗( ). Plaçons-nous à  = 0. Il est clair que  = 0 est toujours solution de (10.31) : elle correspond à un état paramagnétique. 223

Chapitre 10 • Transitions de phase

Cherchons maintenant une solution   0, c’est-à-dire un état ferromagnétique. Pour cela nous remarquons que nous pouvons exprimer la température en fonction de  :    1  1+ , où argth() = ln (10.38)  ( ) =  argth() 1− 2 est la fonction réciproque de th(). Cette courbe met en évidence qu’au-dessus d’une certaine température  , appelée température critique, l’unique solution est  = ∗( ) = 0 (phase paramagnétique), alors qu’au dessous de  , deux solutions non nulles  = ±∗ ( ) apparaissent, correspondant à la phase ferromagnétique (nous montrons plus bas que l’état paramagnétique  = 0 doit être exclu pour  <  ). La température critique correspond au maximum de la fonction  (), qui est atteint en  = 0. En utilisant argth() ≃  pour  → 0, on obtient  =  ( → 0) : def

 =

 , 

(10.39)

dont l’ordre de grandeur est contrôlé par  . La solution ferromagnétique décrit bien la courbe d’aimantation d’un bon nombre de composés (cf. figures 10.6 et 10.11).

b) Stabilité des solutions Discutons la stabilité thermodynamique des solutions. Dans la situation étudiée,  est une variable interne libre de fluctuer. Nous pouvons regrouper les microétats qui ont la même valeur 𝓁 =  en les notant 𝓁 . La probabilité d’avoir  est obtenue en sommant les poids de Boltzmann e −𝓁  de ces microétats :

P () =

 , , ) ( 

avec

 , , ) = (



e −𝓁 .

(10.40)

𝓁 t .q.  𝓁=

 , , ), on peut écrire En introduisant l’énergie libre réduite  ( , , ) = −  ln (  P () ∝ e−  ( ,,) . En conclusion, ce sont les minima de  ( , , ) qui sont les plus probables et vont être réalisés physiquement. L’approche de champ moyen revient à prendre ( , , ) ≃ cm ( , , ). Cette discussion justifie donc l’argument de minimisation de cm( , , ) par rapport à . On dira que les minima sont thermodynamiquement stables tandis que les maxima sont instables. Le tracé de cm ( , , ) sur la figure 10.7 permet de déterminer la stabilité des solutions. Ces résultats donnent un autre point de vue sur l’approximation de champ moyen. En  ( , , ) au voisinage d’un minimum  , il vient développant  ∗  ( , , ) ≃   ( , , ∗ ) +

( −  ∗) 2 22

avec  2 =

   2  2

>0.

(10.41)

Ce développement est justifié si les fluctuations autour de ∗, caractérisées par   ,  sont négligeables (hypothèse du champ moyen). Comme  ∼ 1∕  d’après (10.41) 224

2

Transition paramagnétique-ferromagnétique

et en faisant l’hypothèse que  est extensive (reposant sur la courte portée de l’interaction), il ressort que la distribution est localement approchée par la gaussienne 2 2 P () ∼ e −(−∗ ) ∕2 . Au passage, nous obtenons une relation essentielle pour la suite : sous ces conditions, nous pouvons alors considérer que  ≃ ∗ est fixée et remplacer partout dans les fonctions thermodynamiques  par ∗ ( , ). En particulier, l’énergie libre par spin est 1   ( , , ∗ ) ≃ cm ( , , ∗ ) . (10.42)  La discussion fait ressortir les limites de l’approche de champ moyen : au voisinage de la température critique, nous verrons plus bas que les fluctuations divergent,    = ∞. Cette observation permet d’identifier l’intervalle de température autour de  où l’approximation de champ moyen n’est pas justifiée (c’est le critère de Ginzburg, dont la discussion dépasse le cadre de cet ouvrage).  ( , ) ≃

c) Effet du champ magnétique stable

énergie libre

1

0 instable

-1

métastable

-1

0

1

Figure 10.8 À gauche : Diagramme des solutions de l’équation auto-cohérente (10.43) pour  > 0. À droite : L’énergie libre  cm() pour différentes températures justifiant de la stabilité des différentes branches.

Prenons maintenant en compte la présence d’un champ externe . L’inversion de l’équation auto-cohérente conduit à  = th((  + ))



 () =  

 +  ∕  . argth()

(10.43)

( = 0 n’est plus solution). La représentation typique pour  > 0 du diagramme des solutions et de l’énergie libre est faite sur la figure 10.8. Le champ introduit une asymétrie favorisant la solution ∗ > 0 et qui est la seule stable pour toute température. À  , rien de particulier ne se passe. Il existe ensuite une température ∗ ( ) <   telle que trois solutions existent pour  <  ∗ ( ) : la solution stable ∗ > 0, et deux solutions avec ∗ < 0, une métastable (minimum local mais pas global) et une instable. À   0 fixé, il n’y a pas de transition de phase en fonction de la température. 225

Chapitre 10 • Transitions de phase

2.4 Comportement des grandeurs thermodynamiques Nous allons maintenant obtenir une série d’expressions pour les grandeurs thermodynamiques, exprimées en fonction de ∗ ( , ). Commençons par établir deux relations similaires et utiles pour la suite. Dérivons l’équation auto-cohérente (10.31) par rapport à:     ∗  ∗  =  1 +  (10.44) 1 − th2    ∗ +      Avec th     ∗ +  =  ∗ et en réarrangeant les termes, cela conduit à 1 − 2∗ ∗ . =  ( −   (1 − 2∗ ))

(10.45)

De même, en dérivant (10.31) par rapport à  nous obtenons après simplifications :  ∗ (   ∗ + )(1 − 2∗ ) , =   1 −  (1 −  2∗ )

(10.46)

L’énergie moyenne par spin s’obtient en moyennant (10.34) ce qui donne =

1 1 cm  = −   2∗ −   ∗ .  2

(10.47)

La capacité calorifique par spin et à champ nul ( = 0) est obtenue en dérivant l’énergie par rapport à la température, i.e. en utilisant (10.46) :  ( ) = 

2 2∗ (1 − 2∗ )  [ − (1 −  2∗ )]

.

(10.48)

Pour  >  , ∗ = 0 donc  = 0. À  =  , on observe un saut de la capacité calorifique de 3 ∕2 (le calcul sera fait au § 2.5). Vers les basses températures, l’annulation progressive de  ( ) ≃   (2 ∕ )2 e−2 ∕ est liée au gel des fluctuations, due à l’existence d’un gap d’excitation  = 2 = 2  correspondant au coût énergétique du retournement d’un spin. La capacité calorifique est tracée sur la figure 10.9, qui montre également des données expérimentales extrêmement bien décrites par la théorie de champ moyen (dans les composés ferromagnétiques, cet excellent accord est plutôt l’exception que la règle, et s’explique ici par l’existence d’interactions à longue portée). Après quelques manipulations, on peut exprimer l’entropie par spin  = (cm(∗ ) − )∕ en fonction de l’aimantation seulement :      1 − ∗ 1 − ∗ 1 + ∗ 1 + ∗ ( , ) = − (10.49) ln + ln 2 2 2 2 qui est précisément la forme obtenue pour la phase paramagnétique (éq. (5.14) et exercice 5.3). Elle est tracée (pour  = 0) sur la figure 10.9, ce qui montre que sa dérivée à  =  , reliée au comportement de la capacité calorifique, est singulière. Enfin, la 226

2

Transition paramagnétique-ferromagnétique 6

cV ( T ) / kB

1.5

5

0.6

HoRh 4 B4

FERRO

PARA

4

FERRO

1.0

PARA

0.4

3

2

0.5

0.2 1

0 0

champ moyen 1

2

3

4

5

6

Température ( K )

0.0

0

0.0

7

0.5

1.0

1.5

2.0

0.0

0.5

1.0

1.5

2.0

Figure 10.9 À gauche : Capacité calorifique. Comparaison avec les données expérimentales tirées de : H. R. Ott, et al., Physical Review B 25, p. 477 (1982). À droite : Entropie et susceptibilité (par spin) en fonction de la température  .

susceptibilité magnétique à champ nul est obtenue en utilisant (10.45) def

 ( ) =

∗  1 − ∗( )2 , =   =0   ( − [1 − ∗ ( )2]  )

(10.50)

et montre une divergence autour du point critique sur la figure 10.9. En particulier, comme ∗ ( ) = 0 pour  >  , la susceptibilité se simplifie en  ( ) =

1   ( −  )

pour  > 

(loi de Curie-Weiss) .

(10.51)

L’ajustement des données expérimentales à l’aide de cette loi permet une mesure précise 2  2   de  . Puisque  = − d’après (6.12), et  (  ) = , nous pouvons = −  2  2 conclure que les dérivée secondes de l’énergie libre sont singulières à la transition. La transition à  = 0 est donc du second ordre.

2.5 Le voisinage du point critique a) Comportement des solutions Nous analysons plus en détail les comportements des grandeurs thermodynamiques pour  →   . Revenons à la figure 10.7 et étudions l’aimantation en champ nul pour    . 1 Comme ∗ → 0, nous pouvons utiliser le développement th  ≃  − 3 dans (10.38), 3  ∗ 1  ∗ 3 ∗ ≃ . Après simplification de ∗  0 nous trouvons −  3   ∗ ( , 0) ≃

 →−

±

3( −  ) . 

(10.52)

qui sont les asymptotes représentées sur la figure 10.7. Le comportement des solutions et leur stabilité, bref la transition para-ferro, est très simplement interprétée par l’analyse de « l’énergie libre » : les hypothèses  →  ,  → 0,  → 0 et    associées au 227

Chapitre 10 • Transitions de phase

développement limité ln ch() ≃

 2 4 permettent d’écrire − 2 12

cm() ≃ −  ln 2 −  +

 ( −  ) 2   4  +  +⋯ . 2 12

(10.53)

Un tel développement est appelé développement de Landau. Cette expression approchée fait ressortir plus directement l’analyse donnée plus haut. En champ nul : pour  >  , le préfacteur du terme en 2 est positif, le minimum stable est en  = 0. Ce préfacteur s’annule à  puis devient négatif pour  <  . La fonction  cm() développe alors un double puits :  = 0 devient un maximum local tandis que les deux minima   0 sont stables. Remarquons enfin qu’il est clair que la dérivée seconde 2 cm   = ( −   ) s’annule à   , ce qui complète la discussion sur l’impor2  =0 tance des fluctuations de l’aimantation au point critique (voir page 225). En présence d’un faible champ, le terme − décale la position du minimum vers des  > 0 pour  >  et lève la dégénérescence des minima pour  <  (cf. figure 10.8).

b) Capacité calorifique et susceptibilité magnétique Le saut de capacité calorifique en champ nul, lorsque la température tend vers  par valeurs inférieures, est obtenu en combinant l’expression de l’énergie (10.47)  = 1 3 C −   2∗ , avec le comportement (10.52) :  ≃ ( −  ) pour   . On obtient 2 2 une limite finie   (− ) = 3 ∕2 (figure 10.9). Comme  ( + ) = 0, la discontinuité de capacité calorifique est donc  (− ) −  (+ ) =

3  2 

(10.54)

La loi de Curie (10.51) présente le comportement en loi de puissance pour  → +. Le comportement pour  → − est obtenu en repartant de (10.50) dans laquelle on injecte (10.52), ce qui donne après simplifications :  ( ) ≃

1 2 ( −  )

pour     .

(10.55)

La divergence est de même nature de part et d’autre de  . Il est facile d’établir la relation générale entre la susceptibilité et les fluctuations d’aimantation. En remarquant que l’énergie contient le terme − on obtient 2 = 1  2 ln  1 2 2 2   −  = 2 2 , ce qui conduit à une nouvelle relation entre =−   2   2 fluctuations et fonction de réponse  2 =

228

  ( ) , 

(10.56)

2

Transition paramagnétique-ferromagnétique

analogue à (6.21). La divergence de la susceptibilité traduit la divergence des fluctuations de l’aimantation au point critique (cf. la discussion de la page 225).

c) Courbes d’aimantation et isotherme critique Analysons les courbes d’aimantation ∗( ) à  fixée (isothermes) sur la base des résultats de la figure 10.8. Ces courbes sont représentées sur la figure 10.10. Commençons par  >  , lorsque  < 0, la solution stable est ∗ < 0 qui diminue avec le champ et s’annule avec lui. Le minimum de l’énergie libre passe alors dans le domaine ∗ > 0 et augmente avec  jusqu’à saturation. À  , la courbe d’aimantation est continue à l’origine mais sa dérivée est infinie à  = 0 (partie gauche de la figure 10.10). De fait, la pente à l’origine n’est autre que  ( ) calculée plus haut et qui diverge à  . Discutons le cas  <  : partons de  < 0 en suivant la solution stable jusqu’à  = 0 où l’aimantation atteint une valeur non-nulle ∗ ( , 0−) < 0. On pourrait continuer de suivre cette solution lorsque  > 0 (branche en pointillés), cependant elle devient métastable (cf. figure 10.8). La solution thermodynamiquement stable est celle qui correspond à l’autre puits ∗ > 0. Ainsi, l’aimantation fait un saut de ∗ ( , 0−) < 0 à  ∗( , 0 +) > 0.  , on conclut que la discontinuité correspond à une transition du Puisque  = −  premier ordre. Dans certaines conditions, il est possible de suivre les branches métastables. Cependant, comme celles-ci n’existent que sur un intervalle de  fini autour de  = 0, le système saute nécessairement sur la branche stable pour un  trop grand. En augmentant puis diminuant le champ, on peut ainsi envisager des chemins formant une boucle dans le plan (, ), appelée cycle d’hystérésis. Rappelons toutefois que le phénomène d’hystérésis décrit ici ne concerne qu’un seul des domaines magnétiques évoqués en introduction. En pratique, les courbes d’hystérésis des matériaux sont plutôt gouvernées par la réorientation des domaines de Weiss. 1 1.0

0.5

0

instable 0.0

hystérésis 0.5

métastable 1.0

-1 0

1.0

0.5

0.0

0.5

1.0

Figure 10.10 À gauche : Courbes d’aimantation ( ) pour trois températures caractéristiques. Pour  <  , les lignes pointillées sont les solutions métastables, les lignes claires sont celles instables et la zone grisée la construction de Maxwell. À droite : Isotherme critique.

229

Chapitre 10 • Transitions de phase

Revenons sur le comportement à  =  . Considérons la limite  → 0+ de (10.31) :  3 1∕3   3  1 ∗ ≃ ∗ + s’inverse en  ∗ ≃ , i.e. à l’ordre − ∗ + −    3        le plus bas  1∕3 3 ∗ ( , ) ≃ + . (10.57) →0    L’approximation est comparée à la courbe d’aimantation exacte sur la figure 10.10.

2.6 Brisure spontanée de symétrie et paramètre d’ordre Clôturons l’analyse du modèle d’Ising par quelques remarques de portée plus générale.

a) Brisure spontanée de symétrie Si nous reconsidérons l’hamiltonien d’Ising (10.27), nous pouvons observer qu’il possède une symétrie dite de renversement des spins en l’absence de champ externe. Cette symétrie de parité P ∶   → − laisse invariant le terme d’interaction mais pas le terme de champ. Comme P2 = 1, on parle de symétrie ℤ2 en référence aux valeurs propres ±1 de P. L’aimantation locale change naturellement de signe  → − sous l’action de P. Ainsi, l’hamiltonien de champ moyen (10.34) est aussi invariant sous P lorsque  = 0. L’ensemble de ses solutions est lui aussi invariant (cf. figure 10.7). Cependant, l’existence de l’état ferromagnétique pour  <  , démontrée expérimentalement, montre que le système se trouve dans une des solutions ∗  0. Puisque une solution n’est pas invariante sous P (la parité relie une solution à l’autre), on dira que la symétrie est « spontanément brisée » dans la phase ferromagnétique. Le fait que des solutions particulières (et non l’ensemble des solutions) brisent la symétrie d’un problème est un phénomène courant en physique. On peut penser à l’exemple classique du flambage d’une tige déformable que l’on comprime par ses deux extrémités : la tige se tord dans un plan, brisant la symétrie de révolution autour de l’axe initial de la tige.

b) Paramètre d’ordre et brisure d’ergodicité Il est généralement possible de définir un paramètre d’ordre qui permet de suivre l’apparition d’une brisure de symétrie et donc l’apparition de la transition de phase. Dans le modèle d’Ising, le paramètre d’ordre est naturellement l’aimantation locale. Reconsidérons les propriétés de symétrie de l’hamiltonien d’Ising pour mettre en évidence un apparent paradoxe. Puisque l’hamiltonien est symétrique sous la parité (à champ nul), Ising ({−}) =  Ising ({ }), la distribution d’aimantation (10.40) est 1

d  P () = 0. Ce résultat  −1 est exact, il ne repose que sur la symétrie de l’hamiltonien. Comment comprendre alors nécessairement paire, P (−) = P () d’où  =

230

2

Transition paramagnétique-ferromagnétique

l’existence d’un état d’aimantation non-nulle ? La raison est que le système n’explore plus toutes les configurations accessibles et reste piégé dans l’espace des configurations telles que  𝓁 ≃ +∗ (ou −∗). On parle de brisure d’ergodicité. La structure en double puits de la figure 10.7 permet de comprendre l’origine du piégeage : à  = 0, les deux états pour  = ∗ > 0 et  = −∗ < 0 ont la même probabilité, ce qui est lié à la propriété  = 0. Cependant, une fois que le système a choisi un des puits, seule une fluctuation thermique lui permet d’aller vers l’autre puits, ce qui l’oblige à passer par l’état intermédiaire instable  = 0 très peu probable. Finalement, le retournement de l’aimantation, qui restaurerait l’ergodicité, se produit avec une prob  abilité P ( = 0)∕P (∗) ∼ e− (  (0)− (∗)) contrôlée par la différence d’énergie libre (0) − ( ∗) > 0 extensive (∼  ). La manière dont le système choisit une solution en pratique, est liée à son histoire et à des perturbations extérieures, comme une petite fluctuation  > 0 (ou  < 0) du champ extérieur. Cette sensibilité aux perturbations extérieures pour  <  est liée à la non-analyticité des fonctions thermodynamiques discutées ci-dessous.

c) Non-analyticité des fonctions thermodynamiques La théorie de champ moyen met en évidence des comportements singuliers à la transition. Or, pour un nombre  fini, la fonction de partition et l’énergie libre, qui font intervenir une somme finie de termes exponentiels, sont des fonctions parfaitement régulières de  et . D’autre part,  a disparu de l’analyse de champ moyen, qui s’est focalisée sur les propriétés d’un spin. Clarifions le lien entre transition de phase et passage à la limite thermodynamique  → ∞. Par exemple, discutons la divergence de la susceptibilité  ( ) à  . La relation (10.56) exacte et très générale permet d’écrire  ( ) ∝ 2 . Puisque  est bornée,  ⩽ 1, sa variance  2 l’est également.  ( ) est nécessairement finie dans un système de taille finie et ne peut pas diverger, même à . Si l’on analyse le comportement pour  → ∞, on peut attendre 2 ∼ − (pour des spins indépendants,  = 1) et  ( ) ∼  1− peut diverger si  < 1. On parle d’effets de taille finie. Un autre point intéressant apparaît clairement sur la courbe d’aimantation à  <  : la figure 10.10 montre qu’elle présente un saut à  = 0, lim ( , ) = ±∗ ,

→0 ±

(10.58)

qui traduit l’extrême sensibilité aux perturbations extérieures à  = 0. Or, pour  fini, def 1  l’aimantation 𝔪 ( , ) = −  ( , ,  ) doit être continue en  = 0 car    est une fonction analytique de , puisque  est une somme finie de termes exponentiels. Nous avons de plus justifié que 𝔪 ( ,  = 0) = 0 au paragraphe précédent (en supposant l’ergodicité, ce que l’on fait ici). Par conséquent, lim lim 𝔪 ( , ) = 0 ,

→∞ →0 +

(10.59) 231

Chapitre 10 • Transitions de phase

qui est en apparente contradiction avec (10.58). Le fait que plus le système est grand, plus il est sensible aux perturbations du champ (en dessous de  ), suggère que la situation physique correspond à inverser l’ordre des limites : lim lim 𝔪 ( , )  0 .

(10.60)

→0 + →∞

On peut illustrer cette remarque sur la non-commutation des limites en consid 2 érant l’exemple ad-hoc suivant 𝔪 () =  ∕  + 1∕, qui donne les limites lim 𝔪 () = 0 et lim 𝔪 () = sign(). De même, à la limite thermodynamique →0

→∞

et dans la phase ferromagnétique, l’énergie libre par spin tend vers une fonction non-analytique dont le développement à bas champ est :  1 2  ( , 0) −  ( )  2  ( , ) ≃  1 →0  ( , 0) − ∗   −  ( ) 2 2 

3

pour  >  pour  < 

.

(10.61)

Universalité

3.1 Analogies entre les transitions liquide-gaz et para-ferro Prenant du recul sur les § 1 et 2, nous voyons apparaître de profondes analogies entre les deux transitions étudiées. Par exemple, les courbes d’aimantation ( ) de la figure 10.10, tournées de 90o , sont tout à fait similaires aux isothermes ( ) de la transition liquide-gaz de la figure 10.1. De même, l’équivalent du diagramme de Clapeyron de la figure 10.1 serait pour le modèle d’Ising une droite de coexistence dans le plan (,  ) le long de l’axe  = 0 et se terminant à  . Les couples (,  ) et ( , ) jouent donc des rôles identiques. Pour la transition liquide-gaz, le paramètre d’ordre est la densité , car c’est ce qui distingue en premier lieu les phases liquide et gaz, ou bien le volume par particule  = 1∕, conjugué au « champ » . Dans le § 1.5, nous avons considéré les écarts au point critique,  =  − , et  =  −  , afin que le paramètre d’ordre s’annule en ce point. L’analogie entre les deux transitions a toutefois des limites car il n’y a pas de symétrie brisée clairement identifiée pour la transition liquide-gaz.

3.2 Les exposants critiques Un autre aspect de l’étude en champ moyen des deux modèles souligne une relation plus profonde. En effet, dans les deux cas, l’étude du voisinage du point critique a fait apparaître des comportements en lois de puissance contrôlés par des exposants appelés « exposants critiques ». Le tableau 10.2 regroupe les exposants obtenus dans le cadre de l’approximation de champ moyen du modèle d’Ising, ainsi que ceux décrivant la solution analytique exacte obtenue par Onsager pour la dimension  = 2 et ceux donnés par les calculs numériques pour  = 3. L’observation la plus remarquable est l’exacte correspondance entre les exposants de champ moyen des transtions liq-gaz et para-ferro. 232

3

K 2 Co F4

0.8

0.5

solution d’Onsager (2D) 0

HoRh4 B4

1.0

M ( T )/ M 0

M stag( T ) / M 0

1.0

0

Universalité

champ moyen

0.4 0.2 0

100

50

0.6

0

0.2

0.4

0.6

0.8

1.0

T /T c

Température ( K ) Figure 10.11

À gauche : Paramètre d’ordre pour un composé antiferromagnétique stratifié (bidimensionnel) ; la courbe continue est le résultat exact dû à Onsager ; données tirées de : H. Ikeda & K. Hirakawa, Solid State Communication 14, p. 529 (1974). À droite : Composé ferromagnétique (tridimensionnel) avec interactions à longue portée ; la courbe continue est le résultat de champ moyen discuté dans le chapitre. Données tirées de : H. R. Ott, et al. , Physical Review B 25, p. 477 (1982).

Des arguments qui sortent du cadre de l’ouvrage (groupe de renormalisation) justifient cela en montrant que proche du point critique, ces deux transitions appartiennent à la même classe d’universalité et doivent avoir les mêmes exposants critiques. Notons que si le champ moyen ne donne pas les exposants exacts, le tableau suggère que le champ moyen décrit mieux les grandes dimensions (inversement les fluctuations sont si importantes en  = 1 qu’elles empêchent l’apparition de l’ordre ferromagnétique : inf =1  est la dimension critique inférieure du modèle d’Ising). Une discussion qui va au-delà de l’ouvrage montre que l’effet des fluctuations est diminué en augmentant la dimensionnalité et que, remarquablement, il existe une dimension appelée dimension critique supérieure (sup = 4 pour Ising) au-delà de laquelle les fluctuations sont négligeables  ∀  et les exposants critiques de champ moyen sont exacts (mais pas les propriétés non universelles). Tableau 10.2 def

Exposants critiques.  = ( −  )∕ . Les résultats obtenus pour le modèle d’Ising 3D sont tirés de A. Pelissetto & E. Vicari, Physics Report 368, p. 549 (2002).

Liq.-Gaz

Para-Ferro

champ moyen

Ising 3D

Ising 2D

 ( ) ∼  −

 ( ) ∼  −

=0

 = 0.110(1)

=0

( ) ∼ (−) 

( , 0) ∼ (−) 

 = 1∕2

 = 0.3265(3)

 = 1∕8

(  ) ∼ ()1∕

(  , ) ∼ 1∕

=3

 = 4.789(5)

 = 15

 ( ) ∼  −

 (  ) ∼  −

=1

 = 1.2372(5)

 = 7∕4

233

Chapitre 10 • Transitions de phase

Si ces exposants sont comparés aux résultats expérimentaux (cf. figure 10.11 et le tableau 10.3), on constate en effet un remarquable accord entre théorie et expérience d’une part, mais surtout entre exposants associés aux deux transitions. Tableau 10.3 Exposants critiques obtenus expérimentalement pour les transitions liquide-gaz et paradef

ferromagnétique (classe d’universalité d’Ising 3D).  = ( − )∕  mesure l’écart au point critique. Données expérimentales tirées de : H. W. Blöte, E. Luijten & J. R. Heringa, Journal of Physics A 28, p. 6289 (1995).

liquide-gaz Capacité calorifique Paramètre d’ordre Susceptibilité

 ( ) ∼  

−

densité ( ) −   ∼ (−) Compressibilité  ( ) ∼  −

CO2  = 0.111(1)

para-ferro  ( ) ∼ 

−

FeF 2  = 0.11(3)

CO2  = 0.324(2)

aimantation ( , 0) ∼ (−) 

FeF 2  = 0.325(2)

Xe  = 1. 246(10)

Susceptibilité  ( ) ∼ −

FeF 2  = 1.25(1)

Pour en savoir plus : • La littérature sur le sujet est considérable. Pour une présentation simple : [33]. On pourra également consulter [3, 15, 16, 23, 29]. Un livre plus avancé est celui de Chaikin et Lubensky [10]. • Un excellent livre qui allie esprit de synthèse et hauteur de vue est celui d’É. Brézin [7] • La solution du modèle d’Ising 2D due à Lars Onsager (1944) est présentée par exemple au § 151 de [23] et au § 13.4 de [29]. • Le chapitre a introduit quelques idées sur les transitions de phase associées à un changement de symétrie. Si les transitions les plus courantes (liquide-solide, para-ferro ou -antiferro, cristaux liquides, etc) rentrent dans ce cadre, cela n’épuise pas tous les types de transitions. D’autres transitions, dites « transitions de phase topologiques », ne s’accompagnent d’aucun changement de symétrie : les deux exemples les plus célèbres sont la transition Kosterlitz-Thouless qui apparaît dans de nombreux modèles bidimensionnels (modèle XY,...) ou la transition de l’effet Hall quantique entier (qui est aussi une transition de phase dite « quantique » car pilotée, à température nulle, par le champ magnétique). Le sujet a été mis en lumière en 2016 avec l’attribution du prix Nobel de physique à Duncan Haldane, Michael Kosterlitz et David Thouless. On trouvera des informations sur le site https://www.nobelprize.org/. Un ouvrage récent (spécialisé) est celui d’A. Bernevig [6].

234

Les points clés 1

2

Les transitions de phase sont la manifestation, à l’échelle macroscopique, d’effets coopératifs médiés par les interactions à l’échelle microscopique. Les mêmes détails microscopiques conduisent à des organisations macroscopiques différentes.

Notion de paramètre d’ordre. Distinction entre transitions du 1er et 2nd ordre (paramètre d’ordre discontinu ou continu à la transition).

3

Le modèle d’Ising est un modèle très important en physique statistique ayant de multiples applications (magnétisme, gaz sur réseaux, alliages désordonnés, etc).

4

L’approximation moyen.

5

La dimensionalité, la nature du paramètre d’ordre (scalaire réel ou complexe, vecteur, etc) et le schéma de brisure de symétrie déterminent la classe d’universalité.

de

champ

235

Entraînez-vous Exercice 10.2 Le modèle d’Ising antiferromagnétique Nous considérons le cas d’un réseau hypercubique :    = +  −   , 

(10.62)



où  > 0, i.e. une interaction favorisant l’anti-alignement des spins. On admet que la phase ordonnée à  =  = 0 correspond à l’ordre de Néel : les spins prennent des valeurs alternées +1 et −1. Autrement dit, si nous divisons le réseau hypercubique en deux sous réseaux imbriqués, notés  et  , l’aimantation prend une valeur constante sur chacun des sous-réseaux,  = +1 et  = −1 (ou l’inverse). L’aimantation moyenne  = 1 ( +  ) est nulle mais il 2

1 existe un ordre caractérisé par la valeur de l’aimantation alternée  stag = 2 ( −  ) = 1 (ou −1). Cette dernière joue donc le rôle de paramètre d’ordre dans la phase anti-ferromagnétique.

   , 1/ En décomposant la somme sur les sites sur les deux sous réseaux = +   ∈  ∈ donner l’expression de l’hamiltonien de champ moyen cm analogue à (10.34). Il sera commode pour la suite d’introduire deux champs indépendants  et  sur chacun deux sous réseaux. 2/ Calculer l’énergie libre associée à l’hamiltonien de champ moyen cm . Déduire deux équations auto-cohérentes permettant de déterminer  et  . 3/ On admet que  = −. Déduire une équation pour stag . Comparer au cas ferromagnétique. Résoudre cette équation graphiquement lorsque  = 0. Identifier la température critique  . Analyser stag dans les limites    et    .

Exercice 10.3 La méthode variationnelle À l’instar de la méthode variationnelle en mécanique quantique, on peut fonder l’approche de champ moyen sur un principe variationnel, l’ansatz se faisant sur l’hamiltonien et non sur la fonction d’onde. Il est par exemple naturel de choisir un ansatz 0 qui soit séparable pour pouvoir effectuer les calculs plus facilement. Les paramètres de 0 sont ensuite à optimiser selon un critère que nous définissons maintenant. 1/ Inégalité de Bogoliubov.– Partant de l’inégalité de convexité e  ⩾ e  pour une variable aléatoire , montrer que l’énergie libre  associée à un hamiltonien  satisfait l’inégalité  ⩽ 0 +  − 0  0 (10.63) où ⋯0 est la moyenne canonique par rapport à l’hamiltonien  0. Cette inégalité de Bogoliubov montre que les paramètres variationnels doivent être choisis afin de minimiser le membre def de droite var =  0 +  − 0 0. 2/ Hamiltonien d’Ising.– Nous souhaitons approximer l’hamiltonien  d’Ising ferromagné tique (10.27). Proposons l’hamiltonien d’essai 0 = −0 . 

a/ Quelle est la valeur de l’aimantation moyenne  par site associée à  0 ? b/ Calculer  −  0 puis déterminer  var (0 ). c/ Obtenir la valeur optimale de 0 puis montrer que  satisfait à une équation auto-cohérente. Comparer à celle obtenue dans le cours. 236

Chapitre 11

Statistiques quantiques

Introduire le formalisme permettant de traiter l’effet de l’indiscernabilité quantique sur les propriétés thermodynamiques.

1

Particules indiscernables : fermions et bosons

2

Les statistiques de Fermi-Dirac et Bose-Einstein

Ce chapitre explore le rôle de l’indiscernabilité des particules, introduite par le postulat de symétrisation de la mécanique quantique, dans la physique statistique. Le postulat de symétrisation, qui fixe des règles de construction des états quantiques à plusieurs particules identiques, affecte le dénombrement des états quantiques et introduit des corrélations entre les particules : on parle de « corrélations quantiques ». Même en l’absence d’interaction, des particules identiques ne sont pas indépendantes. Nous verrons que l’existence de corrélations quantiques a de profondes conséquences, pas seulement au niveau microscopique, mais également à l’échelle macroscopique (par exemple les propriétés électroniques des métaux sont dominées par le principe de Pauli, même à température ambiante). Puisque notre objet d’étude est ici le rôle des corrélations quantiques, nous allons considérer des systèmes de particules sans interaction. Ce chapitre n’est pas un chapitre d’application : il revient sur l’ensemble grand canonique en apportant le nouvel éclairage des facteurs d’occupation. Les résultats généraux formeront le socle des deux chapitres qui suivent.

1

Particules indiscernables : fermions et bosons

1.1 Apparition des effets quantiques Dans notre étude du gaz parfait classique (chapitres 4 et 8), nous avons déjà identifié la limite de l’analyse classique. Commençons par remarquer que de simples arguments d’analyse dimensionnelle permettent de construire une température caractéristique que nous identifierons avec la température de transition en deça de laquelle apparait l’effet des corrélations quantiques.

Analyse dimensionnelle. L’étude du gaz parfait fait intervenir deux paramètres : la masse des atomes  et la distance typique entre atomes  = −1∕3 contrôlée par la densité  du gaz. La mécanique quantique introduit la constante . Ces trois grandeurs  22∕3 permettent de construire une échelle d’énergie cinétique , associée à l’échelle  237

Chapitre 11 • Statistiques quantiques

de température def

∗ =

22∕3 . 

(11.1)

En combinant cette échelle caractéristique avec la température, nous formons un rapport sans dimension,  qui peut être réexprimé en termes de la densité et de la longueur def

thermique Λ =

22 ∕(  ) (11.2)

 Λ 3 = (2∗∕ )3∕2 .

Les limites de l’analyse semiclassique. L’examen des formules semiclassiques décrivant le gaz parfait, nous a déjà permis de constater que celles-ci ne sont valides que dans un régime dilué (voir page 78). Cette observation a été faite sur la formule de Sackur-Tetrode pour l’entropie, éq. (8.4), formule qui n’est positive que pour  Λ3  1 alors que  ⩾ 0 est une propriété générale (cf. chapitre 4). Nous pouvons cependant semiclass remonter ∼  3  −à l’expression semiclassique du nombre de microétats, éq. (3.28), Ω  Λ , où nous avons utilisé  = (3∕2)  pour faire apparaître Λ , ou encore 1      3  − à la fonction de partition canonique, éq. (8.1), MB = . Aussi ∼  Λ ! Λ3 bien Ω, qui est un nombre, que , qui est une somme d’exponentielles (⩾ 1 puisque l’énergie fondamentale individuelle est 0 = 0), doivent satisfaire Ω ⩾ 1 et  ⩾ 1. Ces conditions débouchent donc sur le critère  Λ3  1. Au final, nous distinguons les deux régimes suivants :    ∗ ou  Λ3  1 ⇒ Maxwell-Boltzmann (régime classique)    ∗ ou  Λ3  1 ⇒ effet des corrélations quantiques dominant

(11.3)

À  fixée, la transition entre les deux régimes se produit pour une densité ∗ ≃ 1∕Λ3 , ce que l’on peut résumer sur le diagramme ci-dessous :

0

T*

quantique n

T classique

n = Λ−3 T *

Sens physique de la longueur thermique : un argument populaire. . . Avec la distance typique entre particules , la condition (11.3) devient  = −1∕3  Λ .

238

(11.4)

1

Particules indiscernables : fermions et bosons

Nous constatons qu’il s’agit en effet d’une approximation faible densité/haute température, i.e. de gaz dilué : la distance typique entre particules doit être plus grande que la longueur thermique. Inversement, si la température est abaissée, toutes choses égales par ailleurs, les effets des corrélations quantiques se font sentir lorsque la distance entre particules approche la longueur thermique. La distribution de Maxwell montre que  l’incertitude dans l’espace des impulsions est Δ ∼   . Nous déduisons que l’incertitude dans l’espace est, en utilisant l’inégalité de Heisenberg, Δ ∼ ∕Δ ∼ Λ  . Autrement dit, il semble1 que la longueur thermique s’interprète comme la largeur du paquet d’onde décrivant un atome, ce que nous représentons schématiquement sur la figure 11.1. ΛT

n −1/3

régime classique (dilué)

régime quantique (corrélé)

Figure 11.1 Chaque atome peut être décrit par un paquet d’onde de largeur Λ  . Dans la limite diluée (classique) les paquets d’onde ne se recouvrent pas, il n’y a peu de corrélations quantiques. Dans la limite opposée (quantique) le recouvrement des paquets d’onde conduit à l’apparition de corrélations quantiques.

1.2 Le postulat de symétrisation en mécanique quantique Commençons par rappeler les règles qui découlent du postulat de symétrisation (cf. annexe 3.B page 54 ou chapitre 11 de [35]). Le formalisme quantique implique un principe d’indiscernabilité pour les particules identiques, deux électrons par exemple (tandis que deux particules différentes sont toujours discernables). Les états à plusieurs particules identiques ont une symétrie sous l’échange des particules. On montre dans ce cadre que les fonctions d’onde physiques doivent être  soit toutes symétriques, ou plutôt invariantes, sous les permutations à deux particules, les particules sont alors appelées bosons (photons, atomes d’hélium-4,. . . ),  soit toutes antisymétriques sous les permutations à deux particules, les particules sont alors appelées fermions (électron, proton, neutron, atomes d’hélium-3,. . . ). 1. L’argument entretient une légère confusion car la longueur thermique Λ caractérise la largeur de la distribution de Maxwell qui est une probabilité, i.e. caractérise un mélange statistique, et non une fonction d’onde dans l’espace des impulsions. 239

Chapitre 11 • Statistiques quantiques

La nature bosonique/fermionique est intimement reliée au spin  de la particule : les particules de spin entier ( = 0, 1, 2 ⋯) sont des bosons et les particules de spin demientier ( = 1∕2, 3∕2, ⋯) dont des fermions. Notons enfin que les particules constituées d’un nombre pair de fermions sont des bosons et celles constituées d’un nombre impair de fermions sont des fermions (par exemple : hélium-3, constituée de 5 fermions est un fermion alors que l’hélium-4 est un boson). L’indiscernabilité induit en particulier une grande réduction du nombre de microétats possibles par rapport au cas discernable. Ce facteur de réduction est environ égal à ! (le nombre total de permutations possibles).

Structure des états quantiques. Notons {   } une base des états individuels (ou états à une particule) de l’espace de Hilbert à une particule. Nous pouvons construire les états de particules discernables, ou états non symétrisés, par produit tensoriel de ces états individuels :   disc =  1 ∶ 1    2 ∶ 2   ⋯    ∶    =  1 ∶ 1 ; 2 ∶ 2 ; … ;  ∶   . La notation   ∶   signifie la ie particule est dans l’état   et la dernière égalité est une simplification de la notation du produit tensoriel. Si nous permutons les deux premières particules, nous obtenons l’état  1 ∶ 2; 2 ∶ 1; … ;  ∶  . Prenons le cas de deux bosons dans deux états individuels différents  =  ou . L’état bosonique peut être construit en symétrisant2 les deux états discernables selon  1   ,  bosons =   1 ∶ ; 2 ∶   +  1 ∶ ; 2 ∶   (11.5) 2 qui est bien invariant sous l’échange des particules. Là où il y avait deux états distincts pour les particules discernables il n’en reste plus qu’un pour les bosons. Si les particules sont dans le même état individuel  = , nous aurons naturellement  ,   bosons =  1 ∶ ; 2 ∶   qui est déjà symétrique sous l’échange. La procédure se généralise à  particules : on obtient un état à  particules invariant sous les échanges à deux particules. Les états « grégaires » de la forme  , … ,  bosons, où tout les bosons s’accumulent dans le même état  sont autorisés. La logique est la même dans le cas des fermions, si ce n’est que les états doivent être antisymétriques, c’est-à-dire que la fonction d’onde prend un facteur −1 lorsque deux particules sont échangées. Reprenons l’exemple des deux états  et   1   ,  fermions =   1 ∶ ; 2 ∶   −  1 ∶ ; 2 ∶   . (11.6) 2 Il n’est en revanche pas possible d’écrire un état antisymétrique avec les fermions dans le même état. C’est le principe de Pauli : deux fermions ne peuvent occuper le même état individuel. Il est courant de représenter les microétats des systèmes à  particules par des diagrammes montrant l’occupation des différents niveaux d’énergie (figure 11.2). 2. Le procédé peut être systématisé par l’utilisation d’un opérateur de symétrisation. 240

1

Particules indiscernables : fermions et bosons

Ces diagrammes illustrent le problème du comptage des états pour de petits systèmes. Ils éludent cependant le fait que les états symétrisés sont des superpositions quantiques d’états non symétrisés et un état individuel est occupé par toutes les particules à la fois. C’est l’intrication qui entraîne des corrélations entre particules : même en l’absence d’interaction, elles ne sont plus indépendantes. Le principe de Pauli l’illustre simplement : si une particule occupe un état individuel, les autres ne peuvent y accéder, ce qui peut s’interpréter comme une « force » d’exclusion effective. Les règles de construction des états quantiques induites par le postulat de symétrisation sont importantes pour la physique statistique car elles impactent le dénombrement des microétats. Alors que l’état non symétrisé (particules discernables) requiert de spécifier l’état individuel de chaque particule, ce qui correspond à se donner une liste ordonnée d’états individuels,  1 ∶ 1 ; 2 ∶ 2 ; … ;  ∶   , définir l’état symétrisé (particules indiscernables) demande moins d’information : seule importe l’occupation des états individuels pour caractériser les microétats, occupation encodée dans les facteurs d’occupation définis plus bas.

2

1

1

2

1 1

2

2

6

0 0 0 0 2 1 1 0 3 1 1

0 1 0 0 1 1 1 0 1 1 1

0 1 0 0 1 1 1 0 1 1 1

1

1

1

Figure 11.2 – Illustrations des microétats permis par le postulat de symétrisation.

1.3 La non-factorisation de la fonction de partition canonique Deux particules dans deux états individuels. Discutons comment les corrélations quantiques se manifestent dans le calcul de la fonction de partition canonique. La fonction de partition à une particule s’écrit ici  = e− + e − . Comme nous avons listé les microétats possibles à deux particules (figure 11.2), nous déduisons directement les fonctions de partition à deux particules : discernables : 2dis = e− 2 + 2e− ( +  ) + e− 2  = 2 bosons : 2B = e− 2  + e− ( + ) + e − 2 

fermions : 2F = e − ( + ) 

2 2!

2 2! 241

Chapitre 11 • Statistiques quantiques

Dans le cas discernable, il y a bien factorisation. Pour les bosons, pas de factorisation et le résultat diffère de la formule (6.43) correspondant à l’approximation de Maxwell Boltzmann MB  =  ∕ !. Notons également que le poids relatif des microétats où les bosons s’accumulent sur le même état augmente, par rapport au cas discernable. Enfin, pour les fermions la différence est encore plus frappante.

Exercice 11.1 Deux particules sans interaction Soient deux particules indiscernables dans l’ensemble canonique. Notons {} le spectre à une particule, où l’indice entier  parcourt l’ensemble des nombres quantiques. La fonction de partition peut donc s’écrire ( ) = e − . Montrer la 

relation suivante et interpréter physiquement chacun des termes : B∕F () = 2

 ( ) 2 1 ± (2 ) . 2 2

(11.7)

Corrections quantiques à l’équation d’état des gaz parfaits classiques. À quels effets pouvons-nous d’ores et déjà nous attendre ? Considérons par exemple l’équation d’état d’un gaz parfait quantique. Si les atomes sont des bosons, les corrélations quantiques favorisent leur regroupement spatialement ou énergétiquement. Elles auront donc pour effet de diminuer la pression, par rapport au gaz classique (figure 11.3). En revanche, si les atomes sont des fermions, le postulat de symétrisation induit des anticorrélations produisant une répulsion effective entre les atomes (principe de Pauli), ce qui augmente la pression du gaz comparativement au gaz parfait classique (figure 11.3). Estimons ces corrections sur l’équation d’état dans l’exercice ci-dessous.

Exercice 11.2 Corrections quantiques à l’équation d’état Nous considérons un gaz parfait pour lequel nous rappelons que  =  ∕Λ3 est la  fonction de partition à une particule où Λ = 22 ∕(  ). Nous nous plaçons dans une limite haute température   ∗ de sorte que   1. 1/ À partir de (11.7), montrer que l’énergie libre de deux particules prend la forme  B∕F( ,  , 2) =  MB ( ,  , 2) + Δpaire où  MB( ,  , 2) est la fonction de partition de Maxwell-Boltzmann et Δpaire la correction quantique pour une paire de particules. 2/ Dans la limite de basse densité,  =  ∕ → 0, l’énergie libre prend la forme  B∕F( ,  , ) ≃  MB ( ,  , ) +   Δpaire avec   le nombre de paires possibles dans le gaz. Après avoir explicité  , déterminer l’équation d’état sous la forme  ≃   (1 + corrections) où le coefficient 2 qui contrôle la première correction quantique est le second coefficient du viriel.

242

1

s iq

cl

fermions

as

?

P

ue

Particules indiscernables : fermions et bosons

? bosons

n n*

Figure 11.3 – Allure attendue pour les équations d’états des gaz parfaits quantiques. La déviation à la loi 𝒑 = 𝒏𝒌𝑩 𝑻 est due aux corrélations quantiques.

1.4 Facteurs d’occupation et particules sans interaction L’absence de formules simples pour la fonction de partition canonique des particules sans interaction trouve son origine dans la contrainte de conservation du nombre de particules. Cette contrainte génère des difficultés inhérentes aux problèmes combinatoires, de manière tout à fait analogue à celles produites par la contrainte sur l’énergie dans l’ensemble microcanonique. Après avoir libéré la contrainte sur l’énergie en passant à l’ensemble canonique, nous allons maintenant nous débarrasser de celle sur le nombre de particules grâce au formalisme grand canonique.

Définition. Nous avons vu qu’il suffisait, pour caractériser un microétat de particules indiscernables, de spécifier quelles étaient les occupations des états individuels. Ainsi, nous introduisons pour chaque état , un facteur d’occupation, ou nombre d’occupation, noté  et qui donne le nombre de particules occupant cet état (voir la figure 11.2). Dans ce point de vue, chaque microétat est déterminé par la seule donnée de l’ensemble des nombres d’occupation 𝓁  { }

(11.8)

Il est important de rappeler que l’indice  parcourt les états individuels et non les particules. Pour des bosons dont le nombre est fixé à  ,  peut prendre les valeurs de 0 à  (situation canonique), et si ce nombre n’est pas fixé alors  = 0, 1, 2, … , ∞ (situation grand-canonique). Pour des fermions, le principe de Pauli impose  = 0 ou 1. Le nombre total de particules dans un microétat 𝓁 ainsi décrit est donné par la formule 𝓁 =



 ,

(11.9)



où la somme



porte sur l’ensemble des états individuels et non sur les particules.



Enfin, en l’absence d’interactions entre particules, et nous ferons cette hypothèse dans toute la suite, les   particules occupant l’état d’énergie  contribuent à hauteur 243

Chapitre 11 • Statistiques quantiques

de   à l’énergie totale 𝓁 du microétat 𝓁, si bien que 𝓁 =



(11.10)

   .



Remarque. En présence d’interaction, les états symétrisés ne sont plus états propres de l’hamiltonien en général et il est nécessaire de connaître les énergies propres à  particules. Cela dépasse le niveau du cours et ne sera pas abordé dans cet ouvrage.

Dénombrement à nombre de particules fixé. Nous avons besoin en physique statistique d’effectuer la somme sur les microétats. Si le nombre total de particules  est 𝓁

fixé, cette somme multiple est contrainte, ce qui s’écrit   . = 𝓁



(11.11)

{ } =

 

Dans le calcul d’une fonction de partition, bien que le terme e− 𝓁 =   =  ne permet pas la factorisation de . factorise, la contrainte



e −  se





La solution grand canonique. La contrainte sur le nombre de particules peut être levée en se plaçant dans l’ensemble grand canonique, et donc en fixant le potentiel chimique . Reprenons l’exemple précédent de deux fermions dans deux états. Nous pouvons mettre au plus  = 2 fermions dans le spectre de sorte que 

Ξ =

2 

e−

=0





=

  =0,1

avec ∕ =





e− (   + ) =

 =0,1;   =0,1  + =



e

− ( −)

 

e − ( −)  e− ( −) 

 =0,1  =0,1



 − ( −)

e

=   

 =0,1

e− (∕ −) = 1 + e − (∕ −) . Nous retiendrons que la grande fonction

=0,1

de partition se factorise en produit des grandes fonctions de partition sur les états individuels. Ce sont les états individuels qui peuvent être traités de façon indépendante dans cet ensemble et non les particules.

2

Les statistiques de Fermi-Dirac et Bose-Einstein

Nous allons maintenant voir que cette approche est générale : l’ensemble grandcanonique va permettre d’exprimer toutes les propriétés thermodynamiques à l’aide 244

2

Les statistiques de Fermi-Dirac et Bose-Einstein

des nombres d’occupation moyens. À la limite thermodynamique, l’équivalence des ensembles nous assure, a priori, que les lois thermodynamiques obtenues seront aussi valables dans les situations microcanonique et canonique.

2.1 La factorisation de la grande fonction de partition Nous nous plaçons donc dans l’ensemble grand-canonique à  et  fixés et adoptons une description des microétats en termes de facteurs d’occupation en utilisant (11.8), (11.9) et (11.10). Par définition,     −     −      − ( 𝓁−𝓁 ) −  ( −)      , (11.12) Ξ= e = e = e 𝓁



{ }

où nous avons utilisé que la somme



=



{ }



avec

 =

1



⋯ est ici séparable. Autrement dit,



2

nous pouvons factoriser la grande fonction de partition en produit de grandes fonctions de partition associées à chacun des états individuels : Ξ=









(11.13)

e− ( −) .



La grande fonction de partition  contient toute l’information sur les propriétés statistiques de l’état individuel . Encore une fois, ce sont les états individuels qui peuvent être traités de façon indépendante et non les particules qui restent corrélées.  ne dépend de l’état qu’à travers son énergie   qui est supposée connue. Ce résultat est très important : il montre que l’écriture en terme des facteurs d’occupation et le formalisme grand canonique fournissent le « bon langage » pour passer très directement des propriétés à une particule (le spectre des états individuels) à la description statistique du système macroscopique.

2.2 Les statistiques quantiques D’après (11.8) et par linéarité de la moyenne, nous aurons  =



 . Cherchons à



exprimer les  en fonction des données.

G Facteurs d’occupation moyens. D’après (11.12) et (11.13), la probabilité { = } 1 − ( {}− { } ) G pour occuper le microétat 𝓁 = {} se factorise selon { e = } Ξ  G  ( ) avec 

G  () =

1 − ( −) e 

(11.14) 245

Chapitre 11 • Statistiques quantiques

Le nombre d’occupation moyen est finalement donné par l’équivalent de (6.59) selon G

 =

1  ln    

(11.15)

Statistique de Bose-Einstein. Appliquons (11.13) dans le cas des bosons dont le nombre d’occupation prend les valeurs  = 0, 1 , 2, … , ∞. Nous avons :  B

=

∞ 

e− ( −) =

=0

La somme est une série géométrique

∞ 

1 1−

e − (−)

(11.16)

 , avec  = e − ( −) > 0, qui ne converge qu’à

=0

la condition que  < 1. Cela impose donc que  <  pour tout . Si nous introduisons le fondamental d’énergie 0, le niveau le plus bas en énergie, alors la contrainte sur le potentiel chimique est  < 0 . De (11.15) nous tirons :  B =

1 e  ( −)

pour  < 0

−1

(11.17)

qui est appelée la distribution de Bose-Einstein. Nous verrons au chapitre 13 que la contrainte sur  est essentielle pour expliquer l’apparition du phénomène de condensation de Bose-Einstein. Une autre façon de la mémoriser est de se souvenir que  B > 0, puisque  ⩾ 0. En observant (11.17), cela n’est possible que si e ( −) > 1, pour tout .

Statistique de Fermi-Dirac. Pour les fermions, le principe de Pauli impose  = 0 ou 1. La sommation de la grande fonction de partition donne F = 1 + e− (  −), dont on tire la distribution de Fermi-Dirac (sans contrainte sur  dans ce cas) F

 =

1 e  ( −)

+1

.

(11.18)

Limite diluée (classique). Nous voyons que les deux statistiques quantiques tendent vers la même limite aux grandes énergies. En effet, s’il est possible d’avoir  (0− )  1 pour  donnée, en ajustant le potentiel chimique, nous aurons pour tous les états B F e− ( −)  1 si bien que  ≃  ≃ e− (−)  1. Dans ce cas, il n’y a plus de différence entre les deux types de statistiques et le système est insensible aux effets du postulat de symétrisation : c’est la limite classique, ou « diluée » en termes d’occupation des états. Cela correspond à l’approximation de Maxwell-Boltzmann. Il sera commode d’introduire la notation MB = e− ( −)  1 Les trois distributions sont représentées pour mêmes  et  sur la figure 11.4. 246

(11.19)

2

Les statistiques de Fermi-Dirac et Bose-Einstein

3

2 principe de Pauli 1

0

-6

-4

-2

0

2

Figure 11.4 Comparaison des distributions de Bose-Einstein et Fermi-Dirac avec la limite classique de Maxwell-Boltzmann pour les mêmes température  et potentiel chimique .

Remarque sur les fluctuations. D’après (11.14) et (6.66), les fluctuations du nombre d’occupation sont déterminées par  2 B∕F 1  1   e ( −) B∕F B∕F Var( ) ln   = (11.20) = =  ( −)     (e  ∓ 1)2 Des manipulations élémentaires conduisent à l’expression intéressante Var( )B∕F =  

B∕F 

1 ± 

B∕F

(11.21)

Dans la limite classique (Maxwell-Boltzmann), la variance est égale à la valeur moyenne Var( )MB =   MB , ce qui caractérise une distribution poissonienne attendue pour des états indépendants (cf. l’étude de la distribution de Poisson au § 4 du chapitre 2). Le résultat (11.21) illustre l’effet du postulat de symétrisation sur les fluctuations : pour des bosons se regroupant plus favorablement dans un même état quantique, les fluctuations sont augmentées par rapport au cas classique. En revanche, pour des fermions, les fluctuations sont réduites par le principe de Pauli par rapport au cas poissonien et s’annulent même lorsque  F → 1.

Exercice 11.3 Développement en fugacité Montrer que l’on retrouve les relations (11.7) en insérant dans Ξ le développement de la fonction de grand partition en puissances de la fugacité   1 +  e− +  2 e −2 + (3 ) bosons B∕F  = (11.22) fermions 1 +  e−

247

Chapitre 11 • Statistiques quantiques

2.3 Fonctions thermodynamiques Sommation sur les états individuels. Les grandeurs s’expriment directement en fonction du spectre individuel {} : le grand potentiel  , le nombre moyen de particules  et l’énergie moyenne . Pour le grand potentiel, nous avons par définition 1 1  B∕F 1 B∕F  B∕F = − ln ΞB∕F = − ln  = − ln   , soit       B∕F = ±

1 ln(1 ∓ e − (−) ) .  

(11.23)

Par linéarité de la moyenne statistique sur les expressions (11.9) et (11.10), nous avons : 

B∕F

=



B∕F

B∕F

et





=



  B∕F ,

(11.24)



où nous rappelons que  ∕ est une fonction de l’énergie individuelle.

Formulation à l’aide de la densité d’états individuels. Comme la dépendance en  des formules ne l’est qu’au travers de l’énergie  , il est souvent très utile de passer d’une somme sur les états à une somme sur les énergies. Regrouper les états par paquets d’énergies voisines fait intervenir la densité d’états individuelle  () étudiée dans la   ( −  ), nous aurons pour partie 4 du chapitre 3. Formellement, en écrivant () = 

une fonction  donnée la correspondance 



 ( ) =



 0

d ()  ()

(11.25)

En particulier, pour le grand potentiel, il vient ∞

 B∕F = ±

1 d () ln(1 ∓ e− (− ) ) ,  0

(11.26)

puis B∕F



=

 0



d () 

B∕F

( )

et



B∕F



=

0

d ()  B∕F () .

(11.27)

Ces dernières relations sont incontournables en pratique. En effet, dans de nombreux cas, comme nous l’avons vu au chapitre 3, la densité d’état est une fonction continue et simple de  (typiquement une loi de puissance) qui se calcule facilement par l’approche semiclassique. Nous sommes donc ramenés à un calcul d’intégrale qui se déroule mieux 248

2

Les statistiques de Fermi-Dirac et Bose-Einstein

qu’une somme discrète. Pour l’entropie, l’énergie libre, la capacité calorifique ou la G  pression, il est en général plus direct d’utiliser les formules G = − ,  =  +    et  G = − ∕ .

Exercice 11.4 Une relation utile entre  et  Montrer que sous l’hypothèse d’une densité d’états en loi de puissance () = −1 avec  une constante, nous avons la relation 1 B∕F  B∕F = −  

pour

 () ∝ −1 .

(11.28)

2.4 Du régime quantique au régime classique Nous allons voir que l’approximation de Maxwell-Boltzmann conduit à la formule semiclassique admise pour la fonction de partition de particules indiscernables, et justifier en particulier l’origine précise du préfacteur 1∕!.

La limite diluée et l’approximation de Maxwell-Boltzmann. Reprenons la description des microétats de la figure 11.2 et le problème de comptage des microétats et de celui de la fonction de partition canonique. Pour des  particules discernables, la foncdisc  =  tion de partition se factorise en  avec  = e− . Développons l’expression en une somme multiple   ⋯  disc = e−  1 e −2 ⋯ e − = 1





  { },  

! −    . e   !   =

Dans la somme multiple à gauche,  est l’état occupé par la ie particule et les sommes sont indépendantes. La formule de droite regroupe les contributions de même énergie  !   en utilisant les nombres d’occupation  . Les coefficients  totale  { } =    ! 3 sont appelés coefficients multinomiaux et leur expression se comprend en regardant les diagrammes de la figure 11.2 : l’énergie totale est fixée par la donnée des { }, mais pour des particules discernables, plusieurs numérotations correspondent au même { }. En effet, si on permute les numéros des particules, cela ne change rien aux { } et nous savons qu’il y a ! permutations possibles de  particules. Cependant, lorsque  particules sont sur le même état, les  ! permutations de leurs numéros donnent le même   ! d’où la formule. état et il ne faut pas les compter : nous divisons donc ! par 

3. La formule du développement multinomial généralise à  termes celle du binôme de Newton :  !   (11.29) (1 + 2 + ⋯ +  )  = 1 1 2 2 ⋯    ! ! ⋯  !   1,2 ,…, 1 2 

  =

249

Chapitre 11 • Statistiques quantiques

Prenons maintenant le cas des bosons. Il n’y a alors plus de numéros mais un seul ! état possible par configuration des nombres d’occupation { }. Là où il y avait    ! microétats discernables, il n’en reste qu’un. Reprenons les formules ci-dessus en les cor  !  rigeant « à la main » par l’inverse  pour compter correctement les contributions. ! Nous obtenons :       ! − −  −   B ⋯  = e = e  1e 2 ⋯ e −  !   { },  = 



1





Cela donne un autre point de vue sur la non-factorisation de la fonction de partition canonique : de la somme multiple contrainte à gauche, nous passons à des sommes indépendantes à droite mais pour lesquelles le terme correcteur empêche la factorisation4 . Elle indique également que le poids relatif des configurations avec occupation multiple augmente pour les bosons. La dernière formule est toutefois fort utile dans la limite diluée. Si les conditions de  et de  font que  1, cela signifie que les configurations qui  contribuent à la somme sont principalement celles avec   = 0, 1, pour lesquelles  ! = 1, et que nous pouvons négliger les autres. Sous cette approximation, nous 

retrouvons la factorisation avec un préfacteur 1∕! résiduel : B ≃

 1   −  − −  = 2⋯e . e 1e ⋯ !  !  1



Le traitement des fermions se fait en notant que comme  = 0, 1, nous ne pouvons avoir de configuration avec des occupations multiples. Pour ces configurations, le nombre de configurations « numérotées » est exactement  !. Dans la somme multiple, il reste à introduire un terme correcteur qui interdit que deux indices  et   soient identiques, ou bien, de façon équivalente, à ce qu’il y ait des  > 1. Si nous introduisons une fonction Pauli () telle que Pauli (0) = Pauli (1) = 1 et Pauli() = 0 sinon, nous pouvons écrire    Pauli () −  − − F 1e 2 ⋯e  = . e !  ,⋯, 1



Dans la limite diluée, les configurations pertinentes statistiquement seront celles telles    Pauli( ) = 1 et  F ≃ que . En conclusion, nous avons justifié que dans !  l’approximation de Maxwell-Boltzmann, B et  F convergent vers une même fonction de partition notée  MB et qui correspond à la règle heuristique du  ! présente

4. Il est bon d’expliciter ces formules non-triviales pour quelques particules sur deux niveaux. 250

2

Les statistiques de Fermi-Dirac et Bose-Einstein

dans les formules (3.27) ou (6.43) : B ≃  F ≃  MB  =

 !

si   1 ∀

(11.30)

Remarquons que ce résultat ne prend en compte l’effet du postulat de symétrisation qu’à un niveau très grossier : le facteur  ! est une estimation du facteur de réduction de la taille de l’espace de Hilbert symétrisé par rapport à celle de l’espace non-symétrisé, qui ne prend pas en compte la différence entre bosons et fermions et donc les corrélations quantiques.

Exercice 11.5 Autre démonstration de l’approximation de MaxwellBoltzmann ∞ 

Rappelons l’écriture de Ξ(, ) =

 (,  ) à l’aide la fugacité  = e .

=0

1/ Montrer que la connaissance de la fonction Ξ(, ) permet de retrouver (, ). 2/ Simplifier l’expression du grand potentiel  dans la limite diluée   1 en l’exprimant en fonction de , la fonction de partition à une particule. 3/ Retrouver alors la forme attendue pour la fonction de partition à  particules .

Retour sur l’exemple du gaz parfait classique. Avec les résultats de la section a du chapitre 6, le calcul semiclassique donne la relation suivante entre la densité et la fugacité : def

 = e ≃  Λ3 .

(11.31)

D’autre part, la limite diluée (11.19) pour l’occupation des niveaux n’est possible avec  ⩾ 0 que si e   1. Il y a donc équivalence entre le critère (11.3) et la validité de l’approximation de Maxwell-Boltzmann : 

BE

FD

≃ 

MB

≃ 

⇔ e   1 ⇔  Λ 3  1 .

(11.32)

Pour en savoir plus : • Sur le postulat de symétrisation : les livres classiques [11], [5] ou [35] (Chapitre 11).

251

Les points clés 1

Comprendre la formulation des microétats en termes de nombre d’occupation.

2

Savoir les formules exprimées en termes des niveaux individuels     et la déf→ La relation Ξ =   inition   = e − ( −) .

B =

(avec la cone (−) − 1 dition  <  0) et de Fermi-Dirac 1 F =  ( −) . e  +1 4



Savoir exprimer les grandeurs thermodynamiques  ,  , etc, à l’aide des distributions quantiques. L’écriture  du grand potentiel  = −  ln  . 

→ Le calcul de  3

T RÈS IMPORTANT : Connaître les distributions de Bose-Einstein

1

5

La limite classique est telle que les facteurs d’occupation sont BE ≃   FD  1. très faibles  Dans ce cas, ils coïncident tous MB deux avec   = e − ( −) .

Les annexes A

Fermions de spin 1/2

Nous discutons ici le cas de deux fermions avec spin 1∕2 (cf. chapitre 11 de [35]). Il y a deux états possibles pour le degré de liberté de spin  ↑  et  ↓ . Il est possible de choisir la fonction d’onde sous la forme d’un produit  Ψ  =   orb     spin de deux fonctions décrivant l’occupation des niveaux pour   orb et l’état de spin pour   spin . C’est la fonction d’onde totale  Ψ  qui doit être antisymétrique : soit   orb est symétrique et   spin est antisymétrique, c’est l’état singulet, de spin total tot = 0,  1   1   ,  singulet =   1 ∶ ; 2 ∶   +  1 ∶ ; 2 ∶      1 ∶↑; 2 ∶↓  −  1 ∶↓; 2 ∶↑  2 2     1 1 ( tot (11.33) =   ;   +  ;      ↑↓  −  ↓↑   = 0) 2 2 où la seconde ligne est une écriture simplifiée. Soit   orb est antisymétrique et   spin symétrique, c’est un des trois états triplets, de spin total tot = 1

 ,   triplet

252

  ↑↑     1  1  =   ;   −  ;      ↑↓  +  ↓↑  2  2  ↓↓  

(tot = 1) (tot = 0) (tot = −1)

(11.34)

1

Fermions de spin 1/2

Pour des états orbitaux différents (  ), nous passons donc de 4×4 = 16 états possibles pour des particules discernables à 4 seulement pour les fermions. Dans cette situation, il est possible de mettre deux fermions dans le même état orbital, à condition qu’ils soient dans un état singulet  tot = 0 pour satisfaire au principe de Pauli. Nous avons alors  1   ,  singulet =  ;      ↑↓  −  ↓↑  . (tot (11.35)  = 0) 2 Il ne reste qu’un état possible là où il y en avait 4 pour des particules discernables.

Figure 11.5 – Les microétats possibles pour deux fermions de spins-𝟏∕𝟐.

La présence du spin joue sur le dénombrement des états quantiques. Si l’hamiltonien ne dépend pas de l’état du spin, les niveaux d’énergie seront dégénérés d’un facteur 2 + 1 avec  le spin des particules. La formule (3.24) s’en trouve donc modifiée ainsi : (2 + 1)  2 3∕2   ( ) =  . (11.36) 4 2 2 Pour des électrons avec un spin  = 1∕2, il y a donc un facteur 2 + 1 = 2 par rapport au cas sans spin. En revanche, si les énergies dépendent de l’état de spin, un simple préfacteur n’est pas suffisant, et il est plus commode de distinguer les deux états de spin et d’introduire des densités d’états pour chaque espèce. Nous en verrons un exemple au travers du paramagnétisme de Pauli dans le problème 12.2 page 272.

253

Entraînez-vous Problème 11.1 Bosons (ou fermions) dans un puits harmonique 1D L’objet du problème est d’étudier l’effet de l’indiscernabilité (i.e. du postulat de symétrisation de la mécanique quantique) sur les propriétés thermodynamiques d’un système simple, pour lequel un calcul exact de la fonction de partition canonique est possible. On considère  particules se déplaçant sur une ligne et soumises à un potentiel de confinement harmonique : =

  =1



2

1 +  22 2 2

 .

(11.37)

On rappelle que les états quantiques {  } d’une particule dans le puits harmonique sont indicés par un entier naturel  ∈ ℕ. Le spectre des énergies est  =  ( + 1∕2). A. Approximation de Maxwell-Boltzmann.– Calculer la fonction de partition des  particules dans l’approximation de Maxwell-Boltzmann. La nature bosonique/fermionique importe-t-elle ? Discuter la validité du résultat. Donner l’expression du potentiel chimique MB ( , ). B. Bosons. 1/ Décrire les états quantiques des  bosons de spin nul. Quelle différence y-a-t’il dans le labelling des états quantiques entre le cas des bosons et des particules discernables ? Calculer la fonction de partition bosons . Dans quelle limite retrouve-t-on le résultat classique de la question A ? Identifier l’échelle de température, notée ∗ , qui délimite les deux régimes (classique/quantique). Discuter l’origine physique de la dépendance de  ∗ en . 2/ Montrer que l’énergie libre est :      bosons ( , ) =  +   ln 1 − e −∕  . 2 =1

(11.38)

Interpréter le premier terme. 3/ Écrire l’énergie moyenne du gaz de bosons sous la forme d’une somme. Analyser les comportements limites de l’énergie (on distinguera trois régimes de température délimités par les deux échelles caractéristiques ∕ et  ∗). Déduire la capacité calorifique. [Indication : utiliser une intégrale du formulaire page 299]. 4/ Si  est traité comme une variable discrète, on définit le potentiel chimique canonique def comme ( , ) =  ( , )− ( ,  −1). Analyser les limites de haute et basse température. C. Fermions.– Mêmes questions pour des fermions polarisés en spin (i.e . tous dans le même état de spin). Montrer que les fonctions de partition des fermions et des bosons sont simplement reliées selon fermions = bosons e− Δ0 , où Δ 0 est une constante dont on donnera l’expression. Interpréter ce résultat. 254

Entraînez-vous

Problème 11.2 2𝐧𝐝 coefficient du viriel des gaz parfaits quantiques Nous considérons un gaz parfait d’atomes de masse  et non relativistes, contenu dans un 

d ′ ( ′ ) la densité d’états 0 intégrée. Dans un premier temps nous montrons que l’équation d’état du gaz parfait quantique peut être mise sous la forme volume  . On note () la densité d’états individuels et Φ() =

   =1± 

0



0

d Φ() (  )2 (11.39)



d Φ()  ()

où le signe supérieur (resp. inférieur) correspond aux bosons (resp. aux fermions). 1/ Exprimer le grand potentiel pour des bosons ou des fermions, noté  B∕F, comme une intégrale faisant intervenir Φ() et l’occupation moyenne  (). (Indication : partir de l’équation (11.26) du cours). Justifier rapidement que la pression G est simplement proportionnelle au grand potentiel. Donner la relation précise.  2/ En utilisant ′ () = −  ()[1 ± () (+ pour les bosons et − pour les fermions), déduire une représentation intégrale de 

G

faisant intervenir Φ() et (). G

3/ Jusqu’à la fin du problème, on se place à la limite thermodynamique, i.e.  →  ,  G → , etc. et on note la densité moyenne  =  ∕ . Déduire (11.39) des questions précédentes. 4/ Second coefficient du viriel.– Afin de décrire l’écart à l’équation d’état du gaz parfait classique, on présente l’équation d’état comme un développement en puissances de la densité  (développement du viriel) =  + 2 ( ) 2 + 3 ( )  3 + ⋯. C’est un développement   utile dans la limite diluée. Nous allons nous limiter à l’étude du second coefficient du viriel, i.e. 2 ( ). a) Calculer explicitement Φ() (on oubliera la dégénérescence de spin pour simplifier) b) Gaz parfait classique.– Dans la limite classique, justifier que  () →  MB () = e − (− ). Calculer explicitement  =  fugacité est donnée par

G

def

en fonction de  ,  et  dans cette limite. Montrer que la

 = e =  Λ3

(classique)

(11.40)

où Λ est la longueur thermique de de Broglie, dont on retrouvera l’expression. c) En remplaçant  () → MB () dans (11.39), identifier le premier terme du développement de la pression en puissances de la fugacité  ∕(  ) = 1 +   + ( 2 ) .

(11.41)

Donner la valeur de la constante  (pour les bosons et les fermions). 255

Chapitre 11 • Statistiques quantiques

d) Dans la limite diluée, on peut remplacer la fugacité dans le développement (11.41) par l’expression classique (11.40). Déduire l’expression du second coefficient du viriel 2 ( ) en fonction de Λ .

Température ( K ) B2 (T ) ( litre/mol. )

0

1

2

3

4

5

6

7

8

9

10

−0.5 −1.0 −1.5 −2.0 −2.5

Figure 11.6 Second coefficient du viriel de l’Hélium-4 pour des températures intermédiaires 1 K <  < 10 K. Données tirées de l’article : R. D. McCarty, J. Phys. Chem. Ref. Data 2, p. 923 (1973).

e) Justifier physiquement le signe de 2 ( ), puis le comportement de 2( ) lorsque  croît. Le second coefficient du viriel a été mesuré expérimentalement pour un gaz d’Hélium-4. Comparer vos résultats avec la courbe expérimentale de la figure.

256

Chapitre 12

Fermions

Explorer les effets du principe de Pauli sur les propiétés thermodynamiques Étudier les propriétés thermodynamiques des électrons d’un métal

1

Introduction

2

Gaz parfait de fermions libres dégénéré à  = 0

3

Comportement à basse température

Nous étudions dans ce chapitre les effets du postulat de symétrisation (i.e. du principe de Pauli) sur la thermodynamique d’un gaz parfait de fermions libres. C’est un premier exemple d’application des résultats du chapitre 11.

1

Introduction

1.1 La distribution de Fermi-Dirac Comme nous l’avons vu au chapitre précédent, les quantités thermodynamiques sont gouvernées par l’occupation moyenne des états individuels qui est pour les fermions caractérisée par la distribution de Fermi-Dirac : F

 () =

1 e (−)

+1

.

(12.1)

Celle-ci est représentée en fonction de l’énergie sur la figure 12.1 dans différents régimes de température pour un potentiel chimique  donné. Dans la limite de température nulle ( → ∞), l’exponentielle du dénominateur va soit s’annuler lorsque  < , ce qui donne F () → 1, soit diverger lorsque  > , ce qui donne F() → 0 (on notera que F () = 1∕2 quelle que soit la température). La courbe est en forme de marche, ce qui F s’écrit  () =  H( − ). Lorsque    , le saut de la marche s’élargit sur une échelle typique donnée par   mais la fonction tend toujours rapidement vers 1 et 0 lorsqu’on s’éloigne de . Enfin, rappelons que dans la limite classique   , on a F ()  1 .

1.2 Contexte physique Une question est de comprendre comment les corrélations quantiques liées à l’indiscernabilité, ici le principe de Pauli, modifient la théorie semiclassique du gaz parfait 257

Chapitre 12 • Fermions

1

0.5

0

0

1

2

3

4

Figure 12.1– Distribution de Fermi-Dirac. À 𝝁 donné pour 𝑻 = 𝟎 et 𝒌 𝑩 𝑻 ≪ 𝝁.

étudiée au chapitre 8. L’étude théorique du gaz parfait de fermions telle que présentée dans ce chapitre remonte au principe de Pauli de 1925, à l’établissement de la loi (12.1) par Fermi et Dirac en 1926 puis aux développements à basse température de Sommerfeld en 1928. La réalisation expérimentale la plus naturelle d’un gaz parfait de fermions correspond à un gaz d’atomes fermioniques neutres : on doit considérer l’atome le plus léger possible pour maximiser l’effet des corrélations quantiques. Le meilleur candidat est l’3He (noyau composé de deux protons et un neutron, donc un fermion), cependant l’hélium se liquéfie dans les conditions standard, à une température comparable à celle de l’apparition des effets quantiques (∗ ≃ 1 K). Cette situation idéale du gaz parfait de Fermi dégénéré n’a été réalisée expérimentalement qu’en 1999, et avec des atomes de Potassium 40 K, beaucoup plus lourds (∗ ≃ 10 −7 K) mais pour lesquels des techniques de refroidissement très efficaces ont pu être développées. Pour autant, l’étude du gaz de fermions dégénéré a connu un grand succès dès son avènement, pour des situations où son applicabilité est moins directe. Dès 1926, dans le domaine de l’astrophysique, la stabilité des naines blanches (qui correspond à la fin de vie de certaines étoiles) fut expliquée grâce à la pression quantique résiduelle que nous allons expliquer. Un peu plus tard, la stabilité des étoiles à neutrons est interprétée par l’inhibition de la désintégration des neutrons par le principe de Pauli. Aujourd’hui, d’autres états de type plasmas chargés comme ceux créés par des lasers intenses explorent les effets quantiques. Cependant, c’est dans le domaine de la matière condensée, qui étudie la physique des solides et des liquides, que son utilisation est la plus répandue. Tout d’abord, la physique de l’Hélium 3 dans les états fluide, superfluide ou solide se situe dans un régime dominé par les corrélations quantiques. Ce problème fondamental a suscité de nombreux travaux expérimentaux et théoriques, mais aussi des applications pratiques importantes : par exemple, une particularité du diagramme de phase de l’Hélium 3 (la remontée de la ligne d’équilibre liquide-solide en allant vers les basses températures, appelée effet Pomeranchuk) est utilisée dans les cryostats pour atteindre de très basses températures (∼ 10 mK). Surtout, c’est le comportement des électrons dans les cristaux qui a vu le plus d’applications, car ce sont des particules si légères qu’elles sont profondément dans le régime quantique même à température ambiante. Les électrons sont responsables des propriétés de conduction électrique (et en partie des 258

1

Introduction

propriétés de conduction thermique, avec les phonons) et à ce titre jouent un rôle central dans les applications de la vie courante (électronique, capteurs, transport électrique et conversion d’énergie,. . . ). Sans pour autant oublier les autres domaines, nous centrerons donc ce chapitre sur l’étude des électrons dans un métal.

1.3 Les électrons d’un métal Rappelons quelques éléments introduits au § 2.1 du chapitre 9 : un cristal métallique est formé d’atomes dont la cohésion est assurée par des liaisons chimiques correspondant à la mise en commun d’une partie des électrons. Les ions ayant une masse beaucoup plus importante que les électrons impliqués dans la liaison chimique, il y a un découplage entre les dynamiques des ions (« lents ») et des électrons (« rapides ») qui permet d’écrire (9.10). Après avoir analysé la thermodynamique des vibrations du cristal au chapitre 9, nous nous focalisons maintenant sur les propriétés thermodynamiques des électrons, les ions étant supposés immobiles. Nous allons décrire les électrons comme un gaz parfait et négliger deux ingrédients qui pourraient sembler importants : le potentiel cristallin et l’interaction coulombienne. Nous justifions maintenant cette approximation.

a) États individuels dans un potentiel périodique Un ingrédient important pour l’analyse grand canonique est la densité des états individuels, que nous notons  (). Dans un cristal, il convient donc d’étudier les valeurs propres de l’énergie pour une particule soumise à un potentiel périodique. Nous devrions en 2 principe déterminer le spectre des énergies de l’hamiltonien  = − Δ + ions() 2 où le potentiel a la périodicité de la structure cristalline. Le problème est extrêmement riche et pourrait donner matière à des discussions avancées dans le cadre d’un cours de physique des solides [2, 19]. Fort heureusement, tous les détails microscopiques seront « gommés », dans le sens où ils n’affectent que marginalement les propriétés thermodynamiques du gaz d’électrons, pour des raisons que nous allons maintenant exposer et qui reposent sur la structure de la distribution de Fermi-Dirac (figure 12.1). À ce stade, il est inutile de connaître tous les détails des propriétés spectrales pour un potentiel périodique, et il nous suffit de retenir les résultats déduits de l’observation suivante : l’hamiltonien est invariant sous les translations du réseau cristallin de vecteurs  =   +   +  , ∀ (, , ) ∈ ℤ3 . Il commute donc avec les opérateurs  dont les valeurs propres prennent la forme e⋅  , avec  un vecteur de translations  ( ) d’onde dont les valeurs permises sont restreintes à une région appelée zone de Brillouin.  commutent, ils sont diagonalisables simultanément (théorème de Comme  et les  () Bloch, cf. chapitre 6 de [35]). Il s’ensuit que les états stationnaires sont étendus (délocalisés) à l’échelle du cristal. Le spectre en énergie présente typiquement une succession de bandes en énergies ( ), où  indice la bande, dont un exemple est représenté sur la 259

Chapitre 12 • Fermions

Silicium

Aluminium

gap

-5

-10

0

Figure 12.2 À gauche : diagramme de bandes du Silicium (semi-conducteur), l’abscisse correspond à un parcours selon une ligne brisée dans l’espace des , densité d’états () correspondante, un gap sépare les deux bandes (  est le niveau de Fermi, tel que  =   à  = 0). À droite : la densité d’états de la bande de conduction de l’Aluminium (métal) est proche de celle d’un gaz parfait (données tirées de [19]).

figure 12.2 pour le Silicium. Les bandes sont des domaines continus d’énergies accessibles séparés par des gaps, i.e. des domaines en énergie vides d’états. Un point essentiel est que l’échelle d’énergie de la largeur des bandes est celle des niveaux électroniques de l’atome isolé, à savoir l’électron-Volt. Or, nous notons qu’à température ambiante     1 eV ≃ 12 000 K. La structure de la distribution de Fermi-Dirac (figure 12.1) est à l’origine d’une simplification drastique : elle montre que tant que     (et ici  ∼ eV), seuls les états dans un voisinage du potentiel chimique  (à distance au plus ∼  ) participent à l’excitation thermique du système. Les autres électrons, à des énergies    −   , sont gelés à cause du principe de Pauli et ne participent pas aux propriétés thermodynamiques. Par conséquent, seules importent des propriétés locales du spectre à une particule, dans le voisinage de  ∼  (figure 12.3). Cette observation importante nous autorise à remplacer le problème (compliqué) d’un électron dans un potentiel périodique par le problème (simple) d’un électron libre. kBT

électrons gelés

μ

Cristal

kB T

simplification

électrons excités

électrons gelés

μ

Problème libre

Figure 12.3 – Simplification de l’information spectrale. Seuls les électrons occupant des états d’énergies voisines de  sont excités thermiquement.

260

2

Gaz parfait de fermions libres dégénéré à  = 0

b) Le rôle des interactions électroniques La deuxième question que nous soulevons est celle du rôle des interactions entre électrons, particules chargées et interagissant dans le vide via l’interaction coulombienne, répulsive et de portée infinie :  () = 2 ∕ où 2 = 2∕(4 0). La même force (mais attractive) lie l’électron aux atomes si bien qu’en ordre de grandeur, elle est également de l’ordre de l’eV et ne peut être traitée perturbativement. En présence des ions cependant, un mécanisme d’écrantage va rendre l’interaction à trés courte portée. Imaginons qu’une charge  soit introduite dans un métal, le gaz d’électrons réajuste alors sa densité localement sur une longueur typique 𝓁ecr, appelée longueur d’écrantage, de sorte que les charges positives et négatives neutralisent l’excès de charge, assurant l’électroneutralité. Par conséquent, à grande distance la charge globale est nulle et le potentiel électrostatique créé par cette distribution de charge décroît extrêmement rapidement : eff () = ( 2 ∕) e−∕𝓁 ecr . Autrement dit, l’interaction effective entre charges est à courte portée (dans l’Argent, 𝓁ecr  1 Å), ce qui explique que les interactions sont, en général, effectivement faibles et peuvent légitimement être négligées.

c) Conclusion : le modèle des électrons libres Finalement, le seul paramètre microscopique pertinent en première approximation reste la masse des électrons. En raison de la structure de bandes, pour lesquels la vitesse    (),  et des interactions, celle-ci n’est pas tout des électrons est donnée par ,  = ∇  à fait égale à la masse d’un électron dans le vide. On parle de sa masse effective et on la notera simplement . Sous ces approximations, raisonnables pour la plupart des semiconducteurs et les métaux mais mis en défaut dans quelques cas intéressants, nous considérons que les électrons participant à la thermodynamique forment un gaz parfait de fermions de masse  et de spin  = 1∕2 dans une boîte (le volume du métal). D’après (11.36), la densité d’états est :    def 1 2 3∕2 () =    avec  = (12.2) 22 2 où l’origine des énergies est choisie à 0 = 0 (cf. figure 12.3) .

2

Gaz parfait de fermions libres dégénéré à  =0

2.1 Formules grand canoniques Nous nous plaçons à  = 0 et ,  fixés. Le fait que la distribution de Fermi est alors une fonction de Heaviside (figure 12.1) simplifie grandement les calculs de (11.27) : G

 (0, ,  ) =

0



2 d () =   3∕2 3

(12.3) 261

Chapitre 12 • Fermions

et G

 (0, ,  ) =

0



2 3 G d ()  =   5∕2 =  (0, ,  )  . 5 5

(12.4)

2.2 Interprétation canonique a) Énergie de Fermi Nous avons remarqué qu’à température nulle, les fluctuations disparaissent (le gaz fermionique est dans son état fondamental) puisque Var( ) =  F (1 −  F ) = 0 si G

 F = 0 ou 1 donne Var()G = 0. Il n’y a donc pas de distinction entre  ou  . Nous pouvons inverser les formules grand canoniques afin d’obtenir des informations canoniques, i.e. exprimer les grandeurs en fonction de  et  plutôt que  et  . Nous déduisons de (12.3) une expression du potentiel chimique (canonique, donc)  C (0, ) =  ,



def

 =

2 (3 2) 2∕3 2

(12.5)

est une échelle d’énergie caractéristique du problème à  et  fixés, appelée l’énergie de Fermi ; elle est uniquement fonction de la densité moyenne  =  ∕  , et de constantes microscopiques. Du point de vue des propriétés thermodynamiques, elle est def donc la limite de température nulle du potentiel chimique canonique  = lim  ( , )  →0

Il est utile pour la suite de définir une échelle de température associée, la température de Fermi, qui jouera un rôle dans les développements ultérieurs : def

   =   =

2 (3 2)2∕3 2

(12.6)

Nous avons ainsi obtenu une température caractéristique qui coïncide précisément, à un facteur numérique près, avec la température caractéristique ∗ séparant les régimes classique et quantique introduite au paragraphe 1.1 du chapitre 11 :  =

1 (32) 2∕3 ∗ 2

(frontière classique/quantique).

(12.7)

Notons finalement que la saturation du potentiel chimique à température nulle reflète l’effet du principe de Pauli : à  = 0 les fermions s’empilent dans les états quantiques jusqu’au niveau d’énergie égal à  (figure 12.1). Le spectre libre est extrêmement dense, cependant s’il est rempli par un nombre macroscopique de fermions, l’énergie  est « grande », typiquement quelques eV dans les métaux à température nulle. Les anticorrélations quantiques imposées par le postulat de symétrisation forcent les électrons à occuper des états individuels de grande énergie. 262

2

Gaz parfait de fermions libres dégénéré à  = 0

De même, l’énergie peut être exprimée en fonction de  et  (on utilise l’équivalence G C des ensembles à la limite thermodynamique (0,  ,  ) =  (0, ,  ) =  0) : 0 =

3  5 

(12.8)

désigne l’énergie fondamentale du gaz de  fermions. À température nulle, l’énergie fondamentale du gaz de fermions sature à une valeur « importante » du fait du principe de Pauli (figure 12.6). Nous donnons plus bas deux illustrations (avec ordres de grandeur) afin d’insister sur ce point.

b) Pression quantique à  = 0 Nous pouvons relier l’énergie au grand potentiel grâce à (11.28) où  = 3∕2 pour les G

fermions libres : (0, ,  ) = − 23  (0, ,  ). En utilisant de plus que  = −G  , nous def

G

2  (0, ,  ) = obtenons la pression 0 = G (0, ) = 3 pouvons réécrire comme une fonction de la densité

2 5

2 2 1  0 =  = (3 2 )2∕3  5∕3  5 5

G

 (0, ,  ) , que nous

(12.9)

Afin de bien apprécier ce que la saturation de la pression à température nulle a de remarquable, il convient de rappeler la situation classique : dans un gaz « classique », en abaissant la température les particules voient leurs énergies cinétiques, et leurs impulsions, diminuer. Les transferts d’impulsion du gaz vers les parois du récipient deviennent de plus en plus faibles, la pression diminue. Si  → 0 la pression s’annule proportionnellement  ∝  → 0. Pour les fermions, le principe de Pauli interdit l’occupation multiple des états de basse énergie. Ils sont forcés d’occuper des états individuels d’énergie typique  , caractérisés par une grande impulsion. Ils exercent donc collectivement une force sur les parois du système. Bien que les excitations thermiques disparaissent lorsque  → 0, la pression sature au lieu de s’annuler.

2.3 Applications et ordres de grandeur a) Métaux Dans un bon métal (Cu, Ag, etc) la densité typique d’électrons de conduction est  ≃ 6 × 1028 m−3 (pour Ag), ce qui conduit à une énergie de Fermi importante,  ≃ 4.8 eV. Par exemple si nous calculons la vitesse de Fermi associée à cette énergie, 1 donnée par  = 2 , nous obtenons   ≃ 1.2 × 10 6 m/s (la vitesse des électrons 2 de conduction dans l’argent). Enfin nous constatons que la température de Fermi est énorme comparativement à la température ambiante :  ≃ 56 000 K ! On trouve une pression 0 ≃ 1.8 × 10 10 Pa = 180 kbar. 263

Chapitre 12 • Fermions

b) Naines blanches La pression quantique du gaz dégénéré est très importante. En particulier c’est la pression du gaz d’électrons qui fournit le mécanisme de stabilisation s’opposant à l’effondrement gravitationnel dans les étoiles de type « naines blanches ». Les ordres de grandeurs typiques sont :1 une masse typique  ∼ 1030 kg (de l’ordre de la masse du soleil  = 2 × 1030 kg) et un rayon typique  ∼ 10 000 km (de l’ordre du rayon terrestre ♁ = 6400 km). La masse est essentiellement celle de la matière hadronique (protons et neutrons), le nombre d’électrons  ∼  ∕ proton ∼ 1057, ce qui donne une densité d’électrons  ∼ 1036 m−3 . Nous obtenons  ∼ 105 eV (<   2 = 511 keV) et   ∼ 10 9 K, bien supérieure à la température de cœur de l’étoile, estimée à cœur ∼ 107 K (température de fusion de l’hydrogène) ; le gaz d’électrons peut donc être considéré quasiment comme un gaz à température nulle ! Sa pression est de l’ordre de 0 ∼ 10 22 Pa = 1017 bar.

3

Comportement à basse température

3.1 Développements de Sommerfeld a) Rappel des formules grand canoniques Il sera commode pour la suite d’introduire la notation def

 F =  ( −  ;  )

1

(12.10) 1 est la fonction de Fermi, centrée sur l’énergie nulle. Nous pouvons écrire les diverses quantités importantes : G

 ( , ,  ) = G

 ( , ,  ) =

0



0



où  (;  ) =

e +

d ()  ( −  ;  )

(12.11)

d ()   ( −  ;  )

(12.12)

 ( , ,  ) = − G( , )  = −

1  0



  d () ln 1 + e− (− ) .

(12.13)

b) Stratégie de l’analyse Expérimentalement, les mesures de grandeurs thermodynamiques sont en général effectuées dans une situation où le nombre  d’électrons est fixé (situation canonique). Les calculs théoriques doivent exprimer dans ce cas les quantités physiques en fonction de 1. Sur l’article wikipedia, on trouve que les naines blanches observées sont dans les bornes : 0.17  <  < 1.33  où   = 2×1030 kg et 0.008   <  < 0.02   où  = 700 000km. 264

3

Comportement à basse température

 plutôt que . Par exemple, pour la capacité calorifique, on aura def



 =

 

  ,

C G  ( ,  ,  )  ( , ,  )    = =      ,

(12.14)

Le principe de la méthode permettant d’obtenir les informations canoniques est : G

G

() Nous développons les formules grand canoniques  ( , ,  ) et  ( , ,  ) dans la limite     qui va correspondre à    . () Les fluctuations relatives sont négligeables à la limite thermodynamique. On peut G

considérer la formule grand canonique  =  ( , ,  ) comme une relation entre  =  ∕ ,  et . Nous pouvons ainsi inverser cette relation afin d’obtenir l’expression du potentiel chimique canonique C ( ,  ∕ ). () À la limite thermodynamique, l’équivalence des ensembles permet d’obtenir l’énC ergie comme fonction de  ,  et , i.e. l’énergie moyenne canonique  ( ,  ,  ) = G

 ( , C ( ,  ∕ ),  ).

c) Formules de Sommerfeld Les différentes grandeurs physiques exprimées dans l’ensemble grand canonique sont de la forme Φ( , ,  ) =

0



d ()  ( −  ;  )

(12.15)

où () est une fonction régulière de l’énergie, cf. (12.11, 12.12, 12.13). Les développements de basse température sont effectués à l’aide de la formule2 



d ()  ( − ;  ) =





d ()+

2 ′ 7 4 ′′′  () (  )2 +  () ( ) 4 + ( 6) 6 360 (12.17)

Démonstration : On considère def

Φ( , ,  ) = Φ( , ,  ) − Φ(0, ,  ) =

0



d ()  ( −  ;  )

(12.18)

def

où  (;  ) =  (;  ) − H(−) est une fonction concentrée autour de  = 0 et décroissant exponentiellement vite sur une échelle   (cf. figure 12.4). On utilise le découplage entre échelles, i.e. que  (;  ) décroît « rapidement » (sur l’échelle   ) 2. Cette formule correspond au développement de la fonction de Fermi-Dirac, en puissances de sa largeur   . Un tel développement s’exprime à l’aide de distributions : 1 e (−)

+1

= H ( − ) −

2 74 (   )2  ′( − ) − (  )4  ′′′ ( − ) + ( 6) . 6 360

La relation avec (12.17) est assurée par



(12.16)

d () ()  () = (−1)  ()(0). 265

Chapitre 12 • Fermions 1

0.5

0

-0.5 0

1

2

3

4

Figure 12.4 – Développement de Sommerfeld. Comportement typique des fonctions.

alors que () varie « lentement », ce qui permet de remplacer cette dernière par son développement de Taylor au voisinage de  =  : ∞

Φ( , ,  ) =

 −

  2 ′′ ′ d ( ) +   () +  () + ⋯  (;  ) . 2!

(12.19)

En remplaçant la borne inférieure par −∞ (i.e. en négligeant des corrections d’ordre e− ) et en utilisant la symétrie  (−;  ) = − (;  ), on fait apparaître les intégrales def

 =

0



d

 e + 1

(12.20)

qui peuvent être déduites de (A.12) ; les premières sont 1 =  2 ∕12,  3 = 7 4∕120.

3.2 Comportement des grandeurs thermodynamiques a) Potentiel chimique Nous appliquons (12.17) à l’expression du nombre de particules :  2  ( , ,  ) =   3∕2 3 G

2 1+ 8



  

2

+  ( 4 )

 (12.21)

À  fixé, le nombre moyen de fermions est une fonction croissante de la température, ce qui est lié au fait que () est une fonction croissante. Autrement dit, les états vidés sous  sont moins nombreux que ceux occupés au-dessus de . Nous souhaitons interpréter ce résultat à la limite thermodynamique comme une relation entre  ∕ ,  et . Nous en déduisons que le potentiel chimique décroît lorsque  croît, à  fixé. Explicitement, nous pouvons caractériser cet effet en inversant la relationentre  ∕ et . Pour cela  nous proposons la forme du développement C 2 4  ( , ) =  1 + ( ∕  ) + ( ) , où  est un nombre sans dimension, que nous 266

3

Comportement à basse température G

obtenons en injectant ce développement dans l’expression de  ( , ,  ) : G   =  ( ,  C ( , ),  )   3∕2    2  2 2    2 3∕2 =    1 +  +⋯ 1+ +⋯  3 8    =  2 2 3 1+( +  ) 2

8

 

(12.22)

+⋯=1

d’où  = −2∕12. Finalement   C ( , ) = 

2

1−

 12



 

2

+  ( 4 )

 pour    .

(12.23)

On peut rappeler la forme obtenue à haute température au chapitre 6 dans l’approximation de Maxwell-Boltzmann, en posant  = 4 ∕(62 )2∕3 :   3 C ( , ) ≃   ln(Λ3 ∕2spin) =   ln   ∕ pour    , (12.24) 2 1.0 0.5 0.0 - 0.5

M

- 1.0

ax

we

ll-

- 1.5

Bo

ltz

ma

- 2.0

nn

- 2.5 0.0

0.5

1.0

1.5

2.0

Figure 12.5 – Potentiel chimique du gaz parfait de fermions libres.

b) Énergie et capacité calorifique Nous développons (12.12) à l’aide de (12.17)    2 2   G 2 5   ( , ,  ) =   5∕2 1 + +  ( 4 )  5 8

(12.25)

Nous injectons (12.23) dans cette expression afin d’obtenir le développement de l’énC G ergie canonique  ( ,  ,  ) =  ( ,  C( ,  ∕ ),  ) :    2 2 C 5  3  ( ,  ,  ) =  1 + +  ( 4 ) pour    . (12.26) 5 12  267

Chapitre 12 • Fermions

Cette expression peut être comparée avec le résultat (classique) de haute température C 3  ≃   pour    . On peut maintenant simplement dériver l’énergie 2 moyenne canonique par rapport à la température pour obtenir la capacité calorifique :3  =

2   + ( 3)  2

(12.28)

∼ , la caPar rapport à la capacité calorifique d’un gaz parfait classique, class   pacité calorifique du gaz dégénéré de fermions est réduite d’un facteur  , qui peut 

être très petit en pratique (par exemple, ∼ = 1∕200 dans l’argent à température ambiante). Ce comportement linéaire  ∼  est caractéristique des métaux et trouve son origine dans le blocage de Pauli : à cause du principe de Pauli, seuls les fermions d’énergies voisines de  , à  près, peuvent être excités, i.e. une très petite fraction des particules. Ces fermions gagnent individuellement typiquement   par rapport à la situation de température nulle. Le nombre de fermions excités étant typiquement excites ∼ ( )  , l’énergie du gaz dépend de la température comme  ( ) −  (0) ∼ excites   ∼ ( )(  )2. En se rappelant que  ∼ (  )  nous  retrouvons bien  ∼   .  Ce résultat est important : il établit une connexion directe entre blocage de Pauli et comportement linéaire de la capacité calorifique. Nous pouvons garder en mémoire que le comportement  ∝  est caractéristique de l’énergie électronique d’un métal : un gaz de fermions libres caractérisé par un spectre d’excitation sans gap, i.e. une densité d’états finie au niveau de Fermi. 300 60 000

e qu ssi cla

principe de Pauli 0

température T

0

température T

Figure 12.6 – Allures schématiques de l’énergie moyenne et de la capacité calorifique d’un gaz de fermions.

G

 . Nous  dérivons (12.25) par rapport à la température et écrivons le résultat en fonction de  et  :

3. Pour bien apprécier le calcul précédent, on peut comparer la capacité calorifique à G 2  5 2   32  2  2 3     +  (    =   5∕2 ) = = .   5 4 4 2  2     3  +( 2 ) 5

268

2   +  ( 3 )  2

(12.27)

3

Comportement à basse température

c) Entropie On peut très facilement obtenir l’entropie canonique en utilisant la formule vue dans  C la chapitre 6 :  =  . Puisque  ∝  on a donc  ≃  C (seuls les termes  linéaires en  des deux quantités coïncident) :  C ( ,  ,  ) =

2   +  ( 3 )  2

(12.29)

ce qui respecte le théorème de Nernst,  ( → 0) = 0, (contrairement à la formule de Sackur-Tétrode pour l’entropie du gaz classique).

d) Pression et équation d’état On souhaite analyser l’équation d’état du gaz dégénéré, et en particulier comment elle s’éloigne du résultat classique  ≃   , que l’on doit retrouver dans la limite diluée (haute température/basse densité)    . L’équation (11.28) nous permet d’établir directement un lien entre l’énergie et la 1 2 G  . On obtient finalement le développement de basse pression :  G = −  =  3 température de la pression :    2 2 2  1  5  = (3 2)2∕3  5∕3 1 + +  ( 4 ) (12.30)  5 12    0

Pour     , la pression sature à une valeur finie  → 0 (alors qu’elle s’annule avec  pour le gaz parfait classique). Puisque  ∝ 2∕3 , le développement (12.30) est aussi un développement valable   5∕3 2 −4∕3 + ⋯ , ce qui montre que dans la limite de haute densité  = (⋯) 1 + (⋯)  5∕3 l’isotherme présente une divergence à haute densité,  ∝  , plus forte que dans le cas classique  ∝ , nouvelle manifestation du principe de Pauli. n 5/3

p

p

Cl as siq ue

n 5/3 p0

Pauli

li Pau ue siq as l C

T’    et   <  ).

b) Calculer  pour  = 1 T (en eV puis donner la température correspondante). Justifier que pour un gaz d’électrons bidimensionnel (cf. problème 12.1) l’énergie de Fermi peut être considérée comme indépendante du champ magnétique. c) Si l’on désigne par ± le nombre d’électrons dans un état de spin  ± , l’aimantation du gaz para est  =   (+ −  − ). Déduire la susceptibilité de Pauli (pour  = 0), définie comme def

Pauli = lim  para  ∕. →0

B. Diamagnétisme de Landau.– Nous étudions maintenant l’effet du champ magnétique sur le mouvement orbital des électrons. On oublie le couplage au spin étudié au A et on considère l’hamiltonien de Landau  2  −  () (12.36) L = 2∗ 273

Chapitre 12 • Fermions

décrivant une particule chargée, sans spin et soumise à un champ magnétique homogène selon . Le spectre des énergies est un spectre d’oscillateur harmonique de pulsation  =   ∕∗ (nous supposons   > 0) :   1  =   + avec  = 0, 1, 2, ⋯ (12.37) 2   Chaque niveau porte une dégénérescence L proportionnelle à la surface du plan :  L = . 2 Ce spectre est appelé le spectre de Landau (cf. chapitre 16 de [35]). 1/ Donner l’expression du grand potentiel d’un ensemble de fermions en terme du spectre des énergies individuelles { }. Appliquer la formule au spectre de Landau. 2/ La formule d’Euler-MacLaurin permettant d’approximer une somme par une intégrale : 

∞ 

→0 0

 (( + 1∕2)) =

=0



d  () +

2 ′  (0) + (3 ) 24

(12.38)

où  () est une fonction qui décroît à l’infini suffisamment rapidement. Déduire le comportement pour  → 0 du grand potentiel. 3/ Justifier la propriété générale

1  ( , , , ) =  ( , , , 0) − Landau 2 + (4) . →0 2 Déduire l’expression de la susceptibilité diamagnétique  Landau.

(12.39)

C. Synthèse.– On considère la limite de température nulle ( → 0 et  →  ). Comparer Landau et Pauli (notamment les dépendances dans ∗ et  ). Justifier les signes des deux susceptibilités par des arguments physiques. Quel est l’effet dominant (donner la susceptibilité totale) ?

Problème 12.3 Ferromagnétisme itinérant et instabilité de Stoner L’aimantation d’un métal (comme par exemple le fer) a pour origine la polarisation en spin des électrons de conduction (ferromagnétisme itinérant). Nous étudions l’apparition de cet ordre ferromagnétique, rendu possible si l’interaction entre les électrons (Coulomb écrantée) est suffisamment forte. On se place à  = 0 dans toute la suite. A. Gaz de fermions libres sans spin.– On considère un gaz de fermions libres à température nulle et dans un volume  (à trois dimension). Dans cette partie, on ne prend pas en compte la dégénérescence de spin. 1/ Calculer la densité d’états par unité de volume, notée (), en fonction de ,  et . Déduire l’expression de l’énergie de Fermi  en fonction de la densité moyenne  =  ∕ . 2/ Calculer l’énergie 0 du gaz de fermions en fonction de  et de l’énergie de Fermi   . def Exprimer l’énergie par unité de volume comme une fonction de la densité, E0() = 0 ∕ . B. Électrons en interaction dans l’approximation de champ moyen.– On prend maintenant en compte le degré de liberté de spin des électrons, qui peuvent se trouver dans deux 274

Entraînez-vous

états de spin (↑ ou ↓). Dans un métal, l’interaction effective entre électrons est de très courte portée (∼Å). La supposant locale (interaction à deux corps ∝  ( −  ′ )), elle n’affecte que les électrons de spins opposés, à cause du principe de Pauli. L’hamiltonien du gaz s’écrit :  =  +   d3  ↑()  ↓(), où  ↑, ↓() est la densité d’électrons de spin ↑, ↓ et  une cin  constante caractérisant la force de l’interaction entre électrons. Dans le modèle de Stoner, on suppose a priori que les électrons des deux états de spin sont def def caractérisés par deux densités moyennes ↑ =  ↑() et  ↓ =  ↓ () pouvant (ou non) différer et que les deux gaz se comportent comme deux gaz libres. La densité d’énergie du gaz est donc 1  E (↑, ↓ ) =   (12.40) = E0 ( ↑) + E0 (↓ ) +   ↑ ↓  où E0() est la fonction obtenue dans la partie A. 1/ Quelle est la dimension de  ? Pour caractériser l’interaction, on introduit le paramètre 𝓁, défini par  = 2(3 2)2∕3  2𝓁∕(3). Quelle est la dimension de 𝓁 ?

2/ Nous notons  = ↑ + ↓ la densité électronique totale. Une différence de densités,  ↑  ↓ , def  ↑ −  ↓ correspond à une aimantation, proportionnelle à la polarisation M = . Montrer que ↑ +  ↓ la densité d’énergie totale s’exprime comme   2   3(3 2) 2∕3 2 5∕3  E (↑ , ↓ ) = 1 − M 2 . (12.41) (1 + M )5∕3 + (1 − M) 5∕3 +  20 4 3/ L’idée de l’approche suivie ici est que la valeur de la polarisation M n’est pas libre, mais « choisie » par le système afin de minimiser son énergie E ( ↑, ↓ ), à  fixée. Par la suite nous supposerons que la condition M  1 est réalisée. a/ En utilisant le développement limité     2     5  3 5  4 + (5 ) , (1 + ) 5∕3 = 1 + 5 +5 − + 3 3 3 3 3 3 écrire le développement de l’énergie jusqu’à l’ordre 4 dans la polarisation : E (↑, ↓ ) ≃  2 5∕3  cste +   M 2 + M 4 . On exprimera la constante  en termes d’une combinaison  adimensionnée de 𝓁 et  ( est une autre constante sans dimension). b/ Montrer que la constante  change de signe quand 𝓁 (i.e. l’interaction) augmente. Identifier la valeur critique du paramètre, notée 𝓁 , correspondant au cas où  = 0. Tracer l’allure de E (↑ ,  ↓) en fonction de M pour 𝓁 < 𝓁  et pour 𝓁 > 𝓁 . Conclure. c/ Montrer que la valeur critique de l’interaction  (correspondant à 𝓁 ) est simplement reliée à la densité d’états (  ) par unité de volume et par spin de la question A.1 (où   est l’énergie de Fermi pour le gaz non polarisé, de densité ).

275

Chapitre 13

1

Bosons

Explorer le rôle des corrélations quantiques dans les gaz de bosons.

1

Introduction

2

Le gaz parfait de bosons libres

Analyser le phénomène de condensation de Bose-Einstein.

3

Bosons dans un piège harmonique

Introduction

Dans le chapitre 12, nous avons exploré les conséquences de l’indiscernabilité et du principe de Pauli, qui génère des anti-corrélations entre les fermions. Nous étudions ici l’effet des corrélations quantiques sur les propriétés thermodynamiques du gaz de bosons.

1.1 Retour sur le gaz de phonons (et de photons) :  = 0 Sans insister sur la nature bosonique des particules, nous avons déjà discuté les propriétés thermodynamiques de deux gaz de bosons particuliers au chapitre 9 : le gaz de phonons, pour décrire les vibrations des corps solides, et le gaz de photons, associé à l’énergie d’excitation électromagnétique. Donnons ici un nouvel éclairage sur ces deux problèmes, avec le recul sur les statistiques quantiques (chapitre 11).

a) Description canonique : oscillateurs Concentrons-nous sur le cas de la vibration des corps solides, dont nous rappelons l’énergie libre (les expressions obtenues pour le gaz de photons sont identiques) énergie du vide vide

excitation des oscillateurs

  Max Max    1 + vib( ,  ) = d () d () ln 1 − e− 0  0 2 énergie d’excitation d’un oscillateur

et l’énergie moyenne C

 vib = vide +

0

  d () ×  e −1 

 Max

# de modes 276

(13.1)

(13.2)

1

Introduction

Nous avions introduit le nombre moyen d’excitations dans le mode de fréquence , 1 , (13.3) e − 1 ce qui nous avait conduit à interpréter le nombre de quanta d’excitation dans chaque mode comme un nombre de « particules émergentes » (les phonons). Puisque l’énergie  libre  ( ,  ) est indépendante du nombre de quanta (de « particules »)  =   , nous concluons que ces particules ont un potentiel chimique nul : B =

 phonon = 0

(et photon = 0)

(13.4)

Cette conclusion est appuyée par la comparaison de (13.3) avec la forme générale de la distribution de Bose-Einstein (11.17). L’annulation du potentiel chimique est liée physiquement au fait que ces particules (phonons ou photons) ne représentent que de l’énergie : leur nombre n’est pas conservé.

b) Description grand canonique : particules Dans la description canonique, nous avons pris le point de vue des oscillateurs. Nous pouvons maintenant reprendre l’analyse du problème en prenant le point de vue des excitations des oscillateurs (les particules émergentes) : l’énergie de vibration du solide est l’énergie d’un gaz de particules libres, les phonons, décrites par une relation de dispersion linéaire,  ≃   pour  → 0 (et  =   pour les photons). Le nombre moyen de particules dans un état (onde plane) d’énergie  =   est donné par la distribution de Bose-Einstein (11.17) pour un potentiel chimique que nous fixons à zéro, (13.4). L’énergie moyenne du gaz de particules est énergie d’un phonon G

 phonons =

0

 Max

d () × 

# d’états indiv.

  ×

1 e  − 1 

.

(13.5)

# de phonons dans l’état indiv.

Comme il se doit, nous avons retrouvé le même résultat que dans la description canonique (en masquant l’existence d’une contribution du vide).

Remarque. l’équivalence entre descriptions canonique et grand canonique est évidente pour  = 0 puisqu’elle implique l’égalité entre potentiels thermodynamiques :  =  . En outre la dépendance  est absente de  et celle en  de  .

1.2 Condensation de Bose-Einstein : transition   0 →  = 0

Après avoir considéré deux gaz de bosons de masse nulle, et de potentiel chimique nul, nous allons nous intéresser dans ce chapitre à des gaz de bosons massifs (des atomes par exemple). Dans ce cas le potentiel chimique est non nul,   0, ce qui reflète la conservation du nombre d’atomes. Nous allons voir que cette différence a des implications 277

Chapitre 13 • Bosons

très importantes : elle se trouve à l’origine d’un phénomène nouveau, la condensation de Bose-Einstein.

a) Distribution de Bose-Einstein et phénomène de condensation Commençons par rappeler la distribution de Bose-Einstein, caractérisant le nombre moyen de particules dans l’état individuel d’énergie , obtenue au chapitre 11, éq. (11.17) : 1

B

 () =

e (−)

−1

pour  <  0

(13.6)

où  0 est le fondamental. La distribution est tracée sur la figure 13.1. 3

2

1

0 -1

0

1

2

3

Figure 13.1– Distribution de Bose-Einstein. La partie en tirets de la courbe correspond à la zone où il n’y a pas d’états, () = 0.

Si les atomes sont en contact avec un réservoir qui fixe , il est facile de déterminer l’évolution du nombre de bosons dans le système lorsque la température varie. Partons des hautes températures qui correspond au régime dilué étudié dans les chapitres 5, 6 et 8. En abaissant la température ( augmente) la distribution s’écrase B () ≃ e− (− ) → 0, i.e. le système se vide de ses atomes vers le réservoir. Dans les expériences que nous discuterons à la fin du chapitre sur la condensation des gaz ultrafroids, ceux-ci sont confinés dans des pièges : le nombre d’atomes  est fixé (et non le potentiel chimique). Si la température est abaissée, puisque les occupations des états de hautes énergies diminuent, les occupations des états de basses énergies doivent augmenter afin de maintenir  fixé, ce qui requiert une augmentation du potentiel chimique. La croissance du potentiel chimique est cependant bornée par la condition  < 0 = 0. Nous allons voir plus bas qu’il existe une température finie, appelée température de Bose-Einstein BE , sous laquelle le potentiel chimique reste bloqué à  = 0− et corrélativement des atomes s’accumulent dans l’état fondamental en nombre macroscopique. Ce phénomène, que nous analysons plus bas en grand détail, est appelé « condensation de Bose-Einstein ». 278

2

Le gaz parfait de bosons libres

b) Contexte expérimental Des phénomènes de condensation de Bose-Einstein apparaissent dans des contextes assez variés : • En-dessous de  = 2.19 K, l’Helium devient superfluide, un phénomène lié à la condensation de Bose-Einstein (F. London, 1936), même si l’effet des interactions reste très important. • Dans un métal, en-dessous d’une température critique  (qui dépend du métal), la résistance électrique peut devenir strictement nulle. Un courant électrique, appelé supercourant, peut circuler sans dissipation (en l’absence de différence de potentiel). Cet état supraconducteur est également caractérisé par un autre phénomène remarquable, l’expulsion des lignes de champ magnétique (effet Meissner). La supraconductivité a été découverte expérimentalement en 1911 par Kamerlingh Onnes. Après avoir été expliquée phénoménologiquement par Landau et Ginzburg, Bardeen, Cooper et Schrieffer ont proposé en 1957 une théorie microscopique qui repose sur l’idée que les électrons, des fermions, s’apparient en « paires de Cooper » de nature bosonique. L’état supraconducteur s’apparente alors à un condensat de Bose de ces paires. Exemples :  = 1.2 K dans l’Aluminium ou  = 9.25 K dans le Niobium. • Dans les gaz ultra-froids : la première observation du phénomène de condensation de Bose-Einstein date de 1995 au MIT (Massachusetts Insttitue of Technology, USA) et à l’Université de Boulder, au Colorado. Le gaz étudié au MIT était un gaz de Sodium, pour BE ≃ 0.28  K, et celui étudié à Boulder un gaz de Rubidium, un autre alcalin, pour BE ≃ 0.2  K. Atteindre ces températures est une prouesse technologique. • On trouve beaucoup d’autres réalisations en matière condensée, comme la condensation d’un gaz de polaritons, un cas exotique étudié ces toutes dernières années. Le polariton est une quasi-particule correspondant à l’hybridation d’un photon piégé dans une cavité et d’un exciton (une paire électron-trou dans un semi-conducteur). Grâce à la faible masse effective des polaritons, on peut observer le phénomène de condensation à une température élevée (BE ∼ 100 K). L’inconvénient est toutefois que les photons ont une durée de vie finie dans la cavité et il faut en permanence fournir des photons au système.

2

Le gaz parfait de bosons libres

Puisque nous avons beaucoup insisté dans l’ouvrage sur les propriétés du gaz parfait de particules libres, il est naturel de commencer notre étude du phénomène de condensation de Bose-Einstein dans cette situation. La référence au gaz parfait classique décrit par l’équation d’état  =   nous permettra de mieux appréhender l’effet des corrélations quantiques. Les informations microscopiques dont nous aurons besoin sur le système sont entièrement encodées dans la densité des états individuels, donnée dans le 279

Chapitre 13 • Bosons

chapitre 11, éq. (11.36). Le fondamental individuel a une énergie 𝜺𝟎 = 𝟎. Par la suite nous considérons des bosons de spin nul pour simplifier, 𝒔 = 𝟎.

2.1 Analyse du potentiel chimique et origine du phénomène de condensation L’introduction (§ 1.2) a souligné le rôle du potentiel chimique dans le phénomène de condensation de Bose-Einstein, aussi nous allons commencer notre analyse par cette quantité.

a) Relation entre  et  – Température de Bose-Einstein Le formalisme grand canonique nous a fourni l’expression du nombre moyen de bosons G  ( ,  , ) comme fonction de la température et du potentiel chimique, (11.24) ou (11.27). À la limite thermodynamique où nous négligeons les fluctuations, nous pouvons simplement interpréter cette équation comme une relation entre les trois grandeurs thermodynamiques,  ,  et  : =

0



d

 ( ) e (−) − 1

avec  < 0

(13.7)

L’analyse de la relation est facilitée en introduisant des variables adimensionnées. Quelques manipulations (un changement de variable  = ) conduisent à la forme  Λ3 = Li 3∕2()

def

où  = e < 1

(13.8)



est la fugacité,  =  ∕ la densité moyenne, Λ = 22 ∕(  ) la longueur thermique et Li3∕2() la fonction adimensionnée polylogarithme définie plus généralement par la représentation intégrale 1 Li() = Γ() 0 def



∞   −1 d  . = e ∕ − 1 =1 

(13.9)

La représentation en série est obtenue en développant l’intégrand sous forme de série ∞    −1  e −, puis en intégrant chaque terme de la série géométrique, e ∕ − 1 = =1

(l’inversion de la somme et de l’intégrale est autorisée ici). La fonction est bijective, de l’intervalle [0, 1] sur [0, Li (1)]. La valeur maximale est reliée à la fonction zeta ∞   − =  ( ) (cf. formulaire p. 299). Pour  > 1, la borne de Riemann Li (1) = =1

supérieure Li (1) est finie, ce qui va se révéler être une observation cruciale (du point de vue mathématique) reliée à l’apparition du phénomène de condensation de BoseEinstein. 280

2

Le gaz parfait de bosons libres

Les deux représentations permettent d’obtenir facilement les comportements limites, pour le cas  = 3∕2 que nous étudions dans cette section,   Li3∕2 () ≃      (3∕2) − 2  1 −  

pour   1 pour  → 1

(13.10)



Analyse du comportement pour  → 1 : On considère la dérivée  ∞ d  e  1 ′ Li 3∕2 () = Γ(3∕2) 0 (e − )2 Dans la limite  → 1 −, l’intégrale diverge. Elle est dominée par la borne inférieure :  d  d 1 1 Li ′3∕2 () ≃ ∼ ∼ Γ(3∕2) 0 ( + 1 − )2  1− 3∕2 1− Une intégration nous donne le comportement de Li3∕2 (), au coefficient près.

2.5

Li3/2 (φ )

2.0

nΛT3

1.5

1.0

0.5

0.0 0.0

0.2

0.4

0.6

0.8

1.0

φ Figure 13.2 – Fonction polylogarithme 𝐋𝐢𝟑∕𝟐 (𝝋). Si l’on fixe  Λ 3 ∝ ∕ 3∕2 on déduit  = e ∕  . Les lignes en tirets sont les comportements limites (13.10).

L’équation (13.8) permet de déterminer le potentiel chimique comme fonction de la température (au moins graphiquement) : cf. figure 13.2. Partons du régime classique où   1. En utilisant Li3∕2 () ≃  nous retrouvons  ≃   ln( Λ3 ) ≃ −(3∕2) ln(  −2∕3). Si la température est abaissée à  fixée, le membre de gauche de l’équation (13.8) croît, ce qui montre que la fugacité augmente (figure 13.2) ainsi que le potentiel chimique. Le potentiel chimique est donc une fonction décroissante de la température. En abaissant la température, on atteint une valeur limite  = BE pour laquelle la fugacité atteint sa limite supérieure permise  = 1 (i.e.  = 0). 281

Chapitre 13 • Bosons

La valeur BE est définie par  Λ3 = Li 3∕2(1) =  (3∕2) :  BE =

2  2 2∕3   (3∕2)2∕3 

(13.11)

Nous reconnaissons l’échelle de température caractéristique ∗ introduite au paragraphe 1.1 du chapitre 11, séparant les régimes classique et quantique :  BE =

2  [(2 + 1) (3∕2)]2∕3 ∗

(frontière classique/quantique).

(13.12)

où l’on a re-introduit la dégénérescence de spin (on remarquera l’analogie avec la température  du chapitre précédent :   ∼ BE ∼ ∗ à des facteurs numériques près).

b) Condensation Pour  < BE , l’équation (13.8) n’a plus de solution. Que se passe-t-il pour  ⩽ BE ? L’origine mathématique de ce problème à l’équation (13.7) dont l’obtention a  remonte B  , à une intégrale. Or ce passage n’est justifié utilisé le passage d’une somme,  = 

que si la fonction sommée (le facteur de Bose-Einstein) varie peu à l’échelle du pas de la somme. Mais lorsque  → 0, le nombre de bosons dans l’état fondamental, que nous noterons dorénavant def

0( ) = 0 B ,

(13.13)

est beaucoup plus important que les nombres de bosons dans les états excités : en effet si  → 0− on a 0 ( ) =

1 e − − 1

≃− −

→0

  → +∞ 

(13.14)

(si  est fixé, 0 ne diverge pas mais est limité par  ). Le passage de la somme à l’intégrale n’est alors plus justifié (figure 13.3). Cette observation conduit à l’idée de singulariser le premier terme de la somme :  B  =  0( ) +  . (13.15)  (0)

Le premier terme de la somme devient macroscopique (d’ordre  ) pour  < BE , alors que les occupations des états excités restent microscopiques ( ). On peut encore remplacer la somme par une intégrale pour calculer le nombre de bosons dans les états excités, en considérant simplement que =0

282

pour  ⩽ BE

(13.16)

2

macroscopique

B



Le gaz parfait de bosons libres

contribution du fondamental

T > TBE

T BE , la somme est bien approximée par l’intégrale sous la courbe. Au-dessous de la température  BE , l’occupation de l’état fondamental est beaucoup plus grande que les occupations des états excités et la somme des occupations n’est pas correctement approximée par l’intégrale. Il faut singulariser la contribution du fondamental.

(plus rigoureusement :  ≃ −  ∕ 0 → 0− où 0 est macroscopique). Finalement  ∞   ( ) (13.17)  =  0( ) + d  = 0 ( ) +    (3∕2)( ) 3∕2 . 0 2 e −1   bosons excités

 ×( ∕BE )3∕2

Nous obtenons le nombre de bosons « condensés » dans l’état individuel fondamental :  0( ) = 



1−

 BE

 3∕2 pour  ⩽  BE

(13.18)

Nous pouvons maintenant tracer l’allure du potentiel chimique en fonction de la température. Il est nul dans le domaine [0, BE ]. Nous obtenons le comportement pour 1.2 0 1.0

0.6

2

0.4

3

n an m ltz Bo llwe ax M

1

0.8

0.2 4 0.0 0.0

0.2

0.4

0.6

0.8

1.0

1.2

1.4

5

0

1

2

3

4

Figure 13.4 Fraction des atomes dans la phase condensée (à gauche) et potentiel chimique en fonction de la température (à droite), obtenu par résolution de l’équation (13.8).

283

Chapitre 13 • Bosons +  ∼ BE à l’aide du comportement limite de Li 3∕2() : 1

( , ) ∝ −( −  BE )2

(13.19)

Aux plus hautes températures   BE , il rejoint l’expression classique (MaxwellBoltzmann) ( , ) ≃ −(3∕2) ln  rappelé plus haut (figure 13.4).

c) La signature des corrélations quantiques sur  BE L’expression de la température de Bose-Einstein illustre l’effet du postulat de symétrisation. Elle prend la forme : BE ∼  2∕3

2  =  2∕3 , 2   

(13.20)

où nous avons supposé la boîte cubique, de volume  = 3 . Nous reconnaissons l’énergie séparant l’énergie fondamentale 0 = 0 des premiers états excités  = 2∕2 . Si les particules étaient discernables, elles ne se placeraient dans l’état fondamental individuel que pour des températures inférieures à cette échelle   ∕ ∼  2∕( 2). Or l’analyse du problème de condensation des bosons montre que le nombre de bosons dans l’état fondamental devient significatif (macroscopique) dès que    2∕3∕ , soit une échelle bien supérieure au cas des particules discernables. Ce facteur 2∕3 a donc pour origine la nature bosonique des particules et traduit leur tendance à « vouloir se regrouper » dans l’état fondamental, i.e. des corrélations en énergie2, à des températures bien plus grandes (d’un facteur 2∕3 ) que la température ∕  associée au gap entre le fondamental et le premier état excité.

2.2 Propriétés thermodynamiques du condensat de Bose a) Énergie et capacité calorifique pour  <  BE Afin d’étudier les propriétés thermodynamiques sous la température de Bose-Einstein, nous appliquons la « recette » suivante : () nous singularisons la contribution de l’état fondamental individuel, () nous fixons  = 0 pour calculer la contribution des bosons excités. Les calculs deviennent alors très simples. Pour  < BE , l’énergie s’exprime comme : ∞

 ( )  =   Γ(5∕2) (5∕2)(  )5∕2 , 0 e  − 1 où l’intégrale est donnée par (A.11). Nous obtenons 3  (5∕2)  5∕2  ( ) =  3∕2 pour  ⩽  BE . 2  (3∕2) BE   ( ) =  0 × 0 +

d

(13.21)

(13.22)

≃0.77

284

 2   2 1. Plus précisément, ( , ) ≃ − 3(3∕2)∕(4 )   BE ( − BE )∕BE . 2. Le postulat de symétrisation induit non seulement des corrélations favorisant le regroupement en énergie, mais aussi favorisant leur regroupement dans l’espace, cf. chapitre 11 de [35], § 11.2.5.

2

Le gaz parfait de bosons libres

La capacité calorifique est obtenue par dérivation du résultat précédent (l’équation (13.22) est l’expression de l’énergie en fonction de  ,  et  , i.e. l’énergie canonique C

 ; rappelons nous que BE est fonction de  =  ∕ ) :  3∕2 15  (5∕2)   ( ) =  pour  ⩽ BE . 4  (3∕2) BE 

(13.23)

≃1.925

Les deux fonctions sont tracées sur la figure 13.5. 4

c la

BEC

2

ss

e iq u

1.2 1.0

CV /CVclass

E(T )/Eclass (TBE )

1.4 3

1

classique

0.8

BEC

0.6 0.4

T3/2

0.2

T 5/2 0

0.0 0

1

2

3

4

T /T BE

0

1

2

3

4

T /TBE

Figure 13.5 – Énergie moyenne et capacité calorifique d’un gaz parfait de bosons libres.

L’énergie s’annule plus vite à basse température que celle du gaz parfait classique  = (3∕2)  , notamment  (BE ) ≃ 0.77BE . De même la capacité calorifique passe sous la valeur classique (class) = 3  ∕2 et s’annule pour  → 0. Ces deux comportements illustrent une nouvelle fois l’effet des corrélations quantiques qui favorisent le regroupement des bosons dans le même état quantique individuel. La réponse de l’énergie du gaz à une élévation de température est plus faible, i.e. la capacité calorifique est plus basse comparativement au cas classique. (class)

b) Équation d’état La pression est obtenue très directement en utilisant la relation (11.28) :  = − ∕ = −3∕2 2∕(3 ) (voir aussi le problème 5.1 page 98). On déduit  ∼   5∕2 BE ; puisque BE ∝  2∕3, nous voyons que la pression est indépendante de la densité :   3∕2   =  (5∕2) (   )5∕2 2  2

pour  ⩽ BE

(13.24)

≃1.341

Sous la température de Bose-Einstein, l’isotherme est plate. Au-dessus, elle rejoint l’isotherme classique,  ≃  (limite diluée). Ce phénomène rappelle le plateau de liquéfaction de la transition liquide gaz (chapitre 10) : en suivant l’isotherme, la 285

Chapitre 13 • Bosons

pression reste constante tant qu’il y a mélange entre les deux phases. L’observation est ici analogue : la pression du mélange gaz normal & condensat de Bose-Einstein (i.e. fraction condensée dans l’état fondamental) est seulement fonction de la température, indépendante de la densité. Une variation de densité à température constante ne fait que redistribuer les atomes entre les deux phases, à pression constante.

p

n

p

p

T

T TBE ~ TF ~ T*

V

Figure 13.6 – Pression d’un gaz parfait de bosons libres. À gauche : allure schématique de la pression en fonction de la température (pour mémoire, on a reporté la pression du gaz de fermions). À droite : allure schématique de deux isothermes.

Nous traçons les isothermes dans un diagramme  −  sur la figure 13.6. Nous raisonnons à  fixée (isotherme) et faisons varier la densité , i.e.  . Partons de la zone de coexistence entre gaz et condensat (isotherme plate) : en augmentant  , nous abaissons BE ∝ 2∕3. Tant que  BE >  , l’isotherme est plate. Lorsque BE =  , le condensat a disparu. Une augmentation supplémentaire du volume  induit une diminution de la pression du gaz : l’isotherme doit rejoindre l’isotherme classique  ≃  ∕  pour les plus grandes valeurs de  . La ligne séparant la zone de coexistence des deux phases de la zone associée à la phase gazeuse est donnée en fixant BE =  dans l’expression   3∕2 ( BE) 5∕2 ∝ ( ∕ ) 5∕3 . de la pression :  =  (5∕2) 2 2

Remarque. L’existence d’un plateau de condensation (i.e. une compressibilité isotherme est infinie  = ∞) , est un artefact du modèle sans interaction [16].

c) Entropie Nous obtenons l’entropie très directement grâce à la relation entre capacité calorifique et entropie (canonique)  =   C ∕ (cf. exercice 6.1). Lorsque  =   est une loi de puissance, la capacité calorifique présente un comportement analogue  =     , i.e.   =  . D’où   3∕2 5  (5∕2)   ( ) =   pour  ⩽ BE (13.25) 2  (3∕2)  BE  286

≃1.283

3

Bosons dans un piège harmonique

L’entropie du gaz s’annule bien à température nulle, lim  ( ) = 0, traduisant l’accumu →0

lation de tous les bosons dans un unique état individuel. Le théorème de Nernst est bien respecté. À haute température,   BE , l’entropie rejoint la formule de Sackur-Tetrode  ( ) ≃ (3∕2)  ln( ∕ BE ) + cste. Nous pouvons aussi introduire une chaleur latente de condensation, reliée à la variation d’entropie, et qui mesure le coût énergétique nécessaire pour passer de la phase gazeuse, à  = BE , à la phase condensée, le long de l’isotherme :   5 (5∕2)  condens =  gaz − condens =   . 2 (3∕2)

(13.26)

Il faut toutefois faire attention : contrairement à la transition liquide-gaz, qui est une transition du premier ordre, le phénomène de condensation de Bose-Einstein est une transition du second ordre (les discontinuités ne se manifestent que sur les dérivées secondes des potentiels thermodynamiques).

d) Une interprétation de la propriété  = 0 pour  ⩽  BE Nous avons vu au chapitre 9, et rappelé dans la section 1.1, que l’annulation du potentiel chimique  = 0 traduit la non conservation du nombre de particules. Nous vérifions que cette interprétation est compatible avec les résultats obtenus pour  ⩽ BE . Le −3∕2 point de départ est la simplification BE ∝ ∕ = 1. Par conséquent, toutes les grandeurs intensives, énergie et entropie par unité de volume, chaleur spécifique, et pression deviennent également indépendantes de la densité : 3  (5∕2)      ∼  =  (5∕2) ∼  5∕2 , = 3 3 2  Λ Λ def

 =

 15  (5∕2)  5  (5∕2) ∼ =  =  ∼  3∕2 ,  3 3   4 Λ 2 Λ

(13.27) (13.28)

 où Λ = 22 ∕(  ). La non conservation du nombre de bosons se comprend en remarquant que le condensat (les bosons dans le fondamental) ne contribue à aucune grandeur thermodynamique, et joue donc le même rôle qu’un réservoir de particules (cette image sera exploitée dans le problème 13.2).

3

Bosons dans un piège harmonique

L’observation du phénomène de condensation de Bose-Einstein pour des particules faiblement corrélées (gaz dilués) n’a été rendue possible qu’en 1995, après un siècle de progrès dans les techniques de refroidissement des gaz, i.e. 70 ans après les travaux d’Einstein. Nous évoquerons plus bas ces expériences remarquables qui correspondent à une situation où les atomes sont piégés dans des pièges magnéto-optiques réalisant un 287

Chapitre 13 • Bosons

potentiel harmonique. Nous discutons rapidement comment étendre les considérations de la section 2 à une situation plus générale pouvant inclure le cas d’un piège harmonique tridimensionnel.

3.1 Analyse générale L’information microscopique est entièrement encodée dans la densité des états individuelles, choisie sous la forme   A  −1  ( ) = pour  > 0 (13.29)   où  est une échelle d’énergie caractérisant la quantification et A une constante sans dimension. Par exemple : • Pour un boson libre de spin nul dans une boîte en 3D (Section 1.2) : =

3 2

,

 =

2 2

et

A =

1  . 2  2

• Pour un boson dans un puits harmonique isotrope -dimensionnel =

,

et

 = 

A =

1 . ( − 1)!

À un facteur sans dimension près,  représente la première énergie d’excitation. Pour  ⩾ BE , partant de (13.7), on exprime le nombre d’atomes comme une fonction des deux paramètres sans dimension,   ∕ et la fugacité  = e :     = A Γ() (13.30) Li  () ,  où la fonction polylogarithme Li () a été définie plus haut, éq. (13.9) (on pourra vérifier que (13.30) redonne (13.8) pour  = 3∕2). Pour  > 1, la fonction Li () tend une limite finie pour  → 1 et il y a phénomène de condensation.

a) Condition pour l’apparition du phénomène de condensation L’existence d’une transition (de phase) entre une situation où toutes les occupations sont microscopiques et une situation où un facteur d’occupation devient macroscopique repose sur le fait que la fonction Li () atteint une valeur finie lorsque  = 1 (i.e.  = 0). Plus physiquement, il faut qu’il existe une température finie ( = BE ) telle que G

 =  ( ,  ,  = 0). Autrement dit ∃  finie, telle que  = 288

0



d

 ( ) . e − 1

(13.31)

3

Bosons dans un piège harmonique

Ceci est possible si l’intégrale converge, i.e. si 0

d

 ( ) 1 (condition d’apparition du phénomène de condensation). On peut reprendre rapidement la logique introduite dans la section 1.2 : la température de Bose-Einstein est donnée en faisant  = 1 dans (13.30) :  1∕  1∕3 Oscillateur 3D    BE =  ⟶  BE =  . (13.33) A Γ( ) ()  (3) Nous retrouvons que  BE est donné par l’énergie du premier gap d’excitation, , augmentée d’un facteur macroscopique  1∕3 , signature de la tendance des bosons à se regrouper dans les états de même énergie (postulat de symétrisation). En isolant la contribution de la fraction condensée dans l’expression du nombre de particules, comme dans (13.17), on obtient        3 Oscillateur 3D   0 ( ) =  1 − ⟶ 0 ( ) =  1 − . (13.34)  BE BE Le calcul de l’énergie ne pose pas de difficulté. On obtient  ( ) = 

 ( + 1)  +1    ,  ( )  BE

(13.35)

i.e.  ∼  4 pour le piège harmonique en 3D. Nous déduisons la capacité calorifique    ( + 1)  . (13.36)  ( ) =  ( + 1)    ( ) BE Ces expressions sont assez universelles puisqu’elles ne dépendent que de l’échelle caractéristique BE et de l’exposant  de la densité d’états. Pour  = 3, la chaleur spécifique présente une discontinuité autour de  = BE , (figure 13.7) étudiée dans l’exercice 13.2.

289

Chapitre 13 • Bosons

3.5

C V /CVclass

3.0 2.5

BEC

2.0 1.5 1.0

classique 0.5

T

3

0.0 0

1

2

3

4

T /TBE

Figure 13.7 – Capacité calorifique d’un gaz de bosons dans un piège harmonique.

3.2 Analyse du condensat à  = 0 et rôle des interactions Le phénomène de condensation est tout à fait remarquable puisqu’un nombre macroscopique de particules occupent un état quantique individuel. À  = 0, l’état quantique à  corps est décrit par une unique fonction d’onde individuelle 0 () : Ψ 0 (1 , 2, ⋯ ,   ) = 0 (1 ) 0 (2) ⋯  0( ) où

(13.37)



 2  3∕4 −  (13.38) e 2   est la fonction d’onde de l’état fondamental individuel pour un puits harmonique def  isotrope. 0 a une largeur 𝓁 = ∕(). 0() =

Il est utile de discuter le profil de densité du gaz, qui est mesurée dans les expériences. À température finie on a (;  ) =  0 ( ) 0 ()2 +  excites(;  ) .

(13.39)

À haute température, le gaz est dans le régime classique et la contribution des bosons  excités est simplement la maxwellienne de largeur    ∕(2 ) (cf. chapitre 8) :  3∕2 2 2  2 (;  ) =  excites(;  ) ≃  e−  ∕(2  ) pour   BE . (13.40) 2  Pour   BE , la fraction condensée domine    3∕2 − 2∕ (; 0) =   0() 2 =  e 

pour  = 0 .

(13.41)

Si le modèle du gaz parfait de bosons dans le piège harmonique prédit des propriétés thermodynamiques (énergie, capacité calorifique,...) assez proches des observations expérimentales, il ne décrit toutefois pas bien les profils de densité. Or c’est l’analyse du profil de densité qui permet d’identifier directement la transition de phase dans les expériences ; il convient donc d’en comprendre la nature. Pour   BE , le profil de densité est étalé sur une distance beaucoup plus grande que 𝓁 et la forme du profil 290

3

Bosons dans un piège harmonique

n’est même pas gaussienne. Cela suggère qu’un ingrédient physique important a été négligé dans la description théorique du gaz, qui est la présence des interactions entre atomes qui sont condensés en énergie, mais aussi concentrés dans un petit volume. Nous introduisons maintenant le modèle qui décrit avec succès les expériences. L’interaction entre deux atomes peut être considérée comme très locale à basse énergie, et peut être décrite par un potentiel d’interaction () =  () relié à la fonction de Dirac.3 Si le gaz de bosons est décrit par la fonction d’onde à  corps (13.37), on peut écrire l’énergie comme une fonctionnelle de la fonction d’onde du fondamental    ( − 1) 2   2 4 2 3  ∇ 0()  +  ()  0()  +  [0 ] =  d   d3  0()      2 2 (13.42) où le second terme est l’énergie d’interaction : ce terme est  ( − 1)∕2 fois l’énergie

d3 d3 ′  0() 2 ( −  ′)  0( ′ )2 . Si cette  expression de l’énergie du gaz correspond à  [0] =  Ψ0   Ψ 0  pour la fonction d’onde (13.37), l’hypothèse derrière ce calcul n’est pas évidente : en présence d’interaction, il est loin d’être clair que la fonction d’onde a encore une forme factorisée, (13.37). d’interaction d’une paire de particules,

L’analyse utilise une méthode variationnelle pour trouver la fonction 0 qui minimise

d3  0 2 est fixé.  La méthode des multiplicateurs de Lagrange (annexe 4.A page 66) permet d’étudier ce problème de minimisation sous contrainte : nous cherchons la solution de     [ 0 ] −  [0 ] = 0 . (13.43) 0 () l’énergie, sous la contrainte que le nombre de bosons  [0] = 

Le calcul de la dérivée fonctionnelle4 conduit à l’équation de Gross-Pitaevskii :  2   2   (13.44) − Δ +  () +    0() 0 () =   0() 2 3. Les subtilités liées à l’interaction locale en dimension  ⩾ 2 sont exposées dans le problème 10.3 de [35]. 4. Dérivation fonctionnelle : Considérons un vecteur   dont les composantes sont . Le développe  ment d’une fonction de   au voisinage de zéro prend la forme  (  ) =  (0) + (0) + ⋯. La    dérivée fonctionnelle est l’anologue du gradient, pour le développement d’une fonctionnelle dépendant d’une fonction ( )  [0] + ⋯  [] =  [0] + d ()  () Pour calculer les dérivées fonctionnelles, on pourra utiliser  ∕ ′ =  ,′ ⟶ ()∕(′) =  ( − ′ ) et les règles habituelles de la dérivation. L’une des dérivées utiles ici :  d ′ 0 ( ′ )2 = 0 () . ∗0() 

291

Chapitre 13 • Bosons

aussi appelée « équation de Schrödinger non-linéaire », où le potentiel chimique  joue le rôle de l’énergie. Le terme    0 2 est la contribution de l’interaction à l’énergie potentielle. En faisant une approximation supplémentaire, qui est justifiée dans les conditions expérimentales, appelée « approximation de Thomas-Fermi » et consistant à négliger le terme Laplacien (i.e. l’énergie cinétique), cette équation est très simple à analyser. On introduit la densité du condensat () =  0 ()2 ; (13.44) montre qu’elle obéit à l’équation  () +  () =  d’où 1     −  () () =  0 

pour  () ⩽ 

(13.45)

sinon

Les particules remplissent le potentiel jusqu’au niveau . Cette équation fournit l’expression du potentiel chimique en exploitant la condition  =



piégeage harmonique,  () = (1∕2)2  2 on obtient  2∕5 15 = (2 ) 3∕5( )2∕5 ,  16 2

d3 (). Pour le

(13.46)

(l’intégrale s’exprime à l’aide de la fonction Beta d’Euler, éq. (A.8)). La densité a un profil parabolique, et non gaussien comme (13.41),  () =  où la taille du condensat est

15 83



1−



 

2  pour  ⩽ 

(13.47)

1∕5  = . (13.48)  2   La fonction d’onde est 0() = ()∕  ∝ 1 −  2∕2 . Le volume occupé par le condensat croît avec  et aussi avec la force de l’interaction , comme on pouvait s’y attendre, avec l’exposant non trivial 1∕5. Il est intéressant d’exprimer cette longueur  en termes des échelles microscopiques du problème, 𝓁  = ∕() qui caractérise le confinement harmonique, et la longueur de diffusion , reliée à la constante d’interaction par  =  42∕. Nous obtenons  ∼ 𝓁(∕𝓁 )1∕5 qui est beaucoup plus grande que la largeur de la fonction d’onde du problème sans interaction par un facteur macroscopique  1∕5, ce qui explique l’observation expérimentale (figure 13.8). 2 ∼  2



Étudions finalement la dépendance de l’énergie dans le nombre de bosons, qui est mesuré expérimentalement. Calculons l’énergie d’interaction int = (∕2) 292



d 3 () 2. Le calcul est sans difficulté et fait à nouveau apparaître la fonction

3

Bosons dans un piège harmonique

Beta [éq. (A.8)] : int 2 =  ∼  2∕5 .  7

(13.49)

 l’énergie totale par atome (rappelons que nous avons négligé l’énergie cinétique)  pot + int 5 (13.50) = .  7 L’énergie potentielle par atome étant pot =

d 3   () () = (3∕7), on déduit

3.3 Condensats atomiques dans des pièges magnéto-optiques Dans ce dernier paragraphe, nous discutons les expériences sur des gaz ultrafroids. Le gaz est piégé dans un piège magnéto-optique : l’interaction entre les atomes et les lasers génère une force de friction effective qui ralentit les atomes (i.e. refroidit le gaz). La température est encore abaissée par refroidissement évaporatif.

# d’atomes par μ m −2

12

N 0 (T ) / N

0.8

100 −40

−20

0

N ( unit 10 4 )

1.0

600

8 4

0.6

0

0

0.4

0.5

1.0

1.5

T / T BE( N )

0.2

20

40

0 0

z ( μ m)

0.5

1.0

1.5

T / TBE( N )

Figure 13.8 À gauche : Profil de densité d’un gaz de 80 000 atomes de Sodium ultrafroids. Densité d’une colonne (en # atomes par m −2). La ligne continue correspond à (13.47) et la ligne en tirets à (13.41) . Données tirées de l’article : L. V. Hau et al, Physical Review A 58, R54 (1998). À droite : Fraction condensée d’un gaz de Rubidium en fonction de la température. La ligne continue est (13.33) ( diminue au cours du refroidissement évaporatif, comme le montre l’insert, ce dont on doit tenir compte pour calculer  BE ). J. R. Ensher et al, Physical Review Letters 77, p. 4984 (1996).

Le piège est alors retiré, le gaz diffuse quelques millisecondes dans l’espace puis on prend une « photo » qui permet de remonter au profil de densité : figure 13.8. À haute température, le profil thermique gaussien (13.40) est observé. Lorsque la température est abaissée, en-dessous d’une certaine température, qu’on interprète comme la température de Bose-Einstein, on observe une transition de phase sur le profil de densité et l’on voit « pousser » un pic non gaussien, qu’on interprète comme l’apparition du condensat. La figure 13.8 montre que le profil obtenu expérimentalement coïncide parfaitement avec le profil parabolique (13.47) (la courbe en pointillés est le carré de la fonction d’onde gaussienne (13.38) qui décrirait le gaz parfait) ; il faut souligner le contrôle remarquable 293

Chapitre 13 • Bosons

2.0 1.5 1.0

150

ue siq s cla

100

0.5 0 0.4

0.6

0.8

E int / NkB ( en nK )

E ( T ) / N k B TBE( N )

de tous les paramètres microscopiques dans les expériences, la pulsation  ∼ 100 Hz, la constante d’interaction , etc. Une fois identifiée la contribution du condensat à la densité, on peut l’intégrer pour obtenir une mesure de la fraction condensée 0( ). Celle-ci est représentée sur la figure 13.8. Elle est assez fidèlement expliquée par le résultat (13.34) pour le gaz parfait (l’interaction affecte fortement la forme du profil de densité mais peu son intégrale). La déviation entre l’expérience et le modèle du gaz parfait est déjà plus importante sur l’énergie (figure 13.9).

1.0 1.2

1.4

T / TBE( N )

50 0

0

1

2

# d’atomes N

3

4

5

( unité 106 )

Figure 13.9 À gauche : Énergie en fonction de la température. Les lignes en tirets sont les prédictions du modèle du gaz parfait. Figure tirée de l’article : J. R. Ensher et al, Physical Review Letters 77, p. 4984 (1996). À droite : Énergie d’interaction dans un gaz de Sodium ultrafroids. Figure tirée de l’article : F. Dalfovo, S. Giorgini, L. P. Pitaevskii and S. Stringari, Review of Modern Physics 71, p. 463 (1999).

Le rôle important de l’interaction peut être mis en évidence par une analyse expérimentale très fine, qui permet de mesurer l’énergie d’interaction : le comportement (13.49) est observé (figure 13.9), ce qui valide le modèle présenté plus haut.

Pour en savoir plus : • Chapitre VI de [15] ou Chapitre 12 du livre de K. Huang [16]. • Un livre plus spécialisé : [30]. • Un article de revue [14] ou les articles de la conférence Nobel [13, 18].

294

Les points clés 1

Relation (13.7) entre  et .

2

Identifier (qualitativement) le comportement  ↗ lorsque  ↘. Retrouver BE .

3

Pour  < BE , on trouve  = 0 et une fraction macroscopique de bosons 0 se condensent dans

l’état fondamental d’énergie. Il faut alors singulariser la contribution 0 de l’état fondamental au nombre de bosons. 4

Retrouver l’expression (13.18) de la fraction condensée en fonction de la température.

295

Entraînez-vous Exercice 13.2 Discontinuité de la capacité calorifique des bosons Nous montrons que  présente une discontinuité autour de  = BE lorsque l’exposant qui contrôle la densité d’états (13.29) est  > 2 (cas des bosons dans un piège harmonique par exemple). On reprend l’analyse générale de la section 3. 1) On considère  ⩾ BE. a) Montrer que l’énergie  ( ) s’exprime à l’aide de la fonction Li+1(). Analyser le régime classique (utiliser l’expression de (13.30) pour  → 0). def  def = ∕(  BE ). Montrer que b) On introduit les variables sans dimension  =  ∕ BE et  (13.30) et l’énergie prennent la forme

1 = 

Li ()  ( )

et

 =  +1

Li+1()  ( )

(13.51)

c) En remarquant que Li′(1) =  (  − 1), analyser le comportement de l’énergie pour  → 1 + , puis déduire la valeur de  = ∕ en  = 1 +.  pour  ⩽  BE et déduire .  2) Donner l’expression de  3) Montrer que la capacité calorifique présente une discontinuité à la transition − +  (BE ) −   (BE )=

2 ( )  ,  (  − 1)

(13.52)

à comparer à (class) =  . Que devient la discontinuité si  → 2 ? 

Problème 13.1 Loi de Bloch (ferromagnétisme) Un matériau ferromagnétique est caractérisé par l’existence d’une aimantation spontanée endessous de la température de Curie   . Le problème vise à étudier le comportement de basse température de l’aimantation (pour    ). Rappelons le comportement prédit dans le cadre du modèle d’Ising :  ( ) ≃  (0) − 2 e −2∕ , qui est caractéristique de l’existence d’un gap dans le spectre des excitations (cf. chapitre 10). Celui-ci est directement relié à la simplification fondamentale du modèle d’Ising qui a consisté à supposer que l’aimantation ne peut prendre que deux valeurs +1 et −1 (le gap correspond au coût associé au retournement d’un spin). Dans la pratique, cette hypothèse simplificatrice n’est justifiée que pour décrire des matériaux très fortement anisotropes. En revanche, dans les matériaux isotropes, on doit tenir compte de la nature vectorielle de l’aimantation, ce qui change complètement la nature des excitations de basse énergie : de faibles modulations spatiales de l’aimantation (des ondes de spin) de vecteur d’onde  produisent des excitations de très basse énergie caractérisés par une relation de dispersion quadratique à basse énergie : 2.  ∝  →0

296

(13.53)

Entraînez-vous

Lorsque le problème est analysé dans un cadre quantique, les quanta associés à ces modes sont appelés des « magnons ».5 On peut donc interpréter l’excitation du matériau en termes d’un gaz de particules libres (les magnons). Les états quantiques à une particule sont des ondes planes, repérées par une impulsion  = , d’énergie   =  . Étant des quanta de modes collectifs d’excitation, les magnons sont des bosons caractérisés par un potentiel chimique nul magnon = 0, puisque leur nombre n’est pas contraint.

Aimantation

M (T )

130 120

Gd

110 100 90

Gd 4 Bi3

80 70

0

0.1 0.2 0.3 0.4

0.5 0.6

( T / Tc )3/2

0.7

Figure 13.10 Aimantation en fonction de la température pour divers matériaux (Gd et Gd4 Bi3 ). Données tirées de F. Holtzberg et al., J. Appl. Phys. 35, p. 1033 (1964).

1/ Calculer la densité des états individuels pour un système de dimensionalité  ; on note  le volume. Exprimer le nombre moyen de magnons   excités à une température  sous la forme d’une intégrale. 2/ Loi de Bloch.– L’existence de magnons excités thermiquement s’interprète comme des fluctuations de l’aimantation, ce qui diminue la valeur moyenne de l’aimantation. On admet que la décroissance de l’aimantation moyenne est proportionnelle au nombre de magnons excités : def

( ) =  (0) −  ( ) ∝   .

(13.54)

On se place en dimension  = 3. Calculer explicitement   puis déduire le comportement de basse température de  ( ). Comparer à la courbe expérimentale (figure 13.10). Quelle est la validité de ce traitement ? 3/ Théorème de Mermin-Wagner.– Que devient le nombre moyen de magnons excités  pour les dimensions  = 2 et  = 1 ? Qu’en déduire sur l’existence de la phase ferromagnétique en fonction de la dimension ?

Problème 13.2 Fluctuations dans un condensat de Bose-Einstein Nous considérons un gaz d’atomes (supposés de spin nul) confinés par un potentiel harmonique isotrope de pulsation  en trois dimensions. On choisit l’origine des énergies telle que le fondamental individuel a une énergie 0 = 0 (le premier état excité a donc une énergie 5. Les magnons sont analogues aux phonons décrivant les quanta d’excitation de vibration des atomes du cristal, ou aux photons décrivant les quanta d’excitation du champ électromagnétique. 297

Chapitre 13 • Bosons

  1 = ). La densité des états individuels est () =  2 ∕ 2 () 3 . On se place à la limite thermodynamique. 1/ Pour  ⩽ BE, écrire le nombre de bosons comme la somme de la contribution du condensat 0 ( ) et des bosons excités  ( ). Calculer explicitement ce dernier. Justifier qu’on peut écrire 0( BE) = 0. Retrouver l’expression de  BE . 2/ Déduire l’expression de la fraction condensée 0( )∕ pour  ⩽  BE. 3/ Fluctuations.– Puisque  est fixé, il n’est pas clair que l’application des formules grand canoniques pour les fluctuations soit justifiée. Nous supposerons néanmoins que c’est bien le cas au moins pour les états excités, dont les occupations sont microscopiques (i.e. nous supposons que le condensat joue le rôle de réservoir pour les bosons excités). a/ Justifier que la variance du nombre de bosons excités est Var() =

0



d ( )

e  . (e − 1) 2

(13.55)

b/ Calculer explicitement Var( ). c/ On souhaite maintenant caractériser les fluctuations du nombre de bosons dans le fondamendef tal, Δ20 = Var( 0). Justifier que Var(0 ) = Var( ). Déduire l’expression de Δ 0∕ 0 en fonction de  ∕BE et  . Tracer Δ 0 ∕0 en fonction de  .

298

Formulaire Fonction Gamma d’Euler ∞

0 Un changement de variable élémentaire permet de relier cette intégrale à la fonction Gamma d’Euler, définie comme : Des intégrales du type



d  e− apparaissent très couramment dans les calculs.

def

Γ() =

0



d −1 e − pour Re  > 0 .

(A.1)

Elle vérifie la relation fonctionnelle Γ( + 1) =  Γ(). Deux valeurs particulières sont Γ(1) = 1 et Γ(1∕2) = Γ( + 1) = !

(A.2)



 d’où :   1 Γ( + ) =  (2 − 1)!!. 2 2

et

(A.3)

Intégrales gaussiennes L’intégrale +∞

 −∞

2

d e− =



(A.4)



est simplement reliée à Γ(1∕2). Plus généralement, on rencontrera souvent des intégrales de la forme ∞   +1   1 +1 1 2 2  − 2 2 d  e . (A.5) = Γ 0 2  2

Application : volume de l’hypersphère =  ∕2 (on a ici  utilisé la séparabilité). On peut également profiter de la symétrie sphérique et écrire On calcule de deux manières l’intégrale gaussienne  0 sphère de rayon  : 

d   () = 



d  e−

2

d  ()  () où   () =  (1) −1 est la surface de l’hyper-

d  e− =  (1) 2

0



2 1 d  −1 e − =   (1) Γ(∕2) , 2

(A.6) 299

Formulaire

d’où  (1) = 2 ∕2∕Γ( ∕2). La relation entre le volume et la surface de l’hypersphère est donnée par  () = ′ () = ()  ∕. Il sera commode d’introduire la notation def

V =  (1) =  (1)∕ pour désigner le volume de la sphère de rayon unité : V =

∕2  2

Γ( + 1)

(A.7)

.

Fonction beta d’Euler Des intégrales qui apparaissent à plusieurs reprises sont directement données par la fonction beta d’Euler : (, ) =

0

1

d −1 (1 − )−1 = 2

0

∕2

d sin2−1  cos2−1  =

Γ()Γ() . (A.8) Γ( +  )

Fonction zeta de Riemann Plusieurs intégrales utiles font intervenir la fonction zeta de Riemann, dont une définition possible est  ( ) =

∞ 

−

pour Re  > 1 .

(A.9)

=1

Cette fonction joue un rôle très important en théorie  des nombres pour son rôle de fonc(1 −  −)−1 où le produit porte sur tion génératrice des nombres premiers :  () = 

tous les nombres premiers. D’autres représentations permettent d’étendre sa définition au plan complexe. Quelques valeurs particulières utiles :  (3∕2) ≃ 2.612 ,

(2) =

2 , 6

(5∕2) ≃ 1.341 ,

 (3) ≃ 1.202 ,

(4) =

4 . 90 (A.10)

Une première série d’intégrales utiles est : 0



d

 −1 = Γ()  () e − 1

pour

Re  > 1

(A.11)

L’intégral se calcule comme suite : on développe la fraction en série géométrique ∞    −1  e −1 = e − , puis l’intégration terme à terme donne (A.9). =1

Une autre série d’intégrales importantes : 0 300



d

 −1 = (1 − 21−) Γ()  () pour  e +1

Re  > 0.

(A.12)

Formulaire

Distribution de Dirac Rappelons la formule définissant l’action de la distribution de Dirac. Soit  () une fonction continue à l’origine : 

(A.13)

d  ()  () =  (0) ,

où l’intégrale inclut l’origine. Autrement dit () est une fonction de « poids ℝ

d () = 1 » concentré à l’origine.

La transformée de Fourier de la distribution de Dirac est une constante ( est la superposition d’ondes planes à toutes les fréquences) i.e. +∞

 ( ) =

 −∞

d i e . 2

(A.14)

1  (). La propriété montre que la       distribution a la dimension physique inverse de son argument  () = 1∕  . Une propriété utile : soit  ∈ ℝ ∗, on a () =

Soit  () une fonction ayant un ensemble de racines simples notées  . On a  ( ()) =

  ( −   ) 1 = ′ ′  ()  ()  tq 

 ( ) = 0



 ( −  ) .

(A.15)

  tq  ( ) = 0

Exemple 1 Appliqué à la parabole, on obtient  ( 2 −  20) =

 1   ( − 0) + ( +  0) 20

(A.16)

pour 0 > 0. Dans la limite  0 → 0+ on déduit  (2) = −1  ().

Exemple 2   (sin ) =  ( − ) est un peigne de Dirac. ∈ℤ

Formule de Poisson Soit  () une fonction définie sur ℝ et () = Fourier. La formule de Poisson est  ∈ℤ

 ( ) =



ℝ

d  () e−i sa transformée de

(2)

(A.17)

∈ℤ

301

Formulaire

Application au peigne de Dirac : 

 ( −  ) =

∈ℤ



e2i .

(A.18)

∈ℤ

Relation de Parseval-Plancherel Nous reformulons la formule de Poisson (A.17) avec des notations plus usuelles pour def la transformée de Fourier discrète. Soit  () une fonction définie sur [0, ] et  =  1 1  d  () e −i sa transformée de Fourier, i.e.  () =   e i. Rap   0   2 pelons que les vecteurs d’onde sont quantifiés en volume fini :  = avec  ∈ ℤ pour   des conditions aux limites périodiques. La notation «   () » désigne précisément    (). En utilisant d e i =   ,0 on la sommation sur les vecteurs quantifiés  0 ∈ℤ obtient facilement la relation de Parseval-Plancherel   d  ()2 =  2 . (A.19) 0 

Formule de Stirling (très important) On peut appliquer la méthode du col (annexe B.1 du chapitre 2) à la fonction Gamma en l’écrivant Γ( + 1) = 

+1

de Stirling

0



d e−() avec () =  − ln . On obtient la formule

Γ( + 1) ≃

→∞

 1 2  +2 e−

(A.20)

qu’on utilisera souvent sous la forme ln Γ( + 1) =  ln  −  + →∞

1 ln(2) + (1∕) 2

(A.21)

Remarquons qu’il s’agit des premiers termes d’une série asymptotique (i.e. si on poursuivait le développement en complétant par des termes  ∕ pour  > 1, la série ∞  ∕  a un rayon de convergence nulle). =1

302

Solutions Exercice 2.1 La distance typique entre les atomes du gaz est  =  −1∕3 où  =  ∕ est la densité moyenne. La précision sur la position des atomes doit être au moins une fraction 1∕ de cette distance (pour au moins les distinguer), où  ⩾ 1 est la précision ( = 10 veut dire qu’il y a dix graduations à l’échelle de ). Si  =  1∕3 est la taille de la boîte, une coordonnée  d’un atome doit donc être repérée sur un segment [0, ] ayant au moins ∕ graduations. Il nous faut donc log 10(1∕3 ) = log 10 ( 1∕3 ) chiffres significatifs par atome et par coordonnée (il y en a six : trois coordonnées d’espace et trois pour les vitesses). Le nombre de chiffres significatifs par atome (en base 10) est donc log10 ( 1∕3) × 6. On convertit ce nombre en octets en le multipliant par ln 10∕ ln 16. Finalement on le multiplie par le nombre d’atomes. Après simplifications on déduit Mémoire =  ln(3 )∕(2 ln 2). Q ED .

Exercice 2.2 Changement de variable avec une fonction non bijective

 2  ( ) =  e−  ∕(2) est normalisée sur ℝ pour  = ∕(2) (cf. annexe 3.3). Pour obtenir la distribution de l’énergie  =  2∕(2), nous devons prendre garde à ce que la fonction n’est  pas bijective : une valeur de l’énergie  est associée à deux valeurs  = ± 2 de l’impul sion (cf. figure ci-dessous). En tenant compte de cette remarque, on écrit ( ) d =  ( =    + 2) +  ( = − 2 ) d . Comme la fonction est symétrique on a simplement ( ) =    2  () (d ∕d) = 2∕  ( = 2 ), d’où finalement ( ) = ∕() e −.





Exercice 2.3 (, ) =  exp − ( 2 +  2 + 2 ) est une distribution si  2 +  2 + 2  est une forme quadratique positive (ainsi  est normalisable). Autrement dit il faut que  − 2 > 0. d (, ). En écrivant  2 + 2  = ( + ∕) 2 − 2  2 ∕  nous pouvons intégrer sur  (c’est une intégrale gaussienne), d’où 1() ∝ exp[−( −  2∕) 2 ]. De même la loi marginale de  est 2() ∝ exp[−( −  2 ∕) 2]. def

La loi jointe de  est 1 () =

En général (, )  1() 2 (), i.e. les variables ne sont pas indépendantes statistiquement. Cependant, pour  = 0 on a 1 () ∝ exp[−2 ], 2 () ∝ exp[− 2] et (, ) = 1 () 2 () : les variables sont indépendantes.

Exercice 2.4 Nous notons  le coût de l’utilisation de la machine. Le patron du casino profite du grand nombre de joueurs et son gain est une moyenne (alors que chaque joueur est sensible aux aléas du jeu, i.e. aux fluctuations) : le casino gagne en moyenne  −   par utilisation de la machine. Il choisit donc 1.45 €<  < 5 €.

303

Solutions

Exercice 2.5 Les positions de Alice et Bob sont  ,  ∈ {−1, +1}. Dans chaque cas, la valeur  = −1 apparaît autant de fois que la valeur   = +1. Puisque les évènements sont équiprobables, on trouve   = 0 (idem pour Bob,  = 0).

1. Les positions sont non corrélées : Le produit des positions prend les valeurs respectives (dans l’ordre correspondant à la figure) :    = (−1)(−1), (+1)(+1), (−1)(+1) et (+1)(−1). Chacune de ces contributions étant pondérée par la même probabilité 1∕4, on obtient    =    = 0. 2. Positions corrélées : On a maintenant deux configurations équiprobables, d’où     = (−1)(−1) × 1∕2 + (+1)(+1) × 1∕2 = 1 >    = 0. 3. Positions anti-corrélées :    = (−1)(+1)×1∕2+(+1)(−1)×1∕2 = −1 <   = 0.

Exercice 2.6 Les corrélations des nouvelles variables sont          = T   = (Σ 2 ) =  2     = ,

(on a utilisé  −1 =  T). Les nouvelles variables sont gaussiennes et non corrélées Q ED .

Exercice 2.7 Des moments à la distribution a) Connaissant les moments { } ∈ℕ, on construit  ( ) à l’aide de (2.28) puis on utilise la transformation de Laplace inverse. b) Application au cas des moments  = !  : la fonction génératrice est donnée par une série géométrique  ( ) = 1∕(1 + ). La transformation de Laplace inverse est très simple. On utilise le théorème des résidus. Pour  < 0 on referme le contour par la droite, là où la fonction est analytique, d’où ( < 0) = 0. Pour  > 0 on referme le contour de Bromwich par la gauche, ce qui attrape la contribution du pôle simple en  = −1∕ : +i∞

() =

−i∞

   () −∕ d e  e 1 , en − = H () Résidu . = H e 2i 1 +  ( + 1∕)  

Exercice 2.8 Variables gaussiennes dans ℝ  Le calcul de la fonction génératrice (𝐛) ∝

ℝ 

T

d 1 ⋯ d  e 𝐛

1

𝐱−2 𝐱 T  −1 𝐱

se fait sans intégration, par un simple changement de variable en remarquant que 𝐱T −1 𝐱 − 2𝐛T 𝐱 = (𝐱 −  𝐛)T −1 (𝐱 − 𝐛) − 𝐛T 𝐛. On déduit   (𝐛) = exp (1∕2)𝐛T𝐛   (la valeur pour 𝐛 = 0 est fixée par la normalisation). On utilise    =   ( 𝐛)𝐛=0 =  . QED . 304

Solutions

Remarque. le calcul de la constante de normalisation de la distribution se fait en utilisant l’intégrale gaussienne (pour une matrice hermitienne) 

 −𝐱T 𝐱

d 𝐱 e

=

 det 

(l’intégrale est triviale si  est diagonale ; si elle ne l’est pas, on peut toujours faire un changement de variables qui la diagonalise). Finalement  ( 1 , ⋯ ,   ) = 

1 (2)  det 

  exp − (1∕2)𝐱T −1𝐱 .

Le résultat est remarquable : il montre que pour des variables gaussiennes, il est possible d’identifier la matrice des covariances directement par examen de la mesure, sans calcul supplémentaire.

Exercice 2.9 Démonstration du théorème de la limite centrale Nous notons 2 = Var() (on a choisi  1 = 0). La fonction génératrice est   () =         exp −  = ( ∕ 2 ) . On utilise maintenant ln ( ) = (1∕2!)2 2 −  ∕  2 

(1∕3!)3 3 + ⋯ :  1  () = exp    2 2 





 2

2

 1 − 3 6



 2

3

 + ⋯  = exp  



1 2  + 2 1



3  



2

Dans la limite  → ∞ nous retrouvons la fonction génératrice  ∞ () = e 2  correspondant à la 1 2 1 distribution gaussienne normalisée () =  e− 2  . QED . 2

Exercice 2.10 Pour établir la connection avec le théorème de la limite  centrale, nous remarquons que la loi binomiale décrit la distribution de la somme  =

  de  variables



indépendantes, où  = 1 avec probabilité  et  = 0 avec probabilité 1 −  (on a bien   ∈ {0, 1, ⋯ ,  }). On a calculé   =  et  = (1 − ). D’après le théorème de  la limite centrale, la distribution est donc gaussienne Proba{ = } = Π () ∝ exp − ( −  ) 2∕(2(1 − )) . Notons toutefois que le support de Π () est [0,  ]. Il faut que  ne soit pas trop proche de 0 ou de 1, auquel cas la distribution deviendrait asymétrique (non gaussienne, car influencée par le voisinage des bords). La condition est    , et     −  , i.e.   1∕ et 1 −   1∕ .

Exercice 2.11 Le calcul des moments est élémentaire (il fait apparaître la fonction Γ) :  = Γ( − )∕Γ(). Il est clair qu’ils sont divergents si  ⩾ . 305

Solutions

On utilise l’intégrale donnée : on voit que la fonction caractéristique s’exprime en termes de fonc       2  ∕2  −(2  ) − (2 ) . tions de Bessel  ( ) = 2 ∕2∕Γ()  (2 ) = Γ() sin   D’après la représentation en série de  donnée dans l’énoncé, le terme  ∕2 −(2 ) est ana lytique mais le second ne l’est pas :  ∕2  (2  ) ∼  + (  +1). On voit bien que  ( ) est dérivable  fois à l’origine.

Remarque. Dans le cas  ∈ ℕ, la non analyticité vient de termes logarithmiques dans la fonction de MacDonald.

Exercice 2.12 Loi jointe versus loi marginale – Tavelures et loi de Rayleigh

d d  (  , ) = 1, d’où  = 1∕( 0 ).  Si l’on introduit un système de coordonnées polaires  =  ei , on peut écrire la probabilité   comme ( ,  ) d  d = dd 1∕(0 ) exp[− 2 ∕0 ]. Cette forme est plus appropriée pour exprimer la distribution de l’intensité  = 2 , obtenue en intégrant ( ,  ) sur la variable angulaire : La normalisation est donnée par la condition

( ) d = d

0

2

d

1 −2∕0 2d − ∕0 d − ∕0 e = e = e . 0 0 0

L’expression illustre bien qu’on doit toujours écrire des égalités entre probabilités (et non entre ∞

d ( )  = 0 . 0 Si l’on est à l’aise avec la distribution de Dirac, une écriture alternative plus directe est : densités de probabilité), cf. (2.9). L’intensité moyenne est donnée par   = ( ) =  ( −  2) =



d d ( ,  ) (  −  2 − 2 ) = ⋯ =

1 − ∕0 . (B.1) e 0

La distribution de l’intensité (B.1) est appelée loi de Rayleigh. Elle illustre un phénomène remarquable : dans un milieu turbide, les fluctuations de l’intensité  = Var() = 0 sont égales à la moyenne, i.e. sont très importantes. Cela donne naissance aux figures de tavelures très contrastées (« speckle » en anglais).

Exercice 2.13 a) Les propriétés statistiques de la « moyenne empirique » sont directement données par le théorème de la limite centrale,  =   et Var() = Var( )∕ . Pour simplifier l’analyse des moments de la variance empirique, nous introduisons   =  −  1   1   1  2 1    2  . On peut écrire Σ =  2 =  −   . (   − )   et  =    =1    2 ,    = 0 simplifie le calcul et donne immédiatement Σ 2 = 1 − 1 Var() ; on vérifie Utiliser   que Σ 2 = 0 pour  = 1 et Σ2  ≃ Var( ) pour grand  . 2 Le calcul de la variance de Σ est plus fastidieux puisqu’il fait apparaître des moyennes de quatre  = 0 montre que seuls deux types de termes convariables        . La propriété   ,,,

tribuent : soit lorsque tous les indices sont égaux, soit lorsqu’ils sont égaux par paires. Finalement 306

Solutions

 1 1  1  4 3   2 2   − 1 −    . En particulier, pour   1 on trouve 1− 1−     1 Var(Σ2) ≃ Var( 2 ), comme on pouvait s’y attendre.  Var(Σ2) =

b) Les distributions de  et de Σ2 sont gaussiennes dans la limite  → ∞. Les deux distributions  ont une largeur ∼ 1∕ .

Exercice 2.14 Bruit de grenaille Nous étudions le bruit du courant lié à la granularité des porteurs de charges (bruit de grenaille découvert par Walter Schottky en 1918). a) On peut considérer le passage des électrons comme des évènements indépendants. La distribution de la charge est donc donnée par la loi de Poisson discutée dans le chapitre : Proba{( )∕ = ( ) − . } = e ! b) Les cumulants de ( )∕ sont tous égaux à  . Nous déduisons l’expression du courant moyen  =   et des fluctuations du courant  =  2 . On obtient la relation  =  . Deux mesures indépendantes de  et   permettent donc de déduire la charge des porteurs  =  ∕.

Pour en savoir plus : En matière condensée, dans les systèmes corrélés la charge des porteurs n’est pas toujours la charge de l’électron  . Des mesures de bruit ont été utilisées pour mesurer la charge des porteurs dans les deux situations suivantes : () entre deux supraconducteurs, les porteurs de charge sont des paires de Cooper de charge  = 2 : X. Jehl, M. Sanquer, R. Calemczuk and D. Mailly, Detection of double shot noise in short normal-metal/superconductor junctions , Nature 405, p. 50 (May 2000). () Dans l’effet Hall quantique fractionnaire (un gaz d’électrons bidimensionnel soumis à un très fort champ magnétique), les porteurs de charge ont des charges fractionnaires : L. Saminadayar, D. C. Glattli, Y. Jin and B. Etienne, Observation of the ∕3 fractionally charged Laughlin quasiparticle , Physical Review Letters 79, p. 2526 (1997) et M. Reznikov, R. de Picciotto, T. G. Griffiths, M. Heiblum and V. Umansky,Observation of quasiparticles with one-fifth of an electron’s charge , Nature 399, p. 238 (May 1999).









d  ()  2 = (1∕2)(  ∕) =   ∕2.  De manière remarquable, la moyenne de l’énergie prend une forme universelle, contrôlée seulement par la température (indépendante de la constante de raideur). Ce résultat est la conséquence du théorème d’équipartition qui sera discuté au chapitre 6.

Exercice 3.1   = (1∕2) 2 = (1∕2)

Exercice 3.2 Densité d’états de N systèmes à deux niveaux a) L’état quantique du système est de la forme d’un produit tensoriel  1    2   ⋯      où  = ±. Le nombre total de microétats est 2  . La plus basse énergie est min = − 0 (état  −    −   ⋯   − ) et la plus haute max = +0 (état  +    +   ⋯   + ). Si un des  sous-systèmes change d’état,  −  →  + , l’énergie varie de +20, i.e. le spectre des énergies est donné par  = 2 0 où  = − ∕2 , − ∕2 + 1, − ∕2 + 2, ⋯ , + ∕2. 307

Solutions

b) Puisque  = + + − et  = (+ − −)0 , on obtient ± = ( ±  ∕ 0)∕2. c) Le nombre d’états quantiques d’énergie  = 20 est la dégénérescence  du niveau, donnée par le nombre de manières de choisir + systèmes à deux niveaux excités parmi les  :  = !∕(+ !  −!). On utilise la formule de Stirling ln   ≃  ln  − + ln  + − − ln  − . Puisque le spectre des énergies est régulier (un niveau par intervalle Δ = 20), on peut simplement écrire ( ) ≃  ∕(20 ). d En utilisant d = ±20d ± on voit que ln  ≃ (2 0)−1 ln(− ∕+ ) s’annule pour  = d d2 0 (i.e. + = − =  ∕2). En utilisant ln   ≃ −(20 )−2(1∕− + 1∕+ ), on obtient le 2 d développement ln  ≃ cste −  2∕(220) au voisinage du maximum. La densité d’états est donc approximativement une gaussienne 2

2

(B.2) ( ) ≃ (0) e− ∕(20) .   2 ≃ 2  2∕(), ce qui nous La dégénérescence maximum est  0 = !∕ (∕2)!  donne la valeur de la densité d’états (0) = 0 ∕(20 ) ≃ 2  ∕( 2 0 ) (on vérifie que 

d () = 2  ).

Exercice 3.3 Densité d’états de N oscillateurs harmoniques unidimensionnels a) Analyse quantique : Le problème est séparable, donc les états quantiques sont des produits tensoriels d’états quantiques pour un oscillateur   1    2   ⋯     (où l’oscillateur  est   excité  fois). Le spectre des énergies est simplement   =  ( +  ∕2) où  =  ∈ ℕ. =1

La dégénérescence du niveau  correspond au nombre de manières de partitionner  en  entiers. On représente cela comme  1 excitations

 ∙ ∙⋯∙

 2 excitations



 ∙ ∙⋯∙

 excitations

 ∙ ∙⋯⋯ 

 ∙ ∙ ⋯∙

ce qui montre que le nombre de partitions correspond au nombre de façons pour ordonner les  boules (ou les  − 1 barres) parmi les  +  − 1 objets. La dégénérescence est finalement ( +  − 1)! (B.3)  !( − 1)! Remarque : nous retrouverons cet argument dans plusieurs autres contextes par la suite (cf. problèmes 5.2 et 5.3 p. 103).  =  = Ω(  ) =  + −1

b) Analyse semiclassique : L’hamiltonien de  oscillateurs 1D est le même qu’un oscillateur isotrope -dimensionnel. On applique la formule semiclassique (3.25). Le volume de la cellule    2 2 2 + élémentaire vaut ici  et le domaine d’intégration est défini par  ⩽ . 2 2 =1   Avec le changement de variables   =  2∕2   ,  =  ∕ 2, la contrainte prend la forme 308

Solutions

   ( 2 + 2 ) ⩽ , i.e. définit le volume d’une hypersphère de dimension 2 de rayon . On =1

utilise (A.7), d’où

  1   (semiclassique) . !  Remarquons que le facteur 1∕! n’a pas ici pour origine l’indiscernabilité.

(B.4)

Φ() =

Le résultat semiclassique correspond à la limite des grands nombres quantiques,    . En uti    −1 1 1 sisant ( + )!∕! ≃  pour  → ∞, on déduit   ≃ ( −1)!   −1 ≃ . ( − 1)!  Puisque les niveaux sont régulièrement espacés,  et  ( ) sont reliées simplement : (  ) ≃     −1 1 1 , dont l’intégrale est précisément (B.4). Qed.  ≃  ( − 1)! 

Exercice 3.4 Terme de Weyl de la densité d’états et formules de trace L’état stationnaire d’énergie  = 2 (où  2 ∕(2) = 1) est une combinaison linéaire d’ondes planes  () =  e i+  e −i . On compare les densités d’états pour les conditions aux limites de Dirichlet et les conditions aux limites périodiques. a) Conditions de Dirichlet,  (0) =  () = 0 : on obtient  =  ∕ avec  ∈ ℕ ∗. Conditions aux limites périodiques,  (0) =  () &  ′ (0) = ′ () : on obtient   = 2∕ avec  ∈ ℤ (mis à part le fondamental 0 = 0, les états sont dégénérés  = −). b) Conditions de Dirichlet : la densité d’états est ∞     1  =  Dir () =  ( − (  −  ) + (  + ) 2  =1 =1 où l’on a utilisé (A.16). On applique ensuite la formule de Poisson (A.18) :      1 (  − ∕) = (∕ ) exp(2i  ), d’où  Dir() =  −  ( ) + ∈ℤ ∈ℤ 2 2    ∞  cos(2  ) et  =1    ∞    1 1 1 ΦDir () = − + (B.5) sin(2  ) .  2  =1  ∞ 

 2 )

Conditions périodiques : En appliquant le même raisonnement on obtient Per () =



 

∞ 

=1

 cos(  ) et  ∞    2 1 ΦPer () = + sin(  ) .   =1 

2

 

+ 

(B.6)

 Les deux expressions(B.5,B.6) sont dominées par le terme de Weyl Φ Weyl() =   ∕ (le même dans les deux cas), proportionnel au « volume ». Les expressions exactes font cependant apparaître des corrections. 309

Solutions

8

6

4

2

2

4

6

8

Figure B.1 Densité d’états intégrée pour la particule libre avec conditions aux limites périodiques (fonction escalier). Terme de Weyl (ligne droite en pointillés) et contribution des trois premières orbites périodiques, i.e. la série (B.6) est tronquée après  = 3.

Commentaire : Les deux densités d’états intégrées (B.5,B.6) présentent la structure d’un terme régulier, proportionnel au « volume » , puis d’une série de termes oscillants. On a identifié le terme dominant avec le terme de Weyl, indépendant des conditions aux limites. Les termes oscillants, sous dominants, ont une interprétation très intéressante : l’argument des fonctions sinusoïdales correspond à l’action



d  des trajectoires périodiques classiques (les « orbites  périodiques ») : avec des conditions de Dirichlet  = 2  est l’action pour un aller-retour et la somme génèreles trajectoires associées à  allers-retours, alors que pour les conditions périodiques,  =  est la trajectoire qui fait un tour. Cette observation montre que non seulement le terme de Weyl, mais aussi ces corrections quantiques ont une interprétation classique. Ce type de développement porte le nom de formule de trace. Pour le problème libre, on obtient une représentation exacte. En général, de tels développements fournissent une approximation de la densité d’états dans le régime semiclassique. Ils sont très utilisés pour étudier les corrections liées à la quantification du spectre (les effets « mésoscopiques »).

Exercice 4.1 On rapproche la formule de Shannon (4.15) pour la distribution continue de d () ln () = ln[1∕( )].  On peut utiliser que le logarithme est une fonction variant très lentement pour estimer l’entropie. Une distribution « étroite », de largeur  ∼  est typiquement de hauteur ∼ 1∕, d’où  ≃ ln . l’expression d’une moyenne, éq. (2.20) :  = −

Exercice 4.2 Entropie de Rényi Faisons  = 1 pour simplifier. Posons  = 1 +  . La limite  → 0 prend la forme   =      (−1∕) ln  e ln   = (−1∕) ln 1 +   ln  + (  2 ) , d’où lim  =  (entropie 



de Gibbs-Shannon).

→1

On utilise la méthode des multiplicateurs   de Lagrange : on introduit la fonction auxiliaire    ({}) =   ({  }) +  1 −  , où  est le paramètre de Lagrange. La condition 

   ({  }) = 0 conduit à  = cste ∀ . Pour Ω microétats, la normalisation est donc      = 1∕Ω, d’où (en ré-introduisant  ) max = ln Ω Ω− =   ln Ω, comme pour 1− l’entropie de Gibbs-Shannon. 310

Solutions

L’entropie de Rényi ne satisfait pas la propriété de sous-additivité en général (évidemment, elle est satisfaite dans le cas particulier de la distribution uniforme). Anticipons avec la suite du cours : puisque c’est la propriété de sous-additivité qui assure l’extensivité, l’entropie de Rényi ne peut pas coïncider avec l’entropie de la thermodynamique.

Exercice 5.1 La position et l’impulsion sont indépendantes. Considérons la loi marginale de cette dernière () = −1  ( 2 −  20). On passe en coordonnées polaires : 2

0



d  (2 −  20) =

0





) = d2  (

d ( − 20) = 1. Q ED .

Exercice 5.2 On écrira plus simplement  = ∗(Γ)

  1 Γ)   −  (  ′ ( )

 () =

avec



  d6 Γ H  −  (Γ) .

(B.7)

Exercice 5.3 Entropie du cristal paramagnétique ↑ = + ∕ et ↓ = − ∕ mesurent les fractions de spins ↑ et ↓. Ces quantités s’interprètent également comme les probabilités pour qu’un spin soit dans un des deux états quantiques    ↑  ou  ↓ . L’expression (5.13) est  ∗ ≃ − + ln(+ ∕) + − ln(−∕ ) (on a utilisé  ln  = (+ + −) ln  dans le premier terme  ln  ). En divisant cette entropie par  on obtient l’expression proposée. L’entropie d’un spin correspond précisément à l’entropie de Gibbs-Shannon (4.15). On en tire une conclusion remarquable : on pourrait considérer un spin comme le système (non isolé) ; les  − 1 autres spins jouent alors le rôle d’un « environnement » pour le spin, fixant les probabilités d’occupation des deux microétats  ↑  ou  ↓ . 2 ∗ =  2 parfaits équivalents pour simplifier ( 1 = −3 ∕(22 ). Considerons le contact entre deux gaz  max ∗ 2 =  ). On a 1 = 3  ∕2, d’où 1 = ( 3∕2)   ∗ . Le dernier terme de (5.34)    ∗ est donc  ln . Q ED . 6  2

Exercice 5.4 La formule de Sackur-Tetrode,  ∗ = (3∕2) ln  + ⋯, donne

Exercice 5.5 Compétition énergie/entropie En utilisant (5.37) on obtient ↑ ∕↓ = +∕− = e2 conduisent aux expressions

∗



. Combinée à ↑ + ↓ = 1, les équations

e −2∕  (B.8) ∗ ∗ , 1 + e −2 ∕ 1 + e−2∕   fonctions du rapport des deux échelles d’énergie caractéristique  (énergie magnétique) et   ∗ (agitation thermique). L’interprétation de ces deux expressions est rendue plus claire en considérant les cas limites : ↑ =

1



et

↓ =

• À basse température (positive)  ∗  ∕ , on a ↑ ≃ 1 et ↓  1. Les spins sont essentiellement dans l’état  ↑ , i.e. les moments restent alignés sur le champ magnétique : l’énergie domine. 311

Solutions

• À haute température  ∗    ∕, on a ↑ ≃ ↓ ≃ 1∕2. Les deux états de spin sont équiprobables, i.e. l’effet de l’énergie magnétique (qui favorise  ↑ ) est négligeable. Les propriétés d’un spin sont dominées par l’agitation thermique, i.e. l’entropie. • Le cas des faibles températures négatives, − ∗   ∕ , correspond à la situation où les spins sont anti-alignés avec le champ avec forte probabilité  ↑  1 et ↓ ≃ 1.

Exercice 5.6 Cristal paramagnétique et vibrations atomiques ∗ ( )

∗ ( )

a) À l’équilibre on a mag =  vib > 0. La température de vibration est nécessairement positive car l’entropie associée à la vibration est une fonction croissante de l’énergie (plus l’énergie aug() < 0, alors le cristal cède mente, plus l’espace de phases autorisés est grand). Si au départ  ∗mag ∗ () forcément de l’énergie aux degrés de liberté de vibration (rappelons que  mag < 0 correspond aux énergies mag > 0 les plus élevées). On peut également analyser le problème graphiquement ∗ et étudier l’intersection des deux fonctions mag (mag) et  ∗vib( vib) avec  =  mag + vib fixée.

T* E

T *(f) -1.0

i) T *( vib

-0.5

0.5

1.0

E mag

i) T *( mag

b) Les électrons participent à la liaison chimique : ce sont des particules légères dont la dynamique est plus rapide que celle des ions, plusieurs milliers de fois plus lourds. Les spins électroniques sont fortement couplés aux degrés de liberté de vibration et relaxent très vite vers l’équilibre. À l’inverse les spins nucléaires sont assez faiblement couplés avec les autres degrés de liberté. Le temps caractéristiques sur lequel spins nucléaires et degrés de liberté de vibration échangent de l’énergie est de l’ordre de la minute (cf. figure 5.1) ! ∗ () < 0 à  ∗ ( ) > 0, elle passe par Remarque. Lorsque la température du cristal varie de mag mag ∗ = ∓∞ (figure ci-dessus). mag

Exercice 5.7 Les températures (absolues) négatives sont les plus chaudes ! ∗ ()

Initialement les deux systèmes ont des températures 1 valeur de  = 1 + 2 :

∗ ()

< 0 et 2

> 0. Deux cas selon la

1) Soit  ∗1 ( ) = 2∗ ( ) > 0. 2) Soit 1∗ ( ) =  2∗ ( ) < 0. L’énergie du système S 1 a baissé dans les deux cas, donc il a cédé de l’énergie. Il était initialement plus chaud. T* T *(f) E i) T *( 2 -1.0

-0.5

0.5

1.0

*(i)

T1

312

E1

Solutions

Exercice 5.8 Distribution de Maxwell a)

Le nombre de microétats d’énergies inférieures à  est Φ () =   2     d3 1 ⋯ d3   H  −   ∕  ! 3  ∕(2) . Le nombre de microétats accessibles,  =1   d’énergies ∈ [,  + ], est donc donné par Ω() = Φ′ ( )  =   Σ ( ) ∕  !  3 . La dépendance en  est déduite d’un simple argument d’analyse dimensionnelle    et en utilisant ( ) = (1∕ ) ( ) : en introduisant les variables  =     3∕2−1 3 3  2∕(2) . L’entropie présente la dépenΣ () =  d  1 ⋯ d   1 −  =1 ∗ dance  () =  ln Ω() = (3 ∕2) ln  + ⋯ (en supposant   1). La température du gaz est  ∗ = 2∕(3 ). b) La distribution microcanonique est la distribution uniforme sur l’ensemble des microétats accessibles, i.e. est concentrée sur la couche d’énergie  (cf. exerice 5.2) :     2  ∗ . La constante de normalisation est donnée par  (1 , ⋯ ,  , 1 , ⋯ ,   ) =    − 2 =1 1∕ =   Σ  ( ).

c) La loi marginale de l’impulsion de l’atome  est donnée en intégrant sur toutes les autres variables   2 Σ  −1  −  2  (  ) = d3 1 ⋯ d 3 d3 1 ⋯ d 3  −1 ∗ (1, ⋯ ,   , 1, ⋯ ,   ) =   Σ ( ) On utilise simplement Σ () ∼  3∕2 : 

 2  () ∝ 1 − 2

3∕2

 =

 2 2 1− 3 2  ∗

3∕2

 ⟹  →∞

 () =  exp

2 − 2 ∗



On trouve la normalisation  = (2  ∗ ) −3∕2.

Problème 5.1 Extensivité et dilatations 1/  ,  ,  et ∗ sont extensives, d’où  ∗ =   (  ∕,  ∕ ). 2.a) Les énergies des états individuelles dépendent de la taille comme ∼ 1∕2 . Cela reste vrai pour l’énergie totale (somme d’énergies d’états individuels) d’où ′ = −2 . Faisons abstraction un moment de la dépendance en  qui ne joue pas de rôle pour discuter l’effet des dilatations. L’entropie est conservée durant la dilatation adiabatique :  ∗( ′ =  −2 ,  ′ = 3  ) =  ∗(,  ). On choisit  =  1∕2 d’où  ∗(,  ) =  ∗ (1,   3∕2 ) = fct(  3∕2). On re-introduit  et on déduit ∗

 (,  ,  ) =   ()

 avec  = 



 

 3∕2

(B.9)

313

Solutions

  3/ On utilise ∕ = 3∕(2  ) et ∕ = ∕ , d’où  ∗∕ = 3∕(2 )  ′ () et   ∗ ∕ =  ∕ ′ (). Le rapport des deux nous donne la pression ∗ =

2 . 3

(B.10)

L’isentrope est la transformation à ∗ = cste, d’où  2∕3 = cste. Combinée à (B.10), nous déduisons l’équation de l’isentrope  ∗  5∕3 = cste (régime classique et quantique)

(B.11)

Une observation remarquable : (B.10,B.11) sont très généraux et s’appliquent aussi bien au régime classique que quantique (pour des atomes).   4/ Gaz classique : On impose que 1∕ ∗ = 3∕(2 )  ′() est indépendant de  , d’où ′ () ∝ 1∕, i.e.  () =  ln( ) où  et  sont deux constantes. On a retrouvé la structure    3∕2 + cste de la formule de Sackur-Tetrode. ∗ =   ln  

Remarque : Isotherme versus isentrope. Pour les gaz parfaits, si l’équation de l’isotherme  = cste est universelle, indépendante de la nature du gaz (atomique, moléculaire, etc), elle est limitée au régime classique. En revanche l’équation de l’isentrope  5∕3 = cste n’est valable que pour le gaz monoatomique, cependant elle est valable aussi bien dans le régime classique que quantique. 5/ Gaz de bosons et condensation de Bose-Einstein La condition  ∗ = 0 prend la forme ∗ ∕ = 0 (en utilisant ∕ = −5∕(2 )) d’où  ()−(5∕2)  ′ () = 0, i.e.  () =  5∕2 où  est une constante. L’entropie est bien indépendante de  : ∗ (,  ,  ) =   2∕5  3∕5

(gaz de bosons condensés) .

(B.12)

On déduit  ∗ = 5 ∕(3 ∗) ∝ ( ∕ ) 2∕5. Combiné avec (B.10), nous obtenons l’équation d’état  5∕2 ∗ =   ∗

(B.13)

qui est évidemment indépendante de la densité puisque la dépendance en  a disparu, où  est une constante (cf. chapitre 13).

Problème 5.2 Distributions de Fermi-Dirac et Bose-Einstein 1/ d∗ = (1∕ ∗ ) d − ( ∗∕ ∗ ) d . 2/ Fermions a. Le nombre de manières de distribuer les  fermions dans les  boîtes correspond au nombre   de manières de choisir  boîtes occupées et  −  vides : Ω = !∕  !( −  )! . b. L’entropie est  ∗ ≃  ln  − ln  −( − ) ln( − ). D’où

314

   ∗ ≃  ln ( − )∕ . 

Solutions

c. Puisque tous les états individuels ont même énergie, l’énergie est simplement reliée au nombre   de fermions :  = . D’après la question 1 : d∗ = ( − ∗ )∕ ∗ d. En identifiant les deux  expressions de d∗ nous déduisons ( − )∕ = exp ( −  ∗)∕  ∗ }. d. L’occupation moyenne d’un état individuel est F() =  ∕. D’après le d, nous obtenons la distribution de Fermi-Dirac   −1 ∗ ∗ ∈ [0, 1] (principe de Pauli) . (B.14) F () = e (− )∕  + 1 La fonction est tracée dans les chapitres 11 et 12. 3/ Bosons Pour calculer le nombre de manières de distribuer les  bosons dans  les  cases  on utilise le même argument que dans l’exercice 3.3, d’où Ω = ( − 1 +  )!∕  !( − 1)! .  Nous déduisons l’expression de l’entropie (dans la limite   1 et   1) ∗ ≃  ( +     ∗ ) ln( +  ) −  ln  −  ln  . D’où ≃  ln ( + )∕ .     ∗ ∗ ∗ L’identification avec d = ( −  )∕ d donne cette fois ( +  )∕ = exp ( − ∗ )∕  ∗ }. L’occupation moyenne  B() =  ∕ correspond à la distribution de Bose-Einstein  −1 ∗ ∗ ∈ ℝ+ . (B.15) B() = e (− )∕  − 1 L’occupation n’est cette fois pas bornée puisque chaque état quantique peut être occupé par un nombre arbitraire de bosons (cf. Fig 13.1). Le résultat montre que le potentiel chimique est contraint, ∗ < , afin d’assurer la positivité de la distribution. Pour que cette condition soit satisfaite pour tous les états individuels, elle doit l’être pour le fondamental ∗ < 0 . Cette différence entre fermions et bosons sera à l’origine du phénomène très intéressant de « condensation de Bose-Einstein » qui sera étudié en détail au chapitre 13.

Problème 5.3 Gaz parfaits quantiques sur réseaux A. Chaque particule peut occuper une des  cases, les particules sont indépendantes, donc Ωdisc(, ) =   . L’entropie microcanonique est  ∗disc (, ) =  ln . La pression def

∗ microcanonique est ∗disc =  ∗  ∗disc∕ = (1∕)disc ∕ nous redonne l’équation d’état du ∗ ∗ gaz parfait classique disc =     en fonction de la densité moyenne  =  ∕ .

B. Particules indiscernables. 1/ Fermions Il ne peut y avoir qu’un fermion au plus par case, d’où ΩFerm(, ) =     !∕  !( −  )! . On obtient  ∗Ferm(, ) ≃    ln  −  ln  − ( −  ) ln( −  ) . 2/ On déduit  ∗Ferm = −

  ∗ ln(1 − ) . 

(B.16)

Le principe de Pauli impose  ⩽ 1. 2/ Gaz de bosons En reprenant le truc du problème 5.1 on obtient ΩBos(, ) = ( +  −   1)!∕  !( − 1)! (l’argument est aussi le même que dans l’exercice 3.3). D’où  ∗Bos(, ) ≃ 315

Solutions

   ( +  ) ln( +  ) −  ln  −  ln  . Le calcul de la pression conduit à  ∗Bos =   ∗ ln(1 +  ∕ ), i.e.   ∗ ln(1 + ) . (B.17)  ∗Bos =  

Figure B.2 Pressions des gaz parfaits sur réseau (bosons et fermions) en fonction de la densité. La ligne en tirets correspond au gaz parfait classique.

3/ Conclusion Dans la limite diluée   1∕, les trois équations d’état coïncident ∗Bos ≃ ∗Ferm ≃  ∗disc. La probabilité d’occupation d’une cellule (d’un état individuel) est très faible et les corrélations quantiques ne jouent pas de rôle. Dans le régime de forte densité on observe que ∗Ferm > ∗disc : le principe de Pauli génère une augmentation de la pression par rapport au cas classique, liée à l’interdiction pour deux fermions d’occuper le même état individuel, i.e. une « répulsion » effective. Si le modèle du gaz sur réseau présente une divergence logarithmique de la pression lorsque l’on s’approche de la densité maximale max = 1∕, nous verrons que tel n’est pas le cas pour le modèle continu qui sera étudié au chapitre 12, qui prédit un comportement ∗Ferm ∝  5∕3. Dans le cas des bosons on a  ∗Bos < ∗disc : en favorisant le regroupement des particules dans un même état individuel, le postulat de symétrisation génère une diminution de la pression, i.e. joue le même rôle qu’une « force attractive » effective. Le gaz de bosons sera étudié au chapitre 13 où sera pris en compte l’effet de l’énergie des particules : nous découvrirons l’apparition du phénomène de condensation de Bose, correspondant au regroupement des bosons dans un unique état individuel (le fondamental). Notre modèle de gaz sur réseau ne présente pas de phénomène de condensation car, en l’absence d’énergie tous les états sont dégénérés et il n’y a pas de fondamental dans lequel les bosons pourraient se condenser. Enfin, une dernière remarque : nous avons évoqué la répulsion entre fermions et l’attraction entre bosons. Attention, il s’agit d’interaction effective induites par les corrélations quantiques puisque nous étudions un modèle de particules sans interaction.

Problème 5.4 Force de déplétion A. Effet du volume exclu sur la pression 1&2/ Le volume disponible pour la première molécule est =  , pour la seconde est =  − , pour la troisième ≈  −2, etc. Le nombre de microétats accessibles est proportionnel au produit 316

Solutions

des volumes accessibles : Ω

    ≈  − ( − 1) . En outre l’analyse a négligé l’effet de =1

l’énergie cinétique, qui produit le facteur  qui ne jouera pas de rôle par la suite. 3/ Dans la limite    pour laquelle le raisonnement précédent est valable, on peut écrire     ln Ω = ln  − ( − 1) + ln  et linéariser le logarithme. La somme correspond à moyen=1

ner la fonction sur  ∈ {1, ⋯ ,  } et fait donc intervenir la valeur de la fonction au milieu de       l’intervalle, pour  =  ∕2. Par conséquent ln  −(−1) ≃  ln  −∕2 . Finalement =1

l’entropie microcanonique est ( , ) ≃  ln ef f avec  ef f =  − ∕2.  ∗ d’où ∗ =   ∗∕( − ∕2). On identifie une 4/ La pression microcanonique  ∗∕ ∗ =  densité critique  = 2∕ (la densité est notée  =  ∕ ), d’où ∗ =

  ∗ 1 − ∕

(B.18)

 qui s’interprète comme la densité de la phase compacte. Notons que cette approximation ne décrit pas correctement les contraintes stériques entre sphères dures au voisinage de la phase compacte. On pourra vérifier que la phase la plus compacte où les sphères s’arrangent pour former  un réseau cubique centré correspond à une densité maximale  = (8∕9 3)∕ ≃ 1.61∕. B. Force entropique 1/ En présence de la grosse molécule, le volume accessible  et donc le volume effectif  ef f sont réduits de 𝓁3 . 2/ Si la grosse molécule se trouve à une distance  <  de la paroi, elle ne permet pas aux « petites molécules » de se trouver entre la paroi et la grosse molécule. Un volume supplémentaire 𝓁 2 est donc perdu pour les petites molécules. Dans ce cas ef f →  − ∕2 − 𝓁 3 − 𝓁2 . Si la grosse molécule est immobile, l’entropie microcanonique des petites molécules dépend de la   distance  : ∗ ( , , ) ≃   ln  − ∕2 − 𝓁3 − 𝓁2  pour  <  et ∗ ( , , ) ≃    ln  − ∕2 − 𝓁3 pour  > . 3/ L’augmentation de l’entropie est favorisée, ce qui correspond à la situation où la grosse molécule se rapproche de la paroi. Celle-ci subit donc une force dirigée vers la paroi. L’interprétation est simple : en volume, les chocs des petites molécules sur ses huit faces produisent des forces qui s’équilibrent. Au voisinage de la paroi ( < ) le déficit des forces exercées sur la face proche de la paroi est responsable de la force effective qui pousse la grosse molécule vers la paroi. Cette force a une origine purement entropique. ef f , 4/ En posant ef f =  − ∕2 − 𝓁 3 nous obtenons la force  ≃ − H ( −  )  𝓁 2∕  qui décrit l’attraction de la grosse molécule par la paroi pour  < . Insistons : nous n’avons introduit aucune interaction dans le modèle (d’ailleurs il n’y avait pas d’énergie). La force attractive est d’origine purement entropique. 317

Solutions

Problème 5.5 Pression osmotique  Ω (,  ) avec  =  1 +  2. ! , b. Les systèmes étant en contact thermique, on a égalité des températures. On prend comme  1∕2   définition des pressions de chaque côté avec   =  ln Ω (,  1 + 2, ). On =  1∕2 obtient comme attendu  1 = 2 =   ∕ . 1/ a. Le solvant accède à tout le volume  : Ω =

c. Solvant et soluté sont indépendants : on multiplie leur nombre de microétats 

1   Ω = Ω (,  ) Ω ( ,  ) ! ,   ! ,   et  =  ln Ω  . d. Avec les définitions précédentes des pression, on a : 1 =  ∕ +    ∕ 1 et 2 =   ∕ d’où le résultat. Pour les potentiels chimiques, on peut prendre comme défi1∕2   = nition avec  = 1 + 2. Or   est une fonction de 1 +  2 et donc on aura  1∕2 1 =  2 (notez que   n’est pas une fonction de 1 + 2 , d’où la surpression). 



1,1

 2, 2

Ω ( ,  ) Ω ( ,  ) avec  = 1, +  1! , 1, 1  2! , 2, 2 2, et  = 1, + 2, fixés et  1, et 1, les valeurs qui maximisent l’entropie totale. Ainsi,   = 1, +  2, et (cours) on en déduit l’égalité des pressions  1 =  1  ∕ 1, =  2 =  2 ∕2, puis 1∕ 1, = 2 ∕2,. 2/ a. D’après le cours, à l’équilibre Ω ≃

b. Après ajout du soluté 

Ω ≃

1,1  1!



Ω, (1, , 1)

2,2  2!



Ω, (2, , 2 )

1,  !

Ω, (, ,  ).

Il y égalité des pression à l’équilibre ce qui donne 1, = 2, avec  1, = (1 +  )  ∕1, et 2, =  2  ∕2, . c. Le soluté entraîne une surpression lors de son introduction qui tend à augmenter  1. À l’équilibre, on s’attend à 1, >  1,. Vérifions par le calcul : Δ1 = 1, − 1, = ⋯ =    1 +  1   (avec  =  1 + 2 ) puis dans la limite considérée : Δ 1 ≃  2  . Si  −  +   2 la variation de volume est faible, la concentration  =  ∕1, ≃  ∕1, peut s’exprimer en   1, 1 1 + fonction de quantités mesurables  ≃ Δ1 .     1,  2,

Exercice 6.1 Faisons le calcul en utilisant 

    = = − :    

  ln   ln   ln  − =  = − ln  −   = −  ln  +  − =      318



= C .

Solutions



Pour la chaleur spécifique :  =

    2  , d’où   = . = + = − = −      2 2

Exercice 6.2 Repartons de la définition de la variance Var() = 2 −  et cherchons à exprimer le premier terme en fonction de  :    1  2 − 𝓁 1  2  − 𝓁 1 2  C 2 2  =  𝓁 𝓁 = 𝓁 e = e =  𝓁   2   2 𝓁 𝓁 Or, nous avons aussi    2 2 2 ln   1  1  1  2 = − +  2 = Var( ) . = = − + 2 2 2        

(B.19)

(B.20)

Exercice 6.3 Considérons un seul moment magnétique. Les poids de Boltzmann pour chacune des orientations sont ± = −± ∕. L’aimantation prend les valeurs 𝔪 = ±𝔪0. d’où  C  (±𝔪0 ) = 𝔪0( 𝔪 0  − −𝔪 0 )∕ = 𝔪 0 th(𝔪0 ). Pour la seconde méthode, le 𝔪 = ± ±  C  travail élémentaire magnétique s’écrivant − d, on en tire  = − , ou 𝔪  = − pour     sh(𝔪 0)  C un seul moment. Le calcul donne 𝔪 =  , en ln 2 ch(𝔪0) =   𝔪0  ch(𝔪 0) accord avec le résultat précédent.  C ln . Avec la première forme de (6.32), il vient  =     − − ∕2 − ln(1 − e − ) = ∕2 + e− ∕(1 − e−) = (1∕(e − 1) + 1∕2).   C Avec la deuxième forme, = ln(sh(∕2)) = ∕2 × ch(∕2)∕ sh(∕2). 

Exercice 6.4 Par définition, C = −

Exercice 6.5 Longueur thermique ultrarelativiste Pour une particule ultrarelativiste on convertit une longueur en énergie en écrivant énergie= ∕longueur, d’où Λ  ∼ ∕(  ). Pour une analyse plus précise voir l’exercice 7.3.

Exercice 6.6 Considérons un fluide dont le grand potentiel est une fonction extensive des variables ( , ,  ). Parmi les 4 grandeurs, seules  et  sont extensives. La propriété d’extensivité prend donc la forme  ( , ,  ) =   ( , ,  ). Dérivons cette relation par rapport à  et util   ( , ,  ) =  ( , ,  ) = −  G ( , ,  ). On déduit isons (6.64) :  ( , ,  ) =   que la fonction  () = G( , ,  ) = − ( , ,  )∕ est en fait une constante indépendante de  si bien que G ne dépend pas du volume et il reste la relation (6.65).

Exercice 6.7 les pièges sont indépendants les uns des autres. La grande fonction de partition se factorise selon Ξ=

 1





e



Reste à calculer  =

−

  =1



(  − )

=

 1



    =1

e− (  − ) =

  

e− ( − ) =  .

=1  

e − ( −) = 1 + e  ( +0) , car une particule au plus par piège.

=0,1

319

Solutions

Exercice 6.8 Pour  pièges occupés parmi , les microétats correspondent à toutes les manières de répartir   atomes parmi les  pièges. Par ailleurs, l’énergie d’une telle config = − 0 et reste la même pour tous les microétats de même  . uration s’écrit 𝓁 =    − 𝓁 = e En revenant à la définition de la fonction de partition, on peut donc écrire :  = 𝓁     0  0 puisque le nombre de microétats à  donné est le nombre de combie 1= e  𝓁 naison de  parmi . Enfin, utilisons (6.57), en tenant compte que max =  dans ce cas, pour écrire          ( +0 )   e e = 1 + e ( + 0) , (B.21) Ξ(, , ) = (,  , ) =   =0  =0 où nous avons reconnu un développement du binôme.

Exercice 6.9 Les résultats sur le gaz  parfait de la section a nous permettent d’écrire  =   3

avec  =  ∕Λ et Λ  = ∕ 2  . En combinant ces résultats, nous obtenons     2 3∕2   =  exp , si bien que 0 ( )∕ = e− ( +0) et que (6.68) se réécrit 2      = 1∕(0 ( )∕ + 1) qui donne le bon résultat. 

e

𝓁  1∕−1 2𝓁 2 𝓁 = = , puis le passage à       C  la moyenne donne le résultat. Le théorème d’équipartition donne  =   tandis que 2 C  =   est indépendante de  (voir la section a en notant que seule  dépend de ). On retrouve bien le même résultat en les combinant.

Exercice 6.10 Nous avons  𝓁 = − 

Exercice 6.11 En canonique, nous avons 𝓁C = e −𝓁() ∕ (, ), d’où 𝓁C  Or, comme



 𝓁C

= −

(B.22)

 𝓁C

= 0, on obtient la relation (6.84) en sommant sur 𝓁. De  même, dans l’ensemble microcanonique, les énergies des microétats accessibles étant les mêmes 1  ∗( 𝓁 ,)∕ , on obtient  = 𝓁 et en écrivant 𝓁∗ = e   𝓁∗ 1  ∗  𝓁 ∗ 1  ∗ ∗ 1 1  ∗ ∗ ∗ 𝓁 + 𝓁 = −    = + (B.23)           ∗ 𝓁 𝓁   𝓁 𝓁

= 1 et

𝓁 C  C 1  C 𝓁 − 𝓁 = 𝓁 C +  𝓁     𝓁

𝓁

La sommation sur 𝓁 donne dans ce cas la relation (6.85).

Exercice 6.12 Avec l’énergie potentielle donnée, le hamiltonien s’écrit (,  ) =  cos  et la fonction de partition se factorise selon 2 2 ∞  d d d  −   − ( cin + pot ) e = e 2 = d e cos  = cinpot  −∞  0 

320

2 2



(B.24)

Solutions

Par une intégrale gaussienne, le premier terme vaut cin =

 2 

, tandis que le second ne  s’intègre pas mais on note que, lorsque  = 0, il vaut 2, le « volume » exploré par la pointe du 1 dipôle. On peut écrire, en se rappelant que  = − ln  :   d d e− ( cin− cos  )   =  cos     d d − ( − cos  )  1  1  ln  cin . = e = =−       Ce résultat est normal puisque  et  sont des variables conjuguées. On remarquera qu’en revanche   = 0 à cause du sin  dans l’intégrale.

Exercice 6.13 On a dans ce cas une somme  de Riemann qui apparaît dans la limite   rot =

rot 2 dans l’expression : posons  =  qui devient alors une variable continue 2      +∞ +∞  − 2 2  2  2   e 2 ≃ e− d = . (B.25) cin = = rot  −∞ rot  =−∞

Exercice 6.14 1/ L’énergie potentielle s’écrit pot = − cos . Il vient, en prenant garde à l’ordre des intégrales : =

 d ddd  2



e − (cin +pot )

(B.26) 2

2

 ∞ d d −   − d = e 2 e 2 sin2  0 0  −∞  −∞       1 = 2 d e  cos 2   ∕2   0  ∕2 sin2     4 2  42   1  cos   cos  = = − e d sin  e 0  2 2 0 2  sh(∕  ) = 4 2 ∕      

2

d e cos 

cin



(B.27) (B.28) (B.29) (B.30)

pot

où le résultat se décompose comme le produit des contributions cinétique et potentielle à la fonction de partition. En l’absence de champ externe, pot = 4 correspond à l’angle solide total au  encore le « volume » accessible pour la pointe du vecteur . 2/ Même raisonnement qu’à l’exercice 6.12 :  d dd d e− ( cin− cos )  =  cos   2  d ddd  1  1  ln  − (cin− cos ) . = e = = −      2 321

Solutions

On calcule   2   8   ln  = −  + ln(sh(∕  )) − ln(∕  ) 2    ch(∕  ) −  = ( ∕  ). On trouve   sh(∕  )   les comportements   ≃  pour      et  ≃  pour     . On se convainc 3  sur les intégrales que   =   = 0 comme attendu par la symétrie du problème. puis la dérivation conduit à  =  

Exercice 6.15 1/ La probabilité élémentaire que la pointe du vecteur pointe dans une direction dΩ sin  dd  = , rapport de la surface élémentaire autour du point et de 4 4 dd la surface de la sphère unité. On aurait d (, ) = sur une surface  plane. Ici, la courbure  de la sphère entraîne une dépendance en . (,  ) vaut d (, ) =

2/ On a toujours  pot = − cos . En présence d’un champ externe, l’énergie potentielle va modifier la distribution angulaire avec une probabilité proportionnelle au poids de Boltzmann dΩ qui ne dépend que de . En intégrant sur , on obtient pour la densité d (, ) ∝ e−pot 4 sin  de probabilité d’avoir  :  () = e cos  avec  un facteur de proportionnalité que l’on 2  sh() détermine par la condition de normalisation ( )d = 1, ce qui donne  = . Au 0   sin()e cos  final,  () = . 2 sh() 

cos( )( )d. Le calcul de l’intégrale se fait par 0 intégration par partie en dérivant le cos  et l’on retrouve le résultat précédent. 3/ Dans cette approche, on écrit  = 

Exercice 6.16 1/ Expression générale :  =



=− considérons e

e  . Pour  = 1∕2, on a  = e−∕2 +  2 e  ( +  ) = e =  =

e+∕2 = 2 ch(∕2). Pour  quelconque, =− =0  (2+1)     sh(( + 1∕2)) e − 1 ∕ e − 1 , qui donne  = . On retrouve le cas  = 1∕2 en notant que sh(∕2) sh() = 2 ch(∕2) sh( ∕2).

     d d e    e = = − = . Le calcul donne 2/ 𝔪  =   =−  d d =− d C 𝔪 =   [ln sh(( + 1∕2)) − ln sh(∕2)] =   (). d C

 

 ( + 1)   C . Pour      , 𝔪  ≃   (aiman3   tation maximum). À haute température, on lit directement les valeurs de  sur la courbe : elles correspondent aux valeurs de la légende de la figure 6.6. C 3/ Pour     , 𝔪  ≃  

322

Solutions

Exercice 6.17 Nous devons introduire deux multiplicateurs de Lagrange  1 et  2 associés aux

deux contraintes et considérer la fonction auxiliaire (faisons  = 1 pour alléger) ({𝓁 }) =         𝓁 + 2  − 𝓁 𝓁 . Son extremum est donné par − 𝓁 ln 𝓁 +  1 1 − =  𝓁 𝓁 𝓁 𝓁   − ln 𝓁 − 1 − 1 −  2 𝓁 = 0 ∀ 𝓁, i.e. 𝓁 = exp − (1 +  1 +  2𝓁 ) . Le sens physique physique des multiplicateurs n’est pas très clair : par comparaison avec l’approche plus physique   du chapitre 6, nous posons 1∕ = exp − (1 + 1 ) et identifions le second avec l’inverse de la température, 2 = , ce qui permet de retrouver 𝓁 = (1∕) exp(−𝓁 ).

Exercice 6.18 a) Nous suivons la même logique que cette 6.17 : nous    de l’exerice   considérons la fonction auxiliare ({𝓁 }) =  ({𝓁 }) + 1 1 −

𝓁 +  2  −

𝓁

 2   = 0. On trouve sans peine que 𝓁 ∝ 1 +  𝓁 𝓁 1 reparamétrer 2 ∕1 comme on veut : posons  2∕1 = (1 −  )  ,  1∕(−1) 𝓁 ∝ 1 − ( − 1)  𝓁 correspond à

 𝓁 𝓁 𝓁  1∕(−1)

. Son extremum

. On peut toujours

(B.31)

dont la limite  → 1 redonne 𝓁 ∝ exp(−𝓁 ) (notons qu’il y a une part d’arbitraire, lié à notre définition de , dans la paramétrisation 2∕1 = (1 − )  . On aurait pu prendre  2∕ 1 = (1 −  ) ( )  où ( ) est une fonction régulière t.q. (1) = 1).   1∕(−1)  ne b) Si le spectre est non borné supérieurement, il est clair que 𝓁 ∝ 1 + 2 𝓁 1 𝓁 𝓁  va converger que si  < 1. La contrainte est plus forte si l’on considère  𝓁 𝓁 < ∞ : la conver𝓁

∞   −1∕(1−) d (  )  1 + 2  d  −1−1∕(1−) < ∞ ∼ gence à l’infini prend la forme   1 ce qui impose  − 1∕(1 −  ) < 0 i.e.  > ∕(1 + ). Finalement il faut que  ∕(1 +  ) <  < 1. Si ces deux conditions ne sont pas respectées, le problème de maximisation de l’entropie de Rényi n’a pas de solution. ∞

Pour en savoir plus : • Dans la littérature on trouvera la distribution (B.31) sous le nom d’« entropie de Tsallis ».     def 1− Celui-ci a introduit une autre définition de l’entropie Tsallis = 𝓁 . Il est −1 𝓁  évident que Tsallis est simplement reliée à l’entropie de Rényi Tsallis = ( − 1)−1 1 − exp (1−  . Sa maximisation conduit donc à la même distribution 𝓁 .  )Renyi 

Problème 6.1 Équilibre chimique et loi d’action de masse 1/ Notons 1( 1) la fonction de partition du gaz monoatomique et  2 (2) celle du gaz moléculaire. Lorsque 1 et 2 sont fixés chacun, puisque les deux gaz parfaits sont indépendants, la fonction de partition du mélange est  =  1(1 ) 2 ( 2). Cependant, l’agitation thermique permet des dissociations des molécules et des recombinaisons des atomes. Les deux nombres 323

Solutions

1 et  2 fluctuent (i.e. sont des variables internes) et sont uniquement contraints par la loi de conservation 0 =  2 + 21 . La fonction de partition du mélange est obtenue en sommant 1(1 ) 2 (2) sur toutes les valeurs permises des variables internes : =

0 

0 

 1(2(0 − 2 )) 2 (2 ) =

2 =0



e



−  1(2(0 −2 ))+2(2 )

(B.32)

 2 =0

en termes des deux énergies libres 1,2 = −  ln 1,2 . def

2/ Introduisons l’énergie libre réduite ( 2 ) = 1 (2(0 − 2)) +  2 (2). Dans la limite ther  e− ( 2) est dominée par les valeurs de 2 minimisant modynamique, la somme  = 2  1  2 (2(0 − 2 )) = ( ). D’après la l’énergie libre réduite, i.e. ( 2 )∕2 = 0, d’où 2 1  2 2 définition des potentiels chimiques, cette équation peut s’écrire (B.33)

2 1 = 2 .

Cette équation définit la valeur la plus probable de la variable interne 2, dont la distribution est  (2 ) = e− (2 )∕. 3/ Loi d’action de masse Dans l’approximation de Maxwell-Boltzmann, nous pouvons écrire 1 1 1 =  où 1 est la fonction de partition pour un atome de chlore. Nous déduisons que 1 ! 1 1 =   ln(1 ∕1 ). La fonction de partile potentiel chimique se met sous la forme 1 = 1 tion d’un atome est proportionnelle au volume : 1 =  1 ( ) où  1( ) est une fonction de la 1 température, d’où 1 = =   ln(1 ∕1 ( )). Pour le gaz monoatomique, on a simplement 1 1 ( ) = 1∕3 où  est la longueur thermique de Broglie. De même 2 =    ln(2∕ 2) =   ln(2 ∕2 ( )) où 2 ( ) est une autre fonction de la température. Les deux fonctions 1,2 ( ) contiennent toute l’information sur la nature des deux gaz. La condition d’équilibre 2  1 =  2 se reécrit donc en fonction des densités et de la température comme : 21 2

def

=  ( ) =

1( ) 2 . 2 ( )

(B.34)

Remarque. La fonction  ( ) sera déterminée précisément plus loin, dans l’exercice 8.9 page 181.

Exercice 7.1 La fonction génératrice est  () =

∞ 

  ln 1 −  . Dans la limite  → 1 −,

=1   la fonction ln 1 −  varie lentement lorsque  est incrémenté, ce qui justifie de remplacer la ∞   somme par une intégrale  () ≃ d ln 1 − e  ln  . Posons  = − ln  > 0. L’intégrale est 0 ∞ ∞    d ln 1−e− = −(1∕) d  e  − reliée à la représentation (A.11) de la fonction zeta : 0 0 −1 = −Γ(2) (2)∕ . Q ED. 1

324

Solutions



Exercice 7.2 Nous avons déterminé la position du point col ∗ ≃ exp[−∕ 6 ] → 1 −,

qui est l’extremum de  () (prendre en compte les termes correctifs dans  () n’apporterait que de petites corrections à ce résultat). Au voisinage de ce point on a donc  () ≃  (∗ ) +  ′′ ( ) ( −  )2. Si  varie sur l’axe réel, le point  est un minimum de  (), toutefois (1∕2)  ∗ ∗ ∗  c’est un maximum si  varie perpendiculairement à l’axe réel. Le terme dominant la dérivée  −3 ′′ ( ∗) ≃ ( 2 ∕3) − ln  ∗ seconde est  > 0. Le contour passe verticalement au niveau du point col (cf. figure), donc, localement nous pouvons paramétrer le contour comme  = ∗ + i  : Ω() =

d  () id (1∕2) ′′ (∗ ) (i )2 e( ∗)   , e ≃ e  (∗) e ≃  2i  2i 2 ′′ ( )  ∗

où nous avons admis que seul le voisinage de ∗ contribue significativement à l’intégrale sur le contour. φ

point col

φ∗

Finalement, le facteur pré-exponentiel est donc donné par les deux contributions 1 1 . e−(1∕2) ln(2∕(− ln  ∗)) ≃   ′′ 4 3 2  (∗ )

Exercice 7.3 1/ La règle semiclassique donne 1 Φ() = d 3 1 ⋯ d3  d31 ⋯ d3 H   ! 3 

 −

 

    

.

(B.35)

=1

On déduit la densité d’états par dérivation     1  3 3 ( ) = Φ () = d 1 ⋯ d    −     . ! 3  =1 ′

(B.36)

Nous ne savons pas calculer ces intégrales qui n’ont pas d’interprétation géométrique simple comme dans le cas non relativiste. 2/ La fonction de partition canonique s’exprime comme  intégrales séparables dans ℝ3 : () =

0





∞ −

d () e

1  = ! 3





−   1  = d3 1 ⋯ d 3 e =1 !  3  

d3  e−

325

Solutions

La fonction de partition pour une particule se calcule en passant en coordonnées sphériques ∞ 8  =  −3 d3  e− = 4   −3 d 2 e− = . Écrivant  =  ∕ 3 , on 3  0 () fait apparaître la longueur thermique ultrarelativiste  =  2∕3∕(  ) (cf. exercice 6.5 page 117). Finalement  =  ∕! =  −3 où  est une constante. 3/ On pose  = 3 , d’où  ( ) =   −3 ⟶ ( ) =   3 , qui correspond à (7.41). Γ(3 + 1)

  3−1 et par intégration Φ() = Γ(3)

4/ Microcanonique ∗ =   ln Ω( ) avec Ω( ) = (  ) = Φ()(3∕). La différence entre ln Ω() et ln Φ() est donc un terme ln(3∕) sous-extensif. D’après (14.22)        3  (,  ,  ) =   ln +4  2 3 ∗

(B.37)

La température microcanonique  ∗ = ∕(3 ), qui ne dépend que du rapport  ∕ (intensif).  ∗ La pression microcanonique est ∗ =  ∗ =    ∗ ∕ . On retrouve l’équation universelle  des gaz parfaits ∗  =   ∗ . Exprimée en fonction de  ,  et , l’expression ∗ (,  ) =  ∕(3  ) diffère toutefois de celle du gaz parfait non relativiste ((5.59)).  ln  −3 = 3  .  Attention : ici le théorème d’équipartition ne s’applique pas pour les particules relativistes car l’énergie n’est pas quadratique dans les impulsions. C

5/ Canonique On obtient  = −

L’énergie libre s’écrit :   ( ,  , ) = −  On trouve C = −

ln



 2



  

3 

 +1

  =   ln( 3 ) − 1 .

(B.38)

 =   ∕ et on vérifie bien l’équivalence des ensembles. 

Problème 7.1 Équivalence des ensembles (moyennes) mais inéquivalence des fluctuations A. Description canonique 1/ La densité de probabilité canonique dans l’espace des phases est C(, 1 , ⋯ ,  ;  , 1 , ⋯ ,  ) =  e − (⋯ ;⋯) où  est une norme, avec la contrainte que  ∈ ℝ+ et que les positions  soient toutes dans le volume  =  . 2/ On commence par intégrer sur les impulsions : =

326

∞ ∞ 1 1 1 1 3 d 1 ⋯ d3  e−  = d () e−  d  Vol.=  ! Λ  3 0 ! Λ  3  0  

Solutions

  où  = 22 ∕(  ) est la longueur thermique des atomes et Λ = 22 ∕(  ) =  ∕  celle de la paroi. On utilise (A.1), d’où  =

   3+1 



  

 +1 (B.39)

. 

Nous obtenons l’énergie libre  ( , , ) = −  ln 



−  ln

  

 3   ∕ est la pression (intensive), l’expression a les bonnes propriétés d’extensivité.  →∞

 . Comme

 C 3/ L’énergie cinétique est quadratique : on utilise le théorème d’équipartition :  cin = (3 +  C C  5 + 3 1)∕2   . On utilise  = − ln  avec  ∝ −(5+3)∕2 d’où  =   .  2 (⋯) C(⋯)  où l’on intègre  dans l’espace des phases, avec C(⋯) =  e− . La constante de normalisation est  = 1∕( ! 3+1 ). En utilisant que  contient un terme pot = +  on peut remplacer  par une dérivée partielle par rapport à la force conjuguée  , que l’on sort de l’intégrale C

4/ La position moyenne du piston est par définition 

=

=1∕

 C

 =



(⋯)  e −  = −

1     ln  = + (⋯) e − = − .      

(B.40)

C

On déduit explicitement  = ( + 1)    ∕ . C

C

Plus directement : on pouvait identifier  pot =  − cin de diviser par  .

C

C

= ( + 1) =   , qu’il suffit

 =  , donc cette relation est l’équation d’état,  =   . 5/ On procède de la même manière pour la variance :  2    2 1  1  1 − 1 − 2 1 − − − ( ⋯ ) e ( ⋯ ) e − (⋯) e ln  = =           2  

2

C

1  −  =− = qui correspond bien à Q ED . On déduit explicitement =    C ( + 1)( ∕ ) 2. Les fluctuations relatives sont négligeables   ∕ = 1∕  + 1 ⟶ 0. C 2

C

2 .

 2

 →∞

B. Analyse microcanonique 1/ Au A.3 et A.4, on a trouvé cin = (3 ∕2) et pot =    . On peut interpréter  dans  ∗ −1 3 ∗ ∗ =  cin = la première comme cin ∕cin , d’où, par intégration,  cin  ln cin + ⋯. 2  ∗ De même pot =   ln pot + ⋯. 327

Solutions

2/ On étudie les fluctuations de pot =   . On peut utiliser la formule (5.29) : Var(pot ) =  ∗    −1 cin ∗ ∗ ∗ . D’après ∗ pour  ∗  cin  ( ∗ )2 1∕cin + 1∕ ∗pot =  pot = 3 ∕2 = 1∕ cin   ∗   −1 pot 2 3 ∗ et pot =  , on déduit Var( pot ) =  ( ∗ ) 2 = 1∕ +1 =  (   ∗ )2 ⇒  3 5   ∗ 2 3  Var() ≃ . En conclusion : 5     = =  ∗

C

 mais  ∗=

   3   2 .

(B.49)

 caractérise la répulsion de cœur dur, qui a pour effet d’augmenter la pression par rapport au (repuls) gaz parfait,  = −1 > 0. La partie attractive du potentiel n’intervient que dans le second coefficient, 2(attrac) = − < 0, et apporte une contribution négative à la pression, dont l’effet se réduit lorsque la température augmente.

Commentaire : il est intéressant de remarquer que, dans la limite de basse densité, l’approximation de champ moyen reproduit le résultat exact (8.62) du chapitre 8, ce qui nous donne un certain contrôle sur cette approximation.

Exercice 10.2 1/ Chaque spin d’un sous-réseau n’interagit qu’avec des spins de l’autre sousréseau de sorte que    = (  + (  − ))( + ( − )) ≃ −   +    +    , en négligeant le produit des fluctuations ( −  )( −  ). Par ailleurs on reécrit la somme sur les       = = liens comme une somme sur les sites , où vois() désigne les voisins de  (on somme soit sur les sites de  soit sur ceux de  ). On déduit , 

cm = 

 , 

= −

(−  +     +    ) − 

 

 − 

 ∈  ∈vois( )

 

 

         +    +    −    −   2 ∈vois() ∈vois() ∈ ∈ ∈ ∈ 

= −

 ∈  ∈vois( )







       − ( −   )  −       − (  −  ) 2 2 ∈ 

avec



1=

∈vois()



 



 ∈  (B.50)

1 =  le nombre de plus proches voisins et  =  =  ∕2.

∈vois()

2/ L’Hamiltonien de champ moyen est séparable et, dans chaque sous-réseau, chaque spin a 



 le même Hamiltonien. Ainsi,  =     avec  = e 

e

   2  

   2  

2 ch[ ( −   )] et  =

2 ch[ (  −   )] et une énergie libre par spin  cm = cm ∕ qui vaut

cm ( , ) = −

        −  ln 4 ch[ ( −  )] ch[ (  −   )] 2 2

(B.51)

335

Solutions

On détermine les aimantations de chacun des sous-réseaux par  =     = −   = −

cm . Il vient le couple d’équations couplées :  et

 = th[ ( −  )]

cm et   = 

  = th[ (  −   )]

(B.52)

1 3/ Considérons  =  = . Le paramètre d’ordre est l’aimantation alternée  stag = ( − 2  ). Supposant que  = − on a stag =   = −, d’où  stag = th[ (  +   stag )]

(B.53)

Le paramètre d’ordre stag satisfait la même équation auto-consistante que dans le cas ferromagnétique. On aura donc   =   et un comportement identique de la solution stag en fonction de  et de . Cependant, d’autres quantités, comme la susceptibilité, vont se comporter différemment. (Voir également le commentaire à la fin de l’exercice 10.3).

Exercice 10.3 1/ Écrivons e  = e(−) e  = e(−) e . Or, ∀, e  ⩾ 1 +  ⇒ e(−)  ⩾ 1 +  −  = 1, soit e  ⩾ e. Par définition  −  − ( − ) e− 𝓁,0 𝓁,0 𝓁 = e 𝓁 = 0 e 0 𝓁 𝓁 avec 𝓁,0

(B.54) =  0e − ( −0 ) 0 ⩾ 0 e−  −0 0  e−𝓁,0 . En utilisant  = − ln  et  0 = les énergies de 0 et 0 = 𝓁

−  ln  0 avec −  ln e−  −0 0 =  − 0 0, on trouve l’inégalité (10.63). 2/a/ comme 0 est séparable, on retrouve immédiatement le résultat du cristal paramagnétique 1  =   = th( 0 ). N’oublions pas que  est une fonction de  0.    2/b/ Calculons les différents termes de var . On peut utiliser le résultat du cristal paramagnétique  pour 0 ce qui donne 0 = −  ln[2 ch( 0)]. Par ailleurs,  −   0 = −    0 − ,   ( − 0)    0. Or,  0 =  et comme 0 est séparable, les spins sont indépendants donc 

non-corrélés si bien que    0 =   0 = 2 . Finalement,  var ( 0) = −  ln[2 ch(0 )] −   ( 0 )2 −  ( −  0)( 0) 2 avec  le nombre de plus proches voisins et où l’on a explicité la dépendance en 0 .

(B.55)

2/c/ L’extrêmalisation de (B.55) par rapport à 0 conduit à sh(0 ) 1 dvar d d = −    − (0 ) − ( −  0) + (0)  d 0 ch(0 ) d0 d0  =th(0 )=(0 )

336

(B.56)

Solutions

d ∝ 1∕ ch( 0)2  0, il reste − (0) +  0 −  = 0, soit 0 =  +   d0 (on retrouve le champ de Weiss). En réinjectant ce résultat dans la définition de , on trouve l’équation auto-cohérente  = th( ( +  )) qui la même que dans le cours. Comme

Commentaire (sur la méthode de champ moyen) : Si on applique la méthode variationnelle au modèle d’Ising anti-ferromagnétique (AF) on peut vérifier que les deux énergies libres approchées cm ( ,  ) (exercice 10.2) et var (,  ) (exercice 10.3) ne coïncident pas ! Le problème posé par « l’approche champ moyen » (dans la version présentée dans l’exercice 10.2) est de ne pas reposer sur un principe variationnel, i.e. sur un critère de minimisation bien défini. En particulier, elle fournit une « énergie libre de champ moyen » cm ( ,  ) qui n’est pas minimale pour la phase AF (i.e. qui correspond à un point col). Autrement dit, bien que les équations auto-cohérentes que nous avons obtenues pour déterminer   et  soient correctes,  cm(  , ) n’a pas de sens hors de la ligne  = − . En revanche l’approche variationnelle fournit une énergie libre variationnelle var ( ,  ) minimale dans la phase AF.

Pour en savoir plus : • Cette observation est discutée dans l’article : Raphaël Agra, Frédéric van Wijland & Emmanuel Trizac, Eur. Jour. of Phys. 77, 407 (2006), arXiv:cond-mat/0601125.

Exercice 11.1 Le spectre des énergies à deux particules est , =  +  . La fonction de partition à deux bosons s’écrit avec la contrainte  ⩾  (cf. figure B.3)

... ... ... ...

n discernables

m

... ... ... ... ...

m

... ... ... ...

...

⩾ 

 1  − ( + ) 1  −2  1  ( )2 + (2 ) . e + e = 2 ,  2  2 ... ... ... ... ...

e− ( +) =

...

...

m



... ... ... ... ...

B 2 () =

... ... ... ...

n bosons

n fermions

Figure B.3 Représentation graphique des états quantiques pour deux particules. Les états sont indiqués en trait gras.

Pour deux fermions, la contraintes est  > . La fonction de partition s’écrit donc 2F () =

 >

e− (  + ) =

 1  − ( + ) 1  −2  1  ( )2 − (2 ) . e − e = 2 ,  2  2

Nous reconnaissons le premier terme qui correspond à la règle semiclassique indis. =   ∕ !.  Le second terme est donc une correction quantique due au postulat de symétrisation. 337

Solutions

Exercice 11.2 1/ Nous écrivons d’après (11.7)  B∕F 2 ()

   1 2 ±  2 23∕2

=

=

   2 1 1 ± 3∕2 , où nous avons utilisé que Λ → 2Λ  si  → 2 . Le terme ±1∕(2 3∕2) étant 2 2  une perturbation, nous obtenons l’énergie libre     1 MB (B.57)  ( ,  , 2) =  ( ,  , 2) −   ln 1 ± ≃  MB ( ,  , 2) ∓  3∕2 2  23∕2  Δpaire

où  MB( ,  , ) = −   [ln(∕ )+1] est l’énergie libre du gaz parfait classique étudiée au chapitre 6. Δpaire est la correction due aux corrélations quantiques, pour une paire de particules. 2/ Nous extrapolons maintenant au cas d’un gaz de  particules en écrivant  ( ,  , ) ≃  ( − 1) class( ,  , ) + Δpaire où nous avons multiplié Δ paire par le nombre de paires 2 du gaz  =  ( − 1)∕2 ≃  2 ∕2. Nous obtenons finalement  ( ,  , ) ≃ class( ,  , ) ∓    Λ3 2 . Cette expression n’est valable que dans un régime de relativement haute tempéra25∕2  ture car elle ignore les corrélations à  > 2 particules. Nous déduisons le comportement de la pression : =−

   ≃   1 ∓ 2−5∕2  Λ3 

i.e.

∕ 

2

( ) = ∓

Λ3 25∕2

.

(B.58)

La correction quadratique dans la densité fait apparaître le paramètre  Λ3 et a un signe opposé dans les cas bosonique et fermionique. L’expression est en accord avec le comportement attendu (figure 11.3).

Exercice 11.3 Par exemple, pour les bosons ΞB =



 1 +  e − +  2e−2 + ⋯



=1+



 − 

e

+

2





e

−2 



+

(B.59) 

 − ( +  )

e

+ (3 )

(B.60)

>

le terme quadratique en  est construit d’une part par les termes quadratiques 2 e −2 de  , et d’autre part par les produits  e−  e − de termes linéaires (chaque couple apparaît une fois dans le développement). En notant que  −2  − ( + )  − ( + )  +2   →   = [( ) 2 − (2)]∕2 ( )2 = e e e (B.61) 

>

>

et en comparant ce développement avec (B.64), nous retrouvons bien la relation pour les bosons. Pour les fermions, c’est plus simple     ΞB = e−  +  2 e− (  +) + (3 ) (B.62) 1 +  e − = 1 +  



>

qui redonne également le bon résultat. Ce développement permet de déterminer (, 3), etc. . . en regardant les termes d’ordre supérieur en . 338

Solutions

Exercice 11.4 Effectuons une intégration par parties dans (11.26) en écrivant () =  1 d   () . Nous obtenons  d

 B∕F = −

 1 ∞ 1 B∕F d ( )  = − .  0  e  ( −  ) ∓ 1

(B.63)

Exercice 11.5 1/ La fonction de partition grand canonique comme fonction génératrice de la fonction de partition canonique : (,  ) =

1  Ξ(, ) . =0 !  

(B.64)

2/ Dans ce cas l’expression du grand potentiel est obtenue en écrivant ln(1 ∓ e− (  − )) ≃ def  ∓e− ( − ), soit  MB = −  e  , où  = e−  est la fonction de partition à une par

ticule. Cette formule illustre de façon extrême avec quelle facilité le formalisme grand canonique permet de passer des propriétés à un corps, la fonction de partition , aux propriétés à plusieurs particules, le grand potentiel. 3/ Nous pouvons également examiner la structure de la grande fonction de partition ΞMB =   MB e− = exp e   = e  . Nous déduisons la fonction de partition canonique en utilisant 1  (B.64) : MB =  . !

Problème 11.1 Bosons et fermions dans un puits harmonique 1D A. Approximation de Maxwell-Boltzmann La fonction d’une particule est  =   1∕ 2 sh(∕2) . Dans l’approximation de Maxwell-Boltzmann, la fonction de partition des  particules est MB = (1∕ !)  ∼ (∕ ) e . Ce résultat ne distingue pas entre bosons et fermions. Notons que la validité de cette approximation est  MB  1 ; lorsque   1 cela impose ∕  1 i.e.     . C’est une approximation valable aux hautes températures :       MB  ∼ e . Ce qui correspond au résultat d’un calcul complètement classique.    Nous déduisons le potentiel chimique MB ( , ) ≃    ln( ∕) ≃  ln ∕  . B. Bosons 1/ Rappel : particules discernables. Les états quantiques pour des particules discernables sont des états produits tensoriels de la forme  1    2   ⋯     . Puisque les particules sont indépendantes, la sommation sur les états quantiques correspond à sommer sur les  nombres quantiques indépendamment les uns des autres : ∞  ∞ ∞ ∞       − ⋯ disc = exp − (1 + ⋯ +  ) = e  . (B.65) 1 =0 2=0

 =0

=0

Bosons. Les états bosoniques sont des états symétriques sous l’échange des particules (ou des nombres quantiques). Si deux bosons occupent deux états individuels  1  et  2 , on doit tenir compte que  1 , 2  bosons et  2,  1 bosons désignent le même état dans la sommation sur les 339

Solutions

états quantiques. Si l’on souhaite effectuer une sommation sur les états quantiques à  bosons  1 , 2 , ⋯ ,   bosons, il faut donc ordonner les nombres quantiques 1 ⩽  2 ⩽ ⋯ ⩽  afin de ne pas faire apparaître plusieurs fois le même état. La fonction de partition est donc bosons =

∞  ∞  1 =0 2 =1

∞ 



 exp

 =−1

− ( 1 + ⋯ +  )



.

(B.66)

La somme sur les nombres quantiques est contrainte par le postulat de symétrisation. On peut découpler les sommes en introduisant les nouvelles variables de sommation 1 = 1, 2 =  1 + 2 = 1 + 2 , 3 = 2 +  3 = 1 +  2 + 3 , etc, avec   ∈ ℕ. On déduit − 

bosons = e

∞   

2

e − ( −+1)  = e −

 2

=1  =0

  =1

1 . 1 − e −

(B.67)

Il est clair que si   1 ∀ , i.e. si    , nous retrouvons le résultat classique 1    . bosons ≃ !  Nous pouvons d’ores et déjà introduire l’échelle charactéristique de température qui sépare le régime classique de haute température du régime de basse température où les corrélations quantiques deviennent dominantes : ∗ = ∕ . En abaissant la température à partir du régime classique (hautes températures), l’effet du postulat de symétrisation commence à se faire sentir à l’échelle ∗ = ∕  , bien plus élevée que l’échelle fournie par le gap du spectre individuel, ∕ . La présence de ce facteur  traduit précisément l’effet des corrélations quantiques qui favorisent le regroupement des bosons dans le fondamental dès   ∗ . 2/ De l’expression de bosons nous déduisons l’énergie libre (11.38). Le premier terme ∕2 est simplement l’énergie fondamentale du système, lorsque tous les bosons se trouvent dans le fondamental individuel. C

3/ L’énergie  = −  ln bosons est donnée par la somme : C

 =

   + .  − 1 2 e =1 

(B.68)

L’analyse de ses comportements fait apparaître trois cas limites. C

a) Si    , tous les termes de la somme sont petits. Gardons le premier :  ≃   +  e −∕  . La correction s’interprète comme l’excitation d’un boson dans le premier 2 état excité individuel.    Dans la limite     , on peut remplacer la somme par une intégrale, d : → 0 =1

C

 ≃

340

  ∗ ∕  d   (  )2 d  , = + +  e − 1  0 2 0 2 e − 1

(B.69)

Solutions

où ∗ = ∕ . Nous distinguons encore deux régimes : b) Lorsque   ∗ (i.e.      ), on peut remplacer la borne supérieure par l’∞ C   2(  )2  ≃  + d’où . La capacité calorifique présente donc un comportement linéaire 6 2   C 2    ∕ ∗ . en température à basse température :  ( ) =  ∕ ≃ 3 c) Lorsque   ∗ (i.e.       ), on peut considérer que l’intégrant est proche C (  )2 ∗  de 1, d’où  ≃  ≃   (conséquence du théorème d’équipartition). +    2 Autrement dit on a retrouvé le résultat classique comme il se doit puisque l’effet du postulat de symétrisation ne se fait plus sentir au delà de ∗ . Dans ce cas on retrouve une capacité calorifique constante  ( ) ≃  . 4/ On déduit de (11.38) le potentiel chimique ( , ) =

      +   ln 1 − e−∕  = +  ln 1 − e− ∗∕ . 2 2

(B.70)

Dans la limite classique,   ∗ , on retrouve ( , ) ≃  MB( , ) =  ln( ∗ ∕ ). Dans la limite quantique,   ∗ , le potentiel chimique sature à la valeur du fondamental individuel :  ( , ) ≃ −    e− ∗ ∕ . 2

Remarque. Il est intéressant de comparer ces résultats avec ceux du problème combinatoire des partitions d’un entier (annexe 7.B page 149). C’est très clair sur l’entropie ( C ≃   dans le régime intermédiaire) : en écrivant l’énergie d’excitation comme  ( ) −  (0) =   ≃    2 ( )2 2 2 nous obtenons   ∕() ≃ 6 ∕, d’où  C ≃   ∕() =   2∕3, 6  3 en exacte correspondance avec le résultat de l’annexe. Notons que dans ce régime, le potentiel chimique est sur le fondamental  ≃ 0 = ∕2 et la conservation du nombre de bosons ne joue pas de rôle.

Remarque. nous verrons au chapitre 13 que le fait que le potentiel chimique soit une fonction continue et dérivable de la température est lié à l’absence de phénomène de condensation de Bose-Einstein en 1D. C. Fermions. Les états fermioniques, que nous notons  1 ,  2, ⋯ ,   fermions , sont antisymétrisés. Afin de tenir compte de cette contrainte, nous imposons aux  nombres quantiques 1 < 2 < ⋯ <  . Le calcul est donc tout à fait similaire à celui du cas bosonique. Les deux calculs sont tellement proches que les deux fonctions de partition sont proportionnelles : fermions =  bosons e − Δ0

où Δ0 =

 ( − 1)  . 2

(B.71)

Ce résultat remarquable montre que les propriétés thermodynamiques des deux systèmes (bosons et fermions) sont absolument identiques. La raison est que les excitations des deux systèmes coïncident puisqu’elles correspondent à augmenter l’énergie par quanta . L’unique différence 341

Solutions

 est dans la valeur de l’énergie fondamentale des deux systèmes : bosons et 0fermions = = 0 2  (la constante s’interprète comme Δ 0 = fermions ). 2 − bosons 0 0 2 Pour finir, il est intéressant de calculer le potentiel chimique des fermions, ( , ) ≃ (  − 1 1 )+( ) en ln(1− − ∕ qui tend vers l’énergie de Fermi   = lim ( , ) =   −1 (le dernier 2  →0  état occupé).

Problème 11.2 2nd coefficient du viriel des gaz parfaits quantiques 1/ Partant de (11.26), une intégration par parties donne  B∕F = −

0



d Φ()

∞ e− (− ) d Φ() () = − G  = − 0 1 ∓ e− (− )

(B.72)

où l’on a utilisé les propriétés d’extensivité  ( ,  , ) = −G ( , )  (puisque  G = −

 ). 

2/ Le nombre moyen de particules est G

 =

0



d ( ) () = 

0



 d Φ()  ′()[1 ±  ′ ()

(B.73)

 ′ où nous avons fait une intégration par parties en utilisant  () = − ()[1 ± () . G

G

3/ On considère le rapport des deux relations précédentes ∕(−  B∕F ) =    ∕(G  ) =   ∕, qui donne donc (11.39). La limite classique (diluée) correspond aux faibles occupations ()  1, ce qui permet de négliger le terme en ()2 dans l’intégrale : on retrouve  ≃    . 4/ Second coefficient du viriel. a) Calcul semiclassique de la densité d’états intégrée pour un atome libre de spin  dans une boîte (chapitre 3) donne Φ() =   3∕2 avec  = 4 (2 + 1) (2∕ 2 )3∕2 . Par la suite on oubliera l’éventuelle dégénérescence de spin, i.e.  = 0. 3 def

MB b) Gaz parfait classique. Dans la limite classique,  est tel que () ≃ e − (− ) =  ()  ∞ ∞  3 MB 1. L’intégrale  = d ( )  () =  e d  e − s’exprime à l’aide de la 0 0 2 fonction Γ (annexe). On obtient def

 = e =  Λ3

 où Λ =

(B.74)

22 est la longueur thermique.  

c) On fait () ∞

(classique)



 MB () dans (11.39). Les deux intégrales

0



d Φ() () et

d Φ() ()2 sont faciles à calculers et s’exprime à l’aide de la fonction Gamma. On obtient 0 finalement  ∕ ≃ 1 ± 2 −5∕2. 342

Solutions

d) Dans la limite diluée, on peut remplacer la fugacité dans le développement par l’expression  ≃ 1 ∓ 2 −5∕2 Λ 3 , et classique (B.74). Le développement précédent prend donc la forme   on retrouve le résultat de l’excercice 11.2 : ∕  ( ) ≃ ∓2 −5∕2 Λ3 ∝ ∓ −3∕2 2

(B.75)

e) Pour les fermions, le postulat de symétrisation (le principe de Pauli) induit une répulsion effective, i.e. la pression est augmentée, 2 > 0. Pour les bosons, c’est l’inverse : le postulat de symétrisation induit une attraction effective, i.e. 2 < 0. Dans la limite classique l’effet du postulat de symétrisation disparaît et donc 2( ) ∝  −3∕2 → 0. C’est ce qu’on observe sur la figure dans le domaine de température 1 K <  < 10 K.

Remarque. Dans le problème, nous avons uniquement discuté l’effet des corrélations quantiques (postulat de symétrisation) sur le second coefficient du viriel. Ce dernier est également sensible aux interactions entre atomes. Pour cette raison, le comportement de plus haute température est assez différent de celui observé dans le régime 1 K <  < 10 K. Au delà de 20 K, le coefficient du viriel change de signe : il est dominé par l’effet de l’interaction répulsive de cœur dur entre atomes. Il décroît avec la température au delà de 200 K (i.e. l’isotherme rejoint la loi de Mariotte).

Problème 12.1 Métal et semimétal en 2D A. Hétérojonction GaAs/GaAlAs1− . 1/ Densité d’états : 0 = 2 



 ( −   ) = 2

d  ( −  ) où   = 2 2 ∕(2∗). En  (2)2

2D, on obtient facilement 0 = 0 ∕ = ∗∕( 2). 

d (;  ) où (; ) est la distribution de Fermi avec  0 =  0 . L’inté0 grale se calcule sans problème (par rapport au cas 3D on profite du fait que la densité d’états est constante) :   G   ( , ) = 0 ln 1 + e  . (B.76)  G

2/  ( , ) =  0



3/ À limite thermodynamique on utilise la formule précédente pour décrire la situation où le nombre d’électrons  est fixé : en inversant  = ( , ) on déduit le potentiel chimique comme   fonction de  et  =  ∕ :  ( ) = (1∕) ln e ∕ 0 − 1 . En faisant  → ∞, on obtient l’énergie de Fermi  =  ∕ 0 =

2 . ∗ 

L’AN pour une densité  ≃ 10 15 m−2 donne  ≃ 3meV (∗ = 0.067   est dans l’introduction) et  ≃ 35 K. On écrit

  (  ) =  ln e  ∕ − 1 .

(B.77) 343

Solutions

À haute température (   ) on retrouve le comportement classique ( ) ≃   ln( ∕ ), ce qui correspond aux températures ambiantes. À basse température (   ), dans un cryostat, l’énergie de Fermi peut être considérée comme constante : ( ) =  + ( e − ∕ ). ∞

1 2  + 2

0  C 1   (  ) d’où  ( , ) ≃   1 + ( ∕ ) 2 . Nous obtenons la capacité calorifique 6 2 6 2 linéaire, caractéristique d’un métal,  ( ) ≃  ( ∕  ). 6 G

4/ Le développement de Sommerfeld donne  ( , ) =  0  2

2



classique

Classiquement on aurait 

d  (; ) ≃  0

2

=  en 2D. À  = 1 K, le principe de Pauli réduit la classique

capacité calorifique d’un facteur  ∕ 

≃ 0.05.

B. Graphène 1/ La densité d’états est symétrique par rapport à  = 0. Choisissons  > 0. Densité d’é d  ( −  ) = 2 2  ( −  0 ) = tats par unité de surface : () = 2 2  (2)2  2  0



2 . d  ( − 0 ) d’où () = ( 0)2 

2/ On montre facilement la propriété en utilisant 1 − (;  ) = (−; −). Le premier terme s’interprète comme le nombre de trous, ou anti-électrons (i.e. le nombre de lacunes d’électrons dans la bande de valence), et le second terme comme le nombre d’électrons de conduction. G

G

3/  est tel que  = 0. En utilisant (12.32), on écrit  ( , ) =  (0, 0) = . Le nombre de trous doit égaler le nombre d’électrons. Puisque la densité d’états est symétrique, cela implique (  ) = 0 ∀  . 2(  )2

Λ∕ 

d  . Puisque Λ∕  ∼ e + 1 (0 0 11 000 K   on remplace la borne supérieure par l’∞. D’après la formule de l’annexe, l’inté   2 grale vaut 2∕12, d’où finalement le comportement quadratique   = . À  = 300 K 6 0 on obtient  ≈ 1.3 × 1015 m−2 , ce qui est comparable au 2DEG (mais ici la densité diminue rapidement avec  , donc à  = 1 K on obtiendrait une densité ∼ 10−5 plus faible). 4/ On obtient la densité sous la forme  =

5/ En retranchant(0) =

0

−Λ

d ( )  = −

0

Λ

)2

d (−)  et en utilisant 1 − (; 0) = (−; 0),

on montre facilement la relation demandée. On déduit ( ) = 

4(  )3

Λ∕ 

d  2 . e + 1 (0 )2 0 En faisant la même approximation (Λ∕  → ∞), l’intégrale est (3∕2) (3), d’où finalement 6 (3) (  )3 36  (3)   ( )   =  (0 )2 2     2 18  (3) 108  (3)   ( )  . = et  ( ) ≃    0 2 ( ) ≃

344

(B.78)

Solutions

6/ On a donc une décroissance plus rapide de la capacité calorifique  ( ) ∼  2 que dans un métal, qui vient de la raréfaction des états à  → 0.

Problème 12.2 Magnétisme d’un gaz d’électrons bidimensionnel A. Paramagnétisme de Pauli

1/ Nous avons vu dans le probléme 12.1 que, pour  = 0, la densité d’états est constante 0 =  ∗ pour  > 0. Lorsque   0, les énergies sont décalées vers le haut ou vers le bas suivant 2  22 l’état de spin : ,± = ∓  . Les deux densités d’états sont donc plates à partir de ∓ : 2∗ 1 ±() = 0 H ( ±  ). 2 2/ Pour chaque état de spin, le calcul est analogue à celui du problème 12.1. D’après (B.76) : ± =

∞ ∞   0   d (; ) = 0 d (;  ±  ) = 0 ln 1 + e ( ± ) . 2 2 ∓ 2 0

(B.79)

3/ On considère  = + +  − fixé. a) À l’aide de l’expression précédente, nous obtenons e2 + 2 ch(  )e + 1 = e 2 , où nous avons introduit  =  ∕0 . d’où   1 2 2 ch ( ) + e  − 1 − ch( ) (B.80) ( , ) = ln  On vérifie que la limite  = 0 redonne le résultat du problème 12.1. Considérons la limite  → 0 (i.e.  → ∞).

• Cas  >   : Le crochet est [⋯] ≃ e  d’où  (0, ) =  . Le potentiel chimique est indépendant du champ magnétique ; cette situation est illustrée par la figure ci-dessous, partie gauche.    1 • Cas  <     : il faut écrire le développement de la racine ⋯ ≃ e    1 + 2e2 ( −) 2 d’où (0, ) = 2 −  . Cela correspond à la situation où le gaz est complètement polarisé en spin (partie droite de la figure ci-dessous). ρ+(ε)

+ −F

ε =)−(

εF ( B)= εF

−F ) B ( 2 −F −

ε 0 2 εB

0 + −B ερ )−(

ρ−(ε) εF

−F

b) Si  = 1 T, ce qui est déjà un très fort champ magnétique, nous obtenons  ≃ 50 eV soit 0.5 K. D’une part cette énergie est plus faible que l’énergie de Fermi dans un gaz d’électrons 2D 345

Solutions

(quelques 10 K, cf. problème 12.1), d’autre part, à moins de considérer des très basses températures (dans un cryostat) c’est plutôt plus petit que   . Dans la limite         on peut donc considérer que ( , ) ≃ ( , 0) ≃  est indépendant du champ magnétique.  para c) On a donc ± = 0 ( ±  ). L’aimantation est  =   (+ − − ) = 02  d’où 2 (B.81)

Pauli = 0 2 .

Notons que la susceptibilité est toujours positive, quelle que soit la charge des porteurs, ce qui traduit simplement l’alignement des moments magnétiques sur le champ. B. Diamagnétisme de Landau  1   ln 1 + e − ( − ) . Dans le cas   ∞    ⟶ 2 du spectre de Landau la somme sur les états individuels prend la forme . En  L 1/ L’expression générale du grand potentiel est  = −



remarquant que 2L =  0 , nous obtenons

∞      ( , , , ) = −0 ln 1 + e − ( (+1∕2)−) .  =0

=0

(B.82)

2/ On peut appliquer la formule d’Euler-MacLaurin en faisant simplement  →   et  ( ) → −(0 ∕) ln(1 + e− (− )), qui décroît bien à l’infini. L’application de la formule donne   0   2 1 1 +⋯ (B.83)  ( , , , ) =  ( , , , 0) + →0 2 e − + 1 12 ∗ 3/ L’aimantation diamagnétique est dia = − ∕ (grandeur conjuguée du champ mag def

nétique). Combinant cela avec la définition de la susceptibilité diamagnétique Landau = 2 2 . La comparaison avec le lim dia  ∕  nous obtenons que  Landau = −  ∕   =0 →0 développement (B.83) permet d’identifier la susceptibilité de Landau 1  2 1 Landau = − 0  ∗ − 3 e +1

def

où ∗ =

  . 2∗

(B.84)

Évidemment, la réponse diamagnétique ne dépend que de ∗ , puisque l’hamiltonien est seulement fonction de ∗. C. Synthèse. À température nulle ( → ∞ et  →  ) on obtient simplement Landau = 1  2 − ∗ 0 . La susceptibilité est négative : la présence du champ provoque le mouvement 3 cyclotron (circulaire) des électrons. La rotation des charges génère un champ qui s’oppose au champ responsable du mouvement (loi de Lenz), d’où Landau < 0. La susceptibilité totale est   2   1 . (B.85)  = Pauli + Landau = 0 2 1 − 3 ∗

346

Solutions

Si ∗ =  , le paramagnétisme domine et la susceptibilité est positive (cas usuel dans un métal).  En revanche si la masse effective est assez faible ∗ <  ∕ 3, le diamagnétisme peut devenir dominant.

Problème 12.3 Ferromagnétisme itinérant et instabilité de Stoner A.1/ Gaz de fermions libres sans spin. La densité d’états intégrée est donnée par le calcul  4 (2) 3∕2, d’où la densité d’états par unité de volume et par spin semiclassique : Φ() = 3 3    3∕2  2 1 . À  = 0, l’énergie de Fermi est donnée en écrivant  = Φ( ) d’où () = 4 2 2 2  = (62 )2∕3 . 2 2/ L’énergie du gaz vaut 0 = 

0



d ( ) , d’où E 0 () =

3(6 2) 2∕3 2 5∕3 3   =  . 5 10 

B. Électrons en interaction dans l’approximation de champ moyen 1/ [ ] = [énergie] × [volume] d’où [𝓁] = [longueur]. 2/ Il suffit d’introduire ↑ =  (1+ M )∕2 et  ↓ =  (1−M )∕2 dans E (↑ , ↓ ) = E 0(↑ )+E 0( ↓)+  ↑ ↓ . 3/ On suit une approche variationnelle : on a exprimé le paramètre M , qu’on a supposé a priori non nul, puis on introduit un critère (minimisation de l’énergie) pour déterminer le paramètre a posteriori. On se limitera ici au régime M  1. a/ En utilisant le développement limité, on obtient

E (↑ , ↓ ) = 2 E0 (∕2) + 2 × 34 (32) 2∕3

 25∕3  3(1 − 𝓁 1∕3) M 2 + M 4 + (M 6) 

 25∕3   M 2 + M 4 où   = 3(1 − 𝓁 1∕3 ) peut changer de signe en fonction de la valeur de 𝓁 1∕3. La valeur critique de l’interaction est simplement reliée à la densité : 𝓁 = −1∕3 . Si l’interaction est faible, 𝓁 < 𝓁  , le minimum de l’énergie est M = 0: le métal est dans une phase paramagnétique. Si 𝓁 > 𝓁 , l’énergie a deux minima en M = ± −∕2  0 : le métal est dans une phase ferromagnétique (il est aimanté en l’absence de champ magnétique extérieur). b/ On voit que la densité d’énergie est de la forme E ≃ const + (⋯)

c/  ∼ 1∕(   ).

Exercice 13.1 a) En dimension  la densité d’états d’une particule libre est () ∝ ∕2−1 . La condition d’apparition de la condensation de Bose Einstein est donc  ⩾ 3. b) Dans un puits harmonique () ∝ −1. La condition pour la condensation est cette fois  ⩾ 2. 347

Solutions

Exercice 13.2 Discontinuité de la capacité calorifique des bosons pour 𝜶 > 𝟐. 1) Cas  ⩾ BE. a) En introduisant la densité d’états dans l’expression générale de l’énergie des bosons, un changement de variable donne  ∕A = 0 (  ∕0) +1Γ( + 1) Li +1(). Le régime classique correspond à  → 0, d’où  ∕A ≃ 0 (  ∕ 0 )+1Γ( + 1) . Combinée avec ∕A ≃ (  ∕ 0 ) Γ( ) , éq. (13.30), on obtient  ≃   . b) Pas de difficulté en utilisant (13.33). c) On prouve facilement que Li′ (1) =  (  −1) à partir de la représentation en série de la fonction. D’où Li () ≃  () +  ( − 1)( − 1) pour  → 1− . Nous déduisons la forme approchée de ( − 1) en fonction de  que nous re-injectons dans le développement l’énergie pour  → 1 − :    (  + 1)  ( )  ( )  ≃ +1 + −  pour  → 1+ .  ( )  (  − 1)  (  − 1)  +) = ( + 1) La dérivation donne (1

 (  + 1)  ( ) − .  ( )  (  − 1)

 pour  ⩽ BE est simplement obtenue en faisant  = 1 dans l’expression 2) L’expression de   = +1  (  + 1)∕ ( ) et déduisons  = ( + 1)  (  + obtenue pour  ⩾ BE : on obtient  1)∕ ( ).  − )−(1  +) = ()∕ ( − 3) Nous comparons les deux expressions de la capacité calorifique : (1 1). QED . La discontinuité est visible sur la figure 13.7 (cas  = 3). Pour  → 2 la fonction zeta au dénominateur diverge,  ( → 1) → ∞, donc la discontinuité disparaît ; on a vu qu’il n’y avait pas de discontinuité pour  = 3∕2, Fig. 13.5, on peut donc se douter que c’est le cas dans tout l’intervalle  ∈]1, 2].

Pour en savoir plus : • La présence d’interactions régularise cette discontinuité, et on attend plutôt un comportement plus régulier en pratique. Une étude numérique a été proposée dans : A. Minguzzi, S. Conti and M. P. Tosi, « The internal energy and condensate fraction of a trapped interacting Bose gas », Journal of Physics : Condensed Matter 9, p. L33–L38 (1997).

Problème 13.1 Loi de Bloch 1/ On écrit la relation de dispersion  = 2 ∕(2 ∗ ) où  ∗ est la masse effective des magnons. Considérons la densité d’états intégrée Φ() : la règle semiclassique nous donne Φ() = ( ∕ )



d H ( − ) =   ∕2∕( Γ(∕2 + 1)) (2∗ ) ∕2. Une dérivation conduit à la den

sité d’états individuels () =    2 −1 où  = [∗ ∕(2 2)]∕2∕Γ( ∕2). Le nombre moyen ∞   −1  de magnons à température  est  =    d  2 ∕ e − 1 . 0 348

Solutions

2/ Nous pouvons exprimer l’intégrale à l’aide de la fonction  de Riemann en utilisant (A.11) : ( ) ∝   =   Γ(∕2)  ( ∕2)(  )∕2 .

(B.86)

En dimension  = 3, on obtient donc ( ) ∝  3∕2 (loi de Bloch), i.e. un comportement tout à fait différent de celui prédit par modèle d’Ising rappelé dans l’introduction, comme on s’y attendait. C’est précisément le comportement observé expérimentalement (Fig. 13.10). La validité de ce traitement est valable à basse température, tant que ( )  (0), notamment car nous avons simplifié la relation de dispersion des modes magnons, qui dévie du comportement quadratique aux plus hautes énergies. On observe en effet une déviation à la loi de Bloch pour les plus hautes températures. En outre on a vu dans le chapitre 10 que l’annulation de l’aimantation au voisinage de la température critique,  ∼  , fait intervenir un exposant non trivial,  ( ) ∼ ( −  ) où  ≃ 0.32 en  = 3, dont l’origine est tout à fait non triviale et s’explique par la compétition entre interaction entre moments magnétique et fluctuations thermiques. 3/ Le cas des dimensions inférieures est intéressant : si  ⩽ 2 l’intégrale qui donne le nombre de magnons est divergente, à cause de la contribution des modes de basse énergie :   ∼

0 gence des fluctuations thermiques empêchant l’apparition d’un ordre ferromagnétique en  ⩽ 2. Nous illustrons ici un théorème très important de la matière condensée : le théorème de MerminWagner (en présence d’interactions à courte portée, la brisure spontanée d’une symétrie continue ne peut donner lieu à une transition de phase en dimension  ⩽ 2 qui est la dimension critique inférieure). 

d  2 −2 = ∞. Cette divergence du nombre de magnons peut s’interpréter comme une diver-

Problème 13.2 Fluctuations dans un condensat de Bose-Einstein 1/ Si  diminue à  fixé, on a vu qu’il existe une température finie, BE , à laquelle le potentiel −. En dessous de cette température, chimique atteint sa limite supérieure autorisée,  =  − 0 = 0 un nombre macroscopique de bosons s’accumulent dans l’état individuel fondamental, i.e. 0 =  B G  . On ( ). L’expression grand canonique pour le nombre moyen de bosons est  = 

G

admet qu’elle décrit également la situation canonique à la limite thermodynamique,  → . Si le spectre des états individuels est très dense (décrit par une densité d’états), on peut remplacer  la somme par une intégrale d ( ). Pour  <  BE, il faut cependant singulariser la ⟶  

contribution du fondamental, 0( ), qui devient macroscopique, alors que le nombre moyen de bosons excités   ( ) s’exprime encore comme « un nombre macroscopique de contributions microscopiques » :  = 0 ( ) +

0



d ( )

1 e  − 1

pour  ⩽ BE (i.e.  = 0)

En utilisant une intégrale de l’annexe on obtient ( ) = (3)(   ∕) 3.  = BE est la température en deçà de laquelle  0 devient macroscopique ; cependant il peut encore être considéré microscopique à la transition, i.e. on peut écrire 0 (BE ) = 0 et  1∕3 (BE ) =  d’où BE =  ∕ (3) ∕ . 349

Solutions

2/ La fraction condensée est 0( )∕ = 1 − ( ∕ BE ) 3 pour  ⩽ BE (et nulle au delà). 3/a/ La variance du nombre de bosons excités est la somme des variances (les états sont indépendants et le condensat joue le rôle de réservoir pour les bosons excités) ∞     B e  e B Δ 2 = Var( ) =  1 +  = d ( ) =  − 1)2 0 (e  − 1)2 >0 >0 >0 (e On a utilisé que  = 0. b/ Une I.P.P. donne 2 Δ

1 = ()3  0



   3   3 (2)   d =  (2) =  (3)  BE e − 1

c/ d’où  = 0 +  est fixé, d’où Var( 0 ) = Var( −  ) = Var( ). Nous déduisons :  Δ0

=

0

(2)  3∕2 (3) 1 −  3

def

avec  =

 . BE

Les fluctuations relatives divergent en approchant la température critique : − pour  → BE

(B.87) Δ0 0



1  BE − 

2.5

ΔN 0/N0

2.0

1.5

1.0

N 0/N

0.5

0.0 0.0

0.2

0.4

0.6

0.8

1.0

1.2

1.4

T /TBE

Pour en savoir plus : • Cette analyse a été proposée dans l’article : H. David Politzer, « Condensate fluctuations of a trapped, ideal Bose gas », Physical Review A 54, p. 5048 (1996). Une analyse plus soigneuse a été faite dans : M. Holthaus, E. Kalinowski and K. Kirsten, « Condensate fluctuations in trapped Bose gases : canonical vs. microcanonical ensemble », Annnals Physics 270, p. 198 (1998).

350

Bibliographie [1] P. W. Anderson, More is different, Science 177(no 4047), 393 (4 August 1972). [2] N. W. Ashcroft and N. D. Mermin, Solid State Physics, Saunders College (1976). [3] R. Balian, From microphysics to macrophysics. Volume I, Springer, Berlin (1992). [4] R. Balian, From microphysics to macrophysics. Volume II, Springer, Berlin (1992). [5] J.-L. Basdevant and J. Dalibard, Mécanique quantique, Les éditions de l’École polytechnique, Palaiseau (2004). [6] B. A. Bernevig and T. L. Hughes, Topological insulators and topological superconductors, Princeton University Press (2013). [7] É. Brézin, Introduction to statistical field theory, Cambridge University Press, 2010 [8] H. B. Callen, Thermodynamics and an introduction to thermostatistics, John Wiley & Sons, New York (1985), 2nd edition. [9] R. Castaing, Thermodynamique statistique, Masson, Paris (1970). [10] P. M. Chaikin and T. C. Lubensky, Principles of condensed matter physics, Cambridge University Press (1995). [11] C. Cohen-Tannoudji, B. Diu and F. Laloë, Mécanique Quantique, Hermann, Paris (1973), tomes 1 et 2. [12] C. Cohen-Tannoudji, J. Dupont-Roc and G. Grynberg, Photons et atomes : Introduction à l’électrodynamique quantique, Interéditions/Éditions du CNRS (1987). [13] E. A. Cornell and C. E. Wieman, Nobel Lecture : Bose-Einstein condensation in a dilute gas, the first 70 years and some recent experiments, Rev. Mod. Phys. 74, 875–893 (2002). [14] F. Dalfovo, S. Giorgini, L. P. Pitaevskii and S. Stringari, Theory of Bose-Einstein condensation in trapped gases, Rev. Mod. Phys. 71, 463–512 (1999). [15] B. Diu, C. Guthman, D. Lederer and B. Roulet, Physique Statistique, Hermann, Paris (1989). [16] K. Huang, Statistical mechanics, John Wiley & Sons, New York (1963). [17] E. T. Jaynes, Information Theory and Statistical Mechanics, Phys. Rev. 106, 620– 630 (1957). [18] W. Ketterle, Nobel lecture : When atoms behave as waves : Bose-Einstein condensation and the atom laser, Rev. Mod. Phys. 74, 1131–1151 (2002). [19] C. Kittel, Physique de l’état solide, Dunod (1994), 5ème édition. [20] W. Krauth, Statistical Mechanics : Algorithms and Computations, Oxford University Press (2006). 351

Bibliographie

[21] H. Krivine and J. Treiner, La physique statistique en exercices, Vuibert, Paris, second edition (2016). [22] R. Kubo, M. Toda and N. Hashitsume, Statistical physics II : non-equilibrium statistical mechanics, Springer-Verlag (1992). [23] L. D. Landau and E. Lifchitz, Physique statistique, Mir (1966), tome 5. [24] R. B. Laughlin, Un univers différent, Fayard (2005). [25] J.-M. Lévy-Leblond and F. Balibar, Quantique – Rudiments, CNRS-InterÉditions, Paris (1984). [26] S.-K. Ma, Statistical mechanics, World Scientific, Singapore (1985). [27] K. Mallick, Some recent developments in non-equilibrium statistical physics, Pramana J. Phys. 73(3), 417–451 (2009), disponible à l’adresse http://www.ias.ac. in/pramana/v73/p417/fulltext.pdf. [28] M. Mézard and A. Montanari, Information, Physics, and Computation, Oxford University Press (2009). [29] R. K. Pathria and P. D. Beale, Statistical mechanics, Academic Press, Elsevier (2011), 3rd edition. [30] C. J. Pethick and H. Smith, Bose-Einstein condensation in dilute gases, Cambridge University Press (2002). [31] F. Reif, Fundamentals of statistical and thermal physics, McGraw-Hill, New York (1965). [32] N. Sator and N. Pavloff, Physique statistique, Vuibert (2016). [33] J. P. Sethna, Statistical Mechanics : Entropy, order parameter and complexity, Oxford University Press (2006). [34] C. Texier, Physique statistique (faiblement) hors équilibre : formalisme de la réponse linéaire. Application à l’étude de la dissipation quantique et du transport életronique (2013), notes de cours du DEA de physique quantique, disponible à l’adresse http://www.lptms.u-psud.fr/christophe_texier/. [35] C. Texier, Mécanique quantique, Dunod, Paris, second edition (2015). [36] H. Touchette, The large deviation approach to statistical mechanics, Phys. Rep. 478(1-3), 1–69 (2009).

352

Index A

champ moyen (approximation de), 212, 221 chaos, 8 adiabatique (transformation), 98 classe d’universalité, 233 aléatoire (variable), 10 Clausius, Rudolf, 1, 56 antiferromagnétisme, 220, 236, 335 col (méthode du), 28 approximation de Maxwell-Boltzmann, 112, compressibilité, 88, 127, 173, 175, 181, 213, 286 116, 238, 246, 249–251 (exposant critique), 218, 233 argon, 157, 170 condensation de Bose-Einstein, 278, 282 Avogadro (nombre d’), 60 conditions aux limites, 40, 44, 55 de Dirichlet, 40, 309 B périodiques, 45, 309 conditions normales de température et de Bessel (fonctions de), 27 pression, 7, 157 big bang, 195 conjuguée binomiale (distribution), 20, 23, 28 (variable canoniquement), 38, 49 blocage de Pauli, 268 constante de Boltzmann, 60 Boltzmann, Ludwig, 1, 60, 91 construction de Maxwell, 215 Born-Oppenheimer (approximation de), 161 contact thermique, 79, 81, 105 Bose-Einstein (distribution de), 99, 184, 246, et irréversibilité, 84 278, 315 boson, 53, 99, 100, 198, 237, 239, 242, 243, 246, Cooper (paires de), 279, 307 coordonnées normales, 187, 203, 205 250, 251, 254, 255, 276, 279, 339, 342 corps noir, 195 (corrélations quantiques), 255, 284 corrélations quantiques, 237 condensation, 282 corrélations, 16 dans un piège harmonique, 287 covariances (matrice des), 17 bra, 52 cristal paramagnétique, 76, 113, 137, 219 Bragg-williams (approximaton de), 223 températures négatives, 85 brisure spontanée de symétrie, 230 crochets de Poisson, 51 bruit de Schottky (bruit de grenaille), 307 cumulants, 18, 19, 25 curie (loi de), 221 C Curie-Weiss (loi de), 227 capacité calorifique, 83, 107, 161 (exposant critique), 233 D à la transition liquide-gaz, 218 Debye (modèle de), 193 de l’oscillateur harmonique, 184 dégénérescence, 40, 43 de vibration des solides, 190 Démocrite, 2 (modèle de Debye), 195 densité d’états, 42 des gaz réels, 174, 213 densité de modes, 188 du gaz de fermions, 265, 268, 271 dérivée fonctionnelle, 291 du gaz diatomique, 166 détente de Joule, 87 du gaz parfait de bosons (cas général), 289, développement de Landau, 228 296 développement du viriel, 169, 335 du gaz parfait de bosons libres, 285 diamagnétisme de Landau, 273, 346 du gaz parfait diatomique, 166 diatherme, 79 du gaz parfait monoatomique, 85, 157 diluée (limite), 78, 157, 238 du gaz parfait polyatomique, 168 dimension critique, 233 du modèle d’Ising, 226, 228 dimension critique inférieure, 349 du para et ortho H 2, 180 distribution de Bose-Einstein, 99, 184, 246, et fluctuations, 110 278, 315 rotationnelle, 163, 164, 166 distribution de Dirac, 301 vibrationnelle, 163, 164, 166 distribution de Fermi-Dirac, 99, 246, 257, 315 casimir (pression), 201 distribution de probabilité, 11 chaleur latente, 216 Dulong et Petit (loi de), 191 de condensation de Bose-Einstein, 287 chaleur spécifique, 287

353

Index

E échange (interaction d’), 220 effective (interaction), 161, 169, 200, 220 effet Hall quantique entier, 234 effet Hall quantique fractionnaire, 307 élementaire, 2 émergence, 4, 24, 189 énergie de Fermi, 262 énergie libre, 107, 138, 139, 141, 144, 209 (extensivité), 108 (interprétation thermo.), 108 d’un solide (vibrations), 193 de l’oscillateur harmonique, 185 du champ e-m, 198 du gaz parfait classique, 157 du gaz réel (vdW), 213 sur le plateau de liquéfaction, 215 energie libre, 147 ensemble canonique, 105 ensemble grand canonique, 118 ensemble isotherme-isobare, 154 ensemble microcanonique, 72 enthalpie, 216 enthalpie, 147 enthalpie libre, 154 enthalpie libre, 147 entropie (extensivité), 75, 78, 93 (principe d’entropie maximale), 93 canonique, 107 de Rényi, 68, 135, 323 de Tsallis, 323 grand canonique, 121 microcanonique, 74 réduite, 81, 84, 87 Sackur-Tetrode (formule de), 78, 287 statistique (de Gibbs-Shannon), 62 entropique (effet), 77, 101, 209, 317 ergodicité, 37 espace des phases, 38 espérance, 14 état individuel, 111 état singulet, 252 états triplets, 252 étoiles à neutrons, 258 étoiles naines blanches, 258 Euler-MacLaurin (formule), 274 évènement, 9 exposants critiques, 232 extensive (variable), 75 extensivité, 75, 93, 108

F facteur d’occupation, 100, 123, 149, 243

354

de Landé, 133 gyromagnétique, 76, 133, 220 Fermi (énergie de), 262 Fermi-Dirac (distribution de), 99, 246, 257, 315 fermion, 53, 99, 100, 237, 239, 242, 243, 251, 254, 255, 339, 342 (corrélations quantiques), 255 ferromagnétisme, 219, 224 itinérant, 220, 274 fluctuation-dissipation, 110, 181 fonction d’onde, 39, 52 fonction de corrélation de paires, 172 fonction de grande déviation, 30, 81 fonction de partition, 106 fonction génératrice, 18, 119 fond diffus cosmologique, 195, 199 forces de van der Waals, 169 formule de trace, 310 fugacité, 120, 251, 280

G gap d’énergie, 164, 284, 289, 296 gaussienne (distribution), 20 gaz parfait, 7, 21, 75 classique (fonction de grand partition), 122 (fonction de partition), 112 (potentiel chimique), 90 (pression), 88 monoatomique, 78, 117, 157 Sackur-Tetrode (formule de), 78 de bosons libres, 279 diatomique, 161 moléculaire, 160 polyatomique, 168 quantique, 237 de bosons, 276 de fermions, 257 sur réseau, 99 gaz sur réseau, 99 gaz ultrafroids, 279 gaz ultrafroids (BEC), 293 Gibbs, J. Willard, 1 Gibbs-Duhem (relation de), 148 Ginzburg (critère de), 225 grand potentiel, 147 grand potentiel, 120 grandes déviations, 29 Gross-Pitaevskii (équation de), 292 Gumbel (loi de), 26

H Heisenberg (modèle de), 220 hétéronucléaires (molécules), 160, 179 homonucléaires (molécules), 160, 179

Index hooke (loi de), 37 hypothèse ergodique, 41 hystérésis, 229

I indépendance, 13 indiscernabilité, 47, 52, 93, 237, 239 individuel (état), 98, 240, 243–245, 257, 278 intensive (variable), 75 irréversibilité, 4, 56, 84, 91 ising (modèle d’), 221

J jauge de radiation, 196

K ket, 52 Kronecker (symbole de), 10 kurtosis, 26

L Landau (développement de), 228 Landau (diamagnétisme de), 273, 346 Laplace (transformation inverse), 19 Laplace (transformation), 19 Lennard-Jones (potentiel de), 5, 170 Lenz (loi de), 346 limite centrale (théorème de la), 21, 29 limite thermodynamique, 84, 104, 111, 127, 136, 137, 139, 140, 141, 147, 231, 263, 265, 266, 280 loi de Bloch, 296, 348 de Boltzmann, 111, 116 de Curie, 221 de Curie-Weiss, 227 de Lenz, 346 de Rayleigh, 306 de Rayleigh-Jeans, 199 de Stefan-Boltzmann, 199 de Wien, 199 longueur thermique, 117, 157, 238, 239, 280 ultrarelativiste, 117, 152 Lucrèce, 2

M macroétat, 41 magnéton de Bohr, 133, 273 magnons, 297, 348 masse effective de l’électron, 261 matrice densité, 54 Maxwell (relations de), 148 Maxwell, John C., 1

Maxwell-Boltzmann (approximation de), 112, 116, 238, 246, 249–251 Mayer (relation de), 157 mécanique quantique, 8, 52 Meissner (effet), 279 mélange statistique, 41 Mermin-Wagner (théorème), 203, 349 mésoscopiques (fluctuations), 310 métal, 272 métastable (état), 215 méthode du col, 28 microétat, 39–41 mobilité électronique, 271 modèle microscopique, 4, 78, 211 modèle phénoménologique, 4, 78 modes propres de la chaîne de ressorts, 203 de vibration, 187 du champ électromagnétique, 196 mole, 7 moments (définition), 18 mouvement brownien, 11 moyenne (définition), 14

N Nernst (théorème de), 269, 287 nombre d’occupation, 243

O ondes de spin, 296 opalescence critique, 211, 218 ortho-hydrogène, 179 oscillateur harmonique, 183 densité d’états, 44

P para-hydrogène, 179 paradoxe de Gibbs, 94 paradoxe de l’irréversibilité, 91 paramagnétisme, 219 paramagnétisme de Brillouin, 134 paramagnétisme de Pauli, 273, 345 paramètre d’ordre, 230 parseval-Plancherel (relation de), 302 pauli (blocage de), 268 pauli (paramagnétisme de), 273, 345 Perrin, Jean, 11 phénomènes collectifs, 2 phonons, 189 photons, 198 Planck (loi de), 199 point critique (Van der Waals), 216 poisson (crochets de), 51 polariton, 279

355

Index polylogarithme (fonction), 280 pomeranchuk (effet), 258 postulat de symétrisation, 52, 239 postulat fondamental de la physique statistique, 72, 73 de la thermodynamique, 56, 74 potentiel chimique canonique, 109, 126 grand canonique, 119 microcanonique, 89 pression canonique, 126 Casimir, 201 de radiation, 200 grand canonique, 121 microcanonique, 88 principe de Pauli, 99, 169, 220, 240, 242, 243, 258, 260, 262, 263, 269 probabilités, 7, 9 produit tensoriel, 59

Q Quantique (mécanique), 8, 52

R Radiation (pression de), 200 Rayleigh-Jeans (loi de), 199 relation de Gibbs-Duhem, 148 de Maxwell, 148 Rényi (entropie de), 68, 135, 323 réservoir de volume, 154 réservoir de particules, 118 Réversible (transformation), 89, 142

S Sackur-Tetrode (formule de), 78, 78, 287 semiconducteur, 272 semimétal, 272 séparable (problème), 111, 112, 162, 190 Sinai (problème de), 69 skewness, 26 soleil (température), 199, 200 sous-extensive (variable), 75 sphères dures, 69, 155, 211 spin, 39, 53 spinodale, 215, 217 Stefan-Boltzmann (loi de), 199 Stirling (formule de), 302

356

supercritique (fluide), 210 superfluidité, 279 supraconductivité, 279 susceptibilité magnétique, 227 systèmes à deux niveaux, 55, 76, 113

T température absolue, 81 critique, 210, 214, 216, 219 de Fermi, 262 microcanonique, 81 théorème d’équipartition, 115, 115 de Feynman-Hellmann, 129 de la limite centrale, 21, 29 de Liouville, 50 de Mermin-Wagner, 203, 349 de Nernst, 269 théorie ergodique, 41 thermodynamique 1er principe, 142 2ème principe, 56, 91 3ème principe, 269 thermodynamique 2éme principe, 142 transition de phase, 209 liquide-gaz, 214 para-ferro, 219 quantique, 234 topologique, 234 travail, 89

V Van der Waals, 169, 213 vapeur saturante, 211 variable aléatoire, 10 canoniquement conjuguée, 38, 49 conjuguée, 109, 128 variance, 15

W Weiss (domaines de), 219 Wien (loi de), 199

Z ℤ2, 230 zone de Brillouin, 189, 203