Imager l'invisible avec la lumière: Comment l’optique moderne révolutionne l’imagerie du vivant 9782759826551

Notre oeil est un outil exceptionnel qui reste néanmoins limité en résolution et en sensibilité. Même avec les appareils

138 32 14MB

French Pages 140 [152] Year 2023

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Imager l'invisible avec la lumière: Comment l’optique moderne révolutionne l’imagerie du vivant
 9782759826551

Table of contents :
Table des matières
Introduction générale
Chapitre 1 Imager, résoudre et agrandir : le microscope
Chapitre 2 Optique adaptative
Chapitre 3 Imager en milieux diffusants
Chapitre 4 Holographie
Chapitre 5 Microscopie de Fluorescence
Conclusion
Remerciements
Les auteurs
Sponsors

Citation preview









Sylvain Gigan et Cathie Ventalon, Coord.

Imager l’invisible avec la lumière Comment l’optique moderne révolutionne l’imagerie du vivant



✐ ✐











Dans la même collection Groupes de symétrie en physique Jean Zinn-Justin Symétries continues Franck Laloë Plasmas créés par laser – Généralités et applications choisies Patrick Mora Physique de la turbulence – Des tourbillons aux ondes Sébastien Galtier Le temps dans la géolocalisation par satellites Pierre Spagnou et Sébastien Trilles Physique quantique, information et calcul – Des concepts aux applications Pascal Degiovanni, Natacha Portier, Clément Cabart, Alexandre Feller et Benjamin Roussel Théorie statistique des champs – Tomes I et II François David Mécanique quantique – Tomes I, II et III Claude Cohen-Tannoudji, Bernard Diu et Franck Laloë Retrouvez tous nos ouvrages et nos collections sur http://laboutique.edpsciences.fr Illustration de couverture : Image enregistrée par un microscope de fluorescence d’une coupe de l’hippocampe issue d’une souris brainbow. Grâce à un marquage génétique, chaque neurone est marqué avec une couleur choisie aléatoirement parmi une palette d’une centaine de couleurs, ce qui permet de tracer ses prolongements (axones et dendrites) au sein de la tranche. L’hippocampe est une région du cerveau impliquée dans le codage de la mémoire. Crédit : Image de Tamily Weissman. La souris Brainbow a été produite par Jean Livet, Joshua Sanes et Jeff Lichtman. Imprimé en France c 2023, EDP Sciences, 17, avenue du Hoggar, BP 112, Parc d’activités de

Courtaboeuf, 91 944 Les Ulis Cedex A et CNRS Éditions, 15, rue Malebranche, 75005 Paris. Tous droits de traduction, d’adaptation et de reproduction par tous procédés réservés pour tous pays. Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des pages publiées dans le présent ouvrage, faite sans l’autorisation de l’éditeur est illicite et constitue une contrefaçon. Seules sont autorisées, d’une part, les reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective, et d’autre part, les courtes citations justifiées par le caractère scientifique ou d’information de l’œuvre dans laquelle elles sont incorporées (art. L. 122-4, L. 122-5 et L. 335-2 du Code de la propriété intellectuelle). Des photocopies payantes peuvent être réalisées avec l’accord de l’éditeur. S’adresser au : Centre français d’exploitation du droit de copie, 3, rue Hautefeuille, 75006 Paris. Tél. : 01 43 26 95 35.

EDP Sciences ISBN (papier) : 978-2-7598-2654-4 ISBN (ebook) : 978-2-7598-2655-1 CNRS éditions ISBN (papier) : 978-2-271-14479-9 ISBN (ebook) : 978-2-271-14481-2



✐ ✐











Table des matières Introduction générale

vii

1 Imager, résoudre et agrandir : le microscope 1.1 Une vision unifiée des systèmes d’imagerie optique . . 1.1.1 Introduction : du microscope au lecteur DVD 1.1.2 Microscopie plein champ et à balayage . . . . 1.1.3 Réciprocité . . . . . . . . . . . . . . . . . . . . 1.2 Le microscope à balayage . . . . . . . . . . . . . . . . 1.2.1 Formation de l’image . . . . . . . . . . . . . . 1.2.2 La résolution . . . . . . . . . . . . . . . . . . . 1.2.3 Le grandissement . . . . . . . . . . . . . . . . 1.3 Les nouvelles microscopies optiques . . . . . . . . . . . 1.3.1 Amélioration du contraste . . . . . . . . . . . 1.3.2 Amélioration de la résolution . . . . . . . . . . 1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

. . . . . . . . . . . .

1 1 1 3 4 5 5 7 10 10 11 14 16

2 Optique adaptative 2.1 Formation d’images . . . . . . . . . . . . . . . . . . . . 2.1.1 L’optique géométrique . . . . . . . . . . . . . . 2.1.2 La diffraction . . . . . . . . . . . . . . . . . . 2.2 Aberrations . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Aberrations optiques . . . . . . . . . . . . . . 2.2.2 Milieux non homogènes aberrants . . . . . . . 2.2.3 Qualité des images . . . . . . . . . . . . . . . . 2.3 Optique adaptative . . . . . . . . . . . . . . . . . . . . 2.3.1 Correction de surface d’onde . . . . . . . . . . 2.3.2 Mesure de surface d’onde . . . . . . . . . . . . 2.3.3 Etoile guide . . . . . . . . . . . . . . . . . . . 2.4 Optique adaptative en astronomie . . . . . . . . . . . 2.5 Optique adaptative pour les applications biomédicales 2.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . . . . .

19 19 19 22 23 23 26 27 27 29 31 33 34 38 41

3 Imager en milieux diffusants 3.1 Milieux diffusants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 Lumière balistique, diffusion simple et multiple . . . . . . . . . 3.1.2 Ordre de grandeur en biologie . . . . . . . . . . . . . . . . . .

45 45 45 46



✐ ✐











iv

Imager l’invisible avec la lumière . . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

47 49 50 51 52 53 55 57

4 Holographie 4.1 Introduction à l’holographie . . . . . . . . . . . . . . . . . 4.1.1 Tridimensionnalité ou stéréoscopie ? . . . . . . . . 4.1.2 Enregistrer ou restituer ? . . . . . . . . . . . . . . 4.1.3 Phase des ondes . . . . . . . . . . . . . . . . . . . 4.1.4 Notion de cohérence . . . . . . . . . . . . . . . . . 4.2 Principe de l’holographie . . . . . . . . . . . . . . . . . . . 4.2.1 L’holographie : enregistrement . . . . . . . . . . . 4.2.2 Restitution analogique de l’hologramme . . . . . . 4.3 Holographie numérique . . . . . . . . . . . . . . . . . . . . 4.3.1 Configuration expérimentales . . . . . . . . . . . . 4.3.2 Reconstruction numérique . . . . . . . . . . . . . 4.4 Applications en microscopie . . . . . . . . . . . . . . . . . 4.4.1 Refocalisation numérique et suivi d’objets. . . . . 4.4.2 Imagerie holographique doppler . . . . . . . . . . 4.4.3 Imagerie de phase quantitative . . . . . . . . . . . 4.5 La projection holographique en microscopie et en biologie 4.5.1 Hologrammes de synthèse . . . . . . . . . . . . . . 4.5.2 Projection dynamique de motifs optiques . . . . . 4.5.3 Applications optogénétiques . . . . . . . . . . . . 4.6 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . .

63 64 64 66 67 69 70 70 72 74 74 74 77 77 78 80 87 87 87 88 96

. . . . . . . . .

. . . . . . . . .

99 100 100 101 104 105 106 107 108 111

. . . . .

. . . . .

112 114 114 114 119

3.2

3.1.3 Imager 3.2.1 3.2.2 3.2.3 3.2.4 3.2.5 3.2.6

Imagerie balistique . . . . . . . . . . . . avec la lumière diffuse . . . . . . . . . . . Le speckle . . . . . . . . . . . . . . . . . Le contrôle de front d’onde . . . . . . . . La conjugaison de phase . . . . . . . . . Optimisation . . . . . . . . . . . . . . . . Matrice de transmission . . . . . . . . . . Imager grâce au contrôle de front d’onde

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

5 Microscopie de Fluorescence 5.1 Fluorescence et marqueurs fluorescents pour la biologie . . . . . . . 5.1.1 Qu’est-ce que la fluorescence ? . . . . . . . . . . . . . . . . 5.1.2 Les protéines fluorescentes et leurs applications en biologie 5.2 Microscopie plein champ conventionnelle . . . . . . . . . . . . . . . 5.2.1 Architecture et grandissement du microscope plein champ 5.2.2 Définition de la PSF et résolution latérale . . . . . . . . . . 5.2.3 Forme de la PSF dans les 3 dimensions spatiales . . . . . . 5.2.4 Formation des images . . . . . . . . . . . . . . . . . . . . . 5.2.5 Le problème du fond . . . . . . . . . . . . . . . . . . . . . 5.2.6 Une application de la microscopie plein champ en neurosciences . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.7 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Microscopies à balayage laser . . . . . . . . . . . . . . . . . . . . . 5.3.1 Microscopie confocale . . . . . . . . . . . . . . . . . . . . . 5.3.2 Microscopie à deux photons . . . . . . . . . . . . . . . . . ✐

✐ ✐











v

Table des matières 5.4

5.5

Techniques de microscopie rapides à sectionnement optique 5.4.1 Microscopie confocale à disque rotatif . . . . . . . . 5.4.2 Microscopie à feuille de lumière . . . . . . . . . . . Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

123 125 125 129

Conclusion

133

Remerciements

135

Les auteurs

137

Sponsors

139



✐ ✐













✐ ✐



Introduction générale Cathie Ventalon et Sylvain Gigan Dans cette introduction générale, nous présentons un bref historique du développement des instruments d’imagerie optique à travers les siècles, en montrant les étapes marquantes qui ont conduit à l’émergence des différents domaines d’imagerie moderne faisant l’objet de ce livre.

1. L’œil : un instrument optique naturel Nous disposons tous d’un instrument optique extrêmement évolué : notre œil (figure 1). Résultat de millions d’années d’évolution, celui-ci compte une lentille ajustable (la cornée et le cristallin), un diaphragme (l’iris) permettant de s’adapter à la luminosité ambiante, et un détecteur (la rétine) comptant une grande densité de photorécepteurs permettant d’enregistrer une image et de la transmettre au cerveau. La résolution de l’œil, sa dynamique et sa sensibilité sont exceptionnelles. Néanmoins, l’œil n’est pas un instrument parfait : il faut parfois corriger les défauts de l’optique par des lunettes permettant de compenser les imperfections de la cornée (astigmatisme par exemple) et les défauts de mise au point (myopie, hypermétropie ou presbytie). De plus, la résolution de l’œil reste limitée par la taille de la pupille ; elle est typiquement d’une centaine de microns (un dixième de millimètre) à une distance de 35cm pour une acuité visuelle de 10/10.. Enfin, nous ne voyons qu’une petite partie du spectre lumineux : le domaine dit visible, correspondant aux longueurs d’onde allant d’environ 400 nm (le bleu) à 700 nm (le rouge). L’infrarouge, l’ultraviolet, porteurs de riches informations, nous sont invisibles.

2. Les premiers pas des instruments d’imagerie Dès l’Antiquité, l’utilisation de surface courbes pour grossir l’image d’un objet ou focaliser la lumière a été empiriquement mis en pratique. En Grèce, par exemple, on polissait des cailloux transparents pour obtenir une image grossie : l’ancêtre de notre loupe. Archimède, quant à lui, utilisait un miroir parabolique

viii

Imager l’invisible avec la lumière

Fig. 1 – Formation d’image avec l’œil.

Fig. 2 – A) Réplique du télescope de 6 pouces qu’Isaac Newton présenta à la Royal Society en 1672, et située au musée Whipple d’histoire des sciences à Cambridge. Crédit : Andrew Dunn, Novembre 2004. B) Schéma du microscope de Hooke, tiré de son livre Micrographia (1665).

pour concentrer les rayons du soleil et ainsi brûler les voiles des bateaux assiégeant Syracuse. L’utilisation d’instruments optiques pour voir des détails invisibles à l’œil nu a vu un tournant au début du XVIIe siècle avec l’invention de la lunette astronomique qui a permis d’observer les cratères de la lune et de découvrir les lunes de Jupiter. Peu après, en 1665, Hooke réalisa le premier microscope comprenant une lentille grossissante et un oculaire, ce qui permit d’observer les cellules pour la première fois (figure 2).

3. Diffraction et aberrations, de l’optique géométrique à l’optique ondulatoire Si ces instruments permettaient de grossir les objets lointains ou petits, ainsi que de distinguer des détails invisibles à l’œil nu, ils n’en donnaient pas moins

Introduction générale

ix

des images extrêmement déformées et souvent floues, à part au centre du champ (comme avec une loupe). En effet, en optique géométrique, un système optique comme un microscope est capable de faire une image nette à condition qu’il puisse faire converger tous les rayons lumineux issus d’un point objet vers un point image, condition qu’on appelle le stigmatisme. Pour des rayons lumineux peu inclinés par rapport à l’axe optique, cette condition nécessite des surfaces parfaitement sphériques, mais les défauts de surfaces ne permettaient de remplir cette condition que très imparfaitement. Ces imperfections sont appelées aberrations géométriques. Une autre limitation vient également du fait que les optiques ne se comportent pas de la même manière pour différentes longueurs d’ondes, induisant des aberrations dites chromatiques. Des efforts importants ont été fournis pour améliorer la qualité des optiques. Des surfaces parfaitement sphériques ont pu être polies grâce à des méthodes mécaniques. Malheureusement, lorsque l’on veut obtenir une image agrandie à haute résolution, on doit utiliser des angles d’incidence pour la lumière les plus grands possible : la condition des rayons peu inclinés n’est plus valable, et une optique sphérique, même parfaite, introduit des aberrations. Les microscopes se sont donc perfectionnés au cours du XIXe et XXe siècle, au travers des progrès techniques, d’une part sur la qualité des optiques et des surfaces, d’autre part via l’utilisation dans les objectifs d’une série de lentilles qui, précisément choisies, permettent de compenser globalement les aberrations tant géométriques que chromatiques, et d’obtenir des grossissements et des champs de vues plus étendus. Ces progrès techniques ont été indissociables des progrès en calculs, permettant de concevoir de manière rigoureuse les meilleurs instruments. Plus récemment, la possibilité de fabriquer des optiques avec des surfaces asphériques voire arbitraires permet d’avoir des optiques quasiment parfaites et d’arriver à des résolutions aux limites physiques de la diffraction, c’est-à-dire à une fraction de la longueur d’onde.

4. Révéler différentes informations avec la lumière : les différents contrastes Naturellement, l’image obtenue dans un télescope ou un microscope est une image directe de l’échantillon, formée dans l’œil. Si l’objet est lumineux, comme une étoile, on voit un point brillant. Si un milieu, telle une cellule, est semitransparent ou semi-réfléchissant et éclairé par une lampe comme dans un microscope de Hooke, on voit une image correspondant à la réflexion ou la transmission locale de l’objet. Néanmoins, certains objets sont invisibles lorsqu’on les regarde ainsi. Or, la lumière est à même de révéler un grand nombre d’informations sur les objets qu’on observe, dont la transmission directe, si elle est la plus évidente, n’est qu’un exemple parmi d’autres. On parle techniquement de différents « contrastes » optiques, et on verra que chaque contraste est à même de révéler des informations différentes et complémentaires.

x

Imager l’invisible avec la lumière

Fig. 3 – Images de cellules réalisées par microscopie plein champ en transmission (à gauche) et par microscopie par contraste de phase (à droite).

Par exemple, une simple cellule réfléchit très peu et est quasiment transparente (figure 4, à gauche). Cependant, une information très intéressante est contenue dans la phase (ou retard) de l’onde lumineuse qui l’a traversée, qui est plus ou moins affectée lors la traversée de l’échantillon en fonction de l’indice de réfraction ou de l’épaisseur locale. Or, cette phase n’est pas directement visible sur un détecteur ou à l’œil, qui n’est sensible qu’à l’intensité. Pour révéler la phase, il est nécessaire de faire une interférence, qui va transformer ce petit retard de l’onde, en interférant avec une onde de référence, en variation d’intensité. Différentes méthodes utilisant des masques ou des cristaux placés entre l’objectif et l’œil ont ainsi été introduites, en particulier par Zernike en 1930 (figure 3, à droite). Cette invention lui vaudra le prix Nobel en 1953 grâce à son intérêt considérable en biologie cellulaire. On peut aussi ajouter chimiquement des produits permettant de colorer spécifiquement certains tissus ou structures pour mieux les révéler. C’est ainsi que la coloration des cellules nerveuses introduite par Golgi en 1873, permit plus tard à Santiago Ramon y Cajal de mettre en évidence la structure du cerveau et les connexions neuronales, qui lui vaudront le prix Nobel de médecine en 1906 (figure 4). Un autre contraste d’une importance majeure en imagerie optique est la fluorescence, c’est-à-dire la capacité d’un échantillon d’absorber, et en fonction de la composition chimique, de réémettre de la lumière à une longueur d’onde différente. Ce processus est donc révélateur de la composition chimique et il donne une information extrêmement riche, très différente de la phase ou de la transmission de l’échantillon. En pratique, on peut simplement

Introduction générale

xi

Fig. 4 – Dessins de cellules de Purkinje (A) et de cellules granulaires (B) du cervelet de pigeon observées par Santiago Ramón y Cajal (1899, Instituto Cajal, Madrid, Espagne).

éclairer un échantillon dans un microscope et éliminer à l’aide d’un filtre spectral (dit « dichroïque ») la lumière incidente, pour révéler uniquement la lumière émise par fluorescence. Si la plupart des cellules sont naturellement fluorescentes, en particulier grâce aux protéines qui les composent, les progrès de la chimie ont rapidement permis d’utiliser des processus dit de « marquage fluorescent » où on injecte des composés se fixant spécifiquement par exemple dans le noyau ou corps cellulaire, permettant de révéler spécifiquement ces structures.

5. Les révolutions récentes qui ont bénéficié à l’imagerie optique L’imagerie optique, au milieu du XXe siècle, est donc une science mature ayant bénéficié des progrès de la révolution scientifique du XIXe siècle, que ce soit en physique (théorie ondulatoire, électromagnétisme, polarisation, etc..), en

xii

Imager l’invisible avec la lumière

mathématique (progrès du calcul intégral) ou en chimie. Son impact, en astronomie comme en biologie, est considérable. Néanmoins, dans la seconde moitié du XXe siècle, une série d’avancées scientifiques et techniques ont encore eu un impact considérable. La physique quantique a permis l’émergence du laser dans les années 1960, l’électronique a permis l’arrivée des détecteurs digitaux (en particulier les caméras) mais aussi le contrôle du front d’onde et le traitement numérique de l’information, et les progrès en biotechnologie ont permis l’émergence de nouveaux moyens de marquage fluorescent. Ces avancées scientifiques, à leur tour, ont révolutionné l’imagerie optique. Le laser, comme source d’éclairage extrêmement focalisé et monochromatique, a permis par exemple de développer le microscope confocal à balayage (voir chapitre 5), remplaçant l’imagerie plein champ pour de nombreuses applications. Le développement de caméras extrêmement sensibles comportant un nombre de pixels phénoménal (plusieurs millions) a permis d’augmenter notablement la sensibilité et la taille du champ observé de nombreuses techniques d’imagerie. Couplées à l’utilisation des lasers, ces caméras ont également permis le développement de l’holographie numérique, qui a son tour a permis l’émergence de nouvelles techniques d’imagerie tridimensionnelles (chapitre 4). Par ailleurs, la capacité des lasers à concentrer la lumière spatialement et temporellement et d’obtenir des puissances lumineuses localement très importantes a permis l’émergence de l’optique non-linéaire. Celle-ci est utile en microscopie de fluorescence pour imager en profondeur (voir chapitre 5), mais a également ouvert la possibilité de battre la limite classique de diffraction : c’est le développement de la super-résolution, permettant de distinguer des structures subcellulaires de taille très inférieures à la longueur d’onde de la lumière (quelques nm) (chapitre 1). De plus, les nouveaux outils de contrôle de front d’onde et l’émergence des processeurs rapides ouvrent la possibilité de corriger les aberrations des tissus et d’imager à plus grande profondeur (chapitres 2 et 3). Finalement, les progrès en biotechnologie ont permis de développer des marqueurs biologiques toujours plus sensibles et précis, comme la GFP ou Green Fluorescent Protein, dont la découverte a valu le prix Nobel de Chimie à Osamu Shimomura, Roger Tsien et Martin Chalfie en 2008. Les organismes et les cellules vivantes peuvent être modifiés génétiquement de manière à ce qu’ils synthétisent eux-mêmes ces protéines fluorescentes de façon extrêmement spécifique et ciblée, ce qui a également révolutionné le champ de la biologie et la microscopie (chapitre 5). Ainsi, ce livre présente un panorama (que nous avons souhaité abordable pour le curieux éclairé) de l’imagerie optique moderne dans sa diversité, en se concentrant malgré tout sur son champ d’application peut-être le plus fascinant : l’imagerie biologique.

Chapitre 1 Imager, résoudre et agrandir : le microscope Anne Sentenac et Rémi Carminati

1.1 1.1.1

Une vision unifiée des systèmes d’imagerie optique Introduction : du microscope au lecteur DVD

Le microscope optique est un appareil relativement bien connu. L’échantillon, positionné entre deux lames de verre, est éclairé par la lumière d’une lampe et l’on collecte la lumière transmise à travers une ou plusieurs lentilles (ou objectif), soit avec l’oeil soit avec une caméra. Nous avons tous en tête l’image agrandie d’un morceau de feuille ou d’un insecte obtenue grâce à un microscope, comme sur la figure 1.1. Elle nous permet de voir des détails étonnants, invisibles à l’oeil nu, comme les fines nervures de la feuille ou les poils sur les pattes d’une mouche. Mais serait il possible d’observer des structures encore plus petites, comme les molécules formant les cellules ? Hélas non, même en augmentant le grandissement du microscope et en utilisant les meilleurs objectifs, les structures inférieures à 300 nm restent désespérément floues, comme si nous avions simplement agrandi l’image directement sur l’ordinateur. Nous sommes là face à une limite fondamentale ! Cette limite se retrouve dans un autre appareil du quotidien (du moins pour les plus âgés d’entre nous) : le lecteur de DVD. Ce dernier est capable d’extraire des informations d’un disque dont la surface nous paraît a priori totalement uniforme. Il est donc capable de distinguer des structures invisibles à l’oeil nu, comme un microscope ! Son principe de fonctionnement est très simple et schématisé sur la figure 1.2 : le disque est balayé par un petit spot lumineux (formé en focalisant un faisceau laser à l’aide d’une lentille) et un détecteur capte la lumière réfléchie. La surface naturellement réfléchissante du DVD est parsemée de trous sub-micrométriques absorbants. L’intensité mesurée par le

2

Imager l’invisible avec la lumière

Fig. 1.1 – Image d’une feuille formée avec un microscope optique usuel. En augmentant le grandissement au voisinage d’une nervure, les structures formées par les cellules apparaissent floues. La résolution est de l’ordre du micromètre dans ce cas précis.

Fig. 1.2 – Principe de fonctionnement d’un lecteur DVD blu-ray. Un laser de longueur d’onde courte (bleue) est focalisé sur la surface gravée du DVD. La taille du spot laser, visible sur l’image de droite, limite la densité de trous sur la surface qui codent les 0 et les 1 du signal numérisé et donc la capacité de stockage du DVD. En effet, le spot laser ne doit éclairer qu’un seul trou à la fois.

détecteur dépend alors de la position du spot laser, sur ou hors des trous, ce qui code une succession de 0 ou de 1. Le signal numérisé est ensuite transformé en image et en son. La plupart des avancées technologiques dans ce domaine a visé à augmenter la quantité d’information disponible sur le disque, et donc à augmenter le nombre de trous en diminuant leur taille et leur espacement. C’est ainsi que l’on est passé du CD au DVD puis au blu-ray. Cependant, la taille du spot laser impose une distance minimale entre les trous. En effet, pour garder un signal bien défini qui distingue clairement les 0 des 1, la différence entre l’intensité mesurée hors et sur les trous doit être bien marquée. Pour cela, la taille du spot

Imager, résoudre et agrandir : le microscope

3

doit être plus petite que l’espacement entre les trous (voir figure 1.2). Diminuer la taille du spot, c’est-à-dire focaliser la lumière dans le plus petit volume possible a été un objectif majeur du domaine pendant des dizaines d’années. Cependant, comme pour le microscope, apparaît une limite fondamentale qu’aucune amélioration technologique ne peut surpasser. La taille du spot de focalisation ne peut pas être réduite à zéro. Elle est contrainte par la longueur d’onde de la lumière (qui définit sa couleur) et ne peut descendre en-dessous de la demi longueur d’onde. C’est la raison pour laquelle les lecteurs blu-ray utilisant une lumière bleue (longueur d’onde de 480 nm) sont plus performants que les premiers lecteurs CD utilisant une lumière infrarouge (longueur d’onde 800 nm). Cette incapacité à focaliser la lumière en dessous de la demi longueur d’onde est appelée limite de diffraction. C’est elle qui limite fondamentalement la résolution des microscopes et la capacité de stockage des DVD. Il est étonnant de rapprocher ainsi microscopes et lecteurs DVD, ou plus généralement l’imagerie plein champ, qui utilise la lumière d’une lampe pour éclairer l’échantillon sur toute sa surface, et l’imagerie à balayage, dans laquelle l’échantillon est parcouru par un spot lumineux. Nous allons voir qu’il y a une équivalence parfaite entre ces deux techniques d’imagerie.

1.1.2

Microscopie plein champ et à balayage

La discussion précédente illustre les deux approches utilisées en microscopie optique : la technique dite « plein champ » et la technique dite « à balayage ». Dans la technique plein champ, qui est celle qui a été développée initialement (dès le XVIIe siècle), l’échantillon est éclairé de manière uniforme et l’intensité réfléchie ou transmise par l’échantillon est collectée par un système optique et enregistrée par une matrice de détecteurs ponctuels (ensemble des photorécepteurs de la rétine, ou pixels d’une caméra par exemple). Le système optique de collection assure une correspondance (conjugaison) entre chaque point de l’objet et chaque détecteur ponctuel. L’ensemble des détecteurs forme donc une image de l’objet. Dans la technique à balayage, l’échantillon est éclairé localement par un faisceau lumineux focalisé, et toute la lumière réfléchie ou transmise est collectée sur un détecteur étendu unique. L’image est alors obtenue en déplaçant l’objet ou le faisceau incident, d’où le terme « balayage ». En illumination plein champ, la source lumineuse est souvent une simple lampe. Elle est constituée d’une multitude de sources élémentaires, indépendantes les unes des autres, dont les intensités émises s’ajoutent lors de la détection. Cette source étendue permet d’éclairer de manière uniforme l’échantillon. En microscopie à balayage, la lumière incidente est concentrée (focalisée) sur une toute petite surface de l’échantillon. Pour cela, la lumière doit provenir d’une source ponctuelle unique formant une onde sphérique divergente, qui est transformée par le système optique d’éclairement en onde sphérique convergente se concentrant sur l’objet (focalisation). Historiquement, on utilisait la lumière d’une lampe filtrée spatialement par un trou d’épingle dans un écran

4

Imager l’invisible avec la lumière

Fig. 1.3 – Schéma de principe d’un microscope plein champ et d’un microscope à balayage. Dans le système plein champ, la source est étendue et le détecteur est un ensemble de détecteurs ponctuels, ou pixels. Dans le système à balayage, la source est ponctuelle et crée un spot focalisé qui est déplacé (balayé) sur l’objet pour former une image en collectant pour chaque position du spot toute la lumière transmise sur un détecteur étendu. Les deux lentilles dans chaque montage représentent les optiques d’éclairement et de collection, qui en pratique sont plus complexes qu’une simple lentille. Les deux configurations représentées sont rigoureusement équivalentes, ou réciproques.

noir. Aujourd’hui, on utilise un laser dont le faisceau initial peut être focalisé directement par le système optique, ce qui est équivalent à utiliser une source ponctuelle mais sans filtrage par un trou d’épingle (on réduit ainsi la perte de puissance lumineuse). Le microscope à balayage implique donc un éclairement localisé et une détection globale tandis que le microscope plein champ repose sur un éclairement uniforme et une détection localisée. Les deux techniques sont représentées schématiquement sur la figure 1.3.

1.1.3

Réciprocité

Les deux techniques que nous venons de décrire peuvent sembler radicalement différentes. Pourtant elles fournissent des images de même nature. En effet, la lumière, comme toutes les ondes, satisfait au théorème de réciprocité que l’on pourrait résumer par la phrase « si je te vois, alors tu me vois ». Plus

Imager, résoudre et agrandir : le microscope

5

précisément, si une source de lumière placée au point A génère une certaine intensité lumineuse au point B, alors une source identique placée au point B génère la même intensité au point A. En appliquant ce théorème de réciprocité, on conclut que l’intensité mesurée sur un pixel de la caméra d’un microscope plein champ est identique à l’intensité globale mesurée par un microscope à balayage qui utiliserait une source ponctuelle placée à la position du pixel, et un détecteur étendu couvrant exactement la surface de la source de lumière du microscope plein champ. Ce principe d’équivalence permet d’unifier l’analyse de la microscopie plein champ et à balayage. Sur la figure 1.3, les microscopes plein champ et à balayage qui sont représentés correspondent à deux configurations équivalentes. Nous étudierons dans la suite la configuration à balayage, dont le fonctionnement est plus intuitif, et nous garderons en tête que tous les résultats s’appliquent aux deux types de microscopie.

1.2

Le microscope à balayage

Dans cette partie, nous analysons les propriétés d’un microscope à balayage fonctionnant en transmission. Ce dernier produit des images qui sont identiques, par réciprocité, à celles fournies par le microscope classique que nous avons rencontré au cours de notre scolarité pour étudier des échantillons biologiques ou géologiques translucides. Pour simplifier l’étude, nous supposons que l’objet à observer est une diapositive (c’est-à-dire un objet mince formé de zones plus ou moins absorbantes) dont chaque point M est décrit par une transmittance T (M ). 1 Le faisceau incident se propage perpendiculairement à la diapositive (le long de la direction appelée axe optique) et est focalisé dans le plan contenant la diapositive. Toute l’intensité transmise est collectée par un détecteur étendu placé en aval de l’objet. Un montage de microscope à balayage en transmission est représentée sur la figure 1.4.

1.2.1

Formation de l’image

Si le faisceau lumineux focalisé au point M est assimilable à un rayon infiniment fin d’intensité I, l’intensité lumineuse transmise collectée par le détecteur sera I × T (M ). L’image obtenue en déplaçant le faisceau en tout point de la diapositive permet alors de reconstruire directement la carte de transmittance. En pratique, comme nous l’avons vu sur l’exemple du DVD, le point de focalisation a une taille finie du fait de la diffraction, et l’image est plus difficile à interpréter. Le faisceau forme une tache de lumière dans le plan 1. La transmittance au point M mesure la capacité d’un petit élément de surface centré en M à transmettre la lumière. Elle est définie comme l’intensité transmise par l’élément de surface divisée par l’intensité incidente sur l’élément de surface lorsque la taille de l’élément devient infiniment petite. Elle dépend essentiellement de l’absorption locale de la diapositive (présence ou non de colorant par exemple) au point M .

6

Imager l’invisible avec la lumière

Fig. 1.4 – Schéma de principe d’un microscope à balayage. Le faisceau laser focalisé sur l’objet est déplacé parallèlement à celui-ci. Lorsque le faisceau coïncide avec une zone absorbante, la transmittance est réduite et l’intensité mesurée par le détecteur diminue.

de la diapositive. Dans la plupart des cas, le maximum d’intensité Imax est obtenu au point de focalisation M, au centre de la tache, et l’intensité lumineuse décroît lorsqu’on s’éloigne de M . Formellement, l’intensité lumineuse incidente en un point A quelconque de la tache dépendra de la distance MA et s’écrira I(MA). Considérons dans un premier temps une diapositive correspondant à un écran opaque percé d’un petit trou au point A. La transmittance de cet objet est donc 0 partout excepté en A où elle vaut 1. Lorsque la tache de focalisation du faisceau incident est centrée en M , l’intensité transmise est alors I(MA). En déplaçant la position du point de focalisation M sur toute la diapositive, on construit une image D(M ) (intensité reçue par le détecteur) telle que D(M ) = I(MA). On constate alors que l’image obtenue ne correspond pas à la transmittance de la diapositive, mais reproduit la tache formée par l’intensité incidente, centrée en A. En d’autres termes, l’image du trou ponctuel qui a été formée est une tache : on a une image floue. Considérons maintenant une diapositive plus complexe décrite par sa transmittance T (N ) où N est un point quelconque du plan de la diapositive. L’intensité totale transmise mesurée par le détecteur lorsque le point de focalisation du faisceau est M sera la somme de la transmittance multipliée par l’intenP sité incidente en tout point N de la diapositive, D(M ) = N T (N )I(M N ). Cette expression représente le modèle de formation de l’image en microscopie à balayage (et par réciprocité en microscopie plein champ). Elle montre que le signal détecté D(M ) (qui forme l’image lorsque la position M du point de focalisation varie) ne dépend pas uniquement de la transmittance de la diapositive au point M mais représente une moyenne pondérée de la transmittance sur un domaine dont l’extension correspond à la tache d’illumination. C’est la taille de cette tache qui limite ainsi la capacité du microscope à mesurer la différence de transmittance entre deux points de l’objet très proches l’un de l’autre.

Imager, résoudre et agrandir : le microscope

7

Fig. 1.5 – Taches de lumière produites en imageant deux trous A et B dans un écran opaque. Lorsque la distance séparant les deux trous diminue, les taches se recouvrent. En deca d’une distance critique, les deux taches ne peuvent plus être distinguées. Cette distance critique définit la limite de résolution du microscope.

1.2.2

La résolution

La résolution spatiale d’un microscope est définie comme la distance minimale entre deux objets ponctuels qui permet de les distinguer dans l’image. Considérons de nouveau une diapositive très simple, constituée d’un écran opaque percé de deux trous en A et B. L’image obtenue lors du balayage du faisceau incident est décrite par D(M ) = I(MA) + I(MB ). Introduisons O le milieu de [AB], tel que OA = OB. On peut dire que les deux points A et B peuvent être distingués dans l’image si D(O) < D(A) (et également D(O) < D(B) puisque D(A) = D(B) si les deux trous sont identiques). Or on a D(O) = I(OA)+I(OB) = 2I(OA) et D(A) = I(AA)+I(AB) = Imax +I(AB). Ici, nous avons utilisé le fait que I(AA) = Imax , puisque I(AA) est l’intensité détectée lorsque le point de focalisation coïncide avec la position du trou (ici le trou A) lorsque le point de focalisation d’intensité Imax coincide avec la position du trou. Le critère D(O) < D(A) est toujours vérifié lorsque la distance AB est telle que I(OA) < Imax /2. Avec cette définition, la limite de résolution est donc la largeur à mi-hauteur de la tache de lumière formée par le faisceau incident sur l’objet. 2 La limite de résolution est illustrée sur la figure 1.5. Il est nécessaire à présent d’entrer dans les détails du système optique pour estimer la largeur de cette tache de lumière. Il faut pour cela comprendre comment l’on produit un faisceau de lumière focalisé à partir de la lumière rayonnée par la source ponctuelle (ou le faisceau laser) du microscope à balayage. L’élément clé du microscope est son objectif qui peut être assimilé en première approche à une lentille convergente sophistiquée. Ce composant optique permet de transformer des rayons lumineux parallèles en rayons convergents. Nous avons tous utilisé une lentille (ou loupe) et pu constater sa capacité à 2. Deux trous ponctuels A et B séparés par la largeur à mi-hauteur de la tache de lumière ne sont pas toujours distinguables sur l’image. La condition I(OA) < Imax /2 n’a de sens que pour des signaux non bruités. En pratique, Imax et I(OA) fluctuent avec le bruit de mesure et la résolution dépendra alors aussi de l’amplitude de ces fluctuations.

8

Imager l’invisible avec la lumière

focaliser la lumière du soleil et chauffer localement de manière intense. Pour éclairer l’objectif avec un faisceau parallèle, on peut placer la source ponctuelle très loin de l’objectif afin de n’intercepter que les rayons se propageant dans une direction bien définie (c’est ainsi que le soleil situé à 150 millions de km de la Terre nous éclaire avec des rayons quasi parallèles, à 0.5 degré près) ou, plus aisément, utiliser une seconde lentille, appelée lentille de tube, qui, par réciprocité, transforme les rayons divergents provenant de la source ponctuelle en rayons parallèles. C’est l’ensemble objectif-lentille de tube qui constitue le système optique de base des microscopes, qu’ils soient à balayage ou plein champ (comme représentés sur la figure 1.7). Le paramètre fondamental de l’objectif est son ouverture numérique (NA pour Numerical Aperture en anglais) qui renseigne sur l’ouverture angulaire θ du cône dans lequel s’inscrivent les rayons convergents incidents sur l’échantillon. Elle est définie comme NA = sin θ. Lorsque l’ouverture numérique tend vers 1, l’angle maximal que les rayons convergents font avec l’axe optique s’approche de 90 degrés. Outre l’ouverture numérique, l’objectif est souvent caractérisé par sa distance focale qui correspond à la distance entre le point de focalisation des rayons convergents et le plan de sortie de l’objectif. L’ouverture numérique et la distance focale ne sont pas des paramètres indépendants, la première étant généralement d’autant plus grande que la seconde est petite. La taille de la tache de focalisation dépend de l’ouverture numérique de l’objectif et de la longueur d’onde de la lumière incidente. Pour comprendre intuitivement cette dépendance, on peut imaginer une expérience simple. Eclairons avec un laser de longueur d’onde λ un trou micrométrique percé dans une diapositive opaque et observons la tache lumineuse formée en transmission sur un écran placé loin de la diapositive. On observe que lorsque la taille du trou diminue, la tache s’élargit. Cette observation décrit le phénomène de diffraction, qui est un marqueur des propriétés ondulatoires de la lumière. Une figure de diffraction produite par un trou dans un écran opaque est représentée sur la figure 1.6 (image de gauche). En fait, on montre que l’ouverture angulaire θ du cône de lumière se propageant en aval du trou, dépend de la longueur d’onde de la lumière ainsi que de la taille du trou, et que cette dépendance est de la forme sin θ ≃ λ/d où d est le diamètre du trou. On voit que lorsque d est comparable à λ alors sin θ ≃ 1 et le cône est totalement ouvert (il couvre tous les angles de 0 à 90 degrés). Si d est plus petit que λ, le cone de lumière ne peut s’ouvrir davantage et la tache de diffraction ne change plus. Par réciprocité, on déduit que pour concentrer la lumière sur la plus petite surface possible, il faut éclairer la cible avec des rayons convergents inscrits dans un cône d’ouverture angulaire la plus grande possible. Cela peut être obtenu avec un objectif d’ouverture numérique N A = 1. Cependant, en raison de la limite observée précédemment, la tache de focalisation ne sera pas infiniment petite. Elle aura la taille du trou dans l’expérience précédente qui permet d’atteindre sin θ ≃ 1, et sera donc de l’ordre de la longueur d’onde λ. C’est le phénomène de diffraction qui limite la taille minimale de cette tache. On parle de limite de diffraction. La distribution d’intensité lumineuse produite par un

Imager, résoudre et agrandir : le microscope

9

Fig. 1.6 – Gauche : figure de diffraction produite par un trou de diamètre d dans un écran opaque. La tache centrale, qui contient la majeure partie de l’intensité lumineuse, a une ouverture angulaire θ telle que sin θ ≃ λ/d. La tache est donc d’autant plus grande que la taille du trou est petite. Droite : focalisation d’une faisceau laser par un objectif de microscope. La focalisation produit une distribution d’intensité similaire à celle observée dans l’expérience de diffraction. La tache centrale a une largeur de l’ordre de λ/(2NA), NA étant l’ouverture numérique de l’objectif. Cette taille limite la résolution des microscopes optiques traditionnels.

Fig. 1.7 – Illustration de la notion de grandissement sur une configuration de microscope à balayage. Pour déplacer le spot focalisé sur l’objet d’une distance d, il faut déplacer le point source d’une distance γ × d où γ est le grandissement.

laser focalisé est représentée sur le figure 1.6 (image de droite). Bien sûr, si les rayons convergents sont concentrés dans une ouverture angulaire inférieure à 90 degrés, ce qui est souvent le cas en pratique, alors la tache de focalisation sera plus grande. On peut montrer par un calcul plus précis que la taille de la tache de focalisation obtenue avec un faisceau provenant d’un laser de longueur d’onde λ et un objectif d’ouverture numérique NA est de l’ordre de λ/(2NA). En utilisant de la lumière visible (λ ∼ 500−700 nm), on peut s’attendre à une résolution de l’ordre de 300 nm. Nous soulignerons ici que la résolution est totalement indépendante de la capacité de grandissement du microscope (dont nous n’avons pas du tout parlé jusqu’à présent !). Des microscopes à très fort grandissement avec une faible

10

Imager l’invisible avec la lumière

résolution peuvent se trouver aisément dans des magasins grand public et à faible coût, alors que les microscopes à haut pouvoir résolvant et ayant un grandissement limité ne se trouvent que chez des fabricants spécialisés à des prix élevés.

1.2.3

Le grandissement

Pour former l’image en microscopie à balayage, le point de focalisation du faisceau doit être déplacé sur toute la surface de l’objet. Afin d’assurer un recouvrement satisfaisant et ne pas perdre d’information, il est généralement translaté d’une distance correspondant à la demi-largeur de la tache de focalisation. Comment effectuer ce déplacement minime, de l’ordre du dixième de micromètre pour les microscopes les plus résolvants ? Une manière de procéder consiste à utiliser un système optique formé de deux lentilles (la lentille de tube et l’objectif) ayant des distances focales ft et fo très différentes (ft ≫ fo ). Un schéma d’optique géométrique classique permet de constater que deux sources lumineuses séparées d’une distance d en amont du système optique se transforment en deux faisceaux focalisés séparés d’une distance (fo /ft ) × d en aval. Le rapport γ = ft /fo correspond au grandissement du microscope. Avec un grandissement de 100, une source ponctuelle déplacée d’une dizaine de micromètres permet de translater la tache de focalisation d’un dixième de micromètre. Rappelons encore une fois que même si, dans ce cas, le balayage du faisceau se fait par pas de 0.1 µm environ, la résolution du microscope ne dépend que de l’ouverture numérique de l’objectif et reste fixée à λ/(2N A) ≃ 0.3 µm pour les meilleurs microscopes. En utilisant le principe d’équivalence entre microscope à balayage et microscope plein champ, nous pouvons déduire la signification du grandissement dans le cas du microscope plein champ. Rappelons que, par réciprocité, l’intensité détectée sur un pixel de la caméra du microscope plein champ est identique à l’intensité collectée par le microscope à balayage lorsque l’éclairement provient d’une source ponctuelle placée à la position de ce pixel. Par l’action de l’objectif et de la lentille de tube, cette source ponctuelle crée un faisceau focalisé en un certain point M de l’objet. L’intensité détectée par le microscope plein champ sur le pixel contigu correspond à l’intensité collectée par le microscope à balayage lorsque la source ponctuelle est translatée de la largeur d’un pixel d, créant un faisceau focalisé en un point M ′ tel que MM ′ = d/γ. Une distance MM ′ dans l’objet correspond à une distance d = γ MM ′ sur la caméra. Nous observons bien un grandissement de l’image par rapport à l’objet.

1.3

Les nouvelles microscopies optiques

Depuis sa première apparition au XVIIe siècle, le microscope s’est décliné sous de nombreuses configurations avec deux objectifs principaux : améliorer le contraste et améliorer la résolution de l’image.

Imager, résoudre et agrandir : le microscope

1.3.1

11

Amélioration du contraste

Le microscope que nous avons décrit dans la section précédente est un microscope sensible à la transmittance de l’échantillon. Lorsque l’objet à observer est transparent avec de l’absorption localisée, l’image se présente sous la forme de structures sombres sur un fond brillant. Or, pour de nombreux échantillons (en particulier tous ceux issus du vivant) cette absorption est trop faible pour imprimer un contraste suffisant au fond. Ce problème majeur a motivé le développement de nombreuses adaptations instrumentales en microscopie optique. 1.3.1.1

Microscopie de phase ou à champ sombre

La notion de transmittance renseigne sur la capacité d’un objet à transmettre localement la lumière, mais ne donne pas d’information sur les caractéristiques (direction, forme) du faisceau transmis. Pour illustrer cette remarque, considérons une lamelle et un prisme nantis de faces antireflets. Ces objets ont tous deux une transmittance égale à un (toute la lumière est transmise), mais, dans le cas de la lamelle, le faisceau transmis est dans le prolongement du faisceau incident alors que dans le cas du prisme le faisceau transmis est fortement dévié par rapport au faisceau incident. 3 Or, les objets transparents hétérogènes peuvent être vus comme un assemblage de petits prismes qui dévient et déforment le faisceau incident sans l’absorber. Pour imager ce type d’échantillons, le détecteur ne devra plus mesurer l’intensité transmise totale mais devra être sensible à une différence entre l’empreinte du faisceau transmis avec et sans l’échantillon. Ainsi, les détecteurs des microscopes adaptés aux échantillons transparents, comme les microscopes à contraste de phase ou à champ sombre, sont optimisés pour transformer certaines déformations du faisceau transmis (comme une déviation ou un élargissement) en grandes variations du signal mesuré. On trouve alors de nombreuses variantes. Le détecteur pourra par exemple être décentré par rapport au faisceau incident (pour être sensible à des déviations), ou placé en anneau en dehors de l’empreinte du faisceau incident (pour être sensible à des élargissements). Dans tous les cas, les détecteurs ne peuvent collecter qu’une partie de la lumière transmise. 4 C’est cette détection partielle qui distingue fondamentalement les microscopes de phase des microscopes en transmission classiques. Le principe d’un microscope à contraste de phase à balayage est schématisé sur la figure 1.8. La figure montre également l’amélioration du contraste lorsqu’on image un objet transparent, comme un ensemble de cellules biologiques. Notons que la plupart des microscopes (qu’ils soient de phase ou classique) sont implémentés dans la configuration plein champ. Une petite gymnastique men3. La déviation du faisceau lumineux par un prisme est une conséquence du phénomène de réfraction de la lumière. La trajectoire d’un rayon est modifiée lorsqu’il traverse une surface séparant deux milieux d’indices de réfraction différents. C’est cette propriété qui fait apparaître brisée une paille plongée dans un verre d’eau. Un faisceau lumineux sera d’autant plus dévié de sa trajectoire initiale que le changement d’indice de réfraction est important. 4. Pour réduire la perte de signal, une optimisation conjointe de la forme du faisceau incident et du détecteur est souvent nécessaire en pratique.

12

Imager l’invisible avec la lumière

Fig. 1.8 – Gauche : principe du microscope à contraste de phase. En absence d’objet, le détecteur, décalé par rapport à l’axe optique représenté par la ligne pointillée horizontale, ne collecte qu’une partie de l’intensité transmise. En présence d’un objet transparent mais hétérogène, qui comporte des variations locales d’épaisseur ou d’indice de réfraction, le faisceau est dévié, ce qui produit une augmentation ou une diminution du signal collecté. Pour former l’image dans cette configuration à balayage, l’objet est déplacé dans le plan de focalisation du laser, et l’intensité reçue au détecteur est enregistrée pour chaque position de l’objet. Droite : images de cellules biologiques en microscopie standard et en microscopie à contraste de phase. L’amélioration du contraste est spectaculaire. Crédit : Jérôme Mertz, Boston University.

tale est alors nécessaire pour visualiser la configuration équivalente à balayage et retrouver les principes exposés dans ce paragraphe. Si les microscopes de phase ou à champ sombre permettent d’obtenir des images bien contrastées d’objets transparents, ces dernières peuvent rester difficiles à interpréter, car l’origine du contraste est souvent plus difficile à établir que dans le cas d’un pur contraste d’absorption. Aussi, l’approche la plus répandue pour augmenter le contraste des images a surtout consisté à modifier les échantillons eux-mêmes ! 1.3.1.2

Utilisation de marqueurs, coloration et fluorescence

La méthode la plus utilisée dans le domaine de la microscopie du vivant (histologie) pour améliorer le contraste des images en microscopie de transmission consiste à injecter des colorants (sels d’argent, fuschine ...) dans les échantillons. Ces molécules présentent des pics d’absorption à certaines longueurs d’onde et se fixent sur certaines macromolécules (ADN, collagène ...) pour lesquelles elles ont des affinités particulières. Les structures colorées, rendues

Imager, résoudre et agrandir : le microscope

13

absorbantes, peuvent alors être observées au microscope optique en transmission standard. Ainsi, l’intérêt de la coloration est double : en plus d’augmenter le contraste de l’image, elle permet de donner des informations sur la présence ou non de certains composés chimiques. On parle alors d’imagerie spécifique. Au cours des cinquantes dernières années, la technique de marquage a connu un essor spectaculaire avec le développement de la chimie de fluorescence et du génie génétique. Plutôt que d’utiliser des colorants absorbants, il a été proposé de marquer les échantillons avec des molécules particulières, appelées fluorophores, capables, lorsqu’elles sont éclairées à une certaine longueur d’onde (par exemple dans le vert), d’émettre de la lumière à une autre longueur d’onde (dans le rouge). La possibilité de fixer les fluorophores sur n’importe quelle molécule d’intérêt (comme des protéines spécifiques), la faible toxicité du procédé qui permet de garder vivants les tissus biologiques et cellules, la fabrication d’organismes mutants fluorescents, ont fait de cette nouvelle technique de marquage un outil majeur dans le domaine de la biologie. Pour visualiser les structures fluorescentes d’un échantillon marqué, il suffit de modifier le microscope à transmission en introduisant devant le détecteur un filtre qui réfléchit la lumière provenant de l’éclairement (le vert) pour ne laisser passer que la lumière rayonnée par les fluorophores (le rouge). Ainsi, contrairement aux images provenant d’objets colorés qui exhibent des taches sombres sur un fond brillant, celles obtenues avec des objets fluorescents sont composées de taches claires sur fond noir. Le phénomène de fluorescence correspond à une interaction lumière-matière qui nécessite, pour sa description, les outils de la mécanique quantique. Dans le cadre de ce chapitre introductif, il nous suffira de savoir que lorsque l’éclairement est de faible intensité (régime linéaire), l’intensité de fluorescence émise par un petit élément de surface de l’échantillon est proportionnelle au produit de la densité de fluorophores à cet endroit par l’intensité lumineuse reçue par l’élément de surface. On peut alors définir une fonction équivalente à la transmittance, la densité de fluorescence au point M que nous noterons F (M ), qui est le rapport entre l’intensité de fluorescence et l’intensité d’éclairement, lorsque la taille de l’élément de surface centré en M tend vers zéro. L’image d’une diapositive présentant une densité de fluorescence F (M ) obtenue avec un microscope à fluorescence est identique à celle d’une diapositive non fluorescente de transmittance F (M ) obtenue avec un microscope en transmission classique. Les concepts de résolution et grandissement présentés dans la partie concernant la microscopie à balayage peuvent donc s’appliquer sans modification à la microscopie de fluorescence, qui sera décrite plus en détail dans le chapitre 5. Notons pour terminer que l’équivalence entre le microscope à transmission classique et le microscope de fluorescence est parfaite dans la configuration à balayage. En revanche, le principe de réciprocité ne s’appliquant pas en microscopie de fluorescence, il n’y a pas d’équivalence entre microscopie de fluorescence plein champ et microscopie de fluorescence à balayage. En particulier, la résolution obtenue lorsqu’on balaye un faisceau focalisé dans l’échantillon

14

Imager l’invisible avec la lumière

et que l’on capte toute la fluorescence transmise dépend de la largeur de la tache d’éclairement (à la longueur d’onde du laser excitant les fluorophores). En revanche, lorsque l’échantillon est éclairé de manière homogène et la fluorescence est captée sur une caméra, la résolution dépend de la largeur de la tache d’émission (à la longueur d’onde de fluorescence).

1.3.2

Amélioration de la résolution

L’autre grand axe de recherche en microscopie optique concerne l’amélioration de la résolution. Nous avons vu que cette dernière était reliée à la largeur de la tache de focalisation du faisceau donnée par λ/(2NA), où λ est la longueur d’onde du faisceau et NA est l’ouverture numérique de l’objectif. La limite de diffraction, λ/2, est rarement atteinte car elle nécessite des objectifs présentant des ouvertures numériques proche de un, très difficiles à réaliser. 1.3.2.1

Des avancées techniques

Les avancée principales ont tout d’abord concerné la conception et la fabrication des objectifs. On peut aujourd’hui trouver facilement des objectifs ayant des ouvertures numériques NA ≃ 0.95, correspondant à une ouverture angulaires de l’ordre de 75 degrés. Des objectifs à immersion, qui utilisent un liquide d’indice de réfraction n placé entre l’objectif et l’échantillon observé ont aussi été proposés pour améliorer la résolution. 5 L’ouverture numérique dans ce cas devient NA = n sin θ. Avec une huile de haut indice (n = 1.5 par exemple), on peut obtenir N A > 1 et avoir une limite de résolution légèrement au-dessous de λ/2. Plus récemment, il a été proposé de jouer sur la forme et la taille de la tache de focalisation du faisceau. En n’utilisant par exemple que les rayons convergents extrêmes produits par un objectif de forte ouverture numérique (on forme alors des faisceaux dits de Bessel), il est possible de produire des taches de lumière de largeur à mi-hauteur proche de 0, 3λ et donc plus petites que λ/2. Malheureusement, ces taches ont en général des formes complexes qui peuvent nuire à une interprétation directe de l’image. On applique alors à l’image un traitement numérique, dit de déconvolution, qui, en combinant avec des poids optimisés les valeurs des pixels sur un domaine adapté, permet de transformer la forme complexe de la tache en une forme simple (par exemple un disque). Les techniques de déconvolution améliorent de manière significative la qualité visuelle de l’image, mais peuvent générer des artefacts (en particulier si l’on décrit mal la forme de la tache expérimentale). 1.3.2.2

Des ruptures conceptuelles

Deux changements de paradigme ont permis à la microscopie optique de s’affranchir de la limite de résolution imposée par la diffraction : la restriction de l’interaction lumière-matière à des volumes de taille inférieure à la longueur 5. Dans un matériau d’indice de réfraction n, la vitesse de la lumière est c/n, c étant la vitesse de la lumière dans le vide. La longueur d’onde est également divisée par n.

Imager, résoudre et agrandir : le microscope

15

d’onde, et l’introduction de connaissances a priori sur les échantillons. Nous donnons ici quelques exemples permettant d’illustrer ces deux principes. Une avancée marquante a été le développement de la microscopie de champ proche. Dans cette approche, plutôt que d’utiliser un objectif de microscope pour former le faisceau focalisé (que nous avons considéré jusque là dans la description du microscope à balayage), on éclaire l’échantillon avec une tache de lumière de taille bien inférieure à la limite de diffraction (disons quelques dizaines de nanomètres). Une telle tache peut être observée si l’on se place juste à la sortie (à une distance inférieure à 0.1micron) d’un trou beaucoup plus petit que la longueur d’onde. En pratique, on utilise une fibre optique étirée en forme de pointe de manière à former un trou de quelques dizaines de nanomètres à son extrémité. 6 . En balayant cette pointe lumineuse à la surface de l’objet, il est possible d’enregistrer la transmittance ou la réflectance de l’objet avec une résolution de quelques dizaines de nanomètres. La difficulté principale de cette technique est que la pointe doit être balayée quasiment en contact avec l’échantillon (à quelques nanomètres). En effet, la tache lumineuse s’étale rapidement lorsqu’on s’éloigne de la sortie du trou, et la taille de cette tache définit la résolution. Une autre approche permettant de s’affranchir de la limite de diffraction repose sur l’utilisation de connaissances a priori sur l’objet comme sa forme, sa composition ou ses propriétés statistiques. Le principe est de combiner ces connaissances a priori aux informations apportées par le microscope pour reconstruire numériquement une image super-résolue de l’échantillon. Les algorithmes de reconstruction sont fondés sur une modélisation précise du lien entre les images fournies par le microscope et les paramètres d’intérêt de l’échantillon (distribution spatiale de l’indice de réfraction, réflectance, transmittance, densité de fluorescence). Ils consistent à estimer ces paramètres de telle sorte que les images simulées ressemblent le plus possible aux images enregistrées. Avec l’introduction de connaissances a priori sur l’objet, qui contraignent les paramètres estimés à suivre certains types de solutions, les techniques d’inversion peuvent reconstruire l’échantillon avec une résolution qui n’est pas limitée par la diffraction. Ainsi, des reconstructions obtenues en connaissant l’indice de réfraction de l’objet peuvent fournir des résolutions de l’ordre d’un dixième de longueur d’onde. Cependant, comme pour la déconvolution, l’imagerie computationnelle est sujette aux artefacts. Un équilibre doit être trouvé entre la soumission aux contraintes lors de l’estimation de l’échantillon et la ressemblance entre les images simulées et les données expérimentales. En microscopie de fluorescence, ce principe a été poussé à l’extrême. Il a été proposé de diminuer le nombre de fluorophores actifs dans l’objet de telle sorte qu’ils soient tous séparés d’une distance supérieure à la limite de résolution du microscope. L’image enregistrée est constituée de taches isolées dont on suppose qu’elles ont été générées par des fluorophores uniques (on introduit 6. Il existe de nombreuses variantes, mais l’idée centrale est toujours la même : former une source lumineuse plus petite que le longueur d’onde qu’il est possible de déplacer à proximité de l’objet.

16

Imager l’invisible avec la lumière

ainsi une connaissance a priori). Les positions de ces derniers sont estimées, par exemple en localisant les maxima d’intensité des taches, avec une précision qui peut atteindre une dizaine de nanomètres. Remplaçant les taches par les points de localisation des fluorophores, on forme une image pointilliste des structures marquées. Le point clé de cette approche réside dans la possibilité de marquer quasi-continuement l’échantillon et d’activer au cours du temps, sous certaines conditions d’éclairement, des fluorophores isolés différents. On peut alors construire des milliers d’images pointillistes, qui, rassemblées permettent d’établir l’image complète des structures marquées avec une résolution qui n’est plus limitée par la taille des taches produites, et donc par la diffraction. Cette technique d’imagerie super-résolue est décrite plus en détail au chapitre 4.

1.4

Conclusion

Dans ce chapitre, nous avons décrit les principes d’un microscope à balayage dans lequel l’objet est éclairé par un pinceau de lumière et toute la lumière transmise est collectée sur un détecteur étendu. Cette approche permet de distinguer aisément la notion de résolution (reliée à la largeur du faisceau incident) de celle du grandissement (qui n’est qu’une solution technique pour balayer aisément le faisceau). Le théorème de réciprocité permet d’affirmer que la configuration à balayage produit les mêmes images qu’un microscope classique plein champ, dans lequel l’échantillon est éclairé de manière homogène et la lumière transmise est détectée par une caméra. Nous avons proposé au lecteur de systématiquement interpréter les microscopes dans leur version à balayage, qui nous parait beaucoup plus intuitive. Pour cela, il suffit d’un peu de gymnastique cérébrale pour imaginer une source lumineuse à la place d’un pixel de la caméra et un détecteur à la place de la lampe. Dans ce cadre explicatif, nous avons abordé les deux grands défis de la microscopie moderne concernant le contraste et la résolution. Pour améliorer le contraste des images d’échantillons transparents, des microscopes sensibles aux déformations du faisceau incident (plutôt qu’à l’intensité totale transmise) ont été développés. Ils correspondent aux microscopes à champ sombre ou aux microscopes de phase. Cependant, l’approche la plus répandue a consisté à modifier les échantillons eux-mêmes en injectant des marqueurs les rendant absorbants ou fluorescents. En plus d’une amélioration du contraste, cette technique permet d’obtenir une imagerie spécifique, révélant les structures chimiques pour lesquelles les marqueurs ont des affinités. L’amélioration de la résolution s’est faite essentiellement en suivant deux voies : la réduction du volume d’interaction entre la lumière et l’échantillon (en tirant profit, en particulier, de processus non linéaires d’interaction entre la lumière et la matière) et l’utilisation d’informations a priori sur l’objet (forme, nature, parcimonie) permettant d’améliorer numériquement les images brutes fournies par le microscope. Cette dernière approche fait partie d’un domaine en pleine émergence : l’imagerie computationnelle.

Imager, résoudre et agrandir : le microscope

17

L’approche utilisée dans ce chapitre a été simplifiée au maximum, afin d’exposer les grands principes de la microscopie dans un cadre très général. Le développement des microscopes modernes a fait apparaître des approches différentes, qui font l’objet de chapitres spécifiques. Le lecteur intéressé trouvera des présentations de techniques récentes en microscopie optique dans les chapitres 4 et 5.

Bibliographie Mertz, J. Introduction to Optical Microscopy. Cambridge University Pres, Cambridge, 2019. Sentenac, A. and Mertz, J. Unified description of three-dimensional optical diffraction microscopy : from transmission microscopy to optical coherence tomography : tutorial, J. Opt. Soc. Am. A 35, 748 (2018).











✐ ✐



Chapitre 2 Optique adaptative Gérard Rousset

Introduction Depuis un peu plus de 30 ans, l’optique adaptative est devenue une technologie clef pour les observations astronomiques faites à partir des télescopes optiques installés sur le sol terrestre. Il s’agit d’enregistrer des images à très haute définition à la limite du pouvoir de résolution angulaire des très grands télescopes. Cette technique est maintenant largement utilisée dans d’autres domaines de recherche comme par exemple en microscopie des tissus biologiques. Nous donnons ici le contexte de l’imagerie à haute résolution et les moyens mis en oeuvre par l’optique adaptative pour l’atteindre. Tout d’abord, nous devons introduire la formation des images selon les lois de l’optique géométrique puis raffiner cette description par la théorie de la diffraction. Nous définissons ensuite ce que sont les aberrations, leur origine et l’impact considérable qu’elles ont sur la qualité des images, en particulier pour des milieux inhomogènes comme l’atmosphère terrestre. La notion de surface d’onde est au coeur de cette analyse. Ensuite, nous décrivons les principes de l’optique adaptative avec ses deux composants clefs que sont le miroir déformable et l’analyseur de surface d’onde, puis le concept d’étoile guide laser. Ensuite, quelques réalisations récentes en astronomie et les perspectives des télescopes extrêmement grands sont présentées. Enfin, pour terminer ce chapitre, l’application de l’optique adaptative en microscopie biomédicale est introduite en montrant rapidement les similitudes et les différences avec l’application à l’astronomie.

2.1 2.1.1

Formation d’images L’optique géométrique

Former une image consiste à projeter sur un écran (sur un détecteur matriciel pour un appareil photographique numérique) la lumière arrivant de

20

Imager l’invisible avec la lumière

l’objet d’intérêt en évitant le brouillage entre ses différents éléments constitutifs. L’exemple le plus simple est un petit trou (sténopé) ménagé dans un boîtier fermé (voir figure 2.1 de la chambre noire). Entre un point lumineux de l’objet et le trou, nous pouvons définir un rayon lumineux qui va éclairer l’écran et donner le point image. La position du point image sur l’écran est directement donnée par l’angle d’incidence α du rayon par rapport à la direction perpendiculaire au trou. L’image de l’objet est alors l’addition de tous les points images formés par tous les rayons lumineux passant par le sténopé. Cependant, pour obtenir une image détectable de qualité, il faut enregistrer suffisamment de lumière sur chaque point imagé. Si l’objet n’est pas assez lumineux, il faut agrandir le trou (le diaphragme d’ouverture, appelé aussi pupille d’entrée de l’instrument), mais alors le pinceau de lumière projette sur l’écran une tache qui a la largeur de la section du faisceau et les images des points voisins se superposent et se brouillent. Il est donc nécessaire de pouvoir revenir à un point image pour un point objet donné, pour cela nous plaçons dans le trou agrandi une lentille qui va dévier les rayons du faisceau lumineux vers le point qu’on aurait obtenu avec le sténopé (voir figure 2.1). La lentille dévie les rayons du fait de la loi de la réfaction de Descartes qui nous dit qu’en traversant une interface entre deux matériaux différents (ici l’air et le verre), un rayon est dévié en fonction de l’angle d’incidence et des deux indices de réfaction des matériaux. L’indice de réfraction d’un matériau est simplement le rapport de la vitesse de la lumière dans le vide par celle dans le matériau. L’indice de l’air est très proche de 1, celui du verre de l’ordre de 1,52. Ainsi, le profil des surfaces de la lentille va permettre de focaliser en un seul point tous les rayons lumineux issus du point objet qui passent par la pupille de l’instrument. La direction normale à la lentille (et la pupille) est l’axe optique de l’instrument. L’ensemble des points imagés, sur l’axe et hors axe (angle d’incidence α non nul), représente le champ de vue de l’instrument. Le meilleur exemple d’une telle configuration est l’oeil. Le segment antérieur de l’oeil, formé de la cornée, de l’humeur aqueuse et du cristallin, joue le rôle de la lentille, incluant une pupille de taille variable grâce à l’iris, et l’écran oú se forme l’image est la rétine, constituée des photorécepteurs qui enregistrent l’image. Pour tous les rayons lumineux issus du point objet et arrivant au point image, le temps de propagation de la lumière est le même et minimal, c’est le principe de Fermat. Ce temps de propagation est donc relié à la distance parcourue mais aussi à la vitesse de la lumière et donc dépend des matériaux traversés. Il est plus courant de parler du chemin optique, qui est la somme sur tous les matériaux traversés du produit de l’indice de réfraction par la distance parcourue dans ce matériau (pour des matériaux homogènes). Ce chemin optique, une fois divisé par la vitesse de la lumière dans le vide, donne bien le temps de propagation : c’est en fait la distance qu’on aurait parcourue dans le vide pour le même temps de propagation. Les chemins optiques parcourus le long de tous les rayons lumineux entrant dans l’instrument et convergeant au point image sont donc identiques. On dit alors que le point image est conjugué du point objet, c’est le cadre de l’optique dite géométrique.

Optique adaptative

21

Fig. 2.1 – Schéma du principe de la chambre noire. Haut, avec un simple trou, le sténopé, permettant de former une image inversée de l’objet sur l’écran. Pour chaque point de l’objet, un rayon lumineux passe par le trou pour former le point image. α angle d’incidence d’un rayon lumineux. Bas, utilisation d’une lentille à la place du trou, permettant d’accroître la luminosité tout en maintenant une image nette de l’objet par déviation des rayons lumineux issus de chaque point objet pour les faire converger vers le point image correspondant.

Nous devons maintenant introduire le caractère ondulatoire de la lumière. La lumière est une onde comme par exemple celle qui progresse à la surface de l’eau après y avoir lancé un caillou. Tous les points qui vibrent ensembles (c’est à dire en phase) représentent un front d’onde (un rond dans l’eau), la distance entre deux fronts d’onde successifs est la longueur d’onde λ. Le temps entre deux oscillations successives en un point de la surface est la période d’oscillation, c’est à dire l’inverse de la fréquence de l’onde. En optique, c’est le champ électromagnétique qui se propage en oscillant à une fréquence notée ν. La longueur d’onde est donc directement reliée à la fréquence par λ = c/ν où c est la vitesse de la lumière. Dans le domaine de la lumière visible, la longueur d’onde de la couleur jaune vaut typiquement λ = 500 nm. Un nanomètre (noté nm) correspond à un milliardième de mètre. En optique, les fronts d’onde sont des surfaces, du fait de la propagation de l’onde dans tout l’espace. La surface d’onde est aussi appelée surface équiphase. Pour les rayons lumineux émis par un point objet, la surface d’onde est sphérique, le centre de chaque sphère est le point d’émission. Les rayons lumineux qui en

22

Imager l’invisible avec la lumière

sont issus, sont donc perpendiculaires à la surface d’onde, selon le modèle de l’optique géométrique. On parle alors d’ondes sphériques divergentes. Ainsi, à l’entrée de l’instrument, nous avons des surfaces d’onde sphériques divergentes incidentes sur la lentille. De par ses propriétés de faire converger les rayons vers le point image, la lentille, dite convergente, transforme donc une onde sphérique divergente en une onde sphérique convergente. Pour un point objet à l’infini, les surfaces d’onde incidentes sont alors planes et le point image est formé dans le plan focale de la lentille. L’image finale de tous les points de l’objet est la superposition de tous les points images formés.

2.1.2

La diffraction

Cependant, pour les images qui nous concernent dans ce livre, nous devons être plus précis car l’image d’un point objet n’est pas parfaitement un point infiniment petit, mais une « tache image » induite par le phénomène de diffraction. En effet, l’onde incidente ne pénètre pas en entier dans l’instrument, elle est tronquée par la pupille. De ce fait, les ondes en sortie de la lentille ne sont plus purement sphériques, elles sont diffractées. La propagation de l’onde est donc plus complexe que celle décrite par le modèle des rayons de l’optique géométrique. Ce phénomène se traduit par un léger élargissement angulaire du faisceau incident sur l’écran. On peut caractériser cette élargissement par l’angle de diffraction λ/D où D est le diamètre de la pupille. La tache image d’un point objet est appelée fonction d’étalement de point ou encore point spread function (PSF) en anglais. Dans le cas d’une pupille circulaire, la PSF est une fonction d’Airy (voir Chapitre 1, Section 2.2). Elle a une taille à mihauteur de λf /D, pour une tache d’Airy formée dans le plan focale d’une lentille de focale f . C’est la taille limite minimale imposée par la diffraction, en dessous de laquelle on ne peut pas descendre. Il y a en quelque sorte une incertitude sur la position du point image (en fait sur la direction d’arrivée de l’onde) du fait de la localisation de l’onde par la pupille : plus la localisation est importante (taille de la pupille D petite) et plus l’incertitude sur la position du point image (λ/D) sera grande, en suivant une analogie avec le principe d’incertitude d’Heisenberg en mécanique quantique. Mais la tache image reste bien centrée sur le point image conjugué défini par l’optique géométrique. Pour chaque point de l’objet, ce phénomène de diffraction est à prendre en compte. Chaque point image est donc « habillé » par la PSF et pondérée par le flux émis par le point objet. L’image finale est ainsi la superposition de toutes ces PSF issues de tous les points objets, spatialement incohérents entre eux : voir l’exemple donné en Figure 2.2 gauche où on observe un champ de taches d’Airy correspondant au champ d’étoiles. Mathématiquement, on peut écrire que l’image est la convolution de l’objet par la PSF. On dit qu’un objet (la lumière émise) est spatialement incohérent quand il n’existe aucune relation de phase (et donc pas d’interférence observable) entre les ondes émises par les différents points de l’objet (cf. Figure 2.2). Nous ne considérons que ce type lumière dans ce chapitre.

Optique adaptative

23

Fig. 2.2 – Gauche : image, à la limite de diffraction obtenue sur le télescope CanadaFrance-Hawaï (CFHT) par optique adaptative, du champ stellaire autour du centre de notre galaxie. Le coeur des images des étoiles les plus brillantes est saturé pour pouvoir distinguer le premier anneau constitutif de la PSF et les étoiles les plus faibles. Droite : image floutée par les aberrations dynamiques de l’atmosphère sur le même télescope pour le même champ stellaire. L’image est saturée sur l’étoile à gauche. Crédit : Canada-France-Hawaii Telescope (CFHT).

On parle de la limite de résolution d’une image comme la séparation limite entre deux points imagés que l’on peut effectivement distinguer (voir Chapitre 1, Section 2.2). Cette limite de résolution est donnée par la largeur de la PSF : pour deux points espacés de moins de λf /D, il sera très difficile de les distinguer par rapport à un unique point imagé (voir Figure 2.2 gauche). Pour une longueur d’onde donnée, on note que la résolution angulaire est d’autant plus grande (meilleure séparation des points de l’objet, donc λ/D petit) que le diamètre de la pupille est grand. C’est pour cela que les astronomes construisent des télescopes de diamètre toujours plus grands, en plus de l’argument de gagner en surface de pupille d’entrée et donc en lumière collectée (nombre de photons) pour pouvoir observer des objets de très faible luminosité.

2.2 2.2.1

Aberrations Aberrations optiques

L’imagerie décrite dans la partie précédente est encore trop idéalisée et la réalité plus complexe. En effet, tout système optique est loin d’être parfait, même une lentille. C’est à dire qu’une optique a toujours des aberrations. Les aberrations sont les écarts des surfaces d’onde réelles après traversée des milieux de propagation et du système optique par rapport aux surfaces d’onde

24

Imager l’invisible avec la lumière

Fig. 2.3 – Schéma d’une aberration résultant d’une surface d’onde réelle (en rouge) non conforme à la surface sphérique idéale (en bleu). Les rayons aberrants (rouge) perpendiculaires à la surface réelle sont déviés par rapport aux rayons idéaux (bleu) perpendiculaires à la surface idéale et le chemin optique est rallongé de la différence de marche δ.

idéales parfaitement planes ou sphériques (voir Figure 2.3). Par exemple, elles proviennent du fait que les rayons lumineux n’ont pas été correctement déviés par les lentilles et donc ne se superposent pas parfaitement au point image conjugué donné par l’optique géométrique. Certains rayons passent à côté du point image ! Ces aberrations sont en fait des différences de chemin optique, ou différences de marche δ le long des différents rayons lumineux, qui peuvent être par exemple de l’ordre de 100 nm ou plus. Il n’y a plus parfaite égalité des temps de propagation jusqu’au plan image. Ces différences de marche peuvent aussi être traduites en déphasages φ (ou phase de l’onde) par la formule φ = 2πδ/λ : les aberrations introduisent des avances et des retards de phase perturbatifs sur l’onde propagée. Ainsi, plus la longueur d’onde est courte, plus la phase φ sera grande pour une différence de marche δ donnée. Les aberrations peuvent être décrites par des surfaces d’onde (écarts aux surfaces d’onde idéales) caractéristiques suivant le type de défauts du système optique considéré et définies mathématiquement, comme par exemple : la défocalisation, l’astigmatisme, la coma ou l’aberration sphérique. Du point de vue de la diffraction, cela se traduit par un élargissement de la PSF lié aux surfaces d’onde aberrantes, donc une perte de résolution dans les images. Plus la phase sera importante, plus la PSF sera perturbée : au delà de φ = π/2, c’est à dire δ = λ/4, la PSF s’élargie bien au delà λf /D, atténuant significativement son intensité maximale, résultant donc en une perte de sensibilité, en plus de la perte de résolution (voir l’exemple de la figure 2.2 droite). De plus, il est plus difficile d’obtenir une PSF de bonne qualité aux

Optique adaptative

25

courtes longueurs d’onde. En effet, un défaut δ = 150 nm ne correspond qu’à une phase faible de π/10 dans l’infrarouge à λ = 3000 nm alors qu’elle est de π/2 dans le rouge à λ = 600 nm. Par ailleurs, les aberrations peuvent aussi dépendre de la position hors axe de l’objet, en s’accroissant avec la distance à l’axe optique. La PSF dépend de la position dans le champ, elle se dégrade généralement en bord de champ. On parle alors d’un effet d’anisoplanétisme. Certaines aberrations peuvent même introduire une distorsion de la géométrie de l’objet enregistrée dans l’image. Ces aberrations proviennent de différentes origines comme la difficulté à définir et réaliser les surfaces idéales des optiques pour obtenir la parfaite conjugaison objet - image, en particulier quand le champ de vue est grand. Ces défauts de surface peuvent venir de la conception et/ou de la fabrication des pièces. La précision de chaque surface doit pouvoir atteindre typiquement 20 nm. De plus, le choix en indice de réfraction pour les lentilles est limité par le nombre de matériaux différents pouvant être considérés. Ces indices de réfaction dépendent de plus de la longueur d’onde pouvant induire des aberrations dites chromatiques. Par exemple, une lentille simple introduit de nombreuses aberrations. Enfin, le montage, l’alignement des pièces optiques ou leur déformation par les contraintes appliquées ou même les variations de température sont sources aussi d’aberrations. On voit donc qu’il est extrêmement difficile de réaliser un système optique quasi parfait et que le travail de l’opticien est de combiner plusieurs lentilles ayant des surfaces éventuellement asphériques et des indices différents, pour tenter de minimiser au maximum les possibles sources d’aberration sans pouvoir jamais les faire disparaître complètement. Ceci conduit dans le monde professionnel à construire des systèmes optiques complexes et coûteux en utilisant tous les degrés de liberté donnés par le nombre de pièces optiques mises en jeu, donc de nombreuses surfaces et différents matériaux, permettant une optimisation et des ajustements fins, comme par exemple pour un objectif de microscope ou un zoom d’appareil photographique. Pour un système optique donné aberrant, il est toujours possible de venir compenser en partie ses aberrations en ajoutant une pièce optique adaptée sur le trajet de la lumière. Nous connaissons tous ce principe, il s’agit de nos lunettes de vue. En effet, notre oeil est loin d’être un système optique parfait même dans le cas d’une très bonne acuité. Mais chez certaines personnes, la situation est dramatique car les images projetées par le segment antérieur sont complètement floues : par exemple, elles ne se forment pas exactement sur la rétine mais en amont ou en aval comme pour un myope ou un hypermétrope, respectivement. Les lunettes sont donc une paire de lentilles que l’on rajoute devant les yeux afin de modifier la position du plan de formation de l’image pour le ramener sur la rétine. Pour un myope, cette lentille sera légèrement divergente. Une autre correction célèbre des aberrations d’un système optique est celle du Hubble Space Telescope dont le miroir primaire n’avait pas été fabriqué à la bonne forme du fait d’un dysfonctionnement du système de contrôle de sa qualité optique. Cette aberration, dite sphérique, a pu être

26

Imager l’invisible avec la lumière

mesurée directement sur les images floues produites par le télescope en orbite et a conduit à la fabrication de systèmes de correction ensuite installés dans les différents instruments du télescope pour lui permettre de recouvrer la très haute qualité attendue de ses images.

2.2.2

Milieux non homogènes aberrants

Enfin, le milieu dans lequel se propage les ondes lumineuses peut aussi introduire des aberrations s’il n’est pas homogène. C’est le cas de l’atmosphère terrestre pour les astronomes utilisant des télescopes au sol. Les ondes lumineuses provenant des objets de l’Univers traversent l’atmosphère avant d’atteindre le télescope. Mais l’atmosphère est le siège permanent de mélanges turbulents de couches d’air à des températures différentes. Ceci se traduit par des fluctuations de température à leur interface et donc des fluctuations d’indice de l’air. Une onde plane incidente va donc se déformer du fait des fluctuations spatiales de la vitesse de la lumière en subissant des différences de marche aléatoires différentielles entre les différents points de la surface d’onde. Du fait de la très faible dépendance de l’indice de l’air à la longueur d’onde, ces différences de marche turbulentes peuvent être considérées comme achromatiques. Elles peuvent atteindre des valeurs δ = 3 à 10µm suivant les conditions. Ces aberrations sont par ailleurs rapidement évolutives par l’effet des vents dans l’atmosphère. Le temps de corrélation de la phase de l’onde perturbée est de l’ordre de 10ms pour les longueurs d’onde du visible. Les surfaces d’onde étant fortement perturbées, les images formées des objets astronomiques sont brouillées car les PSF sont constituées de nombreuses tâches de lumière ou tavelures (speckles en anglais), d’autant plus que la longueur d’onde est courte. En enregistrant une image à pose longue, ces speckles se moyennent et créent une tache très élargie de largeur appelé le seeing (voir Figure 2.2 droite). La résolution angulaire est alors fortement dégradée, typiquement 100 fois moins bonne que la limite théorique de la diffraction pour un télescope de 10m de diamètre dans le domaine des longueurs d’onde visibles, c’est à dire un seeing de l’ordre d’une seconde d’angle (1′′ ) pour une limite de 10 milli-secondes d’angle. De plus, ces conditions d’observation, le seeing, dépendent fortement des conditions météorologiques et peuvent être très variables dans la nuit. 1 Un autre exemple de milieux perturbant la propagation des ondes les traversant est le cas en microscopie des tissus biologiques dont on cherche à faire des images dans leur profondeur. Les différences d’indice entre le tissu luimême, le milieu d’immersion et le verre de la lamelle et de l’objectif de microscope peuvent déjà introduire des aberrations. Mais ces tissus présentent aussi des inhomogénéités caractérisées par des variations spatiales de leur indice de réfraction. Ces défauts, induits sur les surfaces d’onde, peuvent en plus s’accroître significativement en pénétrant en profondeur dans le tissu à analyser.

1. Pour approfondir le sujet de la turbulence atmosphérique et de la formation d’image en astronomie voir [Roddier 1981].

Optique adaptative

27

Ils peuvent aussi évoluer dans le temps pour les applications in vivo. Les PSF en sont ainsi dégradées.

2.2.3

Qualité des images

La qualité d’une image va s’exprimer par la quantification de son piqué. Ce piqué est lié à la largeur de la PSF mais aussi à la valeur de son intensité maximum. Les deux grandeurs sont bien sûr liées : plus la PSF est large plus son maximum est bas. La largeur de la PSF nous donne la résolution angulaire accessible, déjà discutée. Le maximum de la PSF va nous donner la sensibilité aux objets faiblement lumineux, c’est à dire le rapport signal à bruit accessible dans l’image. Plus le maximum de la PSF sera haut, plus grand sera le nombre de photons détectés par pixel illuminé par l’objet, donc plus grand le signal d’intensité mesuré. Pour quantifier la qualité de l’image, on définit le rapport de Strehl S qui représente le rapport du maximum obtenu dans la PSF avec celui théorique de la PSF limitée par la diffraction. Un instrument d’optique de haute qualité doit atteindre un rapport de Strehl d’environ 82%, c’est le critère de Maréchal. Nous pouvons relier la valeur du rapport de Strehl à l’écart quadratique moyen spatial σ de la surface d’onde dans la pupille, soit p exprimé en phase σφ , soit en différence de marche σδ . Nous avons : σφ = −ln(S) si S > 30%, où ln est le logarithme népérien, et σδ = λσφ /2π. Une haute qualité optique est donc atteinte pour σφ = π/7 et σδ = λ/14. En imagerie à travers la turbulence atmosphérique, les rapports de Strehl sont très faibles, de moins de 1% et donc conduisent à une perte de sensibilité rédhibitoire si aucune correction par optique adaptative n’est possible.

2.3

Optique adaptative

L’optique adaptative est une technique permettant de compenser en temps réel les différences de marche aberrantes induites par le milieu de propagation et l’instrument optique afin de recouvrer la qualité de la PSF théorique limitée par la diffraction en termes de résolution angulaire λ/D et de sensibilité aux objets faiblement lumineux. Son principe repose sur la déformation en temps réel de la surface d’un miroir mince, placé dans un plan conjugué de la pupille, réfléchissant le faisceau optique venant du télescope et introduisant des variations spatiales (et temporelles) de différence de marche opposées à celles des aberrations pour restituer ainsi une surface d’onde idéale (plane ou sphérique) pour les points d’intérêt du champ observé (voir Figure 2.4). Ce principe a été proposé par un astronome américain H. W. Babcock [Babcock 1953] pour combattre les effets de la turbulence atmosphérique sur les images astronomiques. Cependant, les technologies nécessaires n’ont pu être développées que dans les années 1970 pour des premières démonstrations dans le domaine de la Défense, appliquées à la propagation des faisceaux lasers dans l’atmosphère et à l’observation des satellites artificiels en orbite basse, aux Etats-Unis et en France par exemple. Ce n’est pourtant qu’à la fin des années 1980 que la

28

Imager l’invisible avec la lumière

Fig. 2.4 – Schéma de principe d’une optique adaptative installée au foyer d’un télescope. La surface d’onde, initialement plane venant de l’astre, est perturbée par l’atmosphère. Le télescope est constitué du miroir primaire M1 qui réfléchit la lumière de l’astre vers le miroir secondaire M2 qui, lui, la renvoie à travers le trou central de M1 vers le plan focal où l’image formée est floue. Le miroir déformable redresse la surface d’onde pour la rendre quasiment plane. La lumière est ensuite séparée entre l’analyseur de surface d’onde et la voie qui forme l’image corrigée. Le calculateur temps réel commande le miroir à partir des mesures de l’analyseur. Crédit : schéma adapté d’après J. W. Hardy [Hardy 1998]. Reproduit avec la permission d’Oxford Publishing Limited via PLSclear. Image de l’astre : Neptune. ESO/P. Weilbacher (AIP).

première démonstration est faite en astronomie dans l’infrarouge proche par une équipe européenne dans le cadre de la préparation du Very Large Telescope (VLT) à l’European Southern Observatory (ESO) [Rousset et al. 1990]. Aujourd’hui, l’optique adaptative est largement implantée sur les plus grands télescopes du monde de diamètre D allant de 8 à 10m dont le VLT.

Optique adaptative

29

Une optique adaptative est constituée d’un correcteur de surface d’onde, le plus souvent un miroir, appelé miroir déformable, d’un analyseur de surface d’onde qui mesure les perturbations et d’un ordinateur permettant à partir des mesures de commander le miroir déformable en temps réel (voir Figure 2.4). On a à faire à un asservissement numérique en boucle fermée qui permet une correction efficace. 2

2.3.1

Correction de surface d’onde

Le miroir déformable est le correcteur parfaitement adapté à l’astronomie car la différence de marche introduite dans l’air est achromatique et permet donc de corriger les différences de marche turbulentes (elles-mêmes achromatiques) pour un très large domaine spectrale du visible à l’infrarouge thermique. C’est généralement un miroir plan qui replie simplement le faisceau optique dans l’instrument (Figure 2.4). Il est constitué du miroir lui-même qui peut être une plaque mince ou une membrane, à l’arrière de laquelle sont fixés un certain nombre d’actionneurs individuels qui vont chacun pousser ou tirer sur la plaque ou la membrane et donc la déformer localement (voir Figure 2.5). Ces actionneurs sont commandés par l’amplitude et le signe d’une tension ou d’un courant électrique. La déformation locale à produire reste dans le domaine élastique avec une amplitude maximum de l’ordre de 5µm, pour une différence de marche finale de δ = 10µm du fait de la réflexion sur le miroir. Le temps de réponse de ces miroirs doit être au moins de l’ordre de 1ms. Les miroirs déformables réalisés aujourd’hui sont assez compacts et leur taille est essentiellement déterminée par l’espace inter-actionneur qui varie suivant la technologie. – Les actionneurs peuvent être constitués d’un matériau piézoélectrique qui soumis à une haute tension peut se dilater ou se contracter. La force appliquée étant importante, le miroir peut être constitué d’une plaque de verre de l’ordre de 1mm d’épaisseur. L’espace inter-actionneur est typiquement de 5mm ou plus. – Les actionneurs peuvent être de type électromagnétique. Pour chaque actionneur, un micro-aimant fixé à la membrane est attiré ou repoussé par la force électromagnétique créée par le courant circulant dans une micro-bobine. La force étant plus faible dans ce cas, les miroirs sont des membranes de l’ordre de 100µm d’épaisseur. L’espace inter-actionneur est ici de l’ordre de 2mm. – Les actionneurs peuvent être de type électrostatique. Ils sont fondés sur les technologies des micro-systèmes électromécaniques (MEMS en anglais) issus de la microélectronique. Pour chaque actionneur, la force électrostatique est créée par une tension appliquée entre deux électrodes dont l’une mobile va déformer la membrane du miroir. La force étant très 2. Pour aller au delà des informations données dans ce chapitre, le lecteur peut consulter les livres suivants : [Hardy 1998] et [Roddier 1999].

30

Imager l’invisible avec la lumière

Fig. 2.5 – Schéma de principe d’un miroir déformable. En appliquant une tension positive ou négative, les actionneurs respectivement poussent ou tirent sur l’arrière du miroir auquel ils sont fixés, déformant ainsi le surface supérieure où se réfléchit la lumière. Crédit : schéma adapté d’après O. Lai 1996, Thèse de l’Université ParisDiderot - Paris 7.

faible, des membranes minces de l’ordre de 3µm sont utilisées. L’espace inter-actionneur peut atteindre 300µm seulement. Ces trois technologies sont aujourd’hui largement utilisées en astronomie. Suivant les besoins, le nombre d’actionneurs peut se situer entre 30 et 4000 actionneurs ! Les diamètres de ces miroirs déformables varient typiquement de 10mm à 400mm suivant les technologies et le nombre d’actionneurs. Plusieurs fournisseurs existent de part le monde et en particulier en France. Mais les astronomes cherchent la meilleure sensibilité possible ; rajouter dans l’instrument un miroir déformable plan qui est conjugué de la pupille, oblige en fait à rajouter beaucoup de pièces optiques et donc de nombreuses surfaces qui toutes apportent une contribution à la perte de lumière comme sur la Figure 2.4. En fait, si toutes les surfaces ont une efficacité de « transmission » de la lumière de 97%, un instrument en contenant une vingtaine n’a plus en sortie qu’une transmission de 54% ! De même dans le domaine de l’infrarouge thermique, chaque surface contribue au fond thermique de l’instrument limitant la sensibilité aux sources faibles. Une solution est donc d’intégrer la fonction miroir déformable dans le télescope lui-même. C’est la technologie dite du secondaire adaptatif, développée avec succès par des astronomes et industriels italiens après de nombreuses années d’effort pour la maîtriser et installée aux Multi-Mirror Telescope et Large Binocular Telescope aux EtatsUnis, et tout récemment au VLT de l’ESO. Le miroir déformable est ainsi le deuxième miroir (M 2, voir Figure 2.4) dans la combinaison optique du télescope, beaucoup plus petit que le miroir primaire (M 1) définissant la taille de

Optique adaptative

31

la pupille. Le secondaire adaptatif est convexe ou concave, fait de l’ordre de 1m de diamètre sur les télescopes de classe 8m et peut accueillir de nombreux actionneurs, plus de 1000 aujourd’hui. Ces actionneurs sont de type électromagnétique, mais développent des forces plus importantes que précédemment, pour pouvoir effectivement déformer la coque de verre du miroir secondaire qui fait typiquement 1,5mm d’épaisseur. L’espace inter-actionneur est ici de l’ordre de 30mm. Comme la fonction miroir déformable est dans le télescope, la caméra d’imagerie peut être alors placée directement au foyer du télescope, tout en conservant juste devant une séparatrice pour prélever une partie de la lumière pour l’analyseur. D’autres schémas de correction de la surface d’onde sont envisageables. Comme l’utilisation de modulateurs spatiaux de phase à cristaux liquides (SLM en anglais) issus des technologies de nos écrans plats. Leur avantage est de proposer de très nombreux points de correction (l’équivalent des actionneurs des miroirs déformables) à faible coût. L’application d’une tension en un point du modulateur permet de changer localement son indice de réfraction, donc la différence de marche après traversée du modulateur et ainsi la phase de l’onde. Leurs désavantages sont une correction chromatique liée à la dépendance de l’indice du matériau en longueur d’onde et leur temps de réponse plutôt lent. Pour ces raisons, ils ne sont pas employés sur les grands télescopes astronomiques. Par contre, ils sont largement utilisés en laboratoire sur lumière monochromatique, par exemple avec un laser.

2.3.2

Mesure de surface d’onde

Pour commander de manière appropriée le miroir déformable, il faut tout d’abord mesurer la surface d’onde. Ceci se fait par un analyseur de surface d’onde. Il en existe de différents types. Un principe largement utilisé s’appuie sur l’optique géométrique qui nous dit que les rayons lumineux sont perpendiculaires à la surface d’onde (voir Figure 2.3). Si nous sommes capables d’identifier les écarts angulaires des rayons par rapport au cas idéal, nous pourrons connaître les pentes locales de la surface d’onde aberrante. La première étape est de définir des rayons lumineux. Dans l’analyseur de Shack-Hartmann (voir Figure 2.6), l’un des plus populaires, ceci est fait par un réseau de microlentilles placé sur un faisceau parallèle dans un plan image de la pupille. Chaque micro-lentille définit une sous-pupille et un sous-faisceau correspondant : « le rayon lumineux ». Au plan focal, les micro-lentilles forment chacune une imagette de l’objet (un spot image pour une étoile). Si l’onde est localement basculée sur une sous-pupille, le spot image formé par la micro-lentille est alors décalée par rapport à la position de son foyer où se formerait le spot sans aberration. La mesure de ce décalage est une mesure de l’angle de déviation α du rayon lumineux due aux aberrations, c’est à dire de l’écart de différence de marche existant entre les deux bords opposés de la micro-lentille δ, et donc de la pente locale de la surface d’onde aberrante. Le réseau des spots formés par les micro-lentilles est enregistré grâce à un matrice de détecteurs de type CCD (Charge Coupled Device) et un traitement numérique temps réel déterminant

32

Imager l’invisible avec la lumière

Fig. 2.6 – Schéma de principe d’un analyseur de surface d’onde de type ShackHartmann. Les micro-lentilles placées dans le plan pupille définissent des rayons lumineux, leur déviation α par rapport à l’axe donne la différence de marche locale δ dans la pupille.

le centre de gravité sur chaque spot permet d’extraire l’ensemble des décalages. Ce principe très simple fait du Shack-Hartmann un analyseur achromatique si les différences de marche aberrantes sont achromatiques comme pour la turbulence atmosphérique, présentant potentiellement une grande linéarité et une grande dynamique et pouvant même fonctionner sur un objet non ponctuel. Avec un analyseur de Shack-Hartmann, on peut donc utiliser une bande spectrale large pour la mesure et ainsi travailler sur des objets astronomiques faiblement lumineux. D’autres analyseurs sont utilisés en astronomie mesurant aussi la déviation des rayons lumineux et présentant des propriétés assez similaires au ShackHartmann. Il y a souvent un compromis à trouver entre l’obtention d’une grande sensibilité pour l’analyseur et l’apparition de non linéarités réduisant sa dynamique de mesure. Le principe de l’interférométrie peut aussi être utilisé. Il s’agit des interféromètres à décalage latéral, qui permettent de faire interférer le faisceau lumineux à analyser avec une réplique de lui-même décalée latéralement d’une quantité faible par rapport à la taille de la pupille. Les franges d’interférence ainsi obtenues sont alors une mesure des écarts de phase (ou différences de marche) locaux existant entre deux points du faisceau séparés du décalage appliqué. On mesure donc là aussi les pentes locales de la surface d’onde. Tous ces analyseurs ne mesurent finalement pas la surface d’onde directement mais ces pentes locales, c’est à dire mathématiquement parlant son gradient. Mais il est assez facile à partir du gradient de remonter à la surface correspondante. C’est l’opération de reconstruction de surface d’onde qui est faite dans le calculateur temps réel de l’optique adaptative, après bien sûr le

Optique adaptative

33

traitement des images de l’analyseur pour calculer les pentes. Elle peut s’exprimer sous forme matricielle et être codée de manière efficace. En fait la surface à reconstruire est celle qui sera produite par le miroir déformable, donc l’opération consiste plutôt à calculer les commandes à appliquer aux actionneurs pour obtenir la surface la plus proche possible correspondant aux mesures. Un étalonnage est alors nécessaire pour connaître la réponse de l’analyseur à la surface déformée produite par chaque actionneur. Ce sont en fait les aberrations élémentaires que le miroir déformable sait produire. Une « inversion » de ces réponses est alors calculée permettant de relier directement les mesures de pentes aux commandes des actionneurs. Enfin, la dernière contrainte à considérer est l’évolution temporelle des perturbations de la surface d’onde. Les temps de corrélation typiques sont de l’ordre de la dizaine de millisecondes ou moins suivant la longueur d’onde d’observation. Il faut donc une fréquence de mesure et de correction (donc de boucle d’asservissement) de plusieurs centaines de Hertz. La mesure par l’analyseur est à faire sur un temps de pose court et le calcul par le calculateur temps réel de la commande à appliquer au miroir déformable doit être très rapide. Ceci conduit à mettre en oeuvre pour l’analyseur des caméras rapides à très faible bruit électronique et pour le calculateur temps réel des architectures très spécifiques alliant transfert rapide des données et puissance de calcul.

2.3.3

Etoile guide

L’objet utilisé pour faire la mesure de surface d’onde est appelé étoile guide. Pour faire une mesure précise, il faut pouvoir disposer de suffisamment de lumière venant de l’étoile guide pour s’affranchir du bruit de mesure, c’est à dire détecter suffisamment de photons dans les images produites par l’analyseur. Il faut de l’ordre de 200 photons détectés par sous-pupille pour assurer une mesure précise, ce qui correspond, pour des conditions typiques, à une étoile de magnitude visible d’environ 10. La magnitude des astres est une échelle logarithmique de leur luminosité, la magnitude limite de l’oeil nu est de 6. Plus la magnitude est élevée, plus l’étoile et faible. L’étoile guide doit donc être suffisamment brillante. En astronomie généralement, les objets observés sont le plus souvent de trop faible luminosité pour servir d’étoile guide et en plus il est difficile de trouver une étoile guide assez proche pour que l’objet et l’étoile guide voient les mêmes perturbations de surface d’onde. C’est le problème de l’anisoplanétisme qui limite le champ de vue corrigible. Les aberrations produites par l’atmosphère ne sont pas identiques dans toutes les directions du champ de vue à chaque instant. Si deux étoiles sont séparées d’un angle α sur le ciel, dans une couche atmosphérique à une altitude h les deux faisceaux optiques seront séparés spatialement d’une distance αh. Ainsi, si cette distance est supérieure à 1m, les deux surfaces d’onde peuvent être décorrélées. Pour une couche turbulente à une altitude de 10km, cela correspond à une séparation angulaire des deux étoiles de 20′′ . C’est typiquement la valeur du domaine isoplanétique, champ corrigible par l’optique adaptative,

34

Imager l’invisible avec la lumière

dans le proche infrarouge, mais celui-ci n’est plus que de l’ordre de 5′′ dans le visible. Pour de telles séparations angulaires très limitées, il est donc très improbable de trouver une étoile guide naturelle de magnitude inférieure ou égale à 10 proche de n’importe quel objet astrophysique d’intérêt... Ainsi, deux astronomes français, R. Foy et A. Labeyrie [Foy & Labeyrie 1985] ont proposé de créer une étoile artificielle dans la haute atmosphère par laser (appelé étoile guide laser) dans la direction de l’objet observé. Cette étoile guide laser est créée par rétrodiffusion résonnante d’un faisceau laser sur la couche mésosphérique de Sodium autour de 90km d’altitude. Le laser est accordé sur la raie jaune D2 (à 589 nm) des atomes de Sodium qui absorbent ainsi les photons laser et en ré-émettent à la même longueur d’onde dans tout l’espace par émission spontanée. Un laser de 10W permet d’obtenir suffisamment de photons rétrodiffusés vers le télescope pour faire la mesure (voir Figure 2.7). Cependant, plusieurs limitations subsistent avec de telles étoiles guides lasers et une étoile guide naturelle est toujours nécessaire, mais pouvant être ici de moindre luminosité et à plus grande séparation angulaire. Par exemple, c’est le cas pour compenser la non mesure de l’angle moyen de basculement turbulent de l’onde par l’étoile laser du fait du trajet aller-retour de la lumière laser dans l’atmosphère.

2.4

Optique adaptative en astronomie

Après les premières démonstrations sur des télescopes de 4m de diamètre et la première génération sur les télescopes de classe 8 à 10m, les astronomes ont développé des optiques adaptatives dédiées à des problématiques ciblées. Le premier exemple d’importance est l’imagerie et la spectroscopie des planètes extra-solaires. Les planètes recherchées sont très proches de leur étoile hôte, à moins de 1′′ et sont typiquement un million de fois plus faibles en luminosité. Il faut donc de la haute résolution angulaire (à la limite de diffraction) pour séparer les deux composantes mais aussi minimiser la pollution de l’image de la planète par des photons de l’étoile. Pour cela, il faut mettre en oeuvre une optique adaptative dite extrême par les performances qu’elle doit atteindre : un rapport de Strehl supérieur à 90% dans le proche infrarouge, c’est à dire un écart quadratique moyen en différence de marche σδ typiquement de 80 nm. Le miroir déformable doit alors avoir plus de 1200 actionneurs sur un télescope de 8m et la boucle d’asservissement doit fonctionner à une fréquence supérieure à 1kHz. L’étoile guide (sur l’axe) est l’étoile hôte elle même, puisqu’elle est brillante. En effet, ce sont les systèmes extra-solaires dans l’environnement proche du soleil qui nous intéressent aujourd’hui de caractériser. Enfin, pour compléter l’instrument afin de nous donner toutes les chances de détection d’un compagnon proche très faible, il est nécessaire d’utiliser un coronographe stellaire pour filtrer et donc rejeter au maximum la lumière de l’étoile avant l’enregistrement de l’image. C’est la configuration de l’instrument, appelé SPHERE,

Optique adaptative

35

Fig. 2.7 – Laser tiré dans l’atmosphère sur le site du VLT pour créer une étoile guide laser dans la couche mésosphérique sur les atomes de Sodium. Crédit : ESO/Y. Beletsky.

qui vient d’être mis en service au VLT de l’ESO pour imager directement les systèmes exoplanétaires (voir Figure 2.8). La deuxième problématique est l’imagerie à haute résolution angulaire sur un grand champ de vue pour l’observation des amas d’étoiles ou des galaxies. Un champ d’une minute d’angle (60′′ ) ou plus est recherché, il faut donc s’affranchir de l’anisoplanétisme. Pour cela, il faut plus qu’un miroir déformable, habituellement conjugué de la pupille, pour corriger la dépendance des aberrations turbulentes avec la position dans le champ de vue. – On peut envisager de corriger la turbulence aux altitudes où elle est créée de manière prépondérante : c’est le plus souvent proche du sol, donc de la pupille, et autour de 10km au niveau de la tropopause. En plus du miroir dans la pupille, il s’agira alors de conjuguer dans l’instrument un second miroir déformable à cette altitude de 10km afin qu’il couvre l’ensemble des sections de faisceau de tous les points du champ, par exemple sur un diamètre de 13m pour un champ de 60′′ et un télescope de 10m. C’est l’optique adaptative dite multiconjuguée. Suivant les besoins, on peut envisager un troisième miroir conjugué à une altitude intermédiaire. – Mais quand on s’intéresse aux galaxies les plus distantes de l’Univers pour comprendre leur évolution, on veut pouvoir en observer un grand nombre, typiquement au moins une dizaine en parallèle dans un grand

36

Imager l’invisible avec la lumière

Fig. 2.8 – Image à la limite de diffraction à λ = 2,2µm, obtenue avec l’instrument SPHERE au VLT, du système exoplanétaire autour de l’étoile jeune PDS70 (masquée dans l’image) constitué principalement d’un disque de poussières (incliné par rapport à la ligne de visée) incluant une cavité dans laquelle se situe l’exoplanète PSD70b, distante de son étoile hôte de 22 fois la distance Terre-Soleil. Crédit : Consortium SPHERE [Muller 2018].

champ (10 minutes d’angle) et cela pour plusieurs champs cosmologiques successivement afin de construire une bonne connaissance statistique de ces objets. Mais chaque galaxie, du fait de sa distance, n’a qu’une taille angulaire de l’ordre de 1′′ . Il n’est donc pas utile de corriger tout le champ mais seulement quelques îlots où sont les galaxies ! Il faut mettre en oeuvre ici l’optique adaptative multi-objet qui consiste à séparer dans le grand champ chaque objet d’intérêt et à placer dans le trajet optique spécifique transportant la lumière de l’objet jusqu’au spectrographe, un miroir déformable dédié conjugué de la pupille. Il faut donc ici utiliser dix miroirs déformables qui fonctionnent en parallèle dans l’instrument, pour dix galaxies à observer simultanément. Mais la question maintenant est de savoir comment commander ces miroirs déformables. L’idée est de faire la tomographie des turbulences optiques de l’atmosphère. Pour cela, ce n’est plus une étoile guide qui est nécessaire mais plusieurs. L’ensemble de leurs faisceaux lumineux doit pouvoir couvrir le champ de vue. Il faut typiquement 6 à 8 étoiles guides. Ici bien sûr, il est essentiel d’envisager les étoiles guides lasers pour pouvoir les positionner de manière à couvrir au mieux le champ d’intérêt, tout en complétant les mesures par les étoiles naturelles disponibles dans le champ observé. À partir des mesures

Optique adaptative

37

Fig. 2.9 – Image de l’amas globulaire NGC 288 obtenue à λ = 1,65µm (bande H) avec l’instrument GeMS au télescope GEMINI Sud par optique adaptative multiconjuguée avec 5 étoiles guides laser, 3 étoiles guides naturelles et deux miroirs déformables, l’un conjugué dans la pupille du télescope et l’autre en altitude à 9km. Les trois régions en zoom à droite, montrent la bonne correction obtenue dans tout le champ (87′′ de côté) avec des PSF très homogènes de largeur à mi-hauteur de 0,08” et de rapport de Strehl variant de 15 à 20%. Crédit : Gemini Observatory, [Rigaut et al. 2014].

dans les différentes directions des étoiles guides, une reconstruction du volume turbulent au dessus du télescope est possible. La commande des miroirs déformables se déduit alors par projection du volume. Soit sur les deux ou trois altitudes où sont conjugués les miroirs de l’optique adaptative multiconjuguée. Soit dans les 10 directions spécifiques des objets observés dans le cas multi-objet. L’instrument GeMS du télescope GEMINI Sud de 8m (au Chili) inclut 3 miroirs déformables en mode multiconjugué, 5 étoiles guides lasers et 3 étoiles guides naturelles [Rigaut et al. 2014]. Depuis 2012, il produit des images à la limite de diffraction sur un champ de 87′′ (voir Figure 2.9). L’optique adaptative multi-objet a aussi été récemment mise au point sur le ciel par le démonstrateur CANARY sur le télescope W. Herschel de 4,2m aux îles Canaries en couplant 4 étoiles guides lasers et 3 étoiles guides naturelles. L’astrophysique, cherchant à repousser toujours plus loin les limites de nos connaissances sur l’Univers, a besoin de développer des instruments optiques

38

Imager l’invisible avec la lumière

d’observation toujours plus sophistiqués et donc complexes. À chaque étape des percées significatives ont été faites, par exemple avec le premier télescope spatial Hubble malgré son diamètre limité à 2,4m, ou avec la dizaine de très grands télescopes sol de classe 8 à 10m de diamètre et leur équipement progressif d’optiques adaptatives et d’étoiles guides laser. Le nouveau télescope spatial, le James Webb Space Telescope (JWST), apporte sa pierre à l’édifice depuis 2022, même si son diamètre n’est que modeste, 6,5m, par rapport aux très grands télescopes au sol. Un saut quantitatif doit être fait pour la prochaine décennie et ce sera au sol : il s’agit de mettre en oeuvre des télescopes géants de diamètre allant de 25 à 40m, appelés les extrêmement grands télescopes (voir par exemple [Clénet et al. 2010]). Ils ont démarré leur phase de construction. Leur miroir primaire est segmenté pour pouvoir réaliser de tels diamètres et chaque segment est positionné activement par ordinateur pour synthétiser la meilleure surface possible à chaque instant pendant les observations. Dès leur conception, ils ont inclus l’optique adaptative comme partie intégrante de leur fonctionnalité. L’Extremely Large Telescope (ELT) européen, construit par l’ESO (voir Figure 2.10), inclut dans le télescope un miroir déformable de diamètre 2,4m à plus de 5000 actionneurs assurant non seulement la qualité optique finale du télescope lui-même mais aussi permettant aux instruments focaux équipés d’analyseurs de surface d’onde de fermer directement la boucle d’optique adaptative sur lui. Ces instruments incluront à terme les nouveaux concepts validés récemment sur les télescopes plus petits, comme l’optique adaptative multiconjuguée ou multi-objet avec étoiles guides lasers et l’optique adaptative extrême. Les objectifs astrophysiques sont très ambitieux, ils vont par exemple de la caractérisation de planètes telluriques dans la zone habitable de leur étoile hôte à l’observation des toutes premières étoiles et galaxies formées par l’univers.

2.5

Optique adaptative pour les applications biomédicales

À la suite des percées réalisées par l’optique adaptative pour la défense et en astronomie dans les années 1980 et 1990, d’autres domaines scientifiques ont développé cette technologie pour leurs propres besoins tels que par exemple la microscopie des tissus biologiques qui nous intéresse ici. La première application a été faite en ophtalmologie par l’équipe de D. R. Williams de l’Université de Rochester aux Etats-Unis à la fin des années 1990 pour imager in vivo les photorécepteurs qui tapissent la rétine, en compensant en temps réel les défauts du segment antérieur de l’oeil par optique adaptative [Liang et al. 1997]. Comme en astronomie, une « étoile guide » est formée sur la rétine, grâce à un laser focalisé de faible puissance, pour mesurer la surface d’onde par un analyseur de Shack-Hartmann directement sur la lumière

Optique adaptative

39

Fig. 2.10 – Vue d’artiste de l’Extremely Large Telescope (ELT) de l’ESO de 39m de diamètre au Chili. A l’intérieur de la coupole, on voit le miroir primaire (M1) segmenté et au dessus de lui l’arrière du miroir secondaire (M2) soutenu par l’araignée à 6 bras. Le miroir déformable est le quatrième miroir du relais optique du télescope installé dans la structure mécanique présente au centre de M1 en face de M2. Crédit : ESO/L. Calçada/ACe Consortium.

rétrodiffusée et ainsi commander un miroir déformable. Celui-ci corrige à la fois l’image de l’étoile guide et celle de la rétine résultant, elle, d’une illumination en champ large par une source étendue comme pour un fond d’oeil (voir Figure 2.10). En effet le segment antérieur incluant la pupille de l’oeil, les aberrations sont bien corrélées dans un champ assez large, dit isoplanétique, correspondant à une taille de l’ordre de plusieurs centaines de micromètres sur la surface de la rétine. En dilatant la pupille de l’oeil, l’optique adaptative peut permettre d’atteindre une résolution spatiale sur la rétine de l’ordre de 2 µm, au moins 10 fois meilleure que sans correction. Rapidement,

40

Imager l’invisible avec la lumière

Fig. 2.11 – Image de la mosaïque des photorécepteurs de la rétine humaine dans sa région centrale, la fovéa, obtenue in vivo par optique adaptative. Les points lumineux dans l’image sont les photorécepteurs. L’image présentée est une superposition d’images successives décalées sur la rétine par les mouvements de l’oeil. La taille horizontale de l’image est de 600µm au fond de l’oeil. Crédit : LESIA - Observatoire de Paris et Hôpital des XV-XX.

l’optique adaptative a aussi été étendue à d’autres ophtalmoscopes comme ceux à balayage laser ou par tomographie en cohérence optique. Ces techniques ont ouvert des voies en recherche pour l’exploration non invasive et in vivo de la rétine humaine à l’échelle des cellules photoréceptrices dans le but, par exemple, d’étudier les pathologies de la rétine comme la dégénérescence maculaire liée à l’âge (DMLA). En France, l’Institut de la Vision et l’Hôpital des Quinze-Vingt sont en pointe dans ces développements. Les microscopes optiques jouent un rôle clef en recherche biomédicale de par leur capacité à produire des informations structurelles et fonctionnelles sur le tissu étudié et cela éventuellement de manière non invasive (voir Chapitres 1 et 5). La résolution spatial peut potentiellement atteindre, pour les très grandes ouvertures numériques de l’ordre de 1, une taille égale à la moitié de la valeur de la longueur d’onde d’illumination. Cependant en plus du phénomène de diffusion de la lumière par le tissu lui-même (voir Chapitre 3), les variations spatiales de l’indice de réfraction introduisent des

Optique adaptative

41

aberrations dans la propagation de la lumière qui limitent les performances. Ceci est d’autant plus critique quand on souhaite observer plus en profondeur, par exemple à quelques centaines de micromètres de la surface, sans parler de la diffusion qui atténue significativement le flux lumineux transmis (voir Chapitre 3, Section 1). Dès le début des années 2000, l’optique adaptative a été proposée pour compenser les effets délétères des aberrations pour recouvrer la haute résolution et un bien meilleur contraste dans les images. D’abord tester en microscopie confocale à balayage laser, elle a été rapidement étendue à la très populaire microscopie à fluorescence par excitation à deux photons (toujours à balayage). Dans ce cas, la focalisation à la limite de diffraction du faisceau laser excitateur est cruciale pour maximiser par effet non-linéaire (l’absorption de deux photons) l’efficacité de la fluorescence ainsi que le sectionnement optique (voir Chapitre 5, Section 3.2). Dans les implantations, le miroir déformable (ou un SLM) est placé sur le faisceau laser d’excitation à focaliser et il peut être commandé selon deux approches. Celle classique utilisant une « étoile guide » obtenue au point de focalisation par fluorescence de fluorophores pour assurer la mesure directe de surface d’onde par un Shack-Hartmann avec une capacité temps réel ou celle indirecte, dite sans analyseur (sensorless), maximisant simplement l’intensité émise par fluorescence. Dans cette dernière approche, il s’agit de maximiser l’intensité dans les images en testant successivement l’impact de l’application sur le miroir déformable d’un jeu d’aberrations à plusieurs amplitudes (voir [Debarre et al. 2009]). Des méthodes efficaces permettent de converger rapidement vers la meilleure combinaison d’aberrations en quelques secondes. Cette approche est possible car généralement il n’y a pas d’évolution temporelle rapide de l’échantillon observé contrairement à l’atmosphère terrestre. Ici l’intérêt de l’optique adaptative est de pouvoir à chaque fois appliquer la meilleure correction quelle que soit la région du tissu à explorer (voir Figure 2.12). A noter que ces approches, dites sensorless, trouvent des débouchés intéressants dans la problématique de l’imagerie à travers les milieux diffusants (voir Chapitre 3, Section 2.4).

2.6

Conclusion

Depuis les années 1980 et les premières démonstrations pour la défense et en astronomie, l’optique adaptative a connu un développement considérable dans plusieurs domaines scientifiques. Cette technologie est aujourd’hui largement utilisée en recherche pour les télécommunications optiques en espace libre, la focalisation de faisceau laser de forte énergie, l’ophtalmologie et la microscopie. Nous avons vu ici que les perspectives en astronomie portent sur l’équipement des futurs extrêmement grands télescopes et la mise en place de solutions instrumentales optimisées aux cas astrophysiques clefs à traiter. En ophtalmologie, l’optique adaptative devient un outil fondamental pour la recherche médicale et des implantations dans de nombreux types d’instruments sont à

42

Imager l’invisible avec la lumière

Fig. 2.12 – Images de cellules épithéliales d’un embryon de souris par microscopie à fluorescence par excitation à deux photons : à gauche sans correction, à droite avec correction par optique adaptative selon une technique sensorless. La barre horizontale grise représente 20µm. Crédit : reproduit de [Débarre et al. 2009] avec permission c

The Optical Society.

l’étude comme avec l’OCT plein champ et l’imagerie par illumination structurée afin d’accroître encore la résolution spatiale accessible. De même, dans le domaine de la microscopie optique, les démonstrations sont spectaculaires pour l’apport en résolution et contraste dans les images. Les applications se développent en particulier pour l’étude du cerveau de rat in vivo comme dans le cortex où l’exploration en profondeur est essentielle.

Bibliographie Babcock H. W., The Possibility of Compensating Astronomical Seeing, PASP, 65, 229 (1953) Clénet, Y., Conan, J.-M., Fusco, T. and Rousset, G. (Eds.), Proceedings of 1st conférence on Adaptive Optics for Extremely Large Telescope, EDP Sciences, Paris, (2010) Débarre, D., Botcherby, E. J., Watanabe, T., et al., Image-based adaptive optics for two-photon microscopy, Opt. Lett., 34, 2495 (2009) Foy, R. & Labeyrie, A., Feasibility of adaptive telescope with laser probe, Astron. Astrophys., 152, L29 (1985) Hardy, J. W., Adaptive optics for astronomical telescopes, Oxford University Press (1998) Liang, J., Williams, D. R., & Miller, D. T., Supernormal vision and highresolution retinal imaging through adaptive optics, J. Opt. Soc. Am. A, 14, 2884 (1997) Müller, A., Keppler, M., Henning Th., et al., Orbital and atmospheric characterization of the planet within the gap of the PDS 70 transition disk, Astron. Astrophys., 617, L2 (2018)

Optique adaptative

43

Rigaut, F., Neichel, B., Boccas, M., et al., Gemini multiconjugate adaptive optics system review – I. Design, trade-offs and integration MNRAS, 437, 2361 (2014) Roddier, F., The effects of atmospheric turbulence in optical astronomy, Progress in Optics, 19, 281 (1981) Roddier, F. (Ed.), Adaptive optics in astronomy, Cambridge University Press (1999) Rousset, G., Fontanella, J.-C., Kern, P., et al., First diffraction-limited astronomical images with adaptive optics, Astron. Astrophys., 230, L29 (1990)











✐ ✐



Chapitre 3 Imager en milieux diffusants Sylvain Gigan

Introduction Lorsque la lumière se propage dans l’air ou dans un bloc de verre, le milieu est homogène et l’onde lumineuse se propage sans perturbation. On parle alors de milieu transparent. Néanmoins, ce n’est pas le cas d’une grande partie des milieux qui nous entourent : les nuages, le papier, un verre de lait sont des exemples de milieux fortement inhomogènes où la lumière est très peu absorbée, mais par contre fortement diffusée, qui leur donne cet aspect blanc et opaque. Décrire exactement la propagation de la lumière est une tache quasi impossible, et il est évidemment extrêmement difficile d’imager dans ce type de milieux. Nous allons tout d’abord donner quelques outils pour comprendre et décrire le phénomène de diffusion de la lumière, ainsi que les ordres de grandeur pour les milieux biologiques, qui sont très diffusants, mais aussi évidemment de toute première importance pour l’imagerie. Nous verrons deux classes de techniques permettant d’imager en profondeur dans ce type de milieu, l’une dite « balistique » permettant d’imager à faible profondeur et bien établie dans le monde de l’optique biomédicale. L’autre approche, utilisant la lumière diffusée, est très prometteuse, mais encore très préliminaire.

3.1 3.1.1

Milieux diffusants Lumière balistique, diffusion simple et multiple

Un milieu diffusant est un milieu hétérogène pour la la lumière, c’est-à-dire que l’indice de réfraction présente des fluctuations spatiales suffisamment rapides pour dévier significativement les ondes. Dans ce cas là, on s’écarte du cas plus simple des milieux aberrants considérés dans le chapitre 2, où l’effet est simplement un effet de flou, dû à la turbulence de l’atmosphère par exemple. Prenons un exemple simple pour comprendre les différents régimes de diffusion

46

Imager l’invisible avec la lumière

de la lumière et leur implication pour l’imagerie : le ciel. Si on regarde le ciel de jour, le soleil est la source lumineuse principale. Lorsqu’il n’y a pas de nuages, on voit le soleil directement : sa forme est bien nette, car la lumière nous parvient en ligne droite, et nous sommes éblouis, car la lumière est très intense et directionnelle, on parle de lumière « balistique ». Le ciel autour du soleil est lumineux et non noir comme de nuit, la lumière qui nous parvient vient donc également du soleil. C’est parce qu’une faible partie de la lumière issue du soleil peut être diffusée par les atomes composants l’atmosphère, et renvoyée vers nous de l’ensemble du ciel : c’est la diffusion simple. La couleur bleue est due au fait que les petites particules diffusent plus efficacement les basses longueurs d’onde du spectre électromagnétique, donc le bleu. C’est pour la même raison que le soleil, bas sur l’horizon, apparait rouge, puisque la lumière nous parvenant doit traverser une couche plus épaisse d’atmosphère où le bleu est diffusé Enfin, dans le cas d’un jour légèrement brumeux, le soleil est encore bien découpé, mais sa lumière ne nous éblouit plus : la lumière balistique, en passant à travers la brume, a été atténuée par les diffusions successives sur les gouttelettes d’eau qui agissent comme des petits diffuseurs pour la lumière. Cette atténuation est rapide et si la brume devient nuage, le soleil devient un simple halo lumineux, sans aucun détail : la lumière du soleil est encore là, mais elle a été diffusée fortement et aucun détail n’est plus discernable. La diffusion affectant toutes les longeurs d’onde à peu près également, la couleur du soleil reste inchangée. Pour quantifier ces effets et déterminer à quelle profondeur on peut encore obtenir une image, il faudrait déterminer exactement l’effet sur la lumière d’un très grand nombre de diffuseurs, ce qui demanderait de connaitre parfaitement leur taille et leur position, tache impossible. Il est possible de faire appel à des grandeurs statistiques, comme la densité et la distribution de taille des diffuseurs. Nous accèdons ainsi à des grandeurs moyennes, en particulier le « libre parcours moyen », c’est-à-dire la distance moyenne parcourue par la lumière entre deux événements de diffusion. Par ailleurs, un événement de diffusion ne va pas nécessairement se faire dans toutes les directions (on parle alors de diffusion isotrope), et lorsque la diffusion se fait vers l’avant, il faut un certain nombre d’événements de diffusion avant que la lumière diffusée ait totalement perdu la mémoire de sa direction initiale. La distance correspondante est appelée libre parcours moyen de transport.

3.1.2

Ordre de grandeur en biologie

Les milieux diffusants sont omniprésents autour de nous, de la neige, la peinture, au brouillard, mais aussi les tissus biologiques. Si imager dans ou à travers de tels milieux est toujours porteur d’applications variées, l’imagerie des tissus a une place particulière, de par son importance énorme, de la compréhension des processus fondamentaux en biologie jusqu’à l’imagerie ou la thérapie pour la médecine. Nous allons donc nous concentrer dans la suite de ce chapitre sur cet exemple très important des milieux biologiques et donc décrire leurs caractéristiques pour la propagation lumineuse.

Imager en milieux diffusants

47

Tout d’abord, les tissus sont hétérogènes pour la lumière à toutes les échelles, depuis l’échelle moléculaire jusqu’à l’échelle des organes. En termes de diffusion, leur comportement est donc extrêmement complexe et difficile à modéliser, puisque la lumière peut tant diffuser de manière quasi isotrope au niveau des structures petites devant la longueur d’onde, qu’être simplement déviée telle une lentille sur des structures plus grosses comme des vaisseaux sanguins par exemple. En plus de la diffusion proprement dite, les tissus sont aussi absorbants, dans certaines gammes de longueurs d’onde. La mélatonine de la peau, par exemple, absorbe très fortement les UV, alors que l’hémoglobine absorbe fortement dans le bleu et le rouge, et est responsable de la couleur rose ou rouge des tissus. Par dessus ces absorptions plus ou moins locales dues à des molécules organiques, l’eau, constituant principal des tissus, absorbe fortement dans l’infrarouge. Lorsque l’on veut imager dans les tissus avec la lumière, par exemple en microscopie (comme discuté en détail dans le dernier chapitre de cet ouvrage), il est souhaitable de pénétrer le plus profond possible sans être absorbé. Heureusement, il existe une gamme de longueurs d’onde dans le proche infrarouge (correspondant à des longueurs d’onde allant de 700 nm à 1,7 micron environ) où la lumière est très peu absorbée dans les tissus, c’est ce qui est appelé la fenêtre thérapeutique. C’est donc dans cette gamme de longueur d’onde qu’on va travailler lorsque l’on souhaite pénétrer profond. Néanmoins, la diffusion reste présente, et il reste donc primordial de tenter de s’en affranchir. Pour fixer les ordres de grandeurs, quelques chiffres à retenir pour la propagation dans les tissus, dans le domaine de longueur d’onde correspondant à la fenêtre thérapeutique, le libre parcours moyen est d’environ 100 microns (et tend à être plus long, donc moins diffusants, en augmentant la longueur d’onde), mais comme la diffusion est préférentiellement vers l’avant, il faut environ 1 mm pour que la lumière devienne totalement isotrope, ce qui correspondant au libre parcours moyen de transport. En comparaison, le libre parcours moyen d’absorption est de plusieurs centimètres.

3.1.3

Imagerie balistique

Pour imager un échantillon biologique à haute résolution, le microscope optique reste l’instrument de choix. Pour les tissus, la stratégie la plus simple consiste à couper une tranche de quelques microns d’épaisseur (par exemple à l’aide d’un instrument appelé microtome), et le fixer entre deux lames de verre, on peut alors l’imager très simplement. Pour un échantillon épais, la surface peut être distinguée de la même façon, mais imager en profondeur est compliqué, tout d’abord parce que on récupère, en plus de l’image nette du plan de mise au point. De nombreuses techniques permettent de s’affranchir des autres plans, par exemple la microscopie confocale ou à feuille de lumière (voir chapitre 5). Néanmoins, même en s’affranchissant de ce problème, il reste le problème de s’affranchir de la lumière diffusée. Il faut donc trouver une stratégie permettant de récupérer une image malgré la diffusion, en utilisant au mieux la fraction

48

Imager l’invisible avec la lumière

Fig. 3.1 – Quelques techniques de microscopie en profondeur, et permettant de s’affranchir de la diffusion. La tomographie de cohérence optique permet d’obtenir une image de densité de l’échantillon, permettant de voir les structures cellulaire. La microscopie multiphotonique, elle, donne une information qui peut être structurelle (ici un neurone marqué par un fluorophore) ou fonctionnelle (son activité neuronale par exemple). Crédit : ESPCI ParisTech

de lumière non-diffusée, c’est-à-dire la lumière dite balistique. En effet, cette lumière, non affectée par la diffusion, s’est propagée en ligne droite et porte l’information spatiale, limitée par diffraction (voir le chapitre 1). Ainsi, il est possible de récupérer l’image d’une structure enfouie. Néanmoins, deux difficultés de taille doivent être surmontées afin de pouvoir utiliser ces photons balistiques. Tout d’abord, leur nombre diminue très rapidement avec la profondeur. En effet, la fraction de lumière non-diffusée décroit exponentiellement, à cause de la diffusion et de l’absorption : c’est la loi de Beer-Lambert. Dans la fenêtre thérapeutique, l’échelle caractéristique donnée par le libre parcours moyen. Pour donner une idée, à une profondeur correspondant à 10 libres parcours moyens (environ 1 mm dans un tissu), il reste environ 1 photon sur 10000. Deux fois plus profond, à 2 mm de profondeur, il n’en reste donc plus qu’un sur 100 millions. Non seulement ces photons sont peu nombreux, mais il sont également noyés dans un fond très intense de tous les autres photons, dont la vaste majorité n’a pas été absorbée et est donc également potentiellement détectée, sans pour autant porter d’information utile à l’imagerie. Imager en profondeur avec les photons balistiques requiert donc d’être à la fois très sensible, mais aussi de savoir discriminer le signal d’intérêt balistique du « bruit » venant de la lumière diffusée. Différentes stratégies permettent d’obtenir ce résultat. On peut par exemple sélectionner spatialement la lumière balistique provenant d’un point dans l’échantillon à l’aide d’un filtrage spatial à l’aide d’un masque percé d’un trou placé dans le système optique, c’est le principe de la microscopie confocale. Alors que les photons balistiques issus d’un point source en profondeur repassent dans le trou et peuvent être détectés, les photons diffusés ou déviés, sont dans leur immense majorité bloqués. Une autre stratégie repose sur l’utilisation d’un processus non-linéaire, c’est le cas par exemple en microscopie multiphotonique. Dans cette technique de microscopie, le but est de détecter la fluorescence émise par des structures en profondeur. Afin d’exciter les

Imager en milieux diffusants

49

molécules fluorescentes, on utilise non pas une excitation directe par laser, mais un laser dont la longueur d’onde est supérieure, donc dont les photons sont d’énergie inférieure à celle nécessaire à exciter la transition permettant la fluorescence. Dans ce cas, la fluorescence ne peut se produire que si au moins deux photons sont simultanément absorbés. Ce processus peut se produire au foyer de l’objectif grâce à la présence de photons balistiques à cette position, mais est virtuellement impossible en dehors du foyer. Dans ces deux types de microscopie, le laser est focalisé dans le plan foyer de l’objectif, et seule la lumière issue de ce point est récupérée. En balayant rapidement ce point dans l’échantillon, on peut ainsi récupérer une image, en s’affranchissant de la lumière diffusée, et à des profondeurs où existent encore des photons balistiques. Une autre technique très utilisée est la tomographie par cohérence optique (ou OCT). Dans cette autre méthode, la sélection des photons balistiques se fait par un filtrage utilisant la cohérence. C’est-à-dire qu’on utilise la propriété de la lumière de produire des interférences uniquement entre des photons ayant une relation de phase bien déterminée. C’est cette propriété, mise en évidence dans l’expérience bien connue de l’interféromètre de Michelson, qui peut être utilisée pour l’imagerie. Par exemple une lampe blanche à filament est extrêmement incohérente, tant spatialement que temporellement. En éclairant un tissu biologique à l’aide d’une telle source, et en regardant les interférences avec un faisceau de référence, nous pouvons ainsi sélectionner uniquement les photons balistiques, provenant d’une profondeur donnée, choisie grâce au bras de référence, et rejeter la lumière diffusée qui, elle, n’interfère pas avec le faisceau de référence. S’il est ainsi possible, en utilisant cette grande variété de techniques, d’imager jusqu’à quelques dizaines à quelques centaines de microns (c’est-à-dire jusqu’à quelques libres parcours moyens de profondeur), ces techniques restent néanmoins relativement superficielles. Cette profondeur peut être néanmoins augmentée, et la résolution de ces techniques améliorées, en utilisant les outils de l’optique adaptative, vues au chapitre 2. En effet, les inhomogénéités à grande échelle des tissus peuvent légèrement altérer ou dévier la lumière balistique sans pour autant la diffuser. l’utilisation de miroirs déformables peut donc restaurer jusqu’à un certain point la qualité des images, et en augmentant le signal, permettent de pénétrer plus profond. Par rapport à l’astronomie, l’optique adaptative pour la microscopie n’est pas spécialement plus simple. Si les aberrations à compenser sont en général statiques, la nécessité de corriger des aberrations volumiques et l’impossibilité d’avoir une « étoile artificielle » en profondeur, limite encore ces techniques aux laboratoires de recherche.

3.2

Imager avec la lumière diffuse

Lorsque l’on s’enfonce en profondeur dans les tissus, la quantité de lumière balistique, c’est-à-dire permettant d’imager de manière conventionnelle, diminue de manière exponentielle. L’imagerie classique devient donc rapidement impossible. Malgré tout, les photons diffusés, eux restent largement présents

50

Imager l’invisible avec la lumière

Fig. 3.2 – Le speckle. Génération d’une tache de d’interférence complexe, appelée « speckle » à partir d’un pointeur laser vert et d’un milieu diffusant. Crédit : Ressource pédagogique, Lycée Argouges, Grenoble à grande profondeur. Nous allons voir comment de nouvelles idées ont permis, lors de ces 10 dernières années, d’imaginer de nouvelles techniques de microscopie à très grande profondeur, utilisant ces photons diffusés.

3.2.1

Le speckle

Lorsque la lumière se propage à travers un milieu diffusant, sa propagation est, nous l’avons vu, très complexe à prédire. En effet, pour la décrire précisément, il faudrait prendre en compte la structure exacte du milieu, à toutes les échelles. Par ailleurs, il est également indispensable de prendre en compte la nature ondulatoire de la lumière, qui signifie que la lumière, diffractant sur les inhomogénéités du milieu, n’est pas simplement déviée, mais diffractée de manière très complexe à chaque évènement de diffusion. De plus, l’onde étant sujette à de très nombreux évènements de diffusion successifs, prédire l’état final devient extrêmement sensible au désordre, et impossible en pratique sur des milieux réalistes. Néanmoins, malgré son extrême complexité, la diffusion multiple n’est pas un phénomène aléatoire et reste un phénomène totalement déterministe et reproductible. Tant que le milieu diffusant ne bouge pas, pour la même

Imager en milieux diffusants

51

illumination, le résultat sera identique. Par ailleurs, c’est un phénomène linéaire, puisque la propagation est décrite par les équations de Maxwell, qui sont linéaires, dans le milieu. Même si le résultat est très sensible à un petit changement du milieu, il n’est pas chaotique comme peut l’être un phénomène de turbulence, et n’est donc pas très sensible à un petit changement de l’illumination. De plus, le principe de superposition s’applique totalement : le résultat correspondant à une illumination complexe (ou une combinaison d’illuminations simples) correspond à la simple combinaison des résultats correspondant aux illuminations individuelles. On illustrera plus loin l’importance pratique de ce principe. Le résultat de la diffusion multiple de la lumière donne lieu, si celle-ci est cohérente (par exemple, issue d’un laser) à des interférences. On peut comparer ces interférences aux interférences les plus simples, c’est-à-dire l’expérience des fentes d’Young qui donnent lieu à des franges d’interférence rectiligne. En comparaison, la figure d’interférence générée par un milieu diffusant est beaucoup plus complexes : c’est une distribution apparemment complètement aléatoire de taches lumineuses d’intensité variable. Cette figure d’interférence, car c’en est une, est appelée en français tavelure, mais le terme anglais « speckle » est plus commun. Cette figure d’interférence très complexe, est néanmoins bien déterministe et reproductible, et présente un certain nombre de propriétés statistiques bien déterminées et robustes. En particulier, les « grains » individuels visibles dans une figure de speckle ont une taille caractéristique bien définie, limitée par diffraction (voir chapitre 1). L’intensité de chaque grain est imprévisible, mais la distribution statistique de ces intensités obéit à une loi très simple, dite exponentielle. L’intensité en chaque point peut être comprise comme une interférence entre de multiples ondes interférant en ce point ayant chacun suivi un chemin complexe différent dans le milieu. Conventionellement, pour que deux ondes interfèrent de manière constructive et donnent une intensité maximale, il faut qu’elles soient en phase. Ici, chaque onde a une phase aléatoire, et c’est la somme de toutes ces contributions aléatoires qui détermine l’intensité d’un grain. Intuitivement, il est clair qu’en moyenne une interférence entre beaucoup d’ondes ayant des phases aléatoires les unes avec les autres donne donc une interférence d’intensité variable, mais en général peu constructive. Il est statistiquement extrêmement improbable que, de manière naturelle, les contributions d’ondes multiplement diffusées soient toutes en phase et donc que le grain de speckle donne une interférence complètement constructive. Nous verrons dans la partie suivante que les outils de manipulation de front d’onde permettent de réaliser cet exploit, et en quoi cela peut être utile pour l’imagerie.

3.2.2

Le contrôle de front d’onde

Nous avons vu au chapitre 2 comment les miroirs déformables permettent de récupérer une imagerie à la limite de diffraction, en pré-compensant la turbulence qui vient perturber les fronts d’onde. Ces miroirs déformables ont peu

52

Imager l’invisible avec la lumière

Fig. 3.3 – Principe de la génération du speckle, comme figure d’interférence complexe. On voit la figure d’interférence, initialement régulière comme simple superposition de 2 puis 3 ondes planes, devenir extrêmement lorsque le sources placées aléatoirement. Crédit : Ressource pédagogique, Lycée Argouges, Grenoble

d’actuateurs, mais sont très rapides, et permettent donc de corriger en temps réel les faibles déformations de l’onde. Dans le cas des milieux diffusants, le phénomène est le même, mais dans un régime très différent. Nous avons vu que le front d’ondes ne sont plus perturbés, mais très fortement modifiés puisqu’ils donne lieu, quelque soit l’entrée, à l’impossibilité de focaliser la lumière et à l’apparition de speckle : au lieu d’un simple « flou » ou perte de netteté, les milieux diffusants sont ainsi dits « opaques ». Un miroir déformable, qui ne consiste qu’en quelques dizaines d’actuateurs au mieux est, en général, impuissant à corriger une perturbation aussi complexe. Néanmoins, d’autres dispositifs que les miroirs déformables ont émergé ces dernières années, qui permettent également de contrôler la lumière sur un très grand nombre de pixels : les modulateurs spatiaux de lumière, ou encore SLM (pour « spatial light modulators » en anglais). Ces dispositifs sont en général basés sur des technologies cristaux liquides, où la réorientation d’un cristal liquide sous l’effet d’une tension permet de changer l’indice optique d’un pixel, et donc de changer localement la phase. C’est la même technologie utilisée dans la plupart des téléviseurs et afficheurs de téléphone portable actuels, à part que c’est la phase et non l’intensité de chaque pixel qui est contrôlée. D’autres technologies, non moins répandues, sont basées sur les technologies MEMS, c’est-à-dire des petits micro-miroirs de quelques microns de large, qu’on peut actionner à volonté (voir figure 3.4). Dans tous les cas, ces dispositifs de contrôle de front d’onde donnent accès à un grand nombre de pixels, allant de plusieurs milliers jusqu’à plusieurs millions. Contrairement aux miroirs déformables, ces dispositifs permettent de s’attaquer au difficile problème de la diffusion multiple.

3.2.3

La conjugaison de phase

La plus simple façon de voir comment le contrôle de front d’onde permet de contrôler la lumière après diffusion est l’expérience de pensée suivante : si une source de lumière génère une onde, et que cette onde génère un speckle après

Imager en milieux diffusants

53

Fig. 3.4 – Deux technologies de modulateurs de front d’onde à grand nombre de pixels utilisés pour la manipulation de la lumière et pour la correction de la diffusion multiple. À gauche, les matrices de micromiroirs mobiles (ici modèle Boston Micromachine), à droite les technologies à cristaux liquide (ici modèle holoeye). Crédit : adapté de Rotter et Gigan, Rev. Mod. Phys (2017)

propagation à travers un milieu complexe, imaginons l’expérience consistant à renvoyer exactement la même onde en arrière, en renversant le signe du temps. Dans ce cas-là, la propagation étant totalement déterministe, l’onde en se repropageant reviendrait sur ses traces et se refocaliserait parfaitement sur la source. C’est le phénomène dit de « retournement temporel », popularisé en acoustique par le physicien français Mathias Fink et son équipe dans les années 1990. En optique, l’opération correspondante pour un laser est une operation appelée « conjugaison de phase », où pour retourner temporellement une onde, il suffit de manière équivalente changer le signe de sa phase. Cette expérience a été réalisée expérimentalement récemment à l’aide d’un modulateur spatial et d’une caméra. L’opération se fait en 2 étapes : une étape d’enregistrement du front d’onde, suivie d’une étape de ré-emission. Dans la première étape, l’interférence entre le speckle et une onde plane de référence est enregistré sur une caméra, c’est ce qu’on appelle un hologramme digital (comme introduit au chapitre 3), qui contient toute l’information sur la phase du speckle, et donc sur le front d’onde. Dans une seconde étape, cette information est réutilisée avec un changement de signe pour créer masque à afficher sur un SLM, qui a préalablement été aligné pixel à pixel avec la caméra. Ce masque de phase est celui qui, lorsqu’une onde plane incidente se réfléchit sur le modulateur, de créer le faisceau conjugué de phase et le renvoyer vers le milieu. Ce conjugué de phase va ensuite se repropager dans le milieu et se refocaliser sur la source initiale. Cette expérience de principe a montré qu’il était possible de refocaliser la lumière, même après propagation dans un milieu, aussi diffusant soit-il.

3.2.4

Optimisation

Si la conjugaison de phase décrite précédemment montre qu’il est possible de refocaliser à travers un milieu en manipulant le front d’onde de la lumière, elle n’est pas forcément pratique à mettre en place pour l’imagerie. Une autre approche a été proposée dans une expérience fondatrice en 2007 menée par l’équipe d’Allard Mosk à l’université de Twente en Hollande. Dans cette

54

Imager l’invisible avec la lumière

Fig. 3.5 – Principe de la conjugaison de phase digitale. Dans une première étape, une image incidente (ici un faisceau focalisé) génère un speckle sur une camera CCD, dont on enregistre l’hologramme avec une onde de référence. Dans une deuxième étape, après calcul, un masque de phase est affiché sur un modulateur de phase SLM et l’onde de référence, en diffractant dessus, génère un faisceau dit « conjugué de phase » qui vient reformer l’image après repropagation à travers le milieu diffusant. Crédit : adapté de Cui et al. et Papadopoulos et al.

expérience, ils ont montré qu’en utilisant un simple algorithme itératif, visant à changer le front d’onde de la lumière incidente sur un milieu diffusant, il était possible obtenir une focalisation de la lumière extrêmement efficace. Pour cela, il suffit de mesurer l’intensité sur un détecteur placé derrière ce milieu (dans leur cas, l’intensité mesurée sur un pixel d’une caméra) et de tenter de la maximiser. Nous avons vu que l’intensité d’un grain de speckle est le résultat d’une interférence entre de nombreux chemins, arrivant avec des phases aléatoires. Nous pouvons comprendre cette méthode comme tentant de maximiser cette interférence, en retrouvant le front d’onde qui remet en phase tous les rayons lumineux arrivant à la position considérée. On peut très simplement comprendre deux propriétés essentielles de la focalisation obtenue. Tout d’abord, on peut montrer que la taille de la focalisation obtenue est celle de la taille d’un grain de speckle, c’est-à-dire une tache de diffraction « parfaite », telle que décrite au chapitre 1. En effet, chaque grain correspond à une distribution de chemin différente. La solution donnant cette interférence constructive à la position choisie reste non-constructive dans tous les autres

Imager en milieux diffusants

55

Fig. 3.6 – Expérience de 2007 de focalisation à travers un milieu diffusant par optimisation du front d’onde. À gauche, une onde plane traversant un milieu diffusant donne, de l’autre coté une figure de speckle. À droite, après optimisation du front d’onde, un focus très intense, et limité par diffraction est obtenu. Crédit : adapté de Vellekoop et al. Optics Letters 2007

grains et il est impossible statistiquement en régime de diffusion multiple que par hasard, un autre grains soit aussi brillant. En terme d’efficacité, on peut aussi se convaincre que la focalisation est d’autant plus intense qu’on a de pixels contrôlés sur le modulateur de phase. Plus précisément, si N pixels sont controlés sur notre SLM, l’intensité initiale d’un grain peut être vue comme le résultat d’une somme N contributions avec des phases aléatoires. La théorie √ des marches aléatoires prédit alors une amplitude moyenne de l’ordre de N fois la contribution individuelle (lorsque l’on fait N pas aléatoires, on est √ en moyenne à une distance N pas de son point d’origine). Par contre, une fois que toutes ces contributions sont mises en phase par l’algorithme itératif du front d’onde, l’amplitude totale est de l’ordre N fois la contribution √ individuelle, dont environ N fois plus loin. Cela signifie donc, lorsque l’on considère l’intensité correspondante (proportionnelle à l’amplitude au carré), le focus est donc environ N fois plus brillant. Dès la première expérience, un focus plus de 1000 fois plus brillant que le speckle environnant a été mis en évidence, avec quelques milliers de pixels, montrant l’intérêt et la robustesse de cette méthode. Il est possible de montrer rigoureusement que la solution revient conceptuellement à tenter de converger vers la solution correspondant au conjugué de phase. Néanmoins, comparée à la conjugaison de phase, cette technique présente de nombreux avantages pratiques, en particulier elle ne nécessite pas de source, seulement un moyen de mesurer l’intensité lumineuse au point d’intérêt. Elle a donc été très largement reprise et développée par la suite.

3.2.5

Matrice de transmission

Les deux méthodes discutées précédemment (conjugaison de phase et optimisation) exploitent le fait que les milieux diffusants, même très complexes,

56

Imager l’invisible avec la lumière

peuvent être considérés comme linéaires est déterministes, pour le champ électromagnétique. Bien sûr, le milieu peut présenter des effets non-linéaires. Par exemple dans les milieux biologiques, certaines molécules présentent une activité non-lineaire pour la lumière (exploitées par exemple en neuroscience pour l’imagerie). Néanmoins, ces effets sont en pratique très faibles et assez localisés, par rapport à la diffusion : au premier ordre, la propagation peut être considérée comme linéaire. Il est donc possible décrire la propagation de la lumière par une relation matricielle, liant les champs en entrée sur un certains nombre d’émetteurs et les champs en sorties sur un certain nombre de détecteurs, qui sont par exemple des pixels du modulateur spatial et de la caméra respectivement. Cette matrice T , et ses coefficients (Tij ), qu’on appelle matrice de transmission, permet donc d’écrire le champ E en sortie sur le j-ième pixel en fonction de tous les champs en entrées : Ejsortie = Σi Tij .Eientr´ee et sous forme compacte Esortie = TEentr´ee . Cette matrice, qui permet de décrire et de comprendre la propagation de l’onde, mais aussi les expériences d’optimisation et de conjugaison de phase, peut en fait être mesurée expérimentalement, comme cela a été montré en 2010 dans notre équipe. En effet, si on dispose d’un SLM, et d’une caméra, et d’un laser, alors on peut envoyer en entrée un certain nombre de fronts d’onde bien déterminés pour « interroger » le milieu, et mesurer en sortie un certain nombre d’images à la caméra. De cette série de mesure, on peut déduire la matrice de transmission. Bien entendu, il n’est pas possible d’envoyer tous les modes, mais on envoie une « base » de modes, permettant de décrire toutes les entrées potentielles. En sortie, on mesure à la caméra l’intensité du champ, on n’a donc pas la phase de l’onde, mais par une mesure de type holographique, avec une onde de référence (voir chapitre 3), on peut remonter au champ lui-même. Pour un mode d’entrée donnée, la mesure en sortie donne une « colonne » de la matrice : en envoyant une base complète de modes d’entrée, on récupère donc la matrice totale. Des travaux plus récents on montré qu’on pouvait remonter à la matrice de transmission, même à partir de mesures d’intensités (sans référence), mais au prix d’un algorithme de reconstruction beaucoup plus couteux en temps de calcul. Avant de voir comment on peut exploiter la matrice, il est tout d’abord intéressant de regarder à quoi ressemble cette matrice : de par la nature très complexe de la diffusion multiple, nous avons vu qu’une onde incidente donne un speckle, une figure d’interférence aléatoire. Ce speckle est très sensible : si on change, même très légèrement, l’onde incidente, ce speckle change complètement. Nous nous attendrions donc à trouver une matrice de transmission en apparence complètement aléatoire. C’est effectivement ce qui a été observé. Bien que cette matrice semble aléatoire et « bruitée », elle contient en réalité toute l’information nécessaire pour faire de l’imagerie à travers le milieu considéré. Il est possible de très simplement calculer quelle entrée permet de générer une sortie donnée (par exemple pour focaliser la lumière), mais également de

Imager en milieux diffusants

57

Fig. 3.7 – Mesure de la matrice de transmission d’un milieu diffusant. Gauche : photo de l’expérience. Droite : représentation de l’amplitude de la matrice de transmission complexe du milieu, on voit sa structure très complexe et en apparence aléatoire. Crédit : banque d’image CNRS, et adapté de Popoff et al., Phys. Rev. Lett. (2010)

directement déterminer, à partir du speckle en sortie, quelle était l’image en entrée. Pour cela, il suffit d’effectuer des opérations simples d’algèbre linéaire sur la matrice de transmission. Idéalement, pour obtenir une certaine distribution du champ en sortie Etarget , il suffit d’envoyer en entrée avec le SLM un champ Ein qui est simplement Ein = T”−1” .Etarget , où ici ” − 1” correspond à une opération sur la matrice de transmission qui peut être, en fonction des cas, une inversion simple, une conjugaison de phase (transposée, conjuguée, parfois notée †), où d’autres opérations similaires, permettant de mieux prendre en compte les contraintes expérimentales, en particulier le bruit de mesure.

3.2.6

Imager grâce au contrôle de front d’onde

Ces principes, simples en apparence, mais néanmoins très puissants, doivent néanmoins être adapté pour l’imagerie dans des scénarios réalistes. En effet, lorsque l’on veut imager en profondeur dans un tissu biologique, on se trouve confronté à un certain nombre de contraintes fortes. La première est que les milieux biologiques n’ont pas le bon goût d’être statiques : ils évoluent en permanence sous l’effet des processus chimiques ou biologiques, que ce soit au niveau microscopique (division et activité cellulaire) au macroscopique (flux sanguins, battements cardiaques, etc...). Par conséquent, les différentes approches se doivent d’être plus rapides que ces changements, qui correspondent à des temps caractéristiques allant de quelques secondes à la milliseconde. Dans le cas de la conjugaison de phase, qui ne comprend qu’une seule étape, c’est relativement simple, puisque cela peut se faire en quelques millisecondes. Par contre, l’optimisation comme l’apprentissage d’une matrice demande un grand nombre d’étapes, d’autant plus grand qu’on veut contrôler un grand nombre de modes d’entrée. Les matrices de micro-miroirs MEMS permettent néanmoins d’aller à plusieurs kHz et une focalisation peut être

58

Imager l’invisible avec la lumière

Fig. 3.8 – Imager avec la matrice de transmission. En haut : à l’aide d’un SLM, il est possible de focaliser à volonté un laser sur un ou plusieurs points, voire scanner ce point pour reconstruire une image. En bas : il est aussi possible, à partir du speckle transmis, de reconstruire une image placée derrière le milieux diffusant, ici avec un efficacité de près de 95%. Crédit : S. Gigan

obtenue sur des milieux ayant des stabilités de seulement quelques dizaines de millisecondes. La deuxième difficulté vient du fait que pour l’imagerie en profondeur dans un tissu biologique, il n’est en général pas possible d’y placer simplement un détecteur (pour l’optimisation ou la matrice de transmission) ou une source (pour la conjugaison de phase). Une problématique très actuelle pour la communauté travaillant sur ce sujet et donc de trouver un moyen de mesurer à distance indirectement l’intensité en profondeur, ou de mesurer la lumière émise ou réfléchie par un petit volume en profondeur. De nombreuses approches ont été proposées, qui peuvent être classées en deux catégories principales. La première est le couplage avec l’acoustique. Cette approche est attrayante, en effet les ultrasons, utilisés de manière routinière pour les échographies médicales, se propagent de manière balistique dans les tissus mous, qui se comportent comme des milieux homogènes pour les ondes acoustiques. En couplant optique et ultrasons, il est possible de localiser la lumière en profondeur, et par exemple mesurer une matrice de transmission « photoacoustique » permettant de focaliser en profondeur, où générer une source optique « virtuelle » grâce aux ultrasons, qui peut être ensuite utilisée pour focaliser de la lumière à l’endroit voulu. La seconde approche est basée sur la fluorescence. Là, l’idée est d’utiliser un signal de fluorescence local en profondeur comme sonde. Cependant les deux approches souffrent encore de limitations importantes : d’une part, la

59

Imager en milieux diffusants

Corrélation du speckle

Décorrélation rapide due au flux sanguin Décorrélation lente due aux autres mouvements

Décorrélation temporaire due à la respiration

Temps (s) Fig. 3.9 – Mesure de la stabilité optique d’un tissu biologique, mesurée en regardant la corrélation du speckle au cours du temps, permettant de mettre en évidence un certain nombre de sources de perturbation et leur temps caractéristique. Crédit : adapté de Lui et al., Nature Communications 2014

Fig. 3.10 – Focaliser en profondeur. Ici une expérience basée sur la conjugaison de phase. À gauche : enregistrement du speckle émis par une source enfouie appelée « guidestar » par analogie avec l’astronomie. À droite : refocalisation de la lumière en profondeur, par conjugaison de phase digitale du speckle précédent. Crédit : adapté de Horstmeyer et al., Nature photonics 2015

résolution permise par l’acoustique est encore un ou deux ordres de grandeurs plus grande que la résolution permise pour l’optique, d’autre part la fluorescence est difficile à utiliser, car il est très compliqué de confiner la source de fluorescence en profondeur (on a en général de la fluorescence diffuse venant de différentes parties du tissu) et le signal est en général très faible. Néanmoins, les progrès sont rapides, en particulier dans les approches hybrides, couplant directement acoustique et fluorescence, et très prometteuses.

60

Imager l’invisible avec la lumière

Enfin, une extension intéressante de ces concepts a émergé, basée sur l’endoscopie. Traditionnellement, imager en profondeur dans un tissu peut se faire, mais de manière invasive, à l’aide d’un endoscope fibré, en général un faisceau de fibres optiques (jusqu’à plusieurs centaines de milliers) liées ensemble, chaque fibre individuelle faisant optique de pixel local. Néanmoins, la résolution et l’encombrement de ces dispositifs est limité par la nécessité d’éloigner suffisamment les coeurs des fibres individuelles les uns des autres, de manière à éviter que la lumière puisse passer d’un coeur à l’autre. La résolution est alors de l’ordre de la dizaine de microns, et le diamètre du faisceau de fibre important (de l’ordre du millimètre), donc très invasif. Ne serait-il pas possible d’avoir un endoscope à la fois plus petit, de l’épaisseur d’une aiguille, tout en gardant le nombre de pixels et en améliorant la résolution ? La solution à ce problème est l’utilisation d’une fibre multimode, c’est-à-dire avec un gros coeur guidant la lumière. Ce cœur porte une densité de mode bien meilleure qu’un faisceau de fibre, permettant en outre un facteur environ 100 sur l’encombrement, à nombre de pixels égal, tout en garantissant une résolution théorique meilleure que le micron. Le problème de l’utilisation de telles fibres pour l’imagerie est le mélange très complexe et imprévisible de ces modes lors de la propagation le long de la fibre. Celle-ci se comporte donc en pratique comme un milieu complexe, et donne donc lieu à l’émergence naturelle de speckle. On peut donc utiliser les mêmes outils de contrôle de front d’onde, comme pour un milieu diffusant, et ainsi les transformer en systèmes optiques performants. Les méthodes d’optimisation, de conjugaison de phase, et de matrice de transmission ont dont été toutes mise en oeuvre ces dernières années sur des fibres multimodes, permettant ainsi des progrès rapides dans ce domaine. La principale difficulté réside, ici encore, dans la stabilité du désordre, ici la sensibilité aux mouvements et torsions de la fibre.

Perspectives et conclusions Les méthodes de contrôle de front d’onde pour l’imagerie en milieux complexes, domaine né il y a à peine dix ans, sont pleines de promesses, mais encore loin d’applications concrètes en biologie, comme peuvent l’être les techniques de microscopie plus conventionnelles. Néanmoins, les principaux jalons ont été posés ces dernières années, validant les principes de base, puis surmontant une à une les difficultés pratiques pour imager dans un tissu biologique. Cet effort a été porté par une communauté scientifique grandissante. Il a été aussi permis grâce aux progrès techniques, que ce soit dans les dispositifs de contrôle de front d’onde toujours plus rapides et performants, mais aussi par les détecteurs toujours plus rapides et sensibles, portés par la loi de Moore et par les applications grand public et scientifiques (astronomie, téléviseurs, capteurs de caméra). Si les problèmes sont identifiés et souvent individuellement résolus, une solution globale n’existe pas encore et prendra encore des années. Pourquoi s’acharner sur ce problème incroyablement difficile, tant conceptuellement que techniquement ? Tout d’abord parce que les enjeux sont

Imager en milieux diffusants

61

Fig. 3.11 – Utilisation d’une fibre multimode comme un endoscope miniature. Le laser et la caméra permettent de mesurer la matrice de transmission de la fibre. Une fois cette matrice mesurée, le même laser permet d’illuminer un objet à travers la fibre. La lumière rétrodiffusée et mesurée à la caméra permet de retrouver l’image,grâce à la matrice de transmission. Crédit : adapté de Choi et al. PRL 2012

énormes en biologie. Les microscopies optiques traditionnelles, dans toute leur diversité (microscopie confocale, de fluorescence, de polarisation, STED, etc...voir chapitre 5), sont devenu des outils incontournables en biologie. Ils donnent une variété infinie d’informations structurelle (de la densité des tissus à leur structure à l’échelle nanométrique) ou fonctionnelle (depuis l’expression locale d’un gène à l’activation d’un neurone), avec une résolution temporelle excellente, une résolution spatiale typiquement micronique (mais pouvant être bien meilleure), le tout souvent in vivo, condition nécessaire pour suivre les processus biologiques en les perturbant le moins possible. Par exemple, en neurosciences, ils permettent de suivre l’activité neuronale, neurone par neurone, impulsion nerveuse par impulsion nerveuse, dans un volume important, permettant de comprendre les processus neuronaux à la fois à grande et petite échelle. Néanmoins, toutes ces techniques sont limitées aux couches superficielles (quelques microns à quelques centaines de microns au mieux) par le « mur » de l’atténuation exponentielle de la composante balistique. Imager plus profond est donc vital, mais avec l’optique conventionnelle, impossible : au-delà de ce mur, ne reste que de la lumière ayant été multiplement diffusée. La deuxième raison, qui dérive de la première, est que les techniques de contrôle de front d’onde, détaillées dans ce chapitre, sont à ce jour la seule

62

Imager l’invisible avec la lumière

option viable pour atteindre ce but. Les techniques d’imagerie dite diffuse, non évoquées ici, permettent d’obtenir des informations optiques, mais avec des résolutions millimétriques voire centimétriques seulement. Les techniques acoustiques, rayon X, PET, ou encore IRM, ont des résolutions bien inférieures (du mm à la centaine de microns pour les meilleures), et n’ont pas la grande variété de contraste permise par l’optique. Le contrôle de front d’onde, par contre, permettant de focaliser la lumière ou de former une image d’un objet enfoui, permet naturellement d’étendre le domaine de la microscopie à la lumière diffusée et donnera naturellement accès à tous ces contrastes variés de microscopie, à grande profondeur. Si ce chapitre permet de présenter les principes et certaines avancées récentes du domaine, il reste un instantané d’un domaine de recherche très actif et en perpétuelle évolution. Il est à parier qu’on verra d’importants progrès dans les prochaines années, et à terme un nouveau et très excitant champ d’application en imagerie biologique.

Bibliographie Popoff, Sébastien M., and Sylvain Gigan. « Contrôle de front d’onde de la lumière en milieux complexes : 10 ans d’avancées scientifiques. » Photoniques 111 (2021) : 37-41. Popoff, Sébastien, Geoffroy Lerosey, and Sylvain Gigan. « Contrôler la lumière à travers un milieu dèsordonné-Approche matricielle et applications. » Techniques de L’ingénieur (2011).

Chapitre 4 Holographie Gilles Tessier et Pascal Berto Les premiers hologrammes réalisés par Dennis Gabor pour l’imagerie électronique autour de 1946 auraient pu rester une curiosité de laboratoire. Cependant, avec l’invention du laser en 1962, l’holographie connut une considérable expansion, une révolution, qui valut à Gabor le prix Nobel de physique 1971. Avec l’apparition des caméras numériques et l’augmentation des capacités de calcul,une évolution plus graduelle mais tout aussi décisive est à présent en cours : en abandonnant les plaques argentiques pour devenir numérique, l’holographie a considérablement élargi ses possibilités. Si l’holographie fascine, c’est avant tout parce qu’elle propose d’enregistrer, mais aussi de restituer le monde tel que nous le percevons : en trois dimensions. De nombreuses techniques existent aujourd’hui qui permettent d’enregistrer et restituer une illusion de tridimensionnalité, il importe de commencer par distinguer ces artifices, comme la stéréoscopie, de la véritable holographie.

Prérequis : transformée de Fourier, fréquences spatiales Chacun le sait, un son complexe peut se décomposer en différentes fréquences : graves, mediums, aigus, qui constituent le spectre de ce son. Celuici s’affiche sur l’égaliseur graphique de certaines chaines hifi ou logiciels de lecture audio. A l’instar d’un son, tout signal dépendant du temps peut être décrit par son spectre, mais rien n’empêche de faire de même pour un signal dépendant d’une autre variable que le temps. La Transformée de Fourier, introduite par les travaux de Joseph Fourier, permet de calculer le spectre d’un signal quelconque, et il est tout à fait possible de calculer le spectre d’une fonction dépendant de l’espace (de la position), ou même le spectre d’une image. Pour s’en convaincre, considérons une image en noir et blanc (figure 4.1) : une coupe suivant une ligne horizontale de cette image constitue une succession continue de niveaux de gris, donc de valeurs, par

64

Imager l’invisible avec la lumière exemple entre 0 (noir) et 256 (blanc). Cette courbe, tout comme un signal audio (il suffirait de remplacer la position x par le temps t), peut subir une transformée de Fourier et être décrite par ses fréquences. Des variations brutales des niveaux de gris, par exemple dues à de petits détails dans l’image comme des hachures, correspondront alors à de hautes fréquences (les aigus, s’il s’agissait d’un son). Au contraire, les variations plus douces de niveaux de gris, comme le passage graduel de la lumière à l’ombre, correspondront à des fréquences basses (les « graves »). Cette opération effectuée sur une coupe horizontale de l’image peut évidemment être répétée suivant la verticale, et partout sur l’image. Si le spectre est une simple courbe (1D) pour un signal fonction d’une seule variable (un son, fonction de t), il est donc bidimensionnel (2D) pour une fonction de deux variables (x et y, pour une image) : le spectre d’une image est une image. . . mais beaucoup moins lisible pour un œil non averti. Pour distinguer le spectre ou les fréquences d’une image de leur analogue temporel (notamment les signaux audio), on parle de fréquences spatiales. Sur un tel spectre, les basses fréquences spatiales (tout ce qui dans l’image varie progressivement) sont au centre, tandis que les hautes fréquences spatiales (les petits détails, variations brutales) sont sur les bords de l’image. Une photographie floue, contient essentiellement des basses fréquences, soit une petite tache au centre de son spectre. Au contraire, une image piquée, de bonne résolution et riche de détails contient des basses et des hautes fréquences spatiales : son spectre correspond à une tache beaucoup plus étalée. Les applications en sont innombrables en imagerie. Ainsi, il est numériquement aisé de ne retenir que les hautes fréquences spatiales si l’on souhaite accentuer les contrastes, ou au contraire seulement les basses si l’on veut adoucir l’image. De nombreuses techniques de compressions (dont la célèbre norme jpeg) choisissent ainsi de supprimer les fréquences spatiales auxquelles l’œil humain est peu sensible de manière à alléger fortement le volume d’information, tout en préservant en grande partie l’aspect de l’image.

4.1 4.1.1

Introduction à l’holographie Tridimensionnalité ou stéréoscopie ?

Les systèmes de restitution dits 3D sont aujourd’hui courants, et nous avons tous déjà assisté à une projection cinématographique utilisant des lunettes qui permettent d’offrir à chacun de nos yeux des images légèrement décalées restituant l’illusion de la profondeur. Les seuls capteurs optiques dont nous disposons, nos deux rétines, sont en effet des surfaces bidimensionnelles. Il suffit donc de présenter à chacune de ces rétines des images 2D pour que

Holographie

65

Fig. 4.1 – De même qu’un signal temporel (par ex. un son) peut être décrit par ses fréquences (basses, mediums, aigus, . . . ), une image peut être décomposée en fréquences spatiales. Pour chaque ligne ou colonne, une Transformée de Fourier (T.F.) permet d’extraire des fréquences, basses si l’image est peu contrastée, plus élevées sinon. Ainsi, la TF de l’image d’une pomme, décrivant ses fréquences spatiales, est également une image (à droite).

notre cerveau, interprétant les subtiles différences entre ces deux images, puisse déduire une information sur l’éloignement des objets observés : si vous regardez un objet situé à plus d’une dizaine de mètres (on simplifie souvent, en optique, en disant plutôt « à l’infini »), vos yeux en perçoivent des images identiques. En revanche, lorsque vous lisez ces lignes, à moins d’un mètre, il suffit de fermer un œil puis l’autre pour se convaincre que les deux images perçues diffèrent. Les choses se compliquent en pratique si l’on tient compte d’une autre source d’information dont dispose notre cerveau : l’accommodation, c’est-àdire la déformation qui doit être appliquée par des muscles de l’œil au cristallin afin de former sur la rétine une image nette, pour une distance donnée. Ainsi, si deux images strictement identiques sont projetées sur nos rétines, notre cerveau en déduit naturellement que l’objet est très éloigné, voire à l’infini. Notre réflexe est alors de relâcher les muscles du cristallin afin d’observer une image nette, ce qui fonctionne parfaitement dans la vie de tous les jours. Face à une projection « 3D » stéréoscopique, les choses sont cependant différentes : pour observer les images, notre œil accommode tout au long de la projection à plusieurs mètres, là où se trouve l’écran. Dans le même temps, le système stéréoscopique offre à nos yeux des images décalées afin, par exemple, de créer l’illusion d’un objet situé devant notre nez. Un cristallin accommodant à plusieurs mètres pour un objet semblant situé à quelques centimètres : il y a là pour notre cerveau une forte contradiction, qui est chez la plupart d’entre nous source d’inconfort. Plus important peut être, il manque à l’observateur un aspect essentiel de son expérience usuelle de la réalité : la liberté de mouvement. Le point de

66

Imager l’invisible avec la lumière

vue est fixe, choisi par le réalisateur, et correspond strictement à la position de la caméra du chef-opérateur. Nous savons tous qu’il est inutile de se lever de son siège de cinéma 3D pour tenter de changer de point de vue, de parallaxe : l’image perçue resterait à peu près la même. A présent, cette liberté de mouvement commence à être accessible grâce à la réalité virtuelle. Dans ces systèmes, un capteur enregistre les mouvements de la tête du spectateur. Un ordinateur disposant d’une description tridimensionnelle complète de la scène se charge alors de calculer l’aspect de la scène telle qu’elle serait vue par chacun des yeux de l’utilisateur, à leur position exacte, et leur offre alors deux images correspondant effectivement à une représentation réaliste. Pourtant, là encore, les deux images projetées vers nos yeux sont bidimensionnelles, planes. Il s’agit une fois encore d’une illusion, plus réaliste et sophistiquée, qui cherche seulement à créer une impression sensorielle chez l’utilisateur, en ne lui offrant que l’information dont il a besoin, à l’endroit où il se trouve virtuellement. La scène, dans sa totalité, n’existe finalement que dans la mémoire de l’ordinateur chargé du calcul, et n’est jamais restituée que partiellement. A n’en pas douter, ce sont ces techniques de réalité virtuelle qui seront dans un futur proche les plus à même de nous offrir l’illusion d’un monde proche du réel, et il est peu probable que l’holographie finisse par apporter une réponse pratique à la question de la restitution 3D : sa véritable richesse, nous le verrons plus loin, est ailleurs. Cependant, si la complexité technologique nécessaire à une stéréoscopie fidèle, à une illusion de tridimensionnalité parfaite, est si grande, c’est tout simplement parce que les procédés que nous venons d’évoquer sont incapables d’enregistrer ou de restituer la totalité de l’information optique d’une scène.

4.1.2

Enregistrer ou restituer ?

Comme son étymologie l’indique, l’holographie permet justement d’inscrire (-graphein) la totalité (holo-) de l’information disponible. L’hologramme désigne alors l’information enregistrée, que le support soit une plaque argentique ou une image numérique stockée dans un ordinateur. Cette étymologie a cependant ses limites : elle n’indique pas que l’opération de restitution d’une onde optique fait également partie du processus holographique. On pourrait légitimement parler « d’holoanagnosie » pour cette opération de lecture, qu’elle soit analogique (lorsque l’on éclaire un hologramme pour restituer une onde optique) ou numérique (lorsque l’on calcule l’onde optique à partir de l’hologramme enregistré). Aujourd’hui, ces deux usages distincts de l’holographie sont courants, particulièrement dans les applications biologiques, et il importe de les distinguer soigneusement : l’holographie permet d’enregistrer un ensemble d’ondes, mais aussi de les restituer, c’est-à-dire de projeter un motif optique dans une région choisie de l’espace.

Holographie

4.1.3

67

Phase des ondes

L’enregistrement holographique : réduire d’une dimension. . . Si les capteurs actuels (caméras CCD, CMOS, plaques argentiques. . . ) ne permettent pas directement d’enregistrements 3D, c’est principalement pour deux raisons : – En premier lieu, parce qu’ils sont plans (2D) et non tridimensionnels. Effectuer un enregistrement holographique, c’est donc parvenir à coder sur des capteurs 2D, les seuls dont nous disposions en pratique, une information sur une réalité 3D. De manière généralisée, on peut d’ailleurs parler d’holographie dès lors que l’on parvient à enregistrer une information à N dimensions sur un support à N-1 dimensions. – En second lieu, c’est parce que les caméras, bien trop lentes pour suivre les oscillations d’une onde optique, ne sont sensibles qu’à leur intensité. Une part très importante de l’information, la phase de l’onde, est tout simplement perdue lorsque l’on prend une photographie. ... et enregistrer la phase des ondes La principale prouesse de l’holographie optique, c’est de permettre d’enregistrer cette phase des ondes à l’aide de capteurs qui n’y sont a priori pas sensibles. Lorsqu’un atome émet de la lumière, on peut considérer qu’il le fait à partir d’un instant donné : l’oscillation du champ électromagnétique, par exemple sinusoïdale, débute à un instant arbitraire. Cependant, ce champ oscille très rapidement : sa période est de l’ordre de 10–15 s pour la lumière visible, et aucun détecteur ou oscilloscope n’est capable de suivre directement une oscillation aussi rapide. Les détecteurs de lumière existant en sont réduits à mesurer l’amplitude de ces oscillations, ou leur intensité. Plutôt que de mesurer cet instant, on préfère généralement noter son décalage par rapport à une autre onde de référence, car cette grandeur, elle, est mesurable de manière indirecte. Puisque l’onde sinusoïdale a une période, 2π, on note ce décalage sous la forme d’un angle, ϕ, qui peut varier entre 0 et 2π. Pour la mesurer, on a recours au phénomène d’interférence (Figure 4.2) : si deux ondes de même amplitude arrivent parfaitement synchronisées (ϕ = 0) en un point donné, elles vont se cumuler pour produire une amplitude double, donc une lumière plus intense. Au contraire, si ces deux ondes sont décalées d’exactement ϕ = π, elles pointent en permanence dans des sens opposés, s’annulent, et l’intensité lumineuse est nulle. On parle respectivement d’interférence constructive ou destructive. Entre ces deux situations extrêmes, l’intensité mesurée correspond de manière univoque à ϕ : la mesure de cette intensité à l’aide d’une photodiode ou d’une caméra permet donc d’obtenir la phase ϕ. L’holographie est l’une des nombreuses techniques dites interférentielles qui permettent d’accéder à la phase.

68

Imager l’invisible avec la lumière

Fig. 4.2 – Si deux ondes de même fréquence et meme amplitude sont en phase, c.à.d. si leurs maxima coïncident (en haut, ϕ = 0), leur superposition est constructive et produit une onde de plus grande amplitude (brillante). Si elles sont en opposition (en bas, ϕ = π), c.à.d. si les maxima de l’une coïncident avec les minima de l’autre, elles s’annulent mutuellement (sombre). Entre les deux (au milieu), la luminosité varie en fonction du déphasage ϕ qui peut ainsi être mesuré grâce à l’intensité lumineuse résultante.

Fig. 4.3 – Déphasage à la traversée d’un milieu transparent ou à la réflexion sur un objet : représentation sous forme d’onde (à gauche) et de surfaces d’ondes (au milieu et à droite).

Phase et front d’onde Examinons à présent une onde ayant rencontré un objet quelconque. En raison des réflexions, diffusions, réfractions, la phase de la lumière est perturbée puisque la lumière a parcouru des trajets différents suivant le point considéré. Les équiphases, les points où la phase est identique, également appelés fronts d’onde, sont déformées par la propagation dans cet environnement complexe. Comme illustré à la Figure 4.3, deux ondes parfaitement synchronisées (à gauche) vont avoir des parcours différents suivant le(s) milieu(x) traversé(s).

Holographie

69

Dans un milieu d’indice n supérieur à l’air (c’est le cas de tous les milieux denses : l’eau a un indice de 1,3, le verre 1,5. . . ), la longueur d’onde est raccourcie d’un facteur 1/n, et son parcours s’en trouve affecté : à la sortie du matériau, les deux ondes ne sont plus synchrones, un déphasage ∆ϕ est apparu. En repérant tous les points de l’onde ayant la même phase, ceci peut être représenté sous la forme de surfaces d’onde (Figure 4.3, droite). On le voit ici, plus l’onde est passée à travers un milieu dense (d’indice élevé) et épais, et plus elle se trouve retardée : le déphasage subi à la traversée d’une cellule vivante, par exemple, révèle sa structure. Il est proportionnel au produit n.e de l’indice n et de l’épaisseur e du milieu traversé et porte donc une information pertinente que l’holographie permet de mesurer avec une très grande sensibilité. Le même phénomène se produit lorsque de la lumière est réfléchie ou diffusée par un objet tridimensionnel : le parcours de la lumière diffère en fonction de son point d’impact, puisque la longueur du trajet, donc ledécalage de la phase, n’est pas le même. On le voit ici : la déformation qu’un objet réfléchissant ou transparent impose au profil de phase porte une information très riche sur sa structure. C’est précisément cette information, inaccessible en photographie classique, que l’holographie propose d’enregistrer en utilisant les interférences, constructives ou destructives, décrites plus haut.

4.1.4

Notion de cohérence

En pratique, il est évidemment délicat d’utiliser un seul photon, ou un seul atome comme source de lumière pour observer des interférences : un très grand nombre d’atomes et de photons contribuent à la lumière observée. La situation est alors très différente suivant que l’on utilise un laser ou une source plus conventionnelle. Dans la plupart des sources de lumière, les atomes émettent leur lumière de manière incohérente, c’est-à-dire spontanée et indépendante, avec une phase aléatoire : ϕ(t) varie trop rapidement avec le temps t pour pouvoir être mesurée. Ces photons émis à des instants et positions aléatoires peuvent se comparer aux vaguelettes créées lorsqu’on jette une poignée de graviers dans de l’eau : chaque caillou crée une onde circulaire, mais l’interaction (l’interférence) avec les vaguelettes voisines rend le motif illisible si on l’observe au-delà de quelques centimètres du point d’impact. Dans le cas d’un laser, au contraire, les atomes émetteurs, confinés entre les miroirs d’une cavité, sont contraints à émettre des ondes cohérentes, c’est-à-dire ayant toute la même phase : ϕ(t) = cte. Pour reprendre l’analogie précédente, le laser peut se comparer à une houle régulière, dont la perturbation, ou l’interaction avec une autre vague, pourra rester lisible quelle que soit la distance à la source. Cette stabilité facilite grandement la mesure : la mesure interférentielle de la phase, que nous venons de décrire plus haut, peut être réalisée comme décrit plus haut bien qu’un très grand nombre de photons interviennent. Pour cette raison, les lasers sont largement privilégiés en holographie. Comme nous le discuterons à la fin de ce chapitre, des techniques se rapprochant fortement de l’holographie

70

Imager l’invisible avec la lumière

émergent aujourd’hui en lumière incohérente, et promettent de révolutionner l’holographie. En lumière incohérente, obtenir des interférences, donc une information sur la phase, est beaucoup plus délicat en raison des variations rapides de ϕ(t). Il existe pourtant une référence capable d’interférer en toutes circonstances avec une onde objet incohérente : il suffit d’utiliser la même onde, à tout instant parfaitement synchrone avec elle-même, à la fois comme onde objet et onde référence. Les interféromètres capables de travailler en lumière blanche fonctionnent donc souvent sur un principe simple : séparer en deux faisceaux la lumière issue d’une même source, puis les recombiner afin de les faire interférer. C’est par exemple ce qui se produit lorsque nous observons les couleurs irisées (dites « teintes de Newton ») prise par une bulle de savon ou une mince couche d’huile sur une flaque d’eau : la lumière du soleil est réfléchie à la fois par l’interface eau/huile et l’interface huile/air. Ces deux réflexions, puisqu’elles proviennent de la même source et ont suivi des chemins très voisins (la couche d’huile n’ayant que quelques centaines de nanomètres d’épaisseur), sont capables d’interférer. Constructive pour certaines longueurs d’ondes et destructive pour d’autres, l’interférence se traduit par une modification sinusoïdale du spectre du soleil, donc par une couleur visible. Si la différence de parcours (ou différence de marche) entre ces deux ondes dépasse quelques micromètres, les deux ondes ne sont plus suffisamment corrélées, et les interférences ne sont plus visibles : les irisations visibles lorsqu’il n’y a qu’une goutte d’huile sur la flaque disparaissent si l’on y verse un verre d’huile entier... Pour pouvoir observer des interférences en lumière incohérente, il est donc important de pouvoir séparer l’onde en deux, tout en maintenant une très faible différence de marche entre ces ondes.

4.2 4.2.1

Principe de l’holographie L’holographie : enregistrement

Que l’on travaille en lumière incohérente ou (le plus souvent) cohérente, l’enregistrement holographique repose sur la superposition de deux ondes. La première, dite onde objet, correspond à ce qui est habituellement enregistré en photographie : il s’agit de la lumière réfléchie ou transmise par l’objet. La deuxième, dite de référence, est une onde parfaitement connue, généralement uniforme. La superposition de ces ondes au niveau du capteur va permettre d’enregistrer une figure complexe, et généralement difficile à interpréter à l’œil nu, l’hologramme. Il existe un grand nombre de variantes et configurations en holographie, mais l’essentiel des concepts sont communs. Nous ne décrivons ici que l’une des configurations les plus courantes, celle de l’holographie hors d’axe (l’axe des ondes objet et référence forme un angle), dans une implémentation proche de celle initialement proposée par Gabor dans les années 1960. Ecrivons O l’amplitude de l’onde objet et R celle de la référence (notons que ces grandeurs sont des nombres complexes, une notation qui permet notamment

Holographie

71

Fig. 4.4 – a) Interférence entre deux ondes planes, b) interférence entre une onde plane et une onde sphérique (par exemple une onde plane passée à travers une lentille divergente), c) interférence entre une onde plane et un objet complexe. Enregistrées sur une plaque photographique ou une caméra, ces figures d’interférences constituent l’hologramme.

de porter l’information sur la phase). Un détecteur sensible uniquement à l’intensité optique (c’est le cas de tous les détecteurs courants, de la plaque photo à la caméra) mesure le module carré de ces grandeurs : IO = |O|2 si seul l’objet est éclairé, IR = |R|2 si l’on n’envoie sur le détecteur que l’onde de référence. Dans les deux cas, aucune image interprétable n’est visible, et le détecteur reçoit une intensité relativement uniforme. Les choses sont très différentes si l’on superpose ces deux ondes : l’amplitude résultante est O + R, et le détecteur mesure une intensité I = |O + R|2 = (O + R).(O + R)* = |O|2 + |R|2 + OR* + RO* = IO + IR + OR* + RO*. Même le lecteur non familier des nombres complexes l’aura remarqué, l’intensité mesurée par le détecteur n’est pas simplement la somme des intensités objet et référence : les termes OR* + RO* traduisent une interférence entre les deux faisceaux, qui est l’hologramme. En l’absence d’objet, il s’agirait d’une interférence entre deux ondes planes inclinées : de la lumière aux nœuds d’intersection entre ces ondes une absence de lumière ailleurs, soit des franges alternativement sombres et brillantes, comme représenté à gauche à la Figure 4.4. En présence d’un objet, le front d’onde déformé donne lieu à une figure plus complexe. Ainsi, si le front d’onde est sphérique (par exemple si l’objet étudié est une lentille), il s’agit de franges concentriques (Figure 4.4b). Dans la plupart des cas, l’objet est plus complexe encore, et donne lieu à une figure d’interférences qu’il est difficile d’interpréter intuitivement (Figure 4.4c). En holographie argentique, on enregistre cette intensité, une figure complexe dont les plus fins détails sont à l’échelle de la longueur d’onde, sur une plaque photosensible qui est développée chimiquement. Après développement, cet hologramme argentique comporte donc des zones opaques et des zones transparentes finement structurées proportionnelles à I. Il faut ici rappeler plusieurs contraintes fortes, qui expliquent en partie que les techniques

72

Imager l’invisible avec la lumière

Fig. 4.5 – Restitution d’un hologramme argentique : après développement, la plaque est illuminée avec l’onde de référence. Le front d’onde initial est restitué, et deux images sont produites. L’une (ici à gauche) est virtuelle, et peut être observée à l’œil à l’emplacement exact où se trouvait l’objet. L’autre (à droite), est réelle et symétrique de la précédente par rapport à la plaque. Puisque l’intégralité du front d’onde est reproduite, la stéréoscopie et l’effet du déplacement de l’œil de l’observateur sont fidèlement restitués.

holographiques soient restées confinées dans les laboratoires, donnant finalement lieu à peu d’applications grand public. Tout d’abord, il est indispensable que l’onde ayant rencontré l’objet et l’onde de référence soient cohérentes entre elles, et proviennent donc d’un même laser, ce qui contraint fortement l’éclairage de la scène. Mais surtout, il est indispensable que l’ensemble du système soit stable à l’échelle de la longueur d’onde, soit typiquement 500 nm. Un mouvement ou une vibration de l’ordre de la centaine de nanomètres suffisent en effet à décaler les fronts d’onde entre eux et conduisent à des franges brouillées, donc à un hologramme uniformément gris ne portant aucune information. En laboratoire, ces conditions sont obtenues à l’aide de tables massives et amorties afin de minimiser les vibrations, mais il est évidemment délicat de faire de même lors d’une prise de vue cinématographique.

4.2.2

Restitution analogique de l’hologramme

Pour restituer le front d’onde, il suffit d’illuminer à nouveau la plaque à l’aide de l’onde de référence R ayant servi à l’enregistrement (Figure 4.5). Puisque la plaque photographique a enregistré l’hologramme I, l’amplitude optique transmise est le produit des deux : I.R = (IO + IR )R + OR*R + RO*R. Le premier terme, appelé ordre de diffraction 0, restitue (à un facteur IO + IR près) l’onde de référence R, et ne porte aucune information utile. Les deux termes suivants, OR*R et RO*R sont appelés ordres de diffraction +1 et −1, et sont plus intéressants. Les produits R*R et RR correspondent en effet à l’onde de référence, plane et uniforme. Deux ondes d’amplitudes proportionnelles à O

Holographie

73

et O* sont donc apparues après traversée de la plaque photographique : l’onde d’amplitude O, en particulier, est donc restituée à l’identique. A un facteur IR = RR* près (l’intensité de l’onde de référence servant à éclairer la plaque intervient évidemment dans la restitution), tout se passe comme si l’objet était encore présent à l’endroit où il se trouvait lors de l’enregistrement Cette image est accompagnée de son conjugué complexe O*, qui correspond à une image réelle symétrique par rapport à la plaque photo (à droite sur le schéma). Cette image réelle peut être observée sur un écran ou projetée sur un échantillon, et est particulièrement utilisée pour projeter des motifs choisis, comme nous le verrons plus loin. De manière schématique, on peut dire que l’hologramme inscrit sur la plaque contraint et transforme l’onde de référence qui la traverse pourqu’elle reprenne exactement les propriétés (amplitude et phase) de l’onde associée à l’objet. Plus généralement, il existe donc une plaque photographique (à supposer que l’on dispose de la technologie nécessaire à sa détermination et à sa fabrication) capable de donner à une onde plane une forme arbitrairement choisie et de restituer l’image d’un cachalot ou d’un pot de pétunias. L’onde O étant strictement identique, en amplitude et phase, elle conserve un grand nombre de propriétés de l’objet. En particulier, la dépendance angulaire est conservée : les images vues par les deux yeux de l’observateur à travers la plaque diffèrent (d’où l’impression de tridimensionnalité), et varient lorsqu’il se déplace, comme lorsque l’objet était présent. On comprend ici l’intérêt d’avoir introduit un angle entre les faisceaux objet et référence : une onde objet et une onde référence alignées pendant l’enregistrement auraient conduit lors de la restitution à une référence, une image virtuelle et une image réelle superposées suivant l’axe horizontal, donc à une image brouillée pour l’observateur. Cette configuration dite « hors d’axe » est préférée dans la plupart des cas, mais la configuration « sur l’axe » est parfois utilisée, particulièrement sur échantillons transparents. Notons également que, à la différence d’une image classique, l’information sur l’onde objet est distribuée sur toute la plaque photo : chacun des morceaux d’un hologramme brisé permettront toujours d’observer l’image (quoiqu’au prix d’une dégradation de la qualité d’image). Enfin, notons qu’il n’est pas indispensable d’utiliser pour la restitution une onde strictement identique à la référence R : la plupart des hologrammes peuvent être observés avec d’autres longueurs d’ondes, voire en lumière blanche, même si l’image obtenue s’en trouve modifiée. C’est d’ailleurs l’idée des premiers hologrammes de Gabor, qui souhaitait observer à d’autres longueurs d’ondes des plaques acquises en microscopie électronique pour profiter d’un effet de grandissement. Malgré d’impressionnantes capacités à reproduire le réel, il faut reconnaitre que les techniques analogiques que nous venons de décrire n’ont trouvé, audelà de très beaux hologrammes, qu’un nombre limité d’applications scientifiques ou grand public. En revanche, l’acquisition et la restitution numérique, sont aujourd’hui en plein développement et utilisés dans des domaines variés : vibrométrie, mécanique des fluides, ou microscopie.

74

4.3 4.3.1

Imager l’invisible avec la lumière

Holographie numérique Configuration expérimentales

Une large part des problématiques de l’holographie argentiques se retrouvent en holographie numérique. L’holographie hors axe est l’une des configurations les plus répandues afin d’éviter, lors de la reconstruction, une superposition entre l’onde de références et les images réelle ou virtuelle. La Figure 4.6a présente un montage classique d’holographie utilisant des miroirs semi-réfléchissant qui permettent de diviser un faisceau, ou de recombiner deux faisceaux. L’utilisation de caméras numériques présente cependant d’autres avantages : il est possible de filmer l’hologramme et son évolution au cours du temps afin de détecter des changements. C’est ce qui est mis à profit dans l’holographie à décalage de phase (phase-shifting en Anglais, voir Figure 4.6b). De manière périodique, un décalage de phase est introduit, généralement sur le bras objet. Un miroir monté sur un moteur dont la position oscille (souvent une cale piézoélectrique déformable) permet ainsi d’obtenir un déphasage ϕ variant périodiquement. On obtient localement une variation des conditions d’interférences : les franges de l’hologramme défilent. En effectuant une prise de vue lorsque l’interférence en un point donné est constructive, puis lorsqu’elle est destructive, il est possible d’isoler, par exemple en soustrayant ces deux images, la partie des franges qui défile. L’avantage majeur de cette technique est d’éliminer par soustraction tout ce qui, dans la figure obtenue, est statique. C’est notamment le cas des interférences parasites qui se produisent inévitablement, lorsqu’on utilise un laser, sur les différents éléments optiques, ou sur des poussières ou imperfections du montage. Numériquement débarrassés de ces imperfections, les hologrammes obtenus permettent des reconstructions de meilleure qualité. Dans certains cas, la synchronisation du décalage de phase avec un phénomène périodique (par exemple une vibration acoustique) peut de surcroit être mise à profit pour isoler ce phénomène modulé : c’est l’une des techniques utilisées pour l’analyse sensible de modes acoustiques dans des instruments de musique, des tympans d’animaux, ou pour l’analyse de vibrations dans des machines.

4.3.2

Reconstruction numérique

Enregistrement et restitution numérique En remplaçant la plaque photographique par une caméra, il est évidemment possible d’acquérir un hologramme rapidement, en évitant l’étape du développement chimique, mais aussi de traiter l’information de manière plus quantitative, même si le nombre de pixels disponibles reste généralement inférieur à ce que propose une plaque photographique. La reconstruction, telle que nous venons de la décrire, est cependant bien plus délicate à réaliser puisqu’il faut disposer d’un afficheur numérique capable de reproduire l’image mesurée et

Holographie

75

Fig. 4.6 – Description de deux configurations de microscopies holographiques numériques. a. Configuration hors axe (ou off-axis). Après le système d’imagerie (imaging system), un miroir semi-réfléchissant (beamsplitter) permet d’envoyer la référence vers le capteur. b. Configuration décalage de phase (ou phase-shifting). Crédit : Adapté de Park, Y., Depeursinge, C. & Popescu, G. Quantitative phase imaging in biomedicine. Nature Photonics 12, 578–589 (2018)

d’être éclairé par une onde de référence. Les Modulateurs Spatiaux de Lumière (SLM pour l’acronyme anglais), décrits au chapitre 3, sont des afficheurs à cristaux liquides pilotables par ordinateur qui permettent cela. Ici encore, la résolution limitée (quelques millions de pixels) ne permet pas d’obtenir un rendu 3D de qualité, ni de rivaliser avec une plaque photographique : la restitution holographique d’une image ou d’un film est encore assez loin d’applications grand public. En revanche, comme nous le verrons plus loin, ils sont parfaitement adaptés à la projection de motifs. Pour ces raisons, la restitution d’hologrammes pour des applications scientifiques se fait essentiellement par calcul numérique. Si les informations

76

Imager l’invisible avec la lumière

Fig. 4.7 – Reconstruction numérique d’un hologramme. La transformation de Fourier permet de visualiser les trois ordres de diffraction −1, 0 et +1. L’ordre 0, au centre de l’image, correspond aux fréquences spatiales nulles il est uniforme et ne porte aucun détail, contrairement aux ordres +1 et −1 qui, en raison de l’inclinaison des faisceaux, sont décalés. Numériquement, l’un des ordres (ici +1) est isolé, puis multiplié par le terme de propagation eikz , où z est, à un facteur près, la distance entre la caméra et le plan à reconstruire. Après transformée de Fourier inverse, l’image obtenue correspond à l’aspect de l’onde optique dans ce plan. En répétant cette opération pour autant de valeurs de z que nécessaire, on peut reconstruire plan par plan la totalité du volume.

d’amplitude et de phase, donc la 3D, sont conservées, l’affichage reste cantonné à un banal écran d’ordinateur. Depuis Maxwell, les lois de propagation des ondes électromagnétiques sont bien connues : à partir de la connaissance de l’amplitude et de la phase dans un plan donné (celui de la caméra), il est possible de calculer l’état de l’onde dans n’importe quelle autre région de l’espace. L’un des modes de calcul les plus courants implique la transformée de Fourier, une transformation mathématique qui permet de séparer les différentes fréquences d’un signal. En effet, la propagation d’une onde électromagnétique sur une distance z est très simple à calculer après une transformée de Fourier : il suffit de multiplier par la grandeur eikz puis d’effectuer une transformée de Fourier inverse pour repasser de l’espace des fréquences spatiales à l’espace habituel (direct). Cet algorithme de reconstruction est présenté à la Figure 4.7. Après la première transformée de Fourier, on peut observer clairement les 3 ordres de diffraction présents dans la restitution numérique. L’ordre zéro, au centre, porte essentiellement la référence, et s’accompagne d’un motif en croix causé par le bruit de la caméra, qui est particulièrement marqué suivant les axes des pixels. Les deux taches circulaires portent, de manière ici indistincte, toute l’information sur les ordres +1 et −1. L’écart entre eux est, de manière analogue à ce que nous avons observé dans la restitution analogique, permis par la configuration hors d’axe. En l’absence d’angle entre référence et objet, ces trois ordres sont superposés au centre, ce qui gêne leur exploitation. Numériquement, il est ensuite aisé d’isoler l’un des ordres (ici +1) : il suffit de mettre tous les autres pixels à zéro (noir à l’image). Ainsi, toute influence des ordres −1 et 0 sur l’image finale est supprimée. Comme évoqué plus haut, la multiplication par le nombre complexe eikz permet ensuite, après transformée de Fourier inverse, d’obtenir une image 2D qui correspond à l’amplitude et à

Holographie

77

Fig. 4.8 – À gauche, reconstruction de l’image de deux nanoparticules d’or de 50 nm (en blanc) obtenue plan par plan selon la méthode décrite plus haut. Ces nanoparticules étant beaucoup plus petites que la résolution du microscope, leur image 3D correspond à un motif caractéristique « en sablier ». Le centre de chacun de chacun de ces motifs peut être déterminé avec précision. A cet emplacement, des sphères ont été représentées (NB : par souci de lisibilité, l’échelle n’a pas été respectée). A droite, suivi 3D de la trajectoire d’une nanoparticule d’or en mouvement aléatoire dans de l’eau. Les différents instants sont représentés par des couleurs, du bleu (t0) au rouge (t0+8 s).

la phase de l’onde optique dans le plan situé à une distance z de la caméra. A partir du même hologramme, cette procédure peut être répétée autant de fois que nécessaire, en changeant la valeur de z, de manière à empiler ces plans et reconstruire une image en 3D. Il faut cependant souligner que la transformation de Fourier d’une image est une opération informatique relativement lourde. La reconstruction 3D peut typiquement demander 1 s de calcul, ce qui n’est pas compatible avec un affichage vidéo. Pour cette raison, ces calculs sont parfois effectués de manière fortement parallélisée, sur des cartes graphiques qui permettent de diminuer d’un facteur 100 environ le temps de calcul : ces cartes comportent un grand nombre de cœurs particulièrement adaptés au calcul sur des images, qu’il s’agisse de jeux vidéo ou d’hologrammes. En temps réel, l’utilisateur peut ainsi visualiser et manipuler l’image 3D en temps réel. . . sur un écran d’ordinateur en 2D.

4.4 4.4.1

Applications en microscopie Refocalisation numérique et suivi d’objets.

Les images 3D ainsi obtenues ont évidemment une résolution limitée par la diffraction, et il n’est pas possible de distinguer deux objets trop proches l’un de l’autre. Cependant, si l’on dispose de suffisamment de lumière, rien n’empêche de détecter la présence d’objets de très petite taille, même inférieure à cette limite de diffraction, jusqu’à quelques dizaines de nanomètres (quelques millions d’atomes seulement !). Dans ce cas, l’image obtenue aura une forme similaire à celle représentée à la Figure 4.8, indépendamment de la taille de

78

Imager l’invisible avec la lumière

l’objet : ce motif correspondant à la focalisation et à la défocalisation de la lumière de part et d’autre de la particule a typiquement une forme de sablier. A part via sa luminosité, ce motif ne trahit que très peu la forme ou la taille de la particule, dont on ne distingue rien. Cependant, rien n’empêche de déterminer exactement le barycentre de ce motif. On peut alors affirmer que la particule se trouve précisément à cet endroit, au centre du « sablier ». Ainsi, l’holographie permet de déterminer la position d’une ou de plusieurs nanoparticules en 3 dimensions avec une précision nanométrique, pourvu que les nanoparticules ne soient pas trop proches les unes des autres (sans quoi leurs images, toutes de la même forme, se confondent). De cette manière, il est par exemple possible de suivre avec une très grande précision la trajectoire de particules suffisamment petites (50 nm à la Figure 4.8) pour être déplacées par les impacts aléatoires que leur infligent des molécules d’eau, en mouvement permanent dans le liquide du fait de l’agitation thermique, un mouvement dit Brownien.

4.4.2

Imagerie holographique doppler

L’effet Doppler est bien connu en imagerie ultrasonore, où il permet d’obtenir de précieuses informations sur le sens et la vitesse d’écoulement du sang, par exemple dans le cordon ombilical d’un fœtus. Nous le savon tous, la hauteur du son de la sirène d’une ambulance dépend en effet de sa vitesse de déplacement par rapport à l’auditeur : la sirène paraît plus aigüe lorsque l’ambulance se rapproche, et plus grave lorsqu’elle s’éloigne (Figure 4.9). Cet effet s’applique aux ondes sonores aussi bien qu’aux ondes optiques : il est par exemple responsable du décalage vers le rouge (redshift) de la lumière émise par des galaxies lointaines s’éloignant de la terre. L’effet Doppler affecte donc également la lumière diffusée par des globules rouges se déplaçant dans une artère ou une veine, qui paraîtra d’autant plus décalée vers le bleu que le flux de sang est rapide et dirigé vers l’observateur et, réciproquement, vers le rouge si le flux s’éloigne. En pratique, en raison de la distribution de vitesses des globules rouges, on peut attendre un élargissement fréquentiel de la lumière, de part et d’autre de la fréquence de l’onde optique initiale, qui devient donc légèrement polychromatique. Lorsqu’un vaisseau sanguin est éclairé, une information précieuse sue la vitesse du flux sanguin est donc disponible. Toute la difficulté à la mesurer provient de l’importante disparité entre les décalages Doppler attendus (typiquement de quelques Hz à 104 Hz) et la fréquence de l’onde optique (de l’ordre de 1015 Hz) : la modification de la longueur d’onde optique par effet Doppler est infime. Lorsqu’un hologramme est acquis en présence de sang en mouvement, la contribution Doppler va donc produire une modification rapide des hologrammes, qui peut être analysée à l’aide d’une transformée de Fourier (cette fois temporelle et non spatiale) de manière à obtenir le spectre de ces modifications, appelé Densité Spectrale de Puissance (DSP). Après reconstruction

Holographie

79

Fig. 4.9 – Effet Doppler : Onde émise par une source se déplaçant vers la droite. Dans la direction du mouvement, à droite, la longueur d’onde est raccourcie, tandis qu’elle est allongée à gauche, dans la direction opposée au mouvement. Adapté de Wikipedia.

Fig. 4.10 – Système holographique ultrarapide pour la mesure holographique Doppler. Crédit : Adapté de Puyo et al. (2018). https://arxiv.org/abs/1804.10066

des hologrammes, le spectre fréquentiel Doppler peut donc être mesuré en tout point de l’image. Un montage permettant ce type de mesure est présenté à la Figure 4.10. Ici, la source laser est injectée dans une fibre optique, mais on reconnait pour le reste l’ensemble des caractéristiques d’un montage holographique classique : l’onde référence (en vert) et l’onde objet (en rouge avant de pénétrer dans l’œil du patient, et en bleu après réflexion sur la rétine), et la caméra sur laquelle interfèrent ces deux ondes. Pour pouvoir accéder au signal Doppler, il est cependant indispensable de disposer d’une caméra extrêmement rapide : celle utilisée par M.Atlan et ses collaborateurs travaille à 39000

80

Imager l’invisible avec la lumière

images/s, bien au-delà des 24 images/s d’une caméra de cinéma. Comme on peut le voir à la Figure 4.11, les résultats obtenus sont cependant spectaculaires. Ici, la technique est appliquée à l’un des organes les plus aisément accessibles optiquement : l’œil. Chez ce patient, il est ainsi possible de mesurer les flux sanguins et le cycle cardiaque dans une artère et une veine de seulement 100 µm de diamètre (soit à peine plus que l’épaisseur d’un cheveu). Cependant, des caméras aussi rapides demeurent très coûteuses. Pour contourner ce problème, des techniques initialement développées en interférométrie classique sont aujourd’hui adaptées à l’holographie. Ainsi, les techniques hétérodynes, permettant de mesurer de faibles décalages de fréquence, sont particulièrement utiles pour mesurer ce type d’effet rapides (jusqu’à plusieurs dizaines de MHz) lorsqu’on ne dispose que d’une caméra lente (quelques Hz). Le principe est proche de celui des flashes stroboscopiques qui semblent décomposer les mouvements des danseurs dans les boites de nuit : il consiste à éclairer l’échantillon à l’aide d’une onde de référence modulée, de manière à réduire la fréquence apparente du phénomène jusqu’à le rendre mesurable avec une caméra lente. Des performances similaires à celles présentées plus haut sont accessibles avec de tels montages.

4.4.3

Imagerie de phase quantitative

Holographie numérique et contraste de phase quantitatif. La plupart des spécimens biologiques, à l’échelle de la cellule, sont pour l’essentiel transparents et très difficiles à observer en microscopie sans faire usage de techniques de coloration. Celles-ci sont courantes en anatomopathologie, mais sont très invasives, et ne peuvent donc être utilisées que sur des cellules mortes. Malgré cette transparence, la plupart des cellules et organelles qui les composent ont pourtant un indice optique différent de celui de leur milieu environnant : traversées par de la lumière, la phase se trouve modifiée d’une quantité proportionnelle à la différence de marche δ = n.e, donc à l’indice n et à l’épaisseur traversée e. En particulier, on peut considérer, dans les milieux aqueux, que l’indice et la phase dépendent essentiellement de la quantité de matière sèche (tout sauf l’eau, donc) : l’imagerie quantitative de phase permet donc de mesurer cette grandeur essentielle pour suivre le métabolisme de la cellule. Depuis près d’un siècle, et notamment avec les travaux de Fritz Zernike (Nobel 1953), des techniques de contraste sont développées pour tirer parti de cet effet et imager des cellules vivantes. L’holographie, qui est capable d’enregistrer la phase, est particulièrement adaptée à cela. Aujourd’hui, il est possible d’obtenir des sensibilités nanométriques dans la mesure de δ, mais aussi de dissocier épaisseur et indice. En effectuant la prise de vue holographique à plusieurs longueurs d’ondes, il est également possible d’identifier sans ambiguïté des franges qui, étant périodiques, (comme on le voit sur les figures d’interférences au début de ce chapitre) se ressemblent toutes : cela revient à déterminer une phase continue plutôt que périodique, de période 2π (on parle de dépliement de la phase). Des microscopes holographiques commerciaux adaptés à la biologie émergent

Holographie

81

Fig. 4.11 – a) Image ophtalmoscopique d’une rétine humaine. b) Détail ophtalmoscopique de la région d’intérêt avec correction adaptative. c) image holographique Doppler. d) asymétrie de la densité spectrale de puissance, indiquant le sens de déplacement du sang, vers l’avant (blanc) ou l’arrière (noir). e) Mise en évidence des cycles cardiaques, mesurés dans les régions notées A (artère), V (veine) et B (arrière plan) de l’image. d) Crédit : Adapté de Puyo et al. (2018). https://arxiv.org/abs/1804.10066

82

Imager l’invisible avec la lumière

Fig. 4.12 – (a–f) Principales étapes de la reconstruction holographique de la phase, illustrées dans le cas de cellules végétales : a) hologramme, b) transformée de Fourier de l’hologramme, c) image d’amplitude et d) image de phase. Avant dépliement, cette phase passe du noir (0) au blanc (2 π) de manière cyclique. Après dépliement, e), cette même information est rendue continue, ce qui permet de l’afficher en 3D et nuances de couleurs (f), en utilisant la valeur de phase comme s’il s’agissait d’une altitude en topographie. Images de phase de cellules cancéreuses d’ovaire SKOV-3 (g), globules rouges (h) et cellule épithéliale (i). Crédit : Adapté de Myung K. Kim, JOSK 2010

actuellement sur le marché. L’ensemble du processus est illustré ci-dessous dans le cas simple de cellules végétales. L’hologramme (a) est traité par transformée de Fourier (b), et l’ordre d’interférence pertinent est isolé. Après propagation numérique de la phase, l’amplitude (c) et la phase (d) de l’onde optique sont reconstruites. Les franges visibles dans l’image de phase, dites de repliement de phase, sont dues à sa 2π-périodicité, dès lors que la différence de marche δ est supérieure à la longueur d’onde utilisée (ici, 785 nm). Elle peut cependant être dépliée, généralement en utilisant la continuité de cette phase, quand elle ne varie pas trop brusquement : les différentes zones de l’image sont recalées en phase et en niveau de gris pour restituer une image de phase continue (e). De nombreux algorithmes permettent ce calcul, dont celui, utilisé ici, de Goldstein. Dans les milieux d’indice n constant (ce qui n’est pas, on l’a vu, le cas des milieux biologiques), cette image de δ = n.e est proportionnelle à l’épaisseur e, et il est courant d’en faire une représentation en pseudo-3D (f). Il est ainsi possible de mesurer des variations de ∆δ de l’ordre de quelques nanomètres, soit des variations d’indice ∆n de l’ordre de 10–4 seulement dans une cellule de 10 µm d’épaisseur. Une cellule vivante, essentiellement constituée d’eau, est un objet très transparent, et donc faiblement contrasté lorsqu’on l’observe en microscopie. S’il est possible (et courant) de la teinter chimiquement pour en faciliter l’observation, les techniques non invasives sont évidemment préférables. La phase des ondes est fortement affectée par la traversée de cellules vivantes, et peut constituer un excellent moyen d’améliorer les contrastes. Depuis les travaux

Holographie

83

de Zernike (Nobel 1953) et d’autres opticiens, des techniques permettant de mettre en évidence la phase sont quotidiennement utilisées en biologie. Elles sont très longtemps restées qualitatives, mais depuis qu’il est possible, comme en holographie, de traiter numériquement ces informations, l’imagerie quantitative de la phase est en plein essor, et permet d’accéder à une information beaucoup plus riche.

Mesure de phase en illumination incohérente Toutes les applications présentées jusqu’ici font appel, on l’aura remarqué, à des sources laser, la cohérence de la source étant une condition nécessaire à la formation d’interférence. Nous avons cependant vu au chapitre 2 une manière intéressante de mesurer le profil de phase d’une onde optique : l’analyse de surface d’onde. La technique est généralement mise en œuvre en plaçant simplement un masque optique dit de « Hartmann » en amont de la caméra (voir Figure 4.13). Comme discuté dans le cas de l’analyseur de Shack-Hartmann, la pente locale du profil de phase est échantillonnée en mesurant le déplacement d’une grille de pointsformée par une matrice de microlentilles sur la caméra. Le principal avantage de cette technique par rapport à l’holographie numérique est qu’elle ne nécessite pas de bras de référence, la mesure étant “autoréférencée”. Cette propriété rend la mesure insensible aux vibrations et simplifie considérablement le montage optique. Chacune des microlentilles permet d’obtenir une mesure de la phase en un point, mais on comprend que le nombre limité de microlentilles va limiter la résolution de l’analyseur de Shack-Hartmann : celui-ci délivre des images comprenant autant de pixels qu’il comporte de microlentilles. Ces dernières années, différents masques de Hartmann ont été proposées pour augmenter le nombre de pixels de phase. L’interférométrie à décalage latéral permet d’obtenir des images de phase de haute résolution en utilisant un masque ayant schématiquement la forme d’un damier, comme illustré à la Figure 4.13. Une autre stratégie consiste à utiliser un masque tout à fait aléatoire. Un simple diffuseur, par exemple un morceau de papier calque ou de verre dépoli, va produire sur la caméra un motif aléatoire. Une distorsion de ce motif traduit alors une déformation du front d’onde. Quel que soit le masque utilisé, c’est ensuite la détermination du déplacement des motifs observés qui va permettre de calculer la déformation du front d’onde et d’en délivrer une image. Ce type d’analyse de front d’onde a le grand avantage de pouvoir être réalisé à n’importe quelle longueur d’onde. Il est donc compatible avec des sources à large spectre (blanches) temporellement incohérentes, contrairement à l’holographie numérique. On peut donc utiliser de simples lampes halogènes, présentes sur tout microscope : la mesure de phase quantitative est rendue possible en remplaçant simplement la caméra du microscope par un analyseur de front d’onde. L’information riche qu’apporte l’holographie sur l’amplitude et la phase d’une onde devient ainsi accessible quelle que soit la nature de la source de

84

Imager l’invisible avec la lumière

Fig. 4.13 – Analyse de front d’onde pour la microscopie de phase quantitative. a – Description du montage – b – Masque de Hartmann et images mesurées par la caméra. Un déplacement des motifs sur la caméra permet de détecter et de déduire quantitativement les déformations du front d’onde. c – Image d’intensité et de phase quantitative d’une cellule COS-7 mesuré par interférométrie à décalage latéral, c.à.d. d. en utilisant un réseau de diffraction 2D. Crédit : Adapté de Bon et al, Optics Express 2009

Fig. 4.14 – Diffraction par un réseau à 2 dimensions (à gauche). Les différentes longueurs d’onde sont diffractées suivant différentes directions de part et d’autre du motif. A droite, principe de l’imagerie de phase par interférométrie à décalage latéral. Le réseau (diffraction grating) est disposé dans un microscope (objectif à gauche) et devant une caméra. Les ondes diffractées par le réseau interfèrent entre elles sur la caméra, produisant un motif (en haut à droite) dont il est possible de déduire par le calcul une image de phase. Crédit : Adapté de P. Bon et al., Nature Methods (2018)

lumière. Récemment, ce principe a été utilisé pour obtenir la position 3D de molécules fluorescentes uniques à l’aide d’algorithme de reconstruction 3D.

Holographie

85

Fig. 4.15 – a) Image de fluorescence de filaments d’actine teintés par un fluorophore. b) Image de phase quantitative obtenue sous illumination blanche par interférométrie à décalage latéral. c) image super-résolue reconstruite en localisant individuellement et en 3D (la couleur code la profondeur, z) un très grand nombre de molécules fluorescentes. Chaque molécule localisée en 3D avec une précision meilleure que la limite de diffraction constitue un pixel 3D (ou voxel) de cette image, dont la résolution dépasse donc la limite de diffraction. Crédit : Adapté de P. Bon et al., Nature Methods (2018)

Ainsi, il a été possible d’imager individuellement un très grand nombre de molécules fluorescentes. Chacune de ces images est évidemment ténue, et floue car limitée par la résolution du microscope. Cependant, la position de chacune des molécules fluorescentes, chacune située exactement au centre de la tache floue observée, a pu être déterminée avec une précision nanométrique (cette idée, appelée superlocalisation est au centre du prix Nobel de chimie 2014) et, grâce à l’information de phase, en 3 dimensions. En effet, la courbure du front d’onde est directement reliée à la position axiale de la molécule fluorescente. En assemblant des milliers de positions de molécules fluorescentes détectées, il est ainsi possible de reconstruire de manière pointilliste, fluorophore par fluorophore, une image 3D d’une résolution exceptionnelle, comme celle présentée à la Figure 4.15. À n’en pas douter, de telles techniques permettant l’utilisation de sources bien plus variées, bien au-delà des seules sources laser, vont faire profondément évoluer le domaine dynamique de l’holographie et de ses applications dans les années à venir.

86

Imager l’invisible avec la lumière

Fig. 4.16 – Restitution en pseudo-3D d’une image holographique de cellule cancéreuse. Crédit : Adapté de Choi, W., Fang-Yen, C., Badizadegan, K. et al. Tomographic phase microscopy. Nat Methods 4, 717–719 (2007)

Fig. 4.17 – Dispositif holographique anti-fraude sur un billet de 20 e Tomographie Si l’holographie permet de restituer la 3D, et différents points de vue, c’est notamment parce qu’elle enregistre sur le même support des vues de l’objet depuis différents angles. Dans une région donnée de l’hologramme (par exemple en haut, à droite de l’hologramme) est encodée l’image telle qu’elle serait vue par un observateur qui se placerait à cet endroit (en haut à droite, donc). Sur un capteur de dimensions finies, l’objet n’est visible que selon une gamme limitée de points de vue. Un hypothétique capteur de dimensions infinies ne pourrait au mieux permettre que de tourner de 180◦ autour de l’objet, mais en aucun cas de le voir par l’arrière. Plusieurs stratégies permettent de multiplier les points de vue. La plus évidente consiste à faire tourner l’objet afin d’en observer la totalité, ce qui est possible lorsqu’il est de petite taille, notamment en microscopie. Il est également possible de faire varier l’angle d’illumination de l’objet.

Holographie

4.5 4.5.1

87

La projection holographique en microscopie et en biologie Hologrammes de synthèse

Comme souligné plus haut, la restitution holographique 3D d’images acquises par holographie numérique est technologiquement délicate et ne présente au final qu’un intérêt scientifique limité. Cependant, la restitution d’hologrammes non pas mesurés mais calculés sur ordinateur est régulièrement utilisée. Il est en effet possible de déterminer un motif 2D ou 3D, puis de calculer l’hologramme qui, affiché sur le dispositif, permettra de projeter le motif optique dans une région choisie de l’espace. Le calcul de l’hologramme est, à nouveau, essentiellement basé sur la transformée de Fourier. Un exemple d’algorithme de calcul d’hologrammes permettant une projection d’intensité 2D est présenté plus loin (cf. Figure 4.19). La projection de motifs d’intensité 2D, en plein essor dans de nombreux domaines de la microscopie, est décrite plus en détails plus loin dans ce chapitre. Les hologrammes synthétiques sont également utilisés dans les dispositifs anti-fraude présents sur les billets de banque et cartes de crédit. Après calcul, l’hologramme est micro-gravé sur un support réfléchissant en utilisant des technologies proches de celles des CD ou DVD : le motif est inscrit à l’aide d’un laser focalisé par embossage thermique de la surface (comme pour un disque inscriptible), ou reproduit par moulage d’un polymère (comme pour un disque pressé en usine). La difficulté à calculer puis à graver ces hologrammes assure ici une protection contre la fraude. . . très relative puisque, on le voit ici, la technique n’est pas hors de portée d’un amateur éclairé.

4.5.2

Projection dynamique de motifs optiques

Si ces hologrammes gravés, donc fixes, sont aujourd’hui omniprésents dans des applications grand public, la projection holographique de lumière trouve aujourd’hui beaucoup plus d’applications scientifiques lorsqu’il est nécessaire de pouvoir reconfigurer dynamiquement la projection. Associées à des dispositifs capables d’afficher un hologramme, mais aussi de le modifier au cours du temps, les techniques de projection de lumière basées sur l’holographie permettent d’illuminer des zones choisies avec une grande efficacité, c’est-à-dire avec des pertes d’énergie optique minimales. Pour autant, la projection animée d’hologrammes (de véritables films en 3D) reste hors de portée en pratique, compte tenu de la résolution limitée des afficheurs, mais aussi de leur caractère bi- (et non tri-) dimensionnel. Lourd à mettre en œuvre et de qualité visuelle médiocre, le film holographique en 3D ne présente que peu d’intérêt. En revanche, la projection 2D reconfigurable et efficace de lumière sur des régions choisies est utilisée, particulièrement en microscopie.

88

4.5.3

Imager l’invisible avec la lumière

Applications optogénétiques

La création de la microscopie optique est probablement l’un des développements techniques les plus étroitement liés à la naissance de la biologie en tant que science. Ces développements conjoints se poursuivent, et si l’optique sert toujours à observer, avec des résolutions spatiales aujourd’hui nanométriques, elle permet également d’agir sur le vivant. En particulier, l’optogénétique contribue depuis peu à révolutionner l’étude du vivant en permettant de contrôler et d’observer le comportement des neurones. L’holographie joue ici un rôle central, en permettant de projeter de la lumière sur une ou plusieurs cellules afin de déclencher l’influx nerveux sous la forme de potentiels d’action. Il existe en effet de nombreux organismes ou cellules capables de réagir à une stimulation lumineuse. En premier lieu, c’est évidemment le cas des cellules photosensibles de la rétine qui, à réception d’un ou plusieurs photons, vont déclencher un potentiel d’action, signal électrique qui sera reçu et interprété par le système nerveux central. Mais la liste est bien plus longue, tant dans le règne animal que végétal. La plupart des cellules photosensibles contiennent des protéines de membrane appelées opsines : à la réception de photons, elles sont capables de changer de conformation pour ouvrir ou fermer des canaux permettant à des ions de traverser la membrane de la cellule. Ainsi, une cellule imperméable aux ions calcium Ca2+ peut y devenir perméable lorsqu’elle reçoit des photons, ou vice-versa. S’il s’agit d’un neurone, cette modification de l’équilibre des charges, va permettre la création d’un potentiel d’action, d’un influx nerveux. Les gènes codant ces opsines photosensibles sont connus depuis quelques dizaines d’années, notamment chez certaines algues photosensibles. Aujourd’hui, biologistes et biochimistes sont capables d’insérer, notamment en utilisant des virus comme vecteur, ces fragments d’ADN dans le génome d’autres êtres vivants. Ainsi, il est possible de rendre photosensibles des neurones situés n’importe où dans le système nerveux d’un animal. On perçoit immédiatement les possibilités (ou peut être les dangers) que présentent ces techniques pour étudier le fonctionnement du cerveau. Le défi est à présent celui des opticiens : comment stimuler un ou plusieurs neurones situés en profondeur dans le cerveau, afin de comprendre leur fonction et leur interaction ? Le premier défi consiste à parvenir à faire pénétrer la lumière suffisamment profondément au sein des tissus. L’infrarouge proche présente des avantages clairs en termes de profondeur de pénétration : les photons infrarouges sont à la fois moins absorbés et moins diffusés par les tissus que les photons visibles, et peuvent donc être focalisés plus efficacement à l’intérieur des tissus. Cependant, rares sont les opsines capables de travailler avec des photons de faible énergie. La solution est alors d’utiliser non pas un, mais deux photons de longueur d’onde 800 nm qui, arrivant sur l’opsine simultanément ou presque, produiront le même effet qu’un seul photon deux fois plus énergétique, à 400 nm. La probabilité que deux photons atteignent l’opsine à des instants suffisamment rapprochés est cependant faible. La meilleure solution pour l’augmenter est d’en envoyer un très grand nombre. Un faisceau intense présente un danger évident pour des cellules vivantes : celui de les brûler. Mais la diffusion

Holographie

89

de la chaleur étant plutôt lente, il est possible d’utiliser des impulsions lumineuses ultra-brèves (quelques 10–15 s) et ultra-intenses (de l’ordre du GW de puissance instantanée). Ainsi, des faisceaux de puissance moyenne tout à fait modeste (quelques 100 mW) vont minimiser les effets thermiques, mais apporter un nombre de photons gigantesque au cours de l’impulsion : la stimulation des opsines à deux photons devient tout à fait accessible. Elle ne se produira cependant qu’en un point précis : celui où le faisceau laser est focalisé, où l’intensité lumineuse est la plus forte. Un avantage important de la stimulation à deux photons apparait ici : elle va permettre de localiser l’excitation latéralement, mais aussi en profondeur, donc permettre de choisir en 3D la position du neurone dont les opsines vont être stimulées, un aspect essentiel si l’on songe que les neurones sont évidemment distribués en 3D dans un cerveau. En revanche, un faisceau focalisé ne permet guère de stimuler qu’un seul neurone à la fois. Or, dans leurs conditions physiologiques de fonctionnement, ce sont évidemment un grand nombre de neurones qui sont simultanément actifs. Comment, dès lors, stimuler plusieurs neurones simultanément ?

Projection de motifs optiques Plusieurs types de techniques sont envisageables, et la plus évidente consiste à jouer directement sur l’intensité optique, par exemple en utilisant une matrice de LED adressées individuellement qui, ré-imagées sur l’échantillon, vont permettre d’illuminer une ou plusieurs zones choisies (Figure 4.18, a). Quoique capables de délivrer des impulsions brèves 10–9 s, les LED ne permettent pas d’obtenir des impulsions intenses, et sont donc inadaptées à la stimulation à 2 photons. Une autre solution, couramment utilisée dans les vidéoprojecteurs de salon, consiste à utiliser des matrices de micro-miroirs (DMD), une technologie développée par Texas Instruments permettant de dévier localement la lumière et donc de projeter une image (Figure 4.18, b). Malheureusement, la lumière déviée étant perdue et le taux de couverture des micro-miroirs étant très limité (les électroniques et câblages occupent une place importante), ces dispositifs induisent de fortes pertes. C’est ici qu’intervient l’holographie, qui va permettre de projeter un motif lumineux de forme arbitraire tout en restant compatible avec l’utilisation de lasers et en minimisant les pertes optiques. Pour obtenir le motif lumineux souhaité, dans le plan focal avant de l’objectif ou dans son voisinage proche, il faut noter que les plans focaux avant et arrière d’une lentille ou d’un objectif de microscope sont mathématiquement liés par une Transformée de Fourier (TF). On peut donc aisément calculer le motif d’amplitude et de phase qui, appliqué dans le plan focal arrière, donnera lieu au motif souhaité après l’objectif, dans l’échantillon. Les Modulateurs Spatiaux de Lumière (SLM, cf. chapitre 3) à cristaux liquides permettent de modifier à volonté la phase d’une onde optique. Ils ne permettent pas d’en modifier directement l’amplitude, mais cela s’avère finalement préférable : toute perte d’énergie sera ainsi évitée.

90

Imager l’invisible avec la lumière

Fig. 4.18 – Dispositifs pour la structuration spatiale de l’excitation : matrice de LED (a), Micromiroirs DMD (b) et Modulateur Spatial de Lumière (SLM, c). C’est ce dernier dispositif qui est utilisé en holographie(d) : un hologramme est affiché dans le plan focal arrière de l’objectif (BFP). Il est calculé de manière à éclairer une cible choisie (Target), et donne lieu à une illumination proche de celle-ci, dans le plan focal avant de l’objectif, où se trouve l’échantillon (FFP). Crédit : Adapté de Ronzitti et al., J. Opt 2017.

Différentes stratégies peuvent être mises en œuvre afin de déterminer la répartition de phase à appliquer dans le plan focal arrière de l’objectif. Si l’on désire illuminer un ou plusieurs points de l’échantillon, le motif à utiliser peut être compris de manière intuitive : un décalage latéral du faisceau sera obtenu en utilisant l’équivalent d’un prisme, qui dévie latéralement la lumière, tandis qu’une focalisation du faisceau dans un plan choisi nécessitera l’équivalent d’une lentille. Puisqu’ils ne modifient pas l’intensité de la lumière, ces deux éléments optiques n’affectent effectivement que la phase : un prisme correspond à une phase variant linéairement, tandis qu’une lentille correspond à une phase variant paraboliquement. Pour des décalages importants, il peut être nécessaire d’appliquer de forts déphasages, nettement supérieurs à la gamme accessible à un SLM (de l’ordre de 2π). Heureusement, un déphasage équivalent mais replié -à 2π près- (un peu à la manière des lentilles de Fresnel équipant les phares) permet d’obtenir un effet quasiment identique. Ainsi, la superposition de motifs de phase annulaires et en dents de scie permet de focaliser la lumière en un point arbitraire. Pour illuminer plusieurs points, il suffit ensuite d’additionner des motifs de phase similaires. Cette approche ne permet cependant pas de générer des motifs continus, par exemple pour illuminer la totalité d’un neurone à cibler. Pour résoudre ce problème, ce sont généralement des algorithmes itératifs qui sont appliqués pour calculer la phase à afficher sur le SLM. L’un des plus courants est l’algorithme de Gerchberg-Saxton, qui consiste à démarrer avec un motif de phase aléatoire et la répartition d’amplitude du faisceau envoyé sur le plan focal arrière de l’objectif (Figure 4.19, étape 1). La transformée de Fourier de cette onde, c’est-à-dire le motif qui en résulterait dans le plan image de l’objectif, est calculée (2). Seule la phase est conservée, tandis que l’intensité est

Holographie

91

Fig. 4.19 – Algorithme de Gerschberg-Saxton. Une phase initiale aléatoire (1) est examinée après transformée de Fourier (2) : si le résultat ne correspond pas suffisamment à la cible (un carré en intensité), seule la phase est conservée, l’intensité étant remplacée par celle de la cible (3). Après transformée de Fourier inverse, le motif (l’hologramme) est réinjecté dans l’algorithme (4), qui se répète jusqu’à ce que l’intensité (2) corresponde au carré souhaité. L’hologramme correspondant (5) est alors retenu.

remplacée par celle qui est souhaitée, la forme de la zone à illuminer (3). Ici, nous supposons que l’utilisateur souhaite illuminer une zone carrée située au centre du champ de vue du microscope : l’intensité cible vaut 1 dans le carré, et 0 partout ailleurs. Une transformée de Fourier inverse permet alors d’obtenir la phase correspondante dans le plan focal arrière, qui, à nouveau, est la seule conservée pour être réinjectée à la place du motif aléatoire initial (4), puis la procédure est répétée (2-3-4). Après quelques itérations (typiquement